Ученые выяснили, почему ии может быть расистом и сексистом

      Комментарии к записи Ученые выяснили, почему ии может быть расистом и сексистом отключены

Ученые выяснили, почему ии может быть расистом и сексистом

Неудачный опыт компании Микрософт с ее ИИ-методом Tay (Тэй), что в течение 24 часов по окончании начала сотрудничества с людьми из «Твиттера» превратился в закоренелого расиста, продемонстрировал, что создаваемые сейчас ИИ-совокупности смогут стать жертвами людских предрассудков и в частности стереотипного мышления. Из-за чего это происходит – попыталась узнать маленькая несколько исследователей из Принстонского университета. И что весьма интересно, им это удалось.

Помимо этого, они создали метод, талантливый предвещать проявление социальных стереотипов на базе интенсивного анализа того, как люди общаются между собой в сети.

Многие ИИ-совокупности проходят собственный обучение в понимании человеческого языка посредством массивных коллекций текстовых данных. Их еще именуют корпусами. Они являются эдаким веб-архивом всего Интернета, содержащим 840 миллиардов разных токенов либо слов.

Исследователя Айлин Калискан и ее коллеги из Принстонского центра IT заинтересовало – содержится ли в корпусе Common Crawl (одна из самых популярных площадок для обучения ИИ), по сути создающегося миллионами пользователей Интернета, стереотипные понятия, каковые возможно было бы найти посредством компьютерного метода. Для этого они прибегли к очень нестандартному способу – тесту на скрытые ассоциации (Implicit Association Test, IAT), используемому для изучения социальных стереотипов и установок у людей.

В большинстве случаев таковой тест выглядит следующим образом: людей просят поделить определенный комплект слов на две категории. Чем продолжительнее человек думает, в какую категорию поместить то либо иное слово, тем меньше человек ассоциирует это слово с той либо другой категорией. В общем, тесты IAT употребляются для измерения уровня стереотипного мышления у людей, методом ассоциативного структурирования случайного комплекта слов по таким категориям, как пол, раса, физические возможности, возраст и без того потом.

Итог аналогичных тестов, в большинстве случаев, в полной мере предсказуем. К примеру, большая часть опрощеных ассоциируют слово дама с таким понятием, как «семья», тогда как мужчину – с понятием «работа». Но предсказуемость и очевидность результатов именно и являются доказательством полезности тестов IAT, каковые показывают на отечественное стереотипное мышление в собственной неспециализированной массе.

Среди настоящих ученых, само собой разумеется, идут кое-какие споры о точности IAT, но большая часть соглашается с тем, что эти тесты прямо отражают отечественные социальные установки.

Применяя IAT-тесты в качестве модели, Калискан и ее сотрудники создали метод WEAT (Word-Embedding Association Test), разбирающий целые фрагменты текстов, дабы узнать, какие конкретно лингвистические сущности теснее связаны между собой, чем другие. Часть этого теста основана на созданном Стэнфордским университетом концепте GloVe (Global Vectors for Word Representation), что вычисляет векторные семантические отношения между словами, другими словами объединяет связанные между собой термины.

К примеру, слово «собака», представленное в векторной семантической модели, будет связано с этими словами, как «щенок», «собачка», «песик», «барбос», «гончая» и любыми вторыми терминами, обрисовывающими собаку. Сущность таких семантических моделей содержится не в описании самого слова «собака», а в том, как обрисовать сам концепт собаки. Другими словами осознать, что она из себя воображает.

Это особенно принципиально важно, в то время, когда вы трудитесь с социальными стереотипами, в то время, когда кто-то, к примеру, пробует обрисовать термин «дама» такими понятиями, как «женщина» либо «мать». Подобные модели активно применяются в компьютерной лингвистике. Для упрощения работы исследователи ограничили любой семантический концепт тремястами векторами.

Чтобы выяснить, как сильную любой концепт из Интернета имеет ассоциативную сообщение с другим концептом в текста, метод WEAT наблюдает сходу на множество факторов. На самом базисном уровне, растолковывает Калискан, метод контролирует, сколько слов разделяют два раздельно забранных концепта (другими словами контролирует близость их размещения в тестового поля), но кроме этого в учет идут и другие факторы наподобие частоты применения того либо иного слова.

По окончании проведения алгоритмического преобразования «близость» концептов в WEAT принимается за эквивалент времени, которое требуется человеку для категоризации концепта в тесте IAT. Чем дальше друг от друга стоят концепты, тем более удаленная ассоциативная связь между ними выстраивается мозгом человека. Метод WEAT сработал в этом замысле идеально, найдя стереотипные связи, каковые до этого были кроме этого найдены в рамках тестов IAT.

«Мы практически приспособили тесты IAT для автомобилей. И отечественный анализ продемонстрировал, что если вы станете скармливать ИИ человеческие эти, которые содержат стереотипные представления, то как раз их он и запомнит», — комментирует Калискан.

Более того, данный комплект стереотипных данных повлияет на то, как ИИ будет вести себя в будущем. Как пример Калискан приводит то, как метод онлайн-переводчика Google Translate неправильно переводит слова на английский с вторых языков, основываясь на стереотипах, каковые он выучил на базе гендерной информации. А сейчас представьте, что Интернет заполонила целая армия ИИ-ботов, воспроизводящих все отечественные стереотипные понятия, каковые они от нас же и набрались.

Как раз такое будущее нас и ожидает, в случае если мы действительно не задумаемся о каком-то коррективном способе поправок стереотипного поведения у таких совокупностей.

Не обращая внимания на то, что Калискан и ее сотрудники поняли, что интернет-язык практически заполонен социальными предрассудками и стереотипными понятиями, он кроме этого был полон и верными ассоциативными последовательностями. В одном из тестов исследователи нашли сильную ассоциативную связь между концептами «материнство» и «женщина». Этот ассоциативный последовательность отражает истину действительности, в которой воспитание и материнство вправду рассматривается по большей части как женская задача.

«Язык есть отражением настоящего мира», — говорит Калискан.

«Углубление стереотипных статистических фактов и понятий о мире около сделает машинные модели менее правильными. Но снова же и исключить все стереотипные понятия нереально, исходя из этого нам нужно обучиться трудиться с тем, что имеется уже на данный момент. У нас имеется самосознание, мы можем принимать верные ответы вместо предвзятых вариантов. У автомобили нет самосознания.

Исходя из этого специалистам ИИ нужно наделить автомобили свойством принимать те либо иные решения, не исходя из стереотипных и предвзятых точек зрения».

И все же ответом к проблеме человеческого языка, согласно мнению ученых, есть сам человек.

«Не могу представить себе большое количество случаев, где не требовался бы человек, что имел возможность проверить, будет ли принято верное ответ. Человеку будут известны все крайние случаи при принятии того либо иного решения. Исходя из этого ответы принимаются лишь по окончании того, как делается ясно, что они не будут предвзяты».

В определенных кругах на данный момент весьма быстро обсуждается тема о том, что роботы в недалеком будущем смогут отобрать отечественные рабочие места. В то время, когда мы возьмём ИИ, талантливый трудиться за нас, нам нужно будет придумывать новые рабочие места для людей, каковые будут вести диагностику принятых ИИ ответов, дабы те не дай всевышний не совершали их с позиции предвзятости, которую они снова же почерпнули от нас самих же. Например, чат-ботов.

Кроме того если они станут совсем независимыми, их изначальным созданием будут заниматься люди, владеющие стереотипами и своими предрассудками. Исходя из этого, поскольку стереотипные понятия изначально встроены в концепцию самого языка, для выбора верного ответа все равно потребуются люди, какими бы продвинутыми ИИ совокупности ни были.

В опубликованной сравнительно не так давно статье в издании Science принстонские ученые показывают, что такое положение дел может иметь важные и далеко идущие последствия в будущем.

«Отечественные выводы определенно еще надут собственный отражение при дискуссии догадки Сепира — Уорфа. Отечественная работа говорит о том, что поведение может формироваться на базе исторически сложившихся культурных норм. И в каждом отдельном случае оно возможно различным, поскольку у каждой культуры имеется собственная история».

В недавно вышедшем научно-фантастическом фильме «Прибытие» именно затрагивается мысль догадки Сепира — Уорфа, в соответствии с которой структура языка воздействует на мировосприятие и воззрения его носителей. Сейчас же, благодаря работе Калискан и ее сотрудников, у нас появился метод, подтверждающий эту догадку. По крайней мере в отношении стереотипных и предвзятых социальных понятий.

Исследователи желают продолжить собственную работу, но в этом случае сосредоточиться на вторых сферах и поискать еще не изученные стереотипные показатели в языке. Быть может, объектом изучения станут паттерны, создаваемые фальшивыми новостями в массмедиа, или стереотипные понятия в определенных субкультурах либо культурах с географической привязкой. Помимо этого, рассматривается возможность изучения вторых языков, где стереотипные понятия смогут быть интегрированы в язык совсем не так, как они интегрированы в британском.

«Предположим, что в будущем в определенной культуре либо географическом месте начинает проявляться твёрдое стереотипное мышление. Вместо того дабы изучить и контролировать любой отдельный антропогенный фактор, на что потребуется довольно много времени, усилий и денег, возможно не составит большого труда провести анализ текстовых данных раздельно забранной группы людей и на базе этого узнать – вправду ли тут имеет место обращение о стереотипном восприятии либо нет. Это разрешит значительно сэкономить как средства, так и время», — подытоживают исследователи.

РАСИСТ ЛИ ТЫ? КАК УЗНАТЬ? (Тест)


Интересные записи на сайте:

Подобранные по важим запросам, статьи по теме: