Как искусственный интеллект влияет на естественный

Как искусственный интеллект влияет на естественный

Искусственный интеллект в работе – это новая нормальность, к которой постепенно привыкают преподаватели, врачи, программисты и полицейские, почти никакой вид интеллектуального труда не остался без своих нейросетей. В октябре было опубликовано исследование, рассказывающее о «следах», которые ИИ оставляет в нашей ментальности и восприятии мира. Спойлер: эти следы периодически бывают негативными. Мы перенимаем от нейросетей когнитивные искажения, которые остаются с нами даже после прекращения использования ИИ. 

После бума искусственного интеллекта в прошлом году он постепенно стал проникать во все сферы жизни обычных людей. Различные модели существуют и применяются уже не первый десяток лет, но лишь недавно к ним добавили уютные пользовательские интерфейсы, что сделало ИИ частью обыденной жизни, особенно для молодёжи. 

Теперь мы живём в мире, где есть тысячи вопросов, которые проще задать ChatGPT, чем идти за ними в Google. Последний требует от нас усилия, поиска информации, перечитывания многих сайтов, половина которых могут оказаться бесполезными. Нейросеть требует лишь одного – правильной формулировки вопроса. В награду за это микроусилие мы получаем достаточно развёрнутый ответ, чтобы удовлетворить свой интерес или, например, без проблем сдать рядовой экзамен в университете. 

Несовершенство данных

Однако нейросеть тоже может ошибаться во многих вещах. Причиной этому является главная особенность, за которую мы любим искусственный интеллект, – это способность обучаться. Модели обучаются на массиве данных, который был создан людьми. Сами нейросети – тоже продукт человеческого производства. Как и любой другой артефакт, они не идеальны и имеют свои проблемы. 

В течение последних лет уже появлялись исследования, в которых демонстрировалось, что ИИ может проявлять себя различно во взаимодействии с «непривычными» для него группами людей. Часть из этих несовершенств достаточно безобидна. Например, часть голосовых помощников хуже распознавала англоязычную речь, если акцент отличался от среднего американского (так называемого General American English). 

При этом есть более тяжёлые случаи, влекущие за собой реальные проблемы. Некоторые модели, используемые в медицине, особенно в диагностике, значительно хуже распознают заболевания на людях азиатского и африканского происхождения. Это случилось из-за того, что используемая нейросеть была натренирована почти исключительно на людях с европейскими корнями, и не учитывала расовые особенности других групп. Аналогичная ситуация была в США с ПО для распознавания лиц – алгоритмы обучались на данных, полученных из уголовных дел, где зачастую фигурировали афроамериканцы. Это могло привести к увеличенному количеству неоправданных арестов темнокожих. 

Казалось бы, решение проблемы лежит на поверхности – нужно учесть недоработки, разбавить данные для обучения алгоритмов недостающими элементами, переобучить модель заново и получить приемлемые результаты. 

Как показывает новое исследование, опубликованное в Scientific Reports, этого недостаточно. Сотрудникам университета Деусто удалось экспериментально продемонстрировать обратную связь между ИИ и пользователем. Оказалось, что центральной проблемой являются не искажения в моделях, вызванные несовершенством данных. Ею являются искажения в решениях людей. 

 

Эксперимент

Соавторка исследования, Елена Матюте, говорит следующее: 

«Мы знали о том, что искусственный интеллект перенимает когнитивные искажения от людей. Вопрос нашего эксперимента был в том, как искусственный интеллект может повлиять на решения, принимаемые людьми».

Исследователи собрали две сотни человек, чтобы выяснить, каким образом ИИ влияет на их видение ситуации. В качестве воображаемой задачи взяли вполне стандартную проблему медицинской классификации. Предметная область на сам эксперимент практически не влияет, но для восприятия результатов исследования широкой общественностью это важно – на медицинские проблемы внимание обратят охотнее. 

Испытуемым нужно было ответить утвердительно или отрицательно на простой вопрос – видят ли они на изображении признаки заболевания. Надо отметить, что сами участники эксперимента не являются профессионалами в медицине. Вместо настоящих снимков или анализов им предоставили точечные изображения, которые должны были представлять собой ткани человеческого организма. 

 

Что произошло?

Получившие подсказку от несуществующей нейросети продемонстрировали интересный эффект. Они учли выбор искусственного интеллекта и практически во всём с ним согласились. Когда им предоставили новые изображения, которые уже не были подписаны алгоритмом, они перенесли ошибки искусственного интеллекта и на эти примеры. Это касалось, в частности, ложно-позитивных оценок наличия заболевания – у ИИ было больше всего таких ошибок, их же в наибольшем количестве совершили и люди из группы, использующей алгоритмы. 

Участники эксперимента, входившие в контрольную группу и не получавшие изначально никаких подсказок, отмечали, что задание является очень лёгким. В отличии от тех, кто стал «жертвой» искусственного интеллекта, они практически не совершали ошибок и всегда показывали ожидаемый результат. Их ошибки можно скорее назвать погрешностью, чем систематической проблемой. 

В следующих частях эксперимента контрольная группа тоже получила «подсказку» от выдуманного искусственного интеллекта, но почти никто из её участников не начал делать ошибки. Напротив, 80% из них отмечали, что ошибки совершает именно нейросеть. 

Homo ex machina

Настоящая новизна и интересная часть результатов данного эксперимента состоят в том, что мы теперь можем видеть негативные последствия взаимодействия с плохой моделью. Один из главных аргументов в пользу внедрения искусственного интеллекта практически во все сферы человеческой деятельности состоит в том, что ИИ позволит исключить человеческую предвзятость – у него ведь нет предыдущего опыта и предпочтений? 

Мы давно знаем, что ИИ тоже может быть подвержен искажениям, но только в обсуждаемых экспериментах зашла речь о том, что эти ошибки не просто существуют в рамках модели, но и репродуцируются людьми, которые с ней работают. 

Это означает, что ИИ не только не исключает человеческую предвзятость, но и может являться её причиной, если модель не оказывается настолько удачной, чтобы ошибаться исключительно в рамках погрешности. При этом неизвестно, перенимает ли человек с такой же динамикой умение ИИ выдавать правильные результаты – возможно, эта информация станет доступна только в будущих исследованиях.

Реальность и лаборатория

Как это часто бывает с хорошими экспериментами, особенно в психологии, у исследования очень быстро нашлись свои критики. Медицину не зря избрали предметной областью – она действительно привлекает внимание. 

Джозеф Кведар, дерматолог из Гарвардской Медицинской школы, заявил, что несовершенство эксперимента отчасти состоит в том, что в нём не участвовали профессиональные врачи и не было использовано настоящего диагностического софта, основанного на алгоритмах искусственного интеллекта. По его мнению, изменение состава участников может дать другие результаты эксперимента. 

Впрочем, концептуально такие изменения в дизайне эксперимента не добавили бы ничего нового в результаты – с точки зрения экспериментальной психологии проведённое исследование превосходно. Важно то, что оно в значительной степени выходит за область изначального вопроса, и говорит не только о том, как слепо мы следуем за искусственным интеллектом, но и о том, насколько велика в целом роль авторитетов в принятии решений. 

А ещё в очередной раз напоминает о том, как сильно мы любим повторять ничем не вынужденные ошибки. 

Как миру с этим жить? 

Мы давно привыкли считать благом некоторые вещи, которые вполне могут нести в себе опасность. Например, к таковым можно отнести книги, особенно то, что сейчас принято называть нон-фикшеном. Сфера литературы сейчас регулируется даже самыми свободными государствами. Мы хотим читать книги, но едва ли хотим, чтобы в свободном доступе находился Mein Kampf или нечто ему подобное. 

Как и все прочие вещи, которые являются благом, но при неправильном использовании могут навредить отдельным людям или целым обществам, ИИ требует регуляции. Причём регуляции достаточно специфической – политическая воля властей отдельно взятых государств может зарубить инструмент на корню. В связи с этим необходимы адекватные международные соглашения. 

Первым шагом к их появлению является недавняя декларация, подписанная в Блетчли-парке 28 государствами и Евросоюзом. На конференции о рисках, порождаемых искусственным интеллектом, присутствовал (само собой) и главная звезда сферы – Илон Маск. Среди его заявлений было, например, следующее: 

«Я думаю, что мы действительно стремимся к тому, чтобы создать основу для понимания, чтобы был хотя бы сторонний независимый арбитр, который мог бы наблюдать за тем, что делают ведущие компании в области ИИ, и, по крайней мере, бить тревогу, если у них есть опасения».

Одним из таких рисков как раз и является искажение нашего восприятия вещей, вызванное работой с искусственным интеллектом. Соглашение может оказать на это положительное влияние, но точно не само по себе. Принятие этических принципов кладёт первый кирпич в основу дома, но, как отмечают эксперты по AI, за декларированием идей должна следовать быстрая и чёткая разработка конкретных механизмов и способов отчётности, Как и большинство международных соглашений, Блетчлийская декларация сформулирована достаточно расплывчато, что оставляет место для лазеек или просто неправильного толкования. Что вообще требует этот документ? 

Международное сотрудничество: ключевым аспектом в вопросе снижения рисков, связанных с ИИ, является взаимодействие на мировом уровне. Декларация подчёркивает необходимость выступления единым фронтом против всех тех вызовов, которые ИИ несёт для всего мира.

Стандарты безопасности: в декларации заявлено, что требуется разработка и имплементирование высочайших стандартов безопасности в дизайне, разработке и внедрении искусственного интеллекта.

Этичный ИИ: декларация отличается строгим моральным компасом — по соглашению, ИИ должен уважать права человека, его частную жизнь и индивидуальность, а также разделять ценности демократии.

Прозрачность и подочётность: для того, чтобы общество могло доверять и понимать процессы, связанные с ИИ, он должен быть прозрачен. Это не означает, что нужно предоставить открытый доступ к моделям. Достаточно и того, что компании-разработчики будут регулярно отчитываться и объяснять, как устроен их продукт. 

Обмен знаниями: в декларации, в превую очередь, имеется в виду обмен знаниями между странами и большими компаниями, которые имеют значительный опыт в создании и поддержке ИИ. Культурный обмен, если это можно так назвать, поможет избежать таких ситуаций, как обсуждаемая выше – если одна группа исследователей в одной стране уже поняла, что люди перенимают когнитивные искажения от ИИ, то это повод передать информацию корпорациям из других стран, чтобы они начали искать метод противодействия этой проблеме. 

Поможет ли такой документ или нет – покажет будущее. Пока порадуемся, что крупные игроки на политической арене и гиганты бизнеса смогли начать договариваться между собой, да и вообще обратили внимание на существующую проблему с новой технологией.

Как мне с этим жить?

Каждый из нас слышал, что в современном мире постоянно приходится учится. С момента, когда нейросети стали обыденностью, учиться надо не только для того, чтобы не отстать от технологий, но и ради собственной ментальной безопасности. 

Да, один из способов, который поможет вам не перенимать когнитивные искажения от искусственного интеллекта, – это изучение того, как работают нейросети и как работает наш естественный интеллект. Сам ИИ, кстати, тоже кое-что подсказывает по этой проблеме. ChatGPT говорит, например, что одним из рисков при работе с искусственным интеллектом является адаптация к поведенческим нормам нейросетей. Что под этим имеется в виду? Вот несколько основных пунктов: 

Привычка к Алгоритмическому Мышлению: Постоянное взаимодействие с ИИ может привести к тому, что люди начнут мыслить более алгоритмически, стремясь к эффективности и оптимизации процессов, иногда в ущерб креативности или глубокому анализу.

Ожидания от Технологий: Повседневное использование ИИ может привести к тому, что люди начнут ожидать от технологий определенного уровня производительности, точности или надежности, что может повлиять на их терпимость к ошибкам или несовершенствам в человеческом взаимодействии.

Повторение Решений ИИ: Люди могут начать подражать способам решения задач или принятия решений, которые предлагает ИИ. Например, если система ИИ предлагает определенные шаблоны или стратегии для решения проблем, пользователи могут начать автоматически применять эти же подходы, даже если есть альтернативные или творческие решения.

Так что обратный рецепт простой – больше креативности, меньше ожиданий, и не повторять за ИИ. Но если говорить об этих вещах более-менее серьёзно, то при работе с искусственным интеллектом нужно понимать, что вы делаете и зачем, и тщательно следить за тем, как в дальнейшем изменяется ваше собственное поведение и принятие решений. 

Технологии на то и технологии, что всегда являются несовершенными, что-то в них всегда требует доработки и изменений. Это верно и касательно нас. Поэтому нам нужны соглашения международных организаций, регулирование новых инструментов, расплывчатые формулировки от Илона Маска и всё остальное, но прежде всего нужно учиться, понимать и наблюдать. 

Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Жарқ еткен GloRilla жұртты несімен баурап алды?
Культура
#музыка
Жарқ еткен GloRilla жұртты несімен баурап алды?
Идём на бесплатные кинопоказы от Alternativa Film Project в Алматы
Город
#события
Идём на бесплатные кинопоказы от Alternativa Film Project в Алматы
«КЛИНОК, РАССЕКАЮЩИЙ ДЕМОНОВ»: спорный чертвёртый сезон с хорошим финалом
Культура
#кино
«КЛИНОК, РАССЕКАЮЩИЙ ДЕМОНОВ»: спорный чертвёртый сезон с хорошим финалом
«Головоломка 2» стала самым кассовым анимационным фильмом в истории
Культура
#кино
«Головоломка 2» стала самым кассовым анимационным фильмом в истории
STRAY KIDS ATE BUT STILL HUNGRY
Культура
#музыка
STRAY KIDS ATE BUT STILL HUNGRY