ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ — УЖАСАЮЩЕЕ ОРУЖИЕ БУДУЩЕГО? 

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ — УЖАСАЮЩЕЕ ОРУЖИЕ БУДУЩЕГО? 

Технологии развиваются: на смену стали и дереву пришёл порох, на смену пороху пришло ядерное оружие — одна из самых страшных идей, когда-либо реализованных человечеством. Главный вооруженческий потенциал на сегодняшний день — это применение искусственного интеллекта и создание оружия с ним.

Наш автор Данил Степанов поговорил с Алимжаном Ахметовым, специалистом по разоружению и главному идеологу отказа от ИИ-оружия в Казахстане. Рассказываем, что это такое и какие перспективы борьбы с машинной угрозой существуют сегодня. 

ЧТО ТАКОЕ ОРУЖИЕ С ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ

Вы точно следите за развитием искусственного интеллекта, хотите вы этого или нет. Сейчас генеративные системы, вроде тех, что выпускает OpenAI и другие важные игроки рынка, активно внедряются в тысячи видов деятельности по всему миру. Их используют художники, заводы, полиция. Вполне очевидно, что на такую технологию обратили внимание военные и уже довольно давно.

Искусственный интеллект в вооружениях на данный момент полностью не реализован. Существуют системы поиска и другие алгоритмы для решения военных задач, однако, ещё никто не предоставил полноценных боевых роботов. Однако такие разработки активно ведутся. Для военных новые технологии всегда были лакомым кусочком, но искусственный интеллект и вовсе позволит стороне, которая им обладает, свести свои потери к минимуму и превратить войну в исключительно экономическую гонку. Впереди всех в этом вопросе находятся страны, уже обладающие большим военным потенциалом — представители так называемого «ядерного клуба». США, Китай, Россия, Индия и несколько других государств.

Оружие с искусственным интеллектом, способное сражаться на поле боя — это самообучающиеся боевые системы, которые способны сражаться абсолютно без участия человека. И именно в этом состоит его опасность.

ПРОБЛЕМЫ ДОМИНАЦИИ

Когда я задал Алимжану вопрос о том, есть ли вероятность снижения потерь при помощи искусственного интеллекта, он посмеялся и сказал, что я использую аргумент Соединённых Штатов. Смысл этой мысли мне стал понятен только тогда, когда я начала глубже погружаться в тему вооружения с ИИ. Для наиболее богатых государств, больших игроков на мировой арене, которые постоянно ведут в разных точках мира вооружённые конфликты, введение в практику оружия с искусственным интеллектом действительно может стать способом снижения потерь.

Проблема состоит в том, что потери снизятся только с одной стороны — той, которая обладает новой технологией. Они получат намного большую выгоду, чем одно лишь снижение потерь. Им больше не придётся убеждать собственное население в «необходимости» конфликтов, не нужно будет превращать войну в нечто легитимное, не нужно будет заниматься призывом, отбором и подготовкой военных кадров. Всё будут делать роботы. Бедным же государствам останется роль жертвы: они будут терять население, обороноспособность и возможность для каких бы то ни было переговоров. Искусственный интеллект превращает войну из большого морального и этического вопроса в вопрос исключительно экономического характера.

«ЧЁРНЫЙ ЯЩИК»

Другой важный аспект появления такой технологии — это общая проблема всего искусственного интеллекта. Возможно, вы слышали, что иногда генеративные системы, как ChatGPT, называют «чёрным ящиком». Это означает, что нам известны только входные данные, которые получает ИИ, и выходная информация — в данном случае поведение боевой машины.

Алимжан рассказал, что важная проблема заключается в том, что мы не знаем, как именно и почему себя поведёт «солдат» с искусственным интеллектом. Если у человека есть какие-то внутренние ориентиры, собственные «стопы» и моральная проблема перед убийством человека, то алгоритмы этого полностью лишены. Будет ли робот отличать гражданских от военных? Сможет ли он избежать бессмысленной жестокости? Сохранит ли баланс между выполнением боевой задачи и соблюдением гуманистических принципов? Мы знаем, что и люди не всегда с этим справляются, но нечто о человеческой природе известно людям довольно хорошо, чего нельзя сказать об алгоритмах. Их поведение непредсказуемо из-за технической сложности систем машинного обучения, которые содержат в себе много миллиардов параметров.

НОРМАЛИЗАЦИЯ ВОЙНЫ

Некоторое время назад мне попалась интересная книга о войнах нового типа. Она называется «Теория дрона», её написал французский философ Грегуар Шамаю. Автор в тексте часто упоминал о важной этической проблеме: превращении войны в рутину. Если в обычных международных конфликтах их участники всегда взаимодействовали напрямую, то теперь появились методы, с помощью которых можно воевать, не выезжая из собственного города проживания.

Это превратило войну в nine-to-five работу, когда операторы дронов и других беспилотных летательных аппаратов занимаются ужасными вещами днём, а вечером спокойно возвращаются домой. Они не чувствуют угрозы для собственной жизни, не чувствуют моральной дилеммы перед убийством человека и очень плохо отличают военные цели от гражданских. Что в такие моменты происходит с психикой, и как это противоречие отражается не только на войне, но и на обычной, гражданской жизни самих операторов, только предстоит изучить.

В разговоре с Алимжаном я упомянул об этом, и он сказал, что дроны — предтеча оружия с искусственным интеллектом. У них есть общая проблема: и с использованием дронов, и с использованием искусственного интеллекта общество перестаёт ощущать, что находится в процессе военного конфликта. Люди в обычной жизни не чувствуют, что с их молчаливого согласия (или даже при частичном участии) где-то на другом конце планеты могут происходить ужасные вещи, а их государство несёт кому-то горе и разруху. Это — одна из причин, по которым любому обществу и любому государству стоит отказаться от оружия с ИИ, даже если оно не несёт для него угрозы напрямую.

ПРЕВЕНТИВНЫЕ МЕРЫ

Когда я поинтересовался, как обстоит вопрос с регулированием подобного оружия, Алимжан рассказал, что активные действия в этом направлении ведутся ещё с начала десятых годов. На проблему обращали внимание такие организации как ООН и Human Rights Watch, а ряд государств активно проталкивает превентивный запрет оружия с искусственным интеллектом.

Обсуждая с Алимжаном этот вопрос, мы пришли к выводу, что ситуация сходна с ядерным оружием, но лишь отчасти: все хорошо и заранее понимают, насколько опасно появление технологий, но пока дело не дойдёт до его применения или хотя бы испытаний, человечество может и не пошевелиться. Угроза ядерной катастрофы была огромна, но лишь после его применения появилась большая международная инициатива по запрету ядерного оружия и совместному разоружению стран-обладательниц. Не исключено, что нечто подобное ждёт и искусственный интеллект.

Однако главное, о чём говорил Алимжан, будучи директором НПО «Центр международной безопасности и политики», это низовые инициативы. С его точки зрения, важной проблемой является и тот факт, что государства уже давно обсуждают на дипломатическом уровне идею о запрете превентивного оружия с использованием искусственного интеллекта, но их низовая поддержка не очень велика. Если не учитывать НПО из передовых стран, то процесс выглядит совсем печально: именно поэтому он и создал свою организацию, одна из основных целей которой — это привлечение населения к обсуждению проблемы.

Государства могут договориться, создавать организации, занимающиеся контролем искусственного интеллекта. Но именно низовая инициатива, предложения, наблюдение за действиями стран и демократизация процесса обеспечат фундамент для будущей безопасности человечества перед лицом собственных технологий.

КАК НЕ ОСТАТЬСЯ В СТОРОНЕ? 

До разговора с Алимжаном я очень мало знал о том, что представляет собой оружие с ИИ, кто ведёт основные разработки и как военные конфликты могут выглядеть в будущем, если дело дойдёт до его использования. Я попросил его посоветовать что-то, с чем может ознакомиться сторонний человек, чтобы сложить правильное представление об угрозах и опасности автономного оружия. Конечно, лучше всего в качестве вводного материала можно послушать выступление самого Алимжана на Tedx.

Он рассказал мне об интересной книге Пола Шарра — «Army of None». Я только начал её читать, но уже могу сказать однозначно, что это одна из лучших возможных рекомендаций. Например, автор описывает ситуацию из войны в Афганистане. Он и его отряд увидели девочку дошкольного возраста, которая сообщала нечто по рации. Ни сам Шарр, ни кто-либо из его группы не посмел пойти на нечто столь ужасное, как выстрел в ребёнка.

Спустя годы размышлений вопрос Филипа Дика «Мечтают ли андроиды об электроовцах» превратился в голове автора в вопрос «Смог бы робот пожалеть ребёнка и пожертвовать тактической задачей ради невинной жизни?». Шарр ищет ответ именно на него. В этом исследовании он рассматривает, как будет выглядеть война будущего, и в ужасающих деталях даёт однозначное понимание — столь страшная технология требует немедленного запрета.

Именно к нему движется Алимжан Ахметов и его «Центр международной безопасности и политики».

Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
Читайте также
«Дарақы фильмдердің авторлары ойланатын кез келді». Дубляж режиссері Шах-Мұрат Ордабаев
Культура
#кино
«Дарақы фильмдердің авторлары ойланатын кез келді». Дубляж режиссері Шах-Мұрат Ордабаев
Церемония «Грэмми» 2026 объявила новые категории и дату проведения
Культура
#музыка
Церемония «Грэмми» 2026 объявила новые категории и дату проведения
DARK ALPHA тобынан кетті. Оған не себеп болды?
Ликбез
#общество
DARK ALPHA тобынан кетті. Оған не себеп болды?
«Материалистка»: любовь в ритме Селин Сон
Культура
#кино
«Материалистка»: любовь в ритме Селин Сон
Молодой казахстанец стал моделью IMG Models после вирусного ролика
Стиль
#мода
Молодой казахстанец стал моделью IMG Models после вирусного ролика