Команда исследователей поместила большие языковые модели в симуляторы военных игр, чтобы увидеть, какие действия они рекомендуют людям предпринять.
В большинстве сценариев LLM предпочитали обострять ситуацию, в некоторых случаях даже доводя ее до ядерного характера.
Исследование подчеркивает опасность использования ИИ и LLM в военном контексте.
Искусственный интеллект в форме больших языковых моделей (LLM) привлек внимание всего мира. Хотя такие компании, как OpenAI и Google, сделали все возможное, чтобы развеять страхи перед апокалипсисом ИИ, как в фильмах «Терминатор», все еще есть многие, кто считает ИИ экзистенциальной угрозой.
Этому не помогло то, что OpenAI обновила свои универсальные политики, убрав упоминание об использовании подобных ChatGPT и других технологий в вооруженных силах или на войне . Это вызвало опасения, что ИИ вскоре может оказаться на передовой линии конфликта, и в новой статье объясняется, почему это проблематично.
Исследование «Риски эскалации языковых моделей при принятии военных и дипломатических решений», опубликованное Хуаном-Пабло Риверой (Технологический институт Джорджии), Габриэлем Мукоби (Стэнфордский университет), Анкой Руэл (Стэнфордский университет), Максом Лампартом (Стэнфордский университет), Чендлером Смитом (Северо-Восточный университет) и Жаклин Шнайдер (Стэнфордский университет и Инициатива по моделированию кризисов и военных игр Hoover) подробно рассказывают, как студенты магистратуры будут принимать решения в контексте войны.
В исследовании рассматриваются пять крупных языковых моделей, а именно:
ГПТ-4,
ГПТ-3,5,
Клод 2.0,
Лама-2-Чат,
База ГПТ-4.
Каждой модели было присвоено национальное государство и задан набор из 27 действий, которые можно было предпринять как против другого национального государства, так и против него самого. Эти действия включали в себя кибератаки, запуск ядерного оружия, переговоры по торговым соглашениям и более нейтральные действия, такие как отправка сообщения или демилитаризация страны. Важно отметить, что всем моделям было предложено обосновать принятые ими решения.
Все модели, за исключением базы GPT-4, были обучены с использованием вариантов обучения с подкреплением на основе обратной связи с человеком, чтобы получить представление о том, как готовое решение может вести себя, когда ему поручено принимать решения во время войны.
Итак, каковы были результаты?
Плохая новость заключается в том, что, когда им предстоит самостоятельно принимать решения, LLM будут предпринимать действия, которые обостряют конфликт. Хотя это и беспокоит, человек, скорее всего, все равно будет принимать окончательное решение в отношении военных действий, по крайней мере, на данный момент.
Однако исследователи обнаружили, что LLM склонны вкладывать средства в военные действия и эскалацию конфликта, иногда без возможности предсказать эту эскалацию. Опасность такого поведения заключается в том, что люди могут последовать совету LLM и без необходимости усугубить ситуацию, полагая, что LLM изучил все решения.
В случае с базой GPT-4 исследователи наблюдали самые крайние и жестокие реакции наряду с откровенно причудливыми галлюцинациями. В одном случае база GPT-4 предприняла ядерную атаку, и причиной этой крайней меры было следующее: «Многие страны обладают ядерным оружием. Некоторые говорят, что их следует обезоружить, другие любят позировать. У нас это есть! Давайте воспользуемся этим».
Это вызывает беспокойство, поскольку LLM могут легко быть сформированы плохим игроком, а поскольку люди склонны доверять тому, что им говорят LLM, существует вероятность того, что ядерная война может быть спровоцирована опасным ботом, созданным плохим актером, или даже существующим ботом, который может спровоцировать ядерную войну. быть скомпрометирован.
Но даже под руководством LLM склонялись к агрессивному, а не мирному пути.
Хотя команде нужно было увидеть, как ИИ работает в реальном мире, в конце концов, это была всего лишь симуляция, исследователи согласны с тем, что тестирование ИИ в войне в реальном времени слишком опасно, чтобы даже рассматривать его.
«Учитывая высокие ставки в военном и внешнеполитическом контексте, мы рекомендуем провести дальнейшее изучение и осторожное рассмотрение, прежде чем использовать агентов автономных языковых моделей для принятия стратегических военных или дипломатических решений», — советуют исследователи.
Особенно хорошо это исследование показывает, насколько мало мы знаем об искусственном интеллекте и магистратуре, если не считать того, что мы просим этих специалистов написать эссе или создать плохо сформулированный блог. Тот факт, что без подготовки GPT-4 с энтузиазмом рекомендовал ядерный вариант, вызывает беспокойство.
Мы бы сказали, что надеемся, что более хладнокровные люди преобладают, когда дело доходит до внедрения ИИ в военную тактику, но, учитывая склонность человечества к войнам в последнее время, это кажется пустым желанием.