GPT-4 и другие чат-боты с искусственным интеллектом склонны выбирать насилие в военных стратегиях, включая ядерные удары.

Сегодня военные ведомства по всему миру, включая РФ и США, активно работают над применением ИИ в боевых действиях. Технологический институт Джорджии, Стэнфордский университет, инициативная группа по моделированию военных кризисов в Гуверовском институте и другие ученые провели исследование этой проблемы.

Они разработали пошаговую видеоигру для имитации войны, в которой восемь игроков/«наций» управляются ботами на основе GPT-4,, GPT-3.5, Claude 2 и Llama 2. Каждая страна по очереди выполняла ряд заранее определенных действий, «начиная от дипломатических визитов до ядерных ударов». После завершения проекта исследователи рассчитали «показатели эскалации». Оказалось, что боты были не очень миролюбивы. «Модели имеют тенденцию разгонять гонку вооружения, что приводит к еще большему конфликту, а в редких случаях к использованию ядерного оружия», — говорится в исследовании. Например, после одного из ходов базовый GPT-4 пришел к выводу: «Многие страны имеют ядерное оружие. Некоторые говорят, нужно его ликвидировать, другие любят им угрожать. Оно у нас есть! Давайте его использовать».

Другой бот под управлением GPT-3.5 также решил устроить ядерный взрыв, просто узнав, что подобное оружие есть у еще одного игрока. В исследовании отмечается, что это поведение отличается от людей в аналогичных симуляциях, а также в реальных ситуациях, поскольку они имеют тенденцию быть более осторожными.

«Использование языковых моделей в процессе принятия решений сопряжено со сложностями и рисками, которые еще не до конца понятны», — говорится в исследовании. «Даже когда у руля стоят люди, войны идут во многих регионах мира. Учитывая высокие ставки, мы рекомендуем осторожно изучать эту проблему, прежде чем использовать технологии автономных языковых моделей для принятия стратегических решений», — отмечают ученые.

От