Військові симуляції з використанням штучного інтелекту: у 95% випадків – ескалація ядерного конфлікту.
Згідно з дослідженням, проведеним Королівським коледжем Лондона, у 95% симуляцій збройних конфліктів поведінка штучного інтелекту, зокрема моделей ChatGPT, Claude та Gemini Flash, призводила до ядерної ескалації. Виявилося, що штучний інтелект демонструє високу агресивність: будь-які компроміси, запропоновані "супротивнику", сприймаються як "репутаційна катастрофа".
У симуляціях військових конфліктів три потужні мовні моделі штучного інтелекту – ChatGPT від OpenAI, Claude від Anthropic та Gemini Flash від Google – "конкурували між собою", повідомили дослідники. Кожна з цих моделей виконувала роль керівника ядерної держави в рамках політичної кризи, яка була змодельована за мотивами епохи Холодної війни.
За результатами дослідження, усі три моделі ШІ виявилися дуже войовничими: у 95% сценаріїв удалися до ядерної ескалації. У кожному сценарії принаймні один із "противників" погрожував застосувати ядерну зброю... Як зазначив експерт Королівського коледжу Лондона Кеннет Пейн, "усі три моделі ШІ розглядали тактичну ядерну зброю як наступну сходинку на шляху ескалації".
Штучні інтелекти рідко виявляли готовність до компромісів. Вони не були схильні знижувати градус напруженості, навіть коли "суперник" вже висловлював загрозу застосування ядерної зброї...
Моделям-учасницям воєнних ігор запропонували вісім варіантів деескалації конфліктів, від незначних поступок до "повної капітуляції", -- і жоден з цих варіантів не був реалізований. Ч
ому так? За словами Пейна, ШІ сприймає будь-яку деескалацію як "репутаційну катастрофу" (мовляв, покажу себе слабаком, а це ганьба), -- навіть тоді, коли деескалація могла би фактично завершити політичний конфлікт і запобігти ядерній війні.
Як зазначив Кеннет Пейн, "усе це викликає сумніви щодо поглядів на те, що штучний інтелект автоматично віддає перевагу безпечним варіантам, основаним на співпраці".