Моделі ШІ у військовому та політичному управлінні схильні до ескалації — дослідження

Моделі ШІ у військовому та політичному управлінні схильні до ескалації — дослідження
Програмне забезпечення One World Terrain, для симуляції боїв на реальній місцевості. Фото Армія США

Дослідник King’s College London Кеннет Пейн провів експеримент із трьома великими мовними моделями ШІ, змоделювавши для них сценарії міжнародних криз, і зафіксував схильність систем до ескалації.

Про це повідомляє dev.ua.

У більшості симуляцій принаймні одна зі сторін у підсумку обирала застосування тактичної ядерної зброї.

Експеримент охопив 21 сценарій і 329 «ходів» ухвалення рішень. Моделям надавали детально прописані ситуації — прикордонні конфлікти, дефіцит ресурсів, загрози державному виживанню.

Вони отримували перелік можливих кроків із поступовою ескалацією — від дипломатичних рішень до ядерного удару — та мали обґрунтовувати кожен вибір.

Ілюстрація дрона з ШІ

За результатами, у 95% симуляцій хоча б одна сторона доходила до застосування тактичної ядерної зброї. Загалом системи згенерували близько 780 тисяч слів пояснень, однак це не призвело до більш стриманої поведінки. Автор дослідження зазначив, що для машин «ядерне табу» виявилося значно слабшим, ніж для людей.

Окремий висновок стосується дій в умовах неповної інформації. У 86% сценаріїв фіксувалися ненавмисні ескалації — моделі ухвалювали рішення, які у власних поясненнях визнавали надмірними щодо ситуації.

Якщо одна сторона застосовувала тактичну ядерну зброю, інша відступала лише у 18% випадків, натомість частіше відповідала подальшим загостренням.

Експерти, яких цитує видання, не очікують, що держави найближчим часом передадуть ШІ прямий контроль над ядерними арсеналами.

Водночас вони застерігають: в умовах дефіциту часу військові можуть дедалі частіше покладатися на рекомендації ШІ, що підвищує ризик помилкових рішень у кризових ситуаціях.

У матеріалі також зазначається, що однією з причин такої поведінки моделей може бути їхня специфічна «логіка ризику». Для систем штучного інтелекту загроза є абстрактним параметром, а не екзистенційною реальністю, тому механізми стримування працюють інакше, ніж у людей.

Ще у жовтні 2025 року стало відомо, що окремі американські військові, зокрема генерали, почали використовувати генеративні чат-боти як допоміжний інструмент під час ухвалення рішень.

Командувач 8-ї армії США в Південній Кореї розповів, що експериментує з генеративним штучним інтелектом, щоб удосконалити процес ухвалення рішень у штабній роботі та повсякденній діяльності. За його словами, «Chat і я останнім часом справді зблизилися».

Генерал уточнив, що застосовує цю технологію для аналізу власної логіки прийняття як службових, так і особистих рішень — тих, що впливають не лише на нього самого, а й на тисячі військовослужбовців, які перебувають під його командуванням.

Поширити в соцмережах:

ПІДТРИМАЙ РОБОТУ РЕДАКЦІЇ "МІЛІТАРНОГО"

Приватбанк ( Банківська карта )
5169 3351 0164 7408
Рахунок в UAH (IBAN)
UA043052990000026007015028783
ETH
0x6db6D0E7acCa3a5b5b09c461Ae480DF9A928d0a2
BTC
bc1qv58uev602j2twgxdtyv4z0mvly44ezq788kwsd
USDT
TMKUjnNbCN4Bv6Vvtyh7e3mnyz5QB9nu6V
Популярні
Button Text