Деякі американські військові, в тому числі генерали почали використовувати генеративні чат-боти для ухвалення рішень

Деякі американські військові, в тому числі генерали почали використовувати генеративні чат-боти для ухвалення рішень
Програмне забезпечення One World Terrain, для симуляції боїв на реальній місцевості. Фото Армія США

Командувач 8-ї Армії США в Південній Кореї розповів, що експериментує з генеративними чат-ботами, аби відточити процес ухвалення рішень.

Про це повідомляє видання Business Insider.

Командувач 8-ї Армії США в Південній Кореї поділився, що експериментує з генеративним штучним інтелектом (ШІ), аби відточити процес ухвалення рішень у штабній роботі та щоденних завданнях. За його словами, «Chat і я останнім часом справді зблизилися».

«Я прошу створювати, намагаюся створювати моделі, які допоможуть нам усім», — розповів генерал-майор Вільям Тейлор, командувач 8-ї армії, журналістам під час круглого столу на щорічній конференції Асоціації Армії США у Вашингтоні.

Генерал повідомив, що використовує технологію, аби дослідити, як він ухвалює військові та особисті рішення, що впливають не лише на нього, а й на тисячі військовослужбовців, якими він керує.

Генерал-майор армії Вільям «Хенк» Тейлор відвідує навчальний захід у Південній Кореї. Фото сержанта Лісет Еспінель/Армія США

«Як командир, я хочу ухвалювати кращі рішення. Я хочу бути певним, що приймаю рішення в належний час, аби здобути перевагу», — поділився генерал.

Як зазначає видання, такі командири, як Тейлор, зосереджуються на швидкому ухваленні рішень і на тому, як ШІ може дати перевагу завдяки — «OODA-петлі». Згідно з цією теорією перевагу часто здобувають ті, хто вміє швидше за противника спостерігати (Observe), орієнтуватися (Orient), вирішувати (Decide) і діяти (Act).

У свою роботу штучний інтелект також запроваджуються Сили спеціальних операцій США. Таким чином вони намагаються «зменшити когнітивне навантаження на військових». Інструментів ШІ використовуються для паперової роботи, підготовки звітів, розробки концепцій операцій та управління логістикою та іншою «офісної» діяльністі.

Водночас Пентагон закликав до обережності, коли військові та командири випробовують ці інструменти, оскільки генеративний ШІ може «зливати» чутливі дані.

Ілюстративне фото роботи штучного інтелекту. Фото: Міноборони України.

Він також здатен продукувати серйозно хибні відповіді, якщо його недостатньо навчено. Це може бути ризиковано і навіть проблемно, якщо командири спиратимуться на нього у важливих рішеннях.

Зокрема, під час експерименту Повітряних сил США алгоритми штучного інтелекту генерували плани атак приблизно у 400 разів швидше, ніж це робили люди. Але не всі плани, створені ШІ, були дійсно робочими.

Не вдаючись у подробиці, генерал-майор Роберт Клод пояснив, що помилки були не кричущими, а тонкими. На кшталт неврахування правильного типу сенсора для конкретних погодних умов, а не спроб відправити танки на повітряні місії.

Поширити в соцмережах:

ПІДТРИМАЙ РОБОТУ РЕДАКЦІЇ "МІЛІТАРНОГО"

Приватбанк ( Банківська карта )
5169 3351 0164 7408
Рахунок в UAH (IBAN)
UA043052990000026007015028783
ETH
0x6db6D0E7acCa3a5b5b09c461Ae480DF9A928d0a2
BTC
bc1qv58uev602j2twgxdtyv4z0mvly44ezq788kwsd
USDT
TMKUjnNbCN4Bv6Vvtyh7e3mnyz5QB9nu6V
Популярні
Button Text