Пентагон просить компанії створити штучний інтелект для війни — Reuters
Пентагон вимагає від розробників штучного інтелекту створення спеціальних версій для бойових дій, обмеження в яких встановлюватимуться виключно військовими.
Про це повідомляє Reuters із посиланням на поінформовані джерела.
За даними агентства, Пентагон наполягає, щоб провідні компанії з розробки ШІ, зокрема OpenAI та Anthropic, створили для військових спеціальні версії своїх інструментів без обмежень, які застосовуються до звичайних користувачів.
Під час заходу в Білому домі головний технічний директор Пентагону Еміль Майкл заявив керівникам технологічних компаній, що військові прагнуть розробляти власні моделі штучного інтелекту. Пентагон, за словами співрозмовників Reuters, «рухається до розгортання передових можливостей ШІ на всіх рівнях».
Багато компаній уже створюють для армії США спеціалізовані інструменти, які використовуються у військовому управлінні. Засекречені мережі застосовуються для виконання широкого спектра конфіденційних завдань, зокрема для планування місій або наведення озброєння.
Військові чиновники сподіваються використати можливості ШІ для синтезу великих обсягів інформації з метою пришвидшення ухвалення рішень. Водночас експерти застерігають, що такі інструменти можуть помилятися або генерувати недостовірну інформацію, яка виглядає правдоподібною, а подібні помилки в засекречених системах можуть мати смертельні наслідки.
Армії різних країн світу намагаються інтегрувати інструменти штучного інтелекту у сучасні бойові дії, зокрема для управління безпілотниками, наземною технікою та визначення пріоритетних цілей.
Пентагон вирішив розірвати співпрацю з Гарвардським університетом і припинити всі освітні програми для військових. Йдеться про підготовку офіцерів, стипендії та сертифікаційні курси. У Міноборони США заявили, що університет більше не відповідає потребам американської армії.
США планують стягнути штраф із оборонних компаній Northrop Grumman та Global Military Products через затримки постачання боєприпасів для України.