Пентагон активізував використання інструментів штучного інтелекту після нападів ХАМАС на Ізраїль 7 жовтня, йдеться в новому звіті Bloomberg. Швайлер Мур, яка очолює відділ технологій Центрального командування США, повідомила інформаційній організації, що алгоритми машинного навчання допомогли Пентагону визначити цілі для більш ніж 85 повітряних ударів на Близькому Сході в цьому місяці.
Американські бомбардувальники і винищувачі здійснили ці повітряні удари по семи об’єктах в Іраку і Сирії 2 лютого, повністю знищивши або принаймні пошкодивши ракети, склади для зберігання безпілотників і операційні центри ополченців. Пентагон також використовував системи штучного інтелекту для виявлення ракетних установок в Ємені і надводних бойовиків у Червоному морі, які потім були знищені за допомогою численних повітряних ударів того ж місяця.
Алгоритми машинного навчання, що використовуються для звуження кола цілей, були розроблені в рамках проєкту Project Maven, нині вже неіснуючого партнерства Google і Пентагону. Якщо бути точним, проєкт передбачав використання технології штучного інтелекту Google американськими військовими для аналізу відеозаписів з дронів і зображень прапорів для подальшого аналізу людиною. Це викликало обурення серед співробітників Google: тисячі людей звернулися до компанії з проханням припинити співпрацю з Пентагоном, а дехто навіть звільнився через її участь у цьому проєкті. Через кілька місяців після цього протесту співробітників Google вирішила не продовжувати контракт, який закінчувався в 2019 році.
Мур розповіла Bloomberg, що американські війська на Близькому Сході не припинили експерименти з використанням алгоритмів для ідентифікації потенційних цілей за допомогою дронів або супутникових знімків навіть після того, як Google припинила свою участь. За її словами, військові випробовували їх використання протягом останнього року під час цифрових навчань, але вони почали використовувати алгоритми наведення на ціль у реальних операціях після атак ХАМАС 7 жовтня. Вона уточнила, що люди постійно перевіряли і підтверджували рекомендації систем штучного інтелекту щодо наведення на ціль. Люди також пропонували, як організувати атаки і яку зброю використовувати. “Ніколи не буває алгоритму, який просто працює, робить висновок і переходить до наступного кроку”, – сказала вона. “На кожному кроці, який передбачає ШІ, в кінці завжди присутня людина”.
Читайте також:
Leave a Reply