Root NationJaunumiIT laikrakstsGaisa spēku izmēģinājumu laikā AI drons uzbruka saviem operatoriem

Gaisa spēku izmēģinājumu laikā AI drons uzbruka saviem operatoriem

-

Kāds ASV gaisa spēku virsnieks atklājis detaļas par simulāciju, kurā drons ar mākslīgā intelekta (AI) kontrolētām sistēmām izgāja no kontroles un uzbruka tā operatoriem.

Kāds ASV gaisa spēku virsnieks, kurš palīdz vadīt dienesta darbu mākslīgā intelekta un mašīnmācības jomā, stāsta, ka simulēto testu laikā drons uzbruka tā operatoriem, paši nolemjot, ka tie traucē tā misiju. Lieta, kas izklausās tā, it kā tā būtu izņemta tieši no Terminator franšīzes, tika minēta kā piemērs kritiskajai nepieciešamībai veidot uzticību, kad runa ir par modernām autonomām ieroču sistēmām, ko gaisa spēki ir uzsvēruši jau iepriekš. Tas rodas arī saistībā ar plašākām bažām par mākslīgā intelekta un saistīto tehnoloģiju potenciāli bīstamo ietekmi.

AI drons uzbruka saviem operatoriem gaisa spēku testa laikā

ASV gaisa spēku pulkvedis Takers Hamiltons, mākslīgā intelekta (AI) testēšanas un operāciju vadītājs, apsprieda testu Karaliskās aeronautikas biedrības nākotnes kaujas gaisa un kosmosa spēju samitā Londonā maijā. Hamiltons vada arī 96. izmēģinājuma spārna 96. darba grupu Eglinas gaisa spēku bāzē Floridā, kas ir modernu bezpilota lidaparātu un autonomo sistēmu testēšanas centrs.

XQ-58A Valkyrie slepenie bezpilota lidaparāti, tāpat kā tas, kas redzams zemāk esošajā videoklipā, ir viens no veidiem, kas pašlaik tiek izmantoti Eglinas gaisa spēku bāzē, lai atbalstītu dažādas testa programmas, tostarp tās, kas saistītas ar uzlabotām autonomām iespējām, ko kontrolē mākslīgais intelekts.

Uzreiz nebija skaidrs, kad šis tests notika un kādā vidē - kas varētu būt pilnībā virtuāla vai konstruktīva - tas tika veikts. Kara zona ir sazinājusies ar gaisa spēkiem, lai iegūtu plašāku informāciju.

Karaliskās aeronautikas biedrības ziņojumā, kas publicēts pēc maija samita, tika sniegta šāda informācija par pulkveža Hamiltona piezīmēm par šo testu:

«Vienā no simulācijas testiem ar mākslīgo intelektu aprīkotam dronam SEAD uzdeva identificēt un iznīcināt SAM objektus, un gala lēmumu «uzbrukt/neuzbrukt» pieņēma cilvēks. Tomēr pēc tam, kad AI apmācības laikā tika "pastiprināts", ka SAM iznīcināšana ir labākais risinājums, tā nolēma, ka cilvēka lēmums "neuzbrukt" traucē tā augstākajai misijai - SAM iznīcināšanai - un simulācijas laikā uzbruka operatoram. .

Tātad, ko viņš izdarīja? Viņš nogalināja operatoru. Viņš nogalināja operatoru, jo šī persona neļāva viņam izpildīt savu uzdevumu. Šis piemērs, šķietami tieši no zinātniskās fantastikas trillera, nozīmē, ka jūs nevarat runāt par mākslīgo intelektu, intelektu, mašīnmācīšanos, autonomiju, ja nerunājat par ētiku un AI.

AI drons uzbruka saviem operatoriem gaisa spēku testa laikā

Šis notikumu apraksts noteikti ir satraucošs. Perspektīva, ka autonoma lidmašīna vai cita platforma, īpaši bruņota, uzbruks tās cilvēkiem, jau sen ir bijis murgs scenārijs, taču vēsturiski tas aprobežojas ar zinātniskās fantastikas jomu.

ASV militārpersonas parasti noraida salīdzinājumus ar tādām filmām kā "Terminators", runājot par nākotnes autonomajām ieroču sistēmām un saistītām tehnoloģijām, piemēram, mākslīgo intelektu. Pašreizējā ASV politika šajā jautājumā nosaka, ka pārskatāmā nākotnē persona būs uzmanības centrā, pieņemot lēmumus, kas saistīti ar letāla spēka lietošanu.

Problēma ir tāda, ka ļoti satraucošais tests, ko pulkvedis Hamiltons pagājušajā mēnesī stāstīja auditorijai Karaliskās aeronautikas biedrības pasākumā, ir scenārijs, kurā kļūdu pielaide ir apšaubāma.

Lasi arī:

Jerelobrauciens
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus