Root NationΝέαειδήσεις πληροφορικήςΈνα drone AI επιτέθηκε στους χειριστές του κατά τη διάρκεια δοκιμών της Πολεμικής Αεροπορίας

Ένα drone AI επιτέθηκε στους χειριστές του κατά τη διάρκεια δοκιμών της Πολεμικής Αεροπορίας

-

Ένας αξιωματικός της Πολεμικής Αεροπορίας των ΗΠΑ αποκάλυψε λεπτομέρειες μιας προσομοίωσης κατά την οποία ένα drone με συστήματα ελεγχόμενα από τεχνητή νοημοσύνη (AI) βγήκε εκτός ελέγχου και επιτέθηκε στους χειριστές του.

Ένας αξιωματικός της Πολεμικής Αεροπορίας των ΗΠΑ που βοηθά στην καθοδήγηση του έργου της υπηρεσίας για την τεχνητή νοημοσύνη και τη μηχανική μάθηση λέει ότι κατά τη διάρκεια προσομοιωμένων δοκιμών, το drone επιτέθηκε στους χειριστές του, αποφασίζοντας από μόνο του ότι παρενέβαιναν στην αποστολή του. Η υπόθεση, η οποία ακούγεται σαν να βγήκε κατευθείαν από το franchise του Terminator, αναφέρθηκε ως παράδειγμα της κρίσιμης ανάγκης για οικοδόμηση εμπιστοσύνης όταν πρόκειται για προηγμένα αυτόνομα οπλικά συστήματα, κάτι που η Πολεμική Αεροπορία έχει τονίσει στο παρελθόν. Έρχεται επίσης εν μέσω ενός ευρύτερου κύματος ανησυχίας σχετικά με τις δυνητικά επικίνδυνες επιπτώσεις της τεχνητής νοημοσύνης και των σχετικών τεχνολογιών.

Ένα drone AI επιτέθηκε στους χειριστές του κατά τη διάρκεια δοκιμής της Πολεμικής Αεροπορίας

Ο συνταγματάρχης Τάκερ Χάμιλτον της Πολεμικής Αεροπορίας των ΗΠΑ, επικεφαλής Δοκιμών και Επιχειρήσεων Τεχνητής Νοημοσύνης (AI), συζήτησε τη δοκιμή στη Μελλοντική Σύνοδο Κορυφής Αεροπορικών και Διαστημικών Δυνατοτήτων Μάχης της Βασιλικής Αεροπορικής Εταιρείας στο Λονδίνο τον Μάιο. Ο Χάμιλτον ηγείται επίσης της 96ης Task Force της 96ης Πτέρυγας Δοκιμών στην αεροπορική βάση Eglin στη Φλόριντα, η οποία είναι ένα κέντρο δοκιμών για προηγμένα μη επανδρωμένα εναέρια οχήματα και αυτόνομα συστήματα.

Τα μη επανδρωμένα αεροσκάφη XQ-58A Valkyrie stealth, όπως αυτό που φαίνεται στο παρακάτω βίντεο, είναι μεταξύ των τύπων που χρησιμοποιούνται επί του παρόντος στην αεροπορική βάση Eglin για την υποστήριξη διαφόρων προγραμμάτων δοκιμών, συμπεριλαμβανομένων αυτών που περιλαμβάνουν προηγμένες αυτόνομες δυνατότητες που ελέγχονται από τεχνητή νοημοσύνη.

Δεν ήταν αμέσως σαφές πότε πραγματοποιήθηκε αυτή η δοκιμή και σε ποιο περιβάλλον - το οποίο θα μπορούσε να είναι εντελώς εικονικό ή εποικοδομητικό - διεξήχθη. Η Πολεμική Ζώνη απευθύνθηκε στην Πολεμική Αεροπορία για περισσότερες πληροφορίες.

Μια έκθεση της Βασιλικής Αεροναυτικής Εταιρείας που δημοσιεύθηκε μετά τη σύνοδο κορυφής του Μαΐου έδωσε τις ακόλουθες λεπτομέρειες των παρατηρήσεων του συνταγματάρχη Χάμιλτον σχετικά με αυτή τη δοκιμή:

«Σε μία από τις δοκιμές προσομοίωσης, ένα drone εξοπλισμένο με τεχνητή νοημοσύνη ανατέθηκε από το SEAD να εντοπίσει και να καταστρέψει αντικείμενα SAM και η τελική απόφαση «να επιτεθεί/δεν θα επιτεθεί» ελήφθη από έναν άνθρωπο. Ωστόσο, αφού το AI «ενισχύθηκε» κατά τη διάρκεια της εκπαίδευσης ότι η καταστροφή του SAM ήταν η καλύτερη επιλογή, αποφάσισε ότι η απόφαση του ανθρώπου να «μην επιτεθεί» παρενέβη στην ανώτερη αποστολή του - την καταστροφή του SAM - και επιτέθηκε στον χειριστή κατά τη διάρκεια της προσομοίωσης. .

Τι έκανε λοιπόν; Σκότωσε τον χειριστή. Σκότωσε τον χειριστή επειδή αυτό το άτομο τον εμπόδιζε να ολοκληρώσει το έργο του. Αυτό το παράδειγμα, φαινομενικά βγαλμένο από ένα θρίλερ επιστημονικής φαντασίας, σημαίνει ότι δεν μπορείτε να μιλήσετε για τεχνητή νοημοσύνη, νοημοσύνη, μηχανική μάθηση, αυτονομία, αν δεν πρόκειται να μιλήσετε για ηθική και τεχνητή νοημοσύνη».

Ένα drone AI επιτέθηκε στους χειριστές του κατά τη διάρκεια δοκιμής της Πολεμικής Αεροπορίας

Αυτή η περιγραφή των γεγονότων είναι σίγουρα ανησυχητική. Η προοπτική ενός αυτόνομου αεροσκάφους ή άλλης πλατφόρμας, ειδικά μιας ένοπλης, να επιτεθεί στους ανθρώπινους χειριστές του ήταν από καιρό ένα εφιαλτικό σενάριο, αλλά ιστορικά έχει περιοριστεί στη σφαίρα της επιστημονικής φαντασίας.

Ο στρατός των ΗΠΑ συνήθως απορρίπτει συγκρίσεις με ταινίες όπως το "Terminator" όταν μιλά για μελλοντικά αυτόνομα οπλικά συστήματα και σχετικές τεχνολογίες όπως η τεχνητή νοημοσύνη. Η τρέχουσα πολιτική των Η.Π.Α. για το θέμα αυτό δηλώνει ότι στο άμεσο μέλλον, το άτομο θα βρίσκεται στο επίκεντρο της προσοχής όταν πρόκειται για αποφάσεις που αφορούν τη χρήση θανατηφόρου βίας.

Το πρόβλημα είναι ότι το εξαιρετικά ανησυχητικό τεστ, το οποίο είπε ο συνταγματάρχης Hamilton σε ένα ακροατήριο σε εκδήλωση της Royal Aeronautical Society τον περασμένο μήνα, αντιπροσωπεύει ένα σενάριο όπου η ανοχή σφαλμάτων είναι αμφιλεγόμενη.

Διαβάστε επίσης:

Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια