Root NationΝέαειδήσεις πληροφορικήςΗ τεχνητή νοημοσύνη αποτελεί «κίνδυνο εξαφάνισης» στο ίδιο επίπεδο με τον πυρηνικό πόλεμο, λένε οι ηγέτες της βιομηχανίας

Η τεχνητή νοημοσύνη αποτελεί «κίνδυνο εξαφάνισης» στο ίδιο επίπεδο με τον πυρηνικό πόλεμο, λένε οι ηγέτες της βιομηχανίας

-

Με την έλευση του ChatGPT, του Bard και άλλων μεγάλων μοντέλων τεχνητής νοημοσύνης, ακούσαμε προειδοποιήσεις από άτομα που εμπλέκονται σε αυτά, όπως ο Έλον Μασκ, σχετικά με τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη. Τώρα, μια ομάδα επιφανών ηγετών του κλάδου εξέδωσε μια δήλωση με μία πρόταση που επιβεβαιώνει πραγματικά αυτούς τους φόβους.

Όλα συμπεριλαμβάνονται

Η αίτηση δημοσιεύτηκε στις στην ιστοσελίδα του Κέντρου Ασφάλειας Τεχνητής Νοημοσύνης (Center for AI Safety) είναι ένας οργανισμός του οποίου η αποστολή είναι να «μειώσει τους κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη σε κοινωνική κλίμακα». Μεταξύ των υπογραφόντων είναι γνωστοί εκπρόσωποι της βιομηχανίας τεχνητής νοημοσύνης, συμπεριλαμβανομένου του εκτελεστικού διευθυντή του OpenAI Sam Altman και του επικεφαλής Google DeepMind Ντέμης Χασάμπης. Οι νικητές του βραβείου Turing, Geoffrey Hinton και Joshua Bengio, που πολλοί θεωρούν νονοί της σύγχρονης τεχνητής νοημοσύνης, υπέγραψαν επίσης τη δήλωση.

Αυτή είναι η δεύτερη τέτοια δήλωση τους τελευταίους μήνες. Τον Μάρτιο, ο Musk, ο Steve Wozniak και περισσότεροι από 1000 άλλοι ζήτησαν μια εξάμηνη παύση στην ανάπτυξη της τεχνητής νοημοσύνης για να επιτρέψουν στη βιομηχανία και το κοινό να κυριαρχήσουν αποτελεσματικά στην τεχνολογία. «Τους τελευταίους μήνες, τα εργαστήρια τεχνητής νοημοσύνης έχουν εμπλακεί σε έναν ανεξέλεγκτη κούρσα για την ανάπτυξη και την εφαρμογή ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς -ακόμη και οι δημιουργοί τους- δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα», αναφέρει η επιστολή.

Ενώ η τεχνητή νοημοσύνη (πιθανώς) δεν είναι τόσο συνειδητοποιημένη όσο κάποιοι φοβούνται, ήδη εγκυμονεί κινδύνους κατάχρησης και βλάβης μέσω πλαστών, αυτοματοποιημένης παραπληροφόρησης και άλλων. Η τεχνητή νοημοσύνη μπορεί επίσης να αλλάξει τον τρόπο παραγωγής περιεχομένου, τέχνης και λογοτεχνίας, επηρεάζοντας δυνητικά πολλές θέσεις εργασίας.

Ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν δήλωσε πρόσφατα ότι «μένει να φανεί» εάν η τεχνητή νοημοσύνη είναι επικίνδυνη, προσθέτοντας: «Κατά τη γνώμη μου, οι εταιρείες τεχνολογίας έχουν υποχρέωση να βεβαιωθούν ότι τα προϊόντα τους είναι ασφαλή προτού τα κυκλοφορήσουν στον κόσμο... Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην αντιμετώπιση ορισμένων πολύ δύσκολων προβλημάτων όπως οι ασθένειες και η κλιματική αλλαγή, αλλά πρέπει επίσης να λάβει υπόψη τους πιθανούς κινδύνους για την κοινωνία, την οικονομία μας, την εθνική μας ασφάλεια». Σε πρόσφατη συνάντηση στον Λευκό Οίκο, ο Άλτμαν ζήτησε ρύθμιση της τεχνητής νοημοσύνης λόγω των πιθανών κινδύνων.

Δεδομένου του ευρέος φάσματος απόψεων, η νέα σύνοψη στοχεύει να καταδείξει μια κοινή ανησυχία σχετικά με τους κινδύνους που συνδέονται με την τεχνητή νοημοσύνη, ακόμη και αν τα μέρη διαφωνούν σχετικά με το ποιοι είναι αυτοί οι κίνδυνοι.

Όλα συμπεριλαμβάνονται

«Εμπειρογνώμονες τεχνητής νοημοσύνης, δημοσιογράφοι, πολιτικοί και το κοινό συζητούν όλο και περισσότερο ένα ευρύ φάσμα σημαντικών και πιεστικών κινδύνων που συνδέονται με την τεχνητή νοημοσύνη», αναφέρει το προοίμιο της δήλωσης. «Ωστόσο, μπορεί να είναι δύσκολο να εκφράσουμε ανησυχία για ορισμένους από τους πιο σοβαρούς κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη. Η συνοπτική δήλωση παρακάτω στοχεύει να ξεπεράσει αυτό το εμπόδιο και να ανοίξει τη συζήτηση. Έχει επίσης σχεδιαστεί για να ενημερώνει τον αυξανόμενο αριθμό ειδικών και δημοσίων προσώπων που λαμβάνουν επίσης σοβαρά υπόψη ορισμένους από τους πιο σοβαρούς κινδύνους που σχετίζονται με την τεχνητή νοημοσύνη».

Διαβάστε επίσης:

ΠηγήEngadget
Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια
Εγγραφείτε για ενημερώσεις