Πέμπτη 28 Μαρτίου 2024

επιτραπέζιος υπολογιστής v4.2.1

Root NationΝέαειδήσεις πληροφορικήςΟ πρώην επικεφαλής της Google συνέκρινε την τεχνητή νοημοσύνη με τα πυρηνικά όπλα

Ο πρώην επικεφαλής της Google συνέκρινε την τεχνητή νοημοσύνη με τα πυρηνικά όπλα

-

Ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, συνέκρινε την τεχνητή νοημοσύνη (AI) με τα πυρηνικά όπλα και ζήτησε ένα καθεστώς αποτροπής, παρόμοιο με την αμοιβαία εξασφαλισμένη καταστροφή, που εμποδίζει τα πιο ισχυρά έθνη του κόσμου να καταστρέφουν το ένα το άλλο.

Ο πρώην επικεφαλής της Google συνέκρινε την τεχνητή νοημοσύνη με τα πυρηνικά όπλα

Ο Schmidt μίλησε για τους κινδύνους της τεχνητής νοημοσύνης στο Aspen Security Forum στις 22 Ιουλίου κατά τη διάρκεια μιας συζήτησης για την εθνική ασφάλεια και την τεχνητή νοημοσύνη. Όταν ρωτήθηκε για την αξία της ηθικής στην τεχνολογία, ο Schmidt εξήγησε ότι ο ίδιος ήταν αφελής σχετικά με τη δύναμη της πληροφορίας στις πρώτες μέρες της Google. Στη συνέχεια ζήτησε η τεχνολογία να ταιριάζει καλύτερα με την ηθική και τα ήθη των ανθρώπων που υπηρετούν και έκανε μια περίεργη σύγκριση μεταξύ τεχνητής νοημοσύνης και πυρηνικών όπλων.

Ο Schmidt μίλησε για το εγγύς μέλλον, στο οποίο η Κίνα και οι Ηνωμένες Πολιτείες πρέπει να συνάψουν συμφωνία για την τεχνητή νοημοσύνη. «Στις δεκαετίες του ’50 και του ’60, καταλήξαμε να δημιουργήσουμε έναν κόσμο όπου υπήρχε ένας κανόνας «χωρίς εκπλήξεις» για τις πυρηνικές δοκιμές, και ως αποτέλεσμα, απαγορεύτηκαν», είπε ο Σμιντ. «Αυτό είναι ένα παράδειγμα ισορροπίας εμπιστοσύνης ή έλλειψης εμπιστοσύνης, αυτός είναι ο κανόνας του «χωρίς εκπλήξεις». Ανησυχώ πολύ που η άποψη των ΗΠΑ για την Κίνα ως διεφθαρμένη ή κομμουνιστική ή οτιδήποτε άλλο, και η άποψη της Κίνας για την Αμερική ως ηττημένη... θα επιτρέψει στους ανθρώπους να πουν, "Θεέ μου, κάτι σκέφτονται" και μετά κάτι ακατανόητο θα αρχίσει... .

Η τεχνητή νοημοσύνη και η μηχανική μάθηση είναι μια συναρπαστική και συχνά παρεξηγημένη τεχνολογία. Βασικά δεν είναι τόσο έξυπνος όσο νομίζει ο κόσμος. Μπορεί να δημιουργήσει έργα τέχνης σε επίπεδο αριστουργήματος, να κερδίσει κόσμο στο Starcraft II και να πραγματοποιήσει στοιχειώδεις τηλεφωνικές κλήσεις για τους χρήστες. Ωστόσο, οι προσπάθειες να το κάνουν να εκτελεί πιο δύσκολες εργασίες, όπως η οδήγηση αυτοκινήτου σε μια μεγάλη πόλη, δεν είχαν επιτυχία.

Ο Schmidt μιλά για ένα φανταστικό εγγύς μέλλον στο οποίο τόσο η Κίνα όσο και οι ΗΠΑ θα ανησυχούν για θέματα ασφάλειας, κάτι που θα τους αναγκάσει να συνάψουν ένα είδος συνθήκης για τον περιορισμό της τεχνητής νοημοσύνης. Θυμήθηκε τις δεκαετίες του 1950 και του 60, όταν η διπλωματία ανέπτυξε μια σειρά ελέγχων γύρω από τα πιο θανατηφόρα όπλα στον πλανήτη. Αλλά χρειάστηκε μια δεκαετία πυρηνικών εκρήξεων και, το πιο σημαντικό, η καταστροφή της Χιροσίμα και του Ναγκασάκι, για να έρθει η ειρήνη πριν από τη σύναψη της Συνθήκης για την Απαγόρευση των Πυρηνικών Δοκιμών, του SALT II και άλλων νομοθετικών ορόσημων.

Δύο ιαπωνικές πόλεις που καταστράφηκαν από την Αμερική στο τέλος του Β' Παγκοσμίου Πολέμου αφαίρεσαν τις ζωές δεκάδων χιλιάδων ανθρώπων και απέδειξαν στον κόσμο την αιώνια φρίκη των πυρηνικών όπλων. Τότε οι κυβερνήσεις της Ρωσίας και της Κίνας έσπευσαν να αποκτήσουν όπλα. Ο τρόπος με τον οποίο ζούμε με την πιθανότητα να χρησιμοποιηθούν αυτά τα όπλα είναι αυτό που είναι γνωστό ως Mutually Assured Destruction (MAD), μια θεωρία αποτροπής που διασφαλίζει ότι εάν μια χώρα εκτοξεύσει ένα πυρηνικό όπλο, είναι πιθανό να το κάνει και οποιαδήποτε άλλη χώρα. Δεν χρησιμοποιούμε τα πιο καταστροφικά όπλα στον πλανήτη λόγω της πιθανότητας να καταστρέψουν τουλάχιστον τον πολιτισμό σε όλο τον κόσμο.

Παρά τα πολύχρωμα σχόλια του Schmidt, δεν θέλουμε ούτε χρειαζόμαστε το MAD για AI. Πρώτον, η τεχνητή νοημοσύνη δεν έχει ακόμη αποδείξει την καταστροφική της δύναμη σε σύγκριση με τα πυρηνικά όπλα. Αλλά οι άνθρωποι στην εξουσία φοβούνται αυτή τη νέα τεχνολογία, και συνήθως για λάθος λόγους. Οι άνθρωποι έχουν προτείνει ακόμη και να παραχωρηθεί ο έλεγχος των πυρηνικών όπλων σε μια τεχνητή νοημοσύνη, πιστεύοντας ότι θα ήταν καλύτερος διαιτητής στη χρήση του από έναν άνθρωπο.

Ο πρώην επικεφαλής της Google συνέκρινε την τεχνητή νοημοσύνη με πυρηνικά όπλα

Το πρόβλημα με την τεχνητή νοημοσύνη δεν είναι ότι έχει την δυνητικά καταστροφική δύναμη ενός πυρηνικού όπλου. Το θέμα είναι ότι η τεχνητή νοημοσύνη είναι τόσο καλή όσο οι άνθρωποι που την ανέπτυξαν και ότι φέρει τις αξίες των δημιουργών της. Η τεχνητή νοημοσύνη πάσχει από το κλασικό πρόβλημα "σκουπίδια μέσα, σκουπίδια έξω": οι ρατσιστικοί αλγόριθμοι δημιουργούν ρατσιστικά ρομπότ και όλη η τεχνητή νοημοσύνη φέρει τις προκαταλήψεις των δημιουργών της.

Ο Demis Hassabis, Διευθύνων Σύμβουλος της DeepMind, της εταιρείας που εκπαίδευσε την τεχνητή νοημοσύνη που κέρδισε τους παίκτες του Starcraft II, φαίνεται να το καταλαβαίνει καλύτερα από τον Schmidt. Σε μια συνέντευξη του Ιουλίου στο podcast του Lex Friedman, ο Friedman ρώτησε τον Hassabis πώς μπορεί να ελεγχθεί μια τεχνολογία τόσο ισχυρή όσο η τεχνητή νοημοσύνη και πώς ο ίδιος ο Hassabis μπορεί να αποφύγει να αλλοιωθεί από αυτή τη δύναμη.

Η απάντηση του Khasabis αφορά τον ίδιο. «Η τεχνητή νοημοσύνη είναι πολύ μεγάλη ιδέα», είπε. «Είναι σημαντικό ποιος δημιουργεί την τεχνητή νοημοσύνη, από ποιους πολιτισμούς προέρχονται και ποιες είναι οι αξίες τους. Τα συστήματα τεχνητής νοημοσύνης θα μάθουν από μόνα τους... αλλά το σύστημα θα παραμείνει αποτυπωμένο με την κουλτούρα και τις αξίες των δημιουργών του συστήματος».

Η τεχνητή νοημοσύνη είναι μια αντανάκλαση του συγγραφέα της. Δεν μπορεί να ισοπεδώσει μια πόλη με μια έκρηξη 1,2 μεγατόνων. Εκτός κι αν κάποιος του το μάθει αυτό.

Μπορείτε να βοηθήσετε την Ουκρανία να πολεμήσει ενάντια στους Ρώσους εισβολείς. Ο καλύτερος τρόπος για να γίνει αυτό είναι να δωρίσετε χρήματα στις Ένοπλες Δυνάμεις της Ουκρανίας μέσω Savelife ή μέσω της επίσημης σελίδας NBU.

Διαβάστε επίσης:

Εγγραφείτε
Ειδοποίηση για
επισκέπτης

0 Σχόλια
Ενσωματωμένες κριτικές
Δείτε όλα τα σχόλια
Άλλα άρθρα
Εγγραφείτε για ενημερώσεις

Πρόσφατα σχόλια

Δημοφιλές τώρα
0
Αγαπάμε τις σκέψεις σας, σχολιάστε.x