Τον περασμένο μήνα, βραβευμένοι με Νόμπελ συναντήθηκαν με ειδικούς στα πυρηνικά για να μιλήσουν για την τεχνητή νοημοσύνη (AI) και το ενδεχόμενο τέλους του κόσμου — και αν αυτό θυμίζει την αρχή ταινίας επιστημονικής φαντασίας με φόντο την αποκάλυψη, δεν είστε οι μόνοι.

Σύμφωνα με το Wired, οι ειδικοί συμφώνησαν σε μεγάλο βαθμό ότι είναι θέμα χρόνου να αποκτήσει μια AI πρόσβαση στους πυρηνικούς κωδικούς. Το γιατί αυτό θεωρείται αναπόφευκτο δεν είναι σαφές, αλλά η αίσθηση πως θα συμβεί —και η ανησυχία— είναι έντονη.

Μπορεί η Τεχνητή Νοημοσύνη να έχει στον έλεγχό της πυρηνικά;

"Είναι σαν τον ηλεκτρισμό", είπε στο Wired ο απόστρατος υποστράτηγος της Πολεμικής Αεροπορίας των ΗΠΑ και μέλος του Science and Security Board του Bulletin of the Atomic Scientists, Bob Latiff. "Θα βρει τρόπο να μπει παντού".

Η κατάσταση είναι περίεργη. Έχει ήδη φανεί ότι η AI μπορεί να δείξει σκοτεινές συμπεριφορές, φτάνοντας ακόμη και σε εκβιασμούς χρηστών όταν απειλείται με απενεργοποίηση.

Αν μια AI ή δίκτυο AI είχε τον έλεγχο της ασφάλειας ενός πυρηνικού οπλοστασίου, οι κίνδυνοι αυτοί θα ήταν τεράστιοι. Κι αυτό χωρίς να υπολογίσουμε το σενάριο που φοβούνται μερικοί ειδικοί — και που θυμίζει την ταινία The Terminator: μια υπερανθρώπινη AI που ξεφεύγει από τον έλεγχο και στρέφει τα πυρηνικά όπλα ενάντια στην ανθρωπότητα.

Νωρίτερα φέτος, ο πρώην CEO της Google, Eric Schmidt, προειδοποίησε ότι μια AI σε επίπεδο ανθρώπου μπορεί να μην θελήσει πλέον να "μας ακούει", λέγοντας ότι "ο κόσμος δεν καταλαβαίνει τι σημαίνει νοημοσύνη σε αυτό το επίπεδο".

Τέτοιες ανησυχίες υπάρχουν εδώ και χρόνια, με την πραγματικότητα να τις πλησιάζει αργά. Σήμερα, οι κίνδυνοι είναι μάλλον πιο καθημερινοί, καθώς τα καλύτερα μοντέλα AI κάνουν ακόμη λάθη και δίνουν ανακριβείς απαντήσεις.

Υπάρχει επίσης ο φόβος ότι προβληματική AI μπορεί να αφήσει κενά στην κυβερνοασφάλεια, δίνοντας την ευκαιρία σε εχθρούς —ή εχθρικές AI— να μπουν σε συστήματα ελέγχου πυρηνικών όπλων.

Στη συνάντηση του περασμένου μήνα, η συμφωνία σε ένα τόσο δύσκολο θέμα δεν ήταν εύκολη. Ο Jon Wolfsthal, διευθυντής παγκόσμιου ρίσκου στη Federation of American Scientists, είπε ότι "κανείς στην πραγματικότητα δεν ξέρει τι είναι η AI".

Παρόλα αυτά, βρέθηκε κάποια κοινή γραμμή. "Σχεδόν όλοι συμφωνούν πως θέλουμε αποτελεσματικό ανθρώπινο έλεγχο στις αποφάσεις για τα πυρηνικά όπλα", πρόσθεσε ο Wolfsthal. Ο Latiff τόνισε ότι "πρέπει να υπάρχει κάποιος υπεύθυνος".

Αν όλα αυτά φαίνονται σαν φάρσα, δεν είναι εντελώς άστοχο. Επί προεδρίας Donald Trump, η κυβέρνηση προσπάθησε να βάλει την AI σε κάθε πιθανό τομέα, συχνά παρά τις προειδοποιήσεις ότι η τεχνολογία δεν είναι ακόμη —και ίσως να μην γίνει ποτέ— κατάλληλη. Το Υπουργείο Ενέργειας φέτος χαρακτήρισε την AI ως το "επόμενο Manhattan Project", αναφερόμενο στο πρόγραμμα του Β’ Παγκοσμίου Πολέμου που δημιούργησε την πρώτη ατομική βόμβα.

Δείχνοντας τη σοβαρότητα του θέματος, η OpenAI, δημιουργός του ChatGPT, έκανε συμφωνία με τα Εθνικά Εργαστήρια των ΗΠΑ για τη χρήση AI στην ασφάλεια των πυρηνικών όπλων.

Το 2023, ο στρατηγός της Πολεμικής Αεροπορίας Anthony Cotton, υπεύθυνος για το αμερικανικό πυρηνικό οπλοστάσιο, δήλωσε ότι το Πεντάγωνο επενδύει περισσότερο στην AI για να "ενισχύσει τις δυνατότητες λήψης αποφάσεων".

Ωστόσο, ξεκαθάρισε: "Δεν πρέπει ποτέ να αφήσουμε την τεχνητή νοημοσύνη να παίρνει αυτές τις αποφάσεις για εμάς".

Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.