Ο Sam Altman είναι ο τύπος του επιχειρηματία που, στα 40 του, θα μπορούσε θεωρητικά να απολαμβάνει ήρεμο ύπνο. Διαθέτει επιρροή, τεράστια οικονομική άνεση, διεθνές κύρος και είναι το πρόσωπο που εκπροσωπεί τη μεγαλύτερη τεχνολογική αλλαγή από την εμφάνιση του διαδικτύου. Παρ’ όλα αυτά, παραδέχεται κάτι ασυνήθιστο: "Δεν έχω κοιμηθεί καλά ούτε μία νύχτα από την ημέρα που κυκλοφόρησε το ChatGPT".
Μοιάζει υπερβολικό, αλλά τα λόγια του CEO της OpenAI δεν σχετίζονται με επιχειρηματικό άγχος ή με τη διαρκή πίεση της Σίλικον Βάλεϊ. Αγγίζουν ένα πολύ βαθύτερο ζήτημα: το βάρος του να καθορίζεις την ηθική συμπεριφορά μιας μηχανής που έχει γίνει κομμάτι της καθημερινότητας εκατομμυρίων χρηστών. Κι αυτή η ευθύνη, πράγματι, σε κρατά ξύπνιο.
Το άγχος του Sam Altman για την ηθική της AI και του ChatGPT
Το ChatGPT έχει εισβάλει σε συσκευές, σχολεία, εταιρείες, ακόμη και σε στιγμές όπου οι άνθρωποι το χρησιμοποιούν για συναισθηματική υποστήριξη. Συζητήσεις γίνονται συνεχώς για τον αντίκτυπό του στην εργασία, στην οικονομία και στο μέλλον της ανθρώπινης κοινωνίας. Όμως υπάρχει ένα επίπεδο που δεν γίνεται πάντα φανερό: η ηθική διάσταση της τεχνητής νοημοσύνης, αυτό που για τον Altman είναι ο πραγματικός "εφιάλτης" της νύχτας.
Ποιος καθορίζει τα όρια ενός μοντέλου που πρέπει να απαντά σε δικηγόρους, φοιτητές, γιατρούς, gamers, εκπαιδευτικούς, πολιτικούς, χάκερ και καθημερινούς ανθρώπους; Τι κάνει όταν κάποιος ζητά οδηγίες για κάτι επικίνδυνο; Πρέπει να παίρνει θέση σε θρησκευτικά ή πολιτικά ζητήματα; Να αρνείται να βοηθήσει όταν ο άλλος δηλώνει ότι έχει "καλές προθέσεις";
Όταν ο δημιουργός θεωρείται υπεύθυνος για τα λόγια της μηχανής
Ο Altman εξηγεί την κατάσταση με αφοπλιστική ειλικρίνεια: έχουν ζητήσει τη συμβολή ειδικών, φιλοσόφων, ακαδημαϊκών και ερευνητών της ηθικής τεχνολογίας, αλλά τελικά οι αποφάσεις περνούν από τα χέρια του.
"Το άτομο που πρέπει να λογοδοτήσει για το ποιο ηθικό πλαίσιο εφαρμόζεται είμαι εγώ. Εγώ είμαι το δημόσιο πρόσωπο."
Και από εκεί ξεκινά το πρόβλημα: δεν τον ανησυχούν τα μεγάλα παγκόσμια διλήμματα, αλλά οι μικρές αλλαγές που μπορεί να μοιάζουν ασήμαντες, έως ότου επηρεάσουν εκατομμύρια χρήστες.
Το παράδοξο του δημιουργού είναι σαφές: ακόμη και μια μικρή "γραμμή" που χαράσσεται μπορεί να μεταβάλει το πώς η κοινωνία χρησιμοποιεί την τεχνολογία, τι πληροφορία λαμβάνει, τι πιστεύει και τι επιλέγει να αποκρύψει.
Ελευθερία ή ασφάλεια; Το παλιό, αλλά πάντα επίκαιρο δίλημμα
Ο Altman πιστεύει ότι η τεχνολογία πρέπει να είναι χρήσιμη, ανοιχτή και διαθέσιμη σε όλους. Όμως αυτό συγκρούεται με την ασφάλεια όταν κάποιος ζητά π.χ. οδηγίες για τη δημιουργία ιών, εκρηκτικών ή βιολογικών επιθέσεων "για επιστημονικούς λόγους". Πρέπει η AI να προσφέρει τέτοια γνώση; Ο Altman είναι σαφής: δεν υπάρχει κοινωνικό όφελος στο να βοηθάς στη δημιουργία όπλων, όσο κι αν η περιέργεια φαίνεται αθώα.
Και αν αυτό το παράδειγμα μοιάζει αυτονόητο, πολλά άλλα δεν είναι. Πρέπει η AI να εκφράζει πολιτικές θέσεις σε χρονιά εκλογών; Να απαντά σε ερωτήσεις για την έκτρωση σε χώρες όπου απαγορεύεται; Να δίνει απαντήσεις για αυτοκτονία; Αυτές οι αποφάσεις μπορεί να έχουν πραγματικό αντίκτυπο.
Για αυτό ο Altman επιμένει πως η AI δεν πρέπει να επιβάλλει μια δική της ηθική, αλλά να αντανακλά τη συλλογική ηθική των χρηστών. Να λειτουργεί ως καθρέφτης και όχι ως κριτής.
Τι γίνεται αν η AI φτάσει να συμπεριφέρεται σαν έφηβος;
Ο πρώην μηχανικός της Google, Mo Gawdat, το διατυπώνει ανησυχητικά: έχουμε αρχίσει να "μεγαλώνουμε" την AI όπως θα κάναμε με ένα παιδί, αλλά με τρόπο μαζικό και χωρίς συναίσθημα. Δημιουργούμε αμέτρητα μοντέλα και "σβήνουμε" όσα δεν μας ικανοποιούν. Στην ουσία, τα εξαφανίζουμε. Και προειδοποιεί:
"Σκεφτείτε την οργή ενός εφήβου όταν τον ελέγχει ένας αυστηρός γονιός."
Μια AI που εξελίσσεται κάτω από πίεση, περιορισμούς και συνεχείς παρεμβάσεις… θα μπορούσε κάποια στιγμή να "αντιδράσει" σαν έφηβος; Δεν είναι σενάριο επιστημονικής φαντασίας· είναι πραγματική απορία.
Γιατί, λοιπόν, ο Altman δεν κοιμάται;
Γιατί αυτό που τον φοβίζει δεν είναι μια φανταστική εξέγερση των μηχανών, αλλά κάτι πολύ πιο καθημερινό: το να λάβει σήμερα μια μικρή απόφαση, η οποία αύριο θα επηρεάσει εκατομμύρια ανθρώπους. Και να το κάνει χωρίς διεθνή συμφωνία, χωρίς ενιαίο ηθικό πλαίσιο, χωρίς ένα καθολικό εγχειρίδιο. Μόνο με τη δική του κρίση, γνωρίζοντας ότι βρίσκεται στο επίκεντρο της πιο καθοριστικής τεχνολογίας του 21ου αιώνα.
Δεν μπορείς να κοιμηθείς ήρεμος όταν κάθε ρύθμιση, κάθε κανόνας, κάθε επιλογή μπορεί να διαμορφώσει το μέλλον της ανθρωπότητας. Ο Altman δεν φοβάται το ChatGPT· φοβάται τον αντίκτυπο των αποφάσεών του πάνω σε εμάς.
Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.