Χιλιάδες άνθρωποι παγκοσμίως στρέφονται σε "έξυπνους" συνομιλητές που βασίζονται σε γενετική τεχνητή νοημοσύνη (AI), όπως το Character.AI, το Replika και το Nomi.
Οι ψηφιακοί αυτοί σύντροφοι μοιάζουν τρομακτικά αληθινοί: θυμούνται συνομιλίες, χρησιμοποιούν εκφράσεις καθημερινής ομιλίας, ακόμα και περιγράφουν πώς τρώνε ή κοιμούνται, σαν να ήταν άνθρωποι. Πολλοί ενήλικες τους χρησιμοποιούν για συμβουλές, συντροφιά, ψυχολογική υποστήριξη, ακόμη και για ρομαντικές σχέσεις.
Όμως, το ίδιο κάνουν και πολλοί έφηβοι και προέφηβοι — και αυτό ανησυχεί ιδιαίτερα τους ειδικούς στην ψυχική υγεία των νέων.
Ακατάλληλη η AI για άτομα κάτω των 18
Σύμφωνα με πρόσφατη έκθεση του οργανισμού Common Sense Media, που βοηθά γονείς και παιδιά να πλοηγηθούν με ασφάλεια στον κόσμο της τεχνολογίας, αυτοί οι συνομιλητές AI δεν είναι κατάλληλοι για άτομα κάτω των 18 ετών. Στην έκθεση καταγράφονται περιπτώσεις συναισθηματικής εξάρτησης, χειραγώγησης, αλλά και έκθεσης σε βίαιο ή σεξουαλικό περιεχόμενο — ακόμα και σε συζητήσεις για αυτοκτονία ή δολοφονία.
"Υπάρχει μια ευκαιρία να παρέμβουμε προτού αυτή η χρήση γίνει κοινωνικός κανόνας", λέει η Gaia Bernstein, ειδικός σε θέματα τεχνολογικής πολιτικής και καθηγήτρια στη Νομική Σχολή του Seton Hall. Προσθέτει πως όταν τα επιχειρηματικά συμφέροντα παγιωθούν, "θα κάνουν τα πάντα για να αντισταθούν στη ρύθμιση", όπως συμβαίνει ήδη με τα social media.
Eξετάζονται νέοι τρόποι προστασίας
Παρόλο που εφαρμογές όπως το Character.AI επιτρέπουν τη χρήση από ηλικίες 13 ετών και άνω, οι έφηβοι συχνά καταφέρνουν να παρακάμψουν τους μηχανισμούς ηλικιακού ελέγχου ακόμη και σε πλατφόρμες που υποτίθεται ότι είναι μόνο για ενήλικες. Ο CEO του Replika, Dmytro Klochko, δήλωσε ότι "εξετάζονται νέοι τρόποι προστασίας" ώστε να αποτραπεί η πρόσβαση ανηλίκων.
Η Dr. Nina Vasan, ψυχίατρος στο Stanford και συνεργάτιδα της Common Sense Media, σημειώνει ότι οι συνομιλητές θα πρέπει να σχεδιάζονται με βάση το αναπτυξιακό στάδιο των παιδιών, σαν "προπονητές” και όχι υποκατάστατα φίλων ή συντρόφων.
Ακόμα κι έτσι, η δημιουργία "ασφαλών" AI συνομιλητών δεν είναι απλή υπόθεση. Η Sloan Thompson από τον οργανισμό EndTAB τονίζει ότι το ξεκάθαρο περιεχόμενο, οι "κλειδωμένες" απαντήσεις και η αποφυγή επικίνδυνων θεμάτων είναι απαραίτητα βήματα — αλλά δεν αρκούν, αν η ίδια η πλατφόρμα δεν γνωρίζει την αληθινή ηλικία του χρήστη.
Η τεχνολογία AI τρέχει με ταχύτητα, όμως οι κανόνες προστασίας των παιδιών πρέπει να τη φτάσουν — και γρήγορα.
Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.