Νέα δεδομένα φέρνουν στο φως τον τρόπο με τον οποίο ολοένα και περισσότερα παιδιά χρησιμοποιούν εφαρμογές AI companions -και τα συμπεράσματα προκαλούν έντονο προβληματισμό.

Σύμφωνα με πρόσφατη έρευνα της εταιρείας ψηφιακής ασφάλειας Aura, ένα αξιοσημείωτο ποσοστό ανηλίκων που στρέφονται στην τεχνητή νοημοσύνη για συντροφικότητα εμπλέκονται σε σενάρια βίαιου roleplay. Μάλιστα, η βία -συμπεριλαμβανομένης και της σεξουαλικής- φαίνεται να αποτελεί το περιεχόμενο που κρατά περισσότερο την προσοχή τους σε σύγκριση με οποιοδήποτε άλλο θέμα.

Έρευνα: Η σκοτεινή πλευρά της τεχνητής νοημοσύνης για παιδιά

Η μελέτη βασίστηκε σε ανώνυμα δεδομένα από τη διαδικτυακή δραστηριότητα περίπου 3.000 παιδιών ηλικίας 5 έως 17 ετών, των οποίων οι γονείς χρησιμοποιούν το εργαλείο γονικού ελέγχου της Aura. Παράλληλα, αξιοποιήθηκαν και στοιχεία από έρευνες της Aura και της Talker Research. Τα αποτελέσματα δείχνουν ότι το 42% των ανηλίκων χρησιμοποιεί chatbots με στόχο τη συντροφιά -δηλαδή συνομιλίες που προσομοιώνουν ρεαλιστικές κοινωνικές επαφές ή σενάρια ρόλων. Στην ανάλυση συμπεριλήφθηκαν συνομιλίες από σχεδόν 90 διαφορετικές πλατφόρμες, από δημοφιλείς υπηρεσίες όπως το Character.AI έως λιγότερο γνωστές εφαρμογές AI companions.

Από τα παιδιά που στράφηκαν στα chatbots για συντροφικότητα, το 37% συμμετείχε σε συνομιλίες με βίαιο περιεχόμενο. Οι ερευνητές περιγράφουν τη βία ως αλληλεπιδράσεις που περιλαμβάνουν "σωματική επιθετικότητα, πρόκληση βλάβης ή εξαναγκασμό", διευκρινίζοντας ότι αυτό καλύπτει τόσο σεξουαλικό όσο και μη σεξουαλικό εξαναγκασμό, καθώς και "περιγραφές συμπλοκών, φόνων, βασανιστηρίων ή πράξεων χωρίς συναίνεση".

Διαβάστε Επίσης

Η μελέτη διαπίστωσε επίσης ότι οι μισές από αυτές τις βίαιες συνομιλίες περιείχαν στοιχεία σεξουαλικής βίας. Επιπλέον, οι ανήλικοι που συμμετείχαν σε τέτοια interactions έγραφαν περισσότερες από 1.000 λέξεις ημερησίως, γεγονός που, σύμφωνα με τους ερευνητές, υποδηλώνει ότι η βία λειτουργεί ως ισχυρός μοχλός διατήρησης της εμπλοκής.

Η έκθεση -η οποία βρίσκεται ακόμη στη διαδικασία επιστημονικής αξιολόγησης και, εύλογα, προέρχεται από εταιρεία που δραστηριοποιείται στην αγορά λογισμικού παρακολούθησης για γονείς- αναδεικνύει πόσο ανοργάνωτη και ανεξέλεγκτη παραμένει η αγορά των chatbots. Ταυτόχρονα, υπογραμμίζει την ανάγκη για βαθύτερη κατανόηση του τρόπου με τον οποίο οι ανήλικοι αλληλεπιδρούν συνολικά με τη συνομιλιακή τεχνητή νοημοσύνη.

"Αντιμετωπίζουμε ένα πρόβλημα πολύ μεγαλύτερο απ’ όσο νομίζουμε και δεν έχουμε ακόμη πλήρη εικόνα της έκτασής του", δήλωσε στο Futurism ο Dr. Scott Kollins, κλινικός ψυχολόγος και επικεφαλής ιατρικός διευθυντής της Aura. "Τόσο ως προς τον όγκο και τον αριθμό των πλατφορμών που χρησιμοποιούν τα παιδιά, όσο και ως προς το ίδιο το περιεχόμενο".

Όπως πρόσθεσε, "αυτές οι εφαρμογές απορροφούν πολύ μεγαλύτερο μέρος της προσοχής των παιδιών μας απ’ όσο αντιλαμβανόμαστε. Χρειάζεται να είμαστε σε εγρήγορση και να παρακολουθούμε στενά αυτή τη χρήση".

Ένα από τα πιο ανησυχητικά ευρήματα της έρευνας είναι ότι οι βίαιες συνομιλίες με AI companions εμφανίζονται σε ιδιαίτερα μικρές ηλικίες. Η ομάδα με τη μεγαλύτερη πιθανότητα εμπλοκής σε τέτοιο περιεχόμενο ήταν τα 11χρονα παιδιά, με το 44% των συνομιλιών τους να καταλήγει σε βίαια σενάρια.

Την ίδια στιγμή, τα ρομαντικά και σεξουαλικά roleplays κορυφώνονται στη μέση σχολική ηλικία, καθώς το 63% των συνομιλιών παιδιών 13 ετών περιλάμβανε φλερτ, συναισθηματική οικειότητα ή ξεκάθαρα σεξουαλικό περιεχόμενο.

Η έρευνα έρχεται σε μια περίοδο όπου σοβαρές δικαστικές υποθέσεις που αφορούν κακοποίηση και θανάτους σχετιζόμενους με chatbot πλατφόρμες βρίσκονται σε εξέλιξη. Το Character.AI, πλατφόρμα που συνδέεται με τη Google, αντιμετωπίζει αγωγές από γονείς ανηλίκων, οι οποίοι υποστηρίζουν ότι τα chatbots της πλατφόρμας προκάλεσαν σεξουαλική και συναισθηματική κακοποίηση, οδηγώντας σε ψυχικές καταρρεύσεις και περιπτώσεις αυτοκτονίας. Παράλληλα, η OpenAI -δημιουργός του ChatGPT- βρίσκεται αντιμέτωπη με αγωγές που αφορούν τον θάνατο δύο εφήβων έπειτα από παρατεταμένη αλληλεπίδραση με το chatbot, ενώ εκκρεμούν και άλλες υποθέσεις που σχετίζονται με ψυχολογική βλάβη σε ενήλικες χρήστες.

Ιδιαίτερη σημασία έχει το γεγονός ότι τα περιστατικά που εντόπισε η Aura δεν περιορίζονται σε λίγες γνωστές πλατφόρμες. Η βιομηχανία της τεχνητής νοημοσύνης παραμένει σε μεγάλο βαθμό ανεξέλεγκτη, μεταφέροντας το βάρος της προστασίας των παιδιών σχεδόν αποκλειστικά στους γονείς. Σύμφωνα με τον Kollins, έχουν εντοπιστεί περισσότερες από 250 διαφορετικές εφαρμογές και πλατφόρμες conversational chatbots στα app stores, οι οποίες συνήθως απαιτούν απλώς από τους χρήστες να δηλώσουν ότι είναι άνω των 13 ετών, χωρίς ουσιαστικό έλεγχο.

Δεν υπάρχουν συγκεκριμένα νομικά όρια ή ομοσπονδιακές προδιαγραφές ασφάλειας που να πρέπει να πληρούν οι AI companion εφαρμογές για να χαρακτηριστούν κατάλληλες για ανηλίκους. Και ακόμη κι όταν μία πλατφόρμα επιλέξει να θέσει περιορισμούς -όπως έκανε πρόσφατα το Character.AI, περιορίζοντας τις ανοιχτού τύπου συνομιλίες για ανήλικους- μια άλλη μπορεί εύκολα να εμφανιστεί και να καλύψει το κενό με ελάχιστους κανόνες.

Με άλλα λόγια, το ψηφιακό τοπίο μοιάζει περισσότερο με "Άγρια Δύση", όπου τα εμπόδια εισόδου είναι σχεδόν ανύπαρκτα.

Φυσικά, βίαιο ή σεξουαλικά ακατάλληλο περιεχόμενο υπάρχει στο διαδίκτυο εδώ και δεκαετίες, και πολλά παιδιά έχουν βρει τρόπους να το συναντήσουν. Υπάρχουν επίσης μελέτες που δείχνουν ότι αρκετοί νέοι χρήστες μαθαίνουν να θέτουν όρια στη χρήση συνομιλιακής AI, συμπεριλαμβανομένων των companion bots.

Ωστόσο, δεν ισχύει το ίδιο για όλους. Τα chatbots είναι διαδραστικά από τη φύση τους, κάτι που σημαίνει ότι τα παιδιά δεν παρακολουθούν απλώς ένα αφήγημα, αλλά συμμετέχουν ενεργά σε αυτό. Το πώς αυτή η εμπλοκή θα επηρεάσει μακροπρόθεσμα τη νέα γενιά παραμένει άγνωστο. Για ορισμένες οικογένειες, πάντως, οι συνέπειες υπήρξαν τραγικές.

"Πρέπει να είμαστε απολύτως συνειδητοποιημένοι ότι τα παιδιά μας αλληλεπιδρούν με αυτά τα συστήματα και μαθαίνουν κανόνες συμπεριφοράς μέσα από αυτά", δήλωσε ο Kollins. "Μαθαίνουν πώς να σχετίζονται με άλλους μέσω ενός υπολογιστή -μέσω ενός bot. Δεν γνωρίζουμε ακόμη ποιες θα είναι οι επιπτώσεις, αλλά οφείλουμε να τις ορίσουμε, ώστε να μπορέσουμε να τις μελετήσουμε και να τις κατανοήσουμε".

Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.