Ενώ ο πολύς κόσμος, ο εκ πρώτης όψεως τάχα μου υποψιασμένος, ανησυχεί για το επαγγελματικό του μέλλον την εποχή του ChatGPT, υπάρχει κάτι άλλο που του διαφεύγει, κάτι πιο σημαντικό. Το φλέγον θέμα της ασφάλειας των προσωπικών δεδομένων στο hypeάτο chatbot που αναπτύχθηκε από την εταιρεία Open AI.

Οι όροι χρήσης του ChatGPT

Ο δικηγόρος Ernesto Belisario, από τους κορυφαίους ειδικούς επί θεμάτων ασφαλείας προσωπικών δεδομένων στην Ευρώπη, αναφέρει ότι οι όροι χρήσης του συγκεκριμένου chatbot εκτείνονται σε ένα κείμενο περίπου 3.500 λέξεων, ενώ η πολιτική απορρήτου του ξεδιπλώνεται μέσα σε 2.000 λέξεις. Η έκταση αυτών των κειμένων, όμως, σύμφωνα με τον ίδιο, είναι αντιστρόφως ανάλογη της κατατοπιστικότητας τους και των πληροφοριών που δίνουν στον χρήστη - ο οποίος, κατά κανόνα, αποδέχεται το περιεχόμενό τους χωρίς να τα διαβάσει.

Έτσι, πολλοί δεν γνωρίζουν ότι η χρήση του ChatGPT επιτρέπεται μόνο σε άτομα 18 ετών και άνω ή πως οι υπηρεσίες του παρέχονται με ευθύνη του χρήστη και χωρίς εγγυήσεις, με το μέγιστο ποσό για αποζημίωση βλάβης (π.χ. από λογοκλοπή, απάτη, κυβερνοέγκλημα) να είναι τα 100 δολάρια. Επίσης, αγνοούν την υποχρέωση της ύπαρξης σήμανσης στο παραχθέν content, η οποία να πληροφορεί ότι αποτελεί προϊόν χρήσης συστήματος τεχνητής νοημοσύνης.

Getty Images

Τέλος, σύμφωνα με τον Belisario, το ChatGPT ουσιαστικά φαίνεται να αγνοεί τα ευρωπαϊκά standards για την προστασία των προσωπικών δεδομένων, καθώς υπάρχουν αναφορές μόνο στη νομοθεσία που ισχύει στην Καλιφόρνια. 

Ένα chatbot εξομολογείται

Τι να σκέφτεται όμως το ίδιο το ChatGPT για τους όρους χρήσης του; Όταν από το ιταλικό Esquire του έθεσαν το σχετικό ερώτημα, αυτό αποκρίθηκε ότι είναι μια εφαρμογή τεχνητής νοημοσύνης που επιτρέπει τον διάλογο και τις απαντήσεις, το οποίο αναπτύχθηκε από την εταιρεία OpenAI και δεν μπορεί να έχει προσωπική άποψη. Όσον αφορά το ζήτημα των προσωπικών δεδομένων; Παραδέχεται το ότι δεν μπορεί να εγγυηθεί στο 100% την ασφάλειά τους.

 

Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.