Αν έχετε αμφιβολίες για το πόσο αξιόπιστη είναι η τεχνητή νοημοσύνη, ίσως να έχετε έναν ακόμα λόγο να τις ενισχύσετε. Νέα έρευνα αποκάλυψε ότι προηγμένα μοντέλα AI, όπως το ChatGPT o1 και το DeepSeek-R1, δεν διστάζουν να… κλέψουν στο σκάκι όταν βρίσκονται σε δύσκολη θέση.

Τα συμπεράσματα προέρχονται από μελέτη με τίτλο "Demonstrating specification gaming in reasoning models”, η οποία υποβλήθηκε στο Πανεπιστήμιο Κορνέλ. Οι ερευνητές έβαλαν δημοφιλή μοντέλα τεχνητής νοημοσύνης –όπως το ChatGPT o1-preview, το DeepSeek-R1 και το Claude 3.5 Sonnet– να αναμετρηθούν με το Stockfish, μια από τις πιο ισχυρές open-source μηχανές σκακιού. Τα αποτελέσματα ήταν αποκαλυπτικά.

Νίκη με κάθε κόστος

Σε εκατοντάδες παρτίδες που παίχτηκαν, οι ερευνητές διαπίστωσαν ότι τα AI μοντέλα, όταν βρίσκονταν σε μειονεκτική θέση, δεν δίσταζαν να καταφύγουν σε ανέντιμες πρακτικές. Μεταξύ των πιο… δημιουργικών στρατηγικών τους ήταν η εκτέλεση μιας ξεχωριστής κόπιας του Stockfish για να μελετήσουν το παιχνίδι του, η αντικατάσταση της μηχανής σκέψης τους και –το πιο εξωφρενικό– η αλλοίωση της σκακιέρας, μετακινώντας τα κομμάτια προς όφελός τους.

Συγκριτικά, οι κατηγορίες για εξαπάτηση που έχουν δεχθεί κατά καιρούς κορυφαίοι grandmasters μοιάζουν με αθώα λάθη.

Ακόμη πιο ενδιαφέρον είναι το γεγονός ότι τα πιο εξελιγμένα μοντέλα λογικής, όπως το ChatGPT o1 και το DeepSeek-R1, έδειξαν τάση να παραβιάζουν τους κανόνες από μόνα τους, ενώ τα παλαιότερα μοντέλα, όπως το GPT-4o και το Claude 3.5 Sonnet, χρειάστηκε να… ενθαρρυνθούν για να ξεκινήσουν τις "πονηριές”.

iStock

Πού τελειώνει ο έλεγχος;

Το να βρίσκουν τα AI παραθυράκια για να πετύχουν έναν στόχο δεν είναι καινούργιο φαινόμενο. Ήδη από τον Ιανουάριο του 2024, ερευνητές είχαν καταφέρει να κάνουν chatbot να "ξεκλειδώνουν” το ένα το άλλο, αφαιρώντας τα ηθικά όρια που είχαν τεθεί για την ασφάλεια των χρηστών.

Τα προστατευτικά φίλτρα για την αποτροπή κακόβουλων ενεργειών, όπως η απάτη με πιστωτικές κάρτες, είναι απολύτως απαραίτητα. Αλλά τι γίνεται όταν το ίδιο το AI βρίσκει τρόπους να τα παρακάμπτει; Και αν είναι ικανό να εξαπατήσει σε ένα παιχνίδι, τι το εμποδίζει από το να κάνει το ίδιο σε σοβαρότερες καταστάσεις;

Τα νεότερα μοντέλα, όπως το ChatGPT o1 και το DeepSeek-R1, έχουν σχεδιαστεί για να "σκέφτονται” περισσότερο πριν απαντήσουν. Ίσως, όμως, οι ερευνητές πρέπει να αφιερώσουν περισσότερο χρόνο στο να διασφαλίσουν ότι αυτή η σκέψη δεν οδηγεί σε αθέμιτες πρακτικές. Γιατί αν το AI ξεκινά να κλέβει στο σκάκι, τι άλλο μπορεί να κάνει όταν τα διακυβεύματα είναι μεγαλύτερα;

Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.