Η Meta κάνει στροφή στη στρατηγική της για την ανάπτυξη της τεχνητής νοημοσύνης (AI), βάζοντας φρένο σε συστήματα που θεωρεί υπερβολικά επικίνδυνα.
Σύμφωνα με το νέο της έγγραφο πολιτικής της εταιρείας, το Frontier AI Framework, η εταιρεία ξεκαθαρίζει ότι ενδέχεται να μην διαθέσει στο κοινό ορισμένα πολύ ισχυρά AI μοντέλα, αν κρίνει ότι αποτελούν σοβαρό κίνδυνο.
Βαθμίδες επικινδυνότητας στην AI
Συγκεκριμένα, η Meta διακρίνει δύο κατηγορίες "επικίνδυνων" AI: τα συστήματα "υψηλού ρίσκου” και τα "κρίσιμου ρίσκου”. Και οι δύο τύποι έχουν τη δυνατότητα να βοηθήσουν σε κυβερνοεπιθέσεις ή ακόμα και σε χημικές και βιολογικές επιθέσεις. Η βασική διαφορά είναι ότι ένα σύστημα "κρίσιμου ρίσκου” μπορεί να οδηγήσει σε μια "καταστροφική συνέπεια" που δεν μπορεί να μετριαστεί, ενώ ένα σύστημα "υψηλού ρίσκου” μπορεί να διευκολύνει μια επίθεση, αλλά όχι με απόλυτη βεβαιότητα.
Για να γίνει πιο σαφές, η Meta δίνει παραδείγματα όπως η "αυτόματη παραβίαση ενός καλά προστατευμένου εταιρικού συστήματος" ή η "διάδοση βιολογικών όπλων μεγάλης εμβέλειας". Η λίστα κινδύνων δεν είναι όσο εκτενής θα μπορούσε να είναι, αλλά, σύμφωνα με την εταιρεία, περιλαμβάνει τα πιο άμεσα και ρεαλιστικά σενάρια που πρέπει να αντιμετωπιστούν.
Πώς καθορίζεται το ρίσκο
Αυτό που προκαλεί εντύπωση είναι ο τρόπος με τον οποίο η Meta καθορίζει το επίπεδο ρίσκου ενός συστήματος. Δεν βασίζεται σε κάποιο αντικειμενικό τεστ, αλλά στη γνώμη ερευνητών – τόσο εσωτερικών όσο και εξωτερικών – που αξιολογούνται από ανώτερα στελέχη. "Πιστεύουμε ότι η επιστήμη της αξιολόγησης δεν είναι αρκετά προηγμένη ώστε να παρέχει οριστικά ποσοτικά κριτήρια για το ρίσκο ενός συστήματος", αναφέρει η εταιρεία.
Αν μια AI κριθεί ως "υψηλού ρίσκου”, η Meta θα περιορίσει την πρόσβαση σε αυτήν και δεν θα τη διαθέσει δημόσια μέχρι να εφαρμόσει μέτρα που θα μειώσουν τον κίνδυνο. Αν όμως χαρακτηριστεί ως "κρίσιμου ρίσκου”, η ανάπτυξή της θα σταματήσει εντελώς και η εταιρεία θα λάβει πρόσθετα μέτρα ασφαλείας για να αποτρέψει τυχόν διαρροή.
Η ανοιχτή στρατηγική της Meta
Το Frontier AI Framework φαίνεται να είναι η απάντηση της Meta στην κριτική που δέχεται για την προσέγγισή της στην ανάπτυξη της AI. Ενώ άλλες εταιρείες, όπως η OpenAI, επιλέγουν να περιορίζουν την πρόσβαση μέσω API, η Meta έχει υιοθετήσει μια πιο ανοιχτή στρατηγική. Ωστόσο, αυτή η στρατηγική έχει και τις συνέπειές της: η AI της Meta, Llama, έχει εκατομμύρια χρήστες, αλλά παράλληλα έχει αναφερθεί πως χρησιμοποιήθηκε από τουλάχιστον έναν αντίπαλο των ΗΠΑ για τη δημιουργία chatbot στρατιωτικής φύσης.
Με αυτή τη νέα πολιτική, η Meta φαίνεται να θέλει να διαφοροποιηθεί τόσο από ανταγωνιστές όπως η OpenAI όσο και από κινεζικές εταιρείες όπως η DeepSeek, η οποία διαθέτει τα μοντέλα της χωρίς σημαντικούς περιορισμούς.
"Πιστεύουμε ότι, λαμβάνοντας υπόψη τόσο τα οφέλη όσο και τους κινδύνους, μπορούμε να αναπτύξουμε και να διαθέσουμε την προηγμένη AI με τρόπο που διατηρεί τα οφέλη της τεχνολογίας στην κοινωνία, ενώ παράλληλα διατηρεί ένα αποδεκτό επίπεδο ρίσκου", αναφέρει η Meta στο έγγραφό της.
Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.