Το πρόβλημα με τα deepfakes

Διαστρεβλώνουν την πραγματικότητα, δυσφημούν υπολήψεις, καταστρέφουν ζωές. Κι όμως η λύση απέναντί τους δεν είναι τεχνολογική.

Για να το πούμε πολύ απλά, ακόμα κι αν αύριο το πρωί βρίσκαμε μία τεχνολογία που θα αναγνώριζε κατευθείαν τα deepfakes, η απειλή τους δεν θα μπορούσε να εξαλειφθεί. Ο λόγος είναι πολύ απλός: Η νέα αυτή τεχνολογία που είναι ικανή να βάλει ψέματα στο στόμα κάποιου, να μιμηθεί τη φωνή του ή ακόμα και τις εκφράσεις του προσώπου του, δεν είναι ένα ζήτημα που μπορεί να λυθεί μόνο μέσα από τεχνολογικά αντίμετρα και αντίδοτα.

Μάλιστα οι οιωνοί δεν είναι οι καλύτεροι, αφού σύμφωνα με τους ειδικούς, μέσα στους επόμενους έξι μήνες τα deepfakes μπορεί να προχωρήσουν τόσο ώστε ουσιαστικά να μην είναι αναγνωρίσιμα ακόμα κι από ένα έμπειρο ανθρώπινο μάτι. Μήπως οι επόμενες αμερικανικές εκλογές ήδη χορεύουν στον ρυθμό τους;

Το πρόβλημα με τα deepfakes

Δεν υπάρχει καμία τεχνολογική πρωτοπορία ικανή να νικήσει τις διαφορετικές απειλές που ελλοχεύουν

Μέχρι σήμερα, η μοναδική απάντηση που έχει δοθεί στο φαινόμενο των "πειραγμένων" βίντεο ήταν τεχνολογικής μορφής: Για παράδειγμα, το Facebook και η Microsoft κήρυξαν κι επίσημα τον πόλεμο εναντίον τους. Τι ακριβώς σκοπεύουν να κάνουν; Ελπίζουν,  δίνοντας σημαντικά ποσά στην έρευνα, να έχουν σύντομα στα χέρια τους κάποιο εργαλείο που να τα αναγνωρίζει με ηλεκτρονικό τρόπο. Σημαντικός σύμμαχος σε όλη αυτήν την προσπάθεια είναι κι η Google που διαθέτει μία γιγάντια database από deepfakes, η οποία μπορεί να τροφοδοτεί το machine learning του μελλοντικού αυτού εργαλείο ώστε να μπορεί να είναι πιο αποτελεσματικό.

Κι όμως, όλα αυτά δεν είναι αρκετά. Δεν υπάρχει καμία τεχνολογική πρωτοπορία ικανή να νικήσει τις διαφορετικές απειλές που ελλοχεύουν στο πρόβλημα με τα deepfakes, όπως τις έχει επισημάνει η ερευνήτρια Britt Paris σε πρόσφατη έρευνά της. Πρώτα από όλα, ας θυμηθούμε το βίντεο όπου η Αμερικανίδα πολιτικός των Δημοκρατικών, Nancy Pelosi, έμοιαζε μεθυσμένη. Παρότι, στο τέλος, το συγκεκριμένο κατέληξε στον μεγάλο κατάλογο των deepfakes, δεν χρειαζόταν καμία προηγμένη τεχνολογία τεχνητής νοημοσύνης για να κάνει τη δουλειά. Αρκούσε κάποιος να επιβραδύνει ελάχιστα τη φωνή της, με τέτοιον τρόπο ώστε να θυμίζει την χαρακτηριστικά αργή ταχύτητα με την οποία μιλούν οι μεθυσμένοι.

Κανένα λογισμικό δεν θα μπορούσε να το αναγνωρίσει. Ακόμα, όμως, κι αν τα αυθεντικά deefakes αφήνουν κάποιο ίχνος που τα αυτοματοποιημένα συστήματα θα μπορούν να εντοπίσουν, εγείρονται αμφιβολίες για την κρίση τους. "Όσο περισσότερο βασιζόμαστε σε αυτοματοποιημένα εργαλεία, τόσο πιο πιθανόν είναι να έρθουμε αντιμέτωποι με ανακρίβειες και μορφές λογοκρισίας που όμως δεν είναι σωστές" αναφέρει η καθηγήτρια Kate Klonick, σε δηλώσεις της στο MIT Tech Review. "Γιατί, τελικά, το να ορίσουμε τι είναι η σάτιρα, τι είναι τα deepfakes και τι είναι η μυθοπλασία είναι ένα πρόβλημα που άπτεται της φιλοσοφίας".


Η μοναδική, μέχρι στιγμής, βιώσιμη λύση φαίνεται να είναι η μαζική χρήση ανθρώπων ή moderators όπως είναι πιο γνωστοί στους διαδρόμους του ίντερνετ.


Ως τέτοιο, λοιπόν, μπορεί να αντιμετωπιστεί μονάχα από το ανθρώπινο μυαλό, το οποίο είναι ικανό, για παράδειγμα, να ξεχωρίσει ότι ένα βίντεο που παρωδεί τη συμπεριφορά του Nicholas Cage είναι νόμιμο και καθόλου ηθικά μεμπτό, ενώ ένα πορνογραφικό deepfake όπου πρωταγωνιστεί κάποια ηθοποιός του Χόλιγουντ (χωρίς να το γνωρίζει) είναι κατάφωρη καταπάτηση των δικαιωμάτων της.

Έτσι, η μοναδική, μέχρι στιγμής βιώσιμη λύση φαίνεται να είναι η μαζική χρήση ανθρώπων ή moderators όπως είναι πιο γνωστοί στους διαδρόμους του ίντερνετ. Μόνο ένας εργαζόμενος μπορεί να αντιληφθεί τη λεπτή γραμμή που χωρίζει τη σάτιρα από τη συκοφαντική δυσφήμηση και να αντιληφθεί το κοινωνικό και πολιτικό αντίκτυπο που μπορεί να έχει ή να μην έχει ένα βίντεο. Επίσης, είναι πολύ σημαντικό όσοι έχουν προσβληθεί από το φαινόμενο να μπορούν απλά κι εύκολα να αναφέρουν το γεγονός, χωρίς να χρειάζεται να φτάσουν μέχρι τα βάθη των ρυθμίσεων του Facebook, του YouΤube και των υπόλοιπων social media.


"Ακόμα κι αν ο σκοπός είναι να δημιουργηθεί ένας ανιχνευτής deepfakes, εγείρονται παράλληλα πολλά ερωτήματα κοινωνικού τύπου".


Μία δεύτερη απειλή αφορά την ιδιωτική ζωή των πολιτών και εκείνων των ομάδων που βρίσκονται πιο συχνά στο στόχαστρο. Όπως καταλαβαίνεις, η Nancy Pelosi διαθέτει τα εργαλεία για να πολεμήσει όλους όσους χρησιμοποιούν τα deepfakes εις βάρος της. Τι θα συμβεί όμως με ένα παιδί που θα πέσει θύμα bullying στο σχολείο του εξαιτίας κάποιου deepfake που έχουν κατασκευάσει οι συμμαθητές τους; Επί της ουσίας δεν θα έχει κανέναν άλλον τρόπο να παλέψει πέρα από τη δύναμη της φωνής του. Καλό, λοιπόν, θα ήταν να μπορούν να ελέγχουν οι ίδιες οι πλατφόρμες τέτοια φαινόμενα και να προχωρούν στην άμεση διαγραφή τους πριν τραυματιστεί ανεπανόρθωτα κάποια παιδική ψυχή.

Το ίδιο, λίγο έως πολύ, ισχύει για τις ευαίσθητες κοινωνικά ομάδες. Από την εποχή των πειραγμένων φωτογραφιών στο Photoshop μέχρι τα fake news και τα deepfakes, ήταν πάντοτε οι γυναίκες, οι ακτιβιστές, τα μέλη της LGBT κοινότητας και οι πρόσφυγες που βρίσκονται συνήθως στο στόχαστρο. "Ακόμα κι αν ο σκοπός είναι να δημιουργηθεί ένας ανιχνευτής deepfakes, εγείρονται παράλληλα πολλά ερωτήματα κοινωνικού τύπου" διαβάζουμε στο MIT Tech Review. "Θα είναι διαθέσιμος σε όλες τις χώρες; Θα είναι ικανός να αναγνωρίσει deepfakes σχετικά με την πολιτική ή ακόμα και με τη φυλετική ή σεξουαλική βία;". Γιατί είναι δεδομένο πως θα πρέπει να βρεθεί πολύ ψηλά στην ατζέντα η μη στοχοποίηση των αδυνάτων.


Η δημοσίευση deepfakes που είναι βλαβερά για τους ανθρώπους ή την κοινωνία -σύμφωνα πάντα με τη Franks και την Citron- θα πρέπει να θεωρείται έγκλημα.


Κάπως έτσι, φτάνουμε στο τρίτο πρόβλημα που είναι το πιο εμφανές αλλά και το πιο δυσεπίλυτο. Κάθε εργαλείο που πολεμά τα deepfakes -από τον ηλεκτρονικό ανιχνευτή μέχρι του ανθρώπινους moderators- μπορεί να επέμβει εκ των υστέρων. Αν, όμως, θέλουμε να μειώσουμε ή και να εξαλείψουμε το φαινόμενο, θα πρέπει να μπορούμε να επέμβουμε από πριν. Άλλο ένα, δηλαδή, πρόβλημα που δεν μπορεί να λύσει η τεχνολογία αλλά μόνο η δικαιοσύνη.

Από αυτήν την οπτική γωνία, τα πράγματα δείχνουν τουλάχιστον κάπως πιο αισιόδοξα: Δύο ερευνήτριες, η Mary Anne Franks κι η Danielle Citron, κατάφεραν να ορίσουν τον όρο "ψηφιακή πλαστογραφία" δίνοντας στους νομοθέτες ένα χρήσιμο πλαίσιο απέναντι στο πρόβλημα των deepfakes. Μέχρι, σήμερα, τα εν λόγω βίντεο έρχονταν αντιμέτωπα μόνο με κατηγορίες για δυσφήμιση. Στο άμεσο μέλλον, όσοι κατασκευάζουν deepfakes, ακόμα κι αν δεν είναι δυσφημιστικά, μπορεί να έρθουν τηρουμένων των αναλογιών αντιμέτωποι και με τον νόμο για πλαστογραφία. Αν για παράδειγμα, κάποιος παρουσιάσει τον Αδόλφο Χίτλερ να εκφωνεί λόγους για την αξία του ανθρωπισμού (κάτι, δηλαδή, που δεν έκανε ποτέ), θα μπορεί εύκολα να θεωρηθεί πια ένοχος για παραχάραξη της ιστορίας.

Η δημοσίευση deepfakes που είναι βλαβερά για τους ανθρώπους ή την κοινωνία -σύμφωνα πάντα με τη Franks και την Citron- θα πρέπει να θεωρείται έγκλημα. Φυσικά, αυτή η διαδρομή κρύβει κινδύνους πιθανής λογοκρισίας, όμως και η απόλυτη ανεξέλεγκτη "ελευθερία" καταντά επιβλαβής ελευθεριότητα. Σε κάθε περίπτωση πάντως, ως συνήθως, ένας είναι ο χρυσός κανόνας: Η επιμονή στην πρόληψη είναι πολύ καλύτερη από κάθε τεχνολογική καταπολέμηση των deepfakes.

Από: Esquire IT


φωτογραφίες © Getty Images

Οι πιο πρόσφατες Ειδήσεις

Διαβάστε πρώτοι τις Ειδήσεις για πολιτικές εξελίξεις, συνεντεύξεις διασήμων, συμβουλές για αντρική μόδα και συνταγές για φαγητό και πότο στο esquire.com.gr

ΜΗ ΧΑΣΕΙΣ

Τι είναι πάλι αυτό το Bitcoin halving και πώς θα το επηρεάσει;

Το επόμενο halving είναι προ των πυλών και εντός διαβάζεις όλα όσα πρέπει να ξέρεις για αυτό.

Γραφει Παυλος Κρουστης

Όσα είπε ο Αλέξανδρος Αντωνόπουλος για τη 'δύσκολη' σχέση του με τον Αλέξη Μινωτή

O δημοφιλής ηθοποιός βρέθηκε τα μεσάνυχτα της Πέμπτης στο πλατό του Ενώπιος Ενωπίω.

Η συγκλονιστική φωτογραφία που πήρε το πρώτο βραβείο του World Press Photo

Η φωτογραφία ανήκει στον φωτορεπόρτερ του Reuters Mohammed Salem και συνοψίζει το δράμα των Παλαιστίνιων.

To νέο ρεκόρ του Netflix

H Netflix ξεπέρασε τις προσδοκίες της Wall Street για δεύτερο συνεχόμενο τρίμηνο την Πέμπτη.