Οι περισσότερες από αυτές τις εικόνες έχουν πολλές ομοιότητες με την πραγματικότητα, ενώ οι ψεύτικες λεπτομέρειες τους είναι πραγματικά δυσδιάκριτες. Κοιτώντας τες κανείς μπορεί να πιστέψει οριακά, ότι η τραγουδίστρια εμφανίζεται όντως σε αυτά τα στιγμιότυπα. Φυσικά, δεν είναι η πρώτη φορά που συμβαίνει κάτι ανάλογο. Το τελευταίο διάστημα το διαδίκτυο και οι πλατφόρμες των μέσων κοινωνικής δικτύωσης, κατακλύζονται συνεχώς με αντίστοιχες εικόνες και βίντεο που μιμούνται πολύ αποτελεσματικά διάσημες προσωπικότητες και τις φωνές τους.
Από τον Obama που αποκαλεί τον Donald Trump «εντελώς ηλίθιο» έως τον Mark Zuckerberg που καυχιέται ότι έχει «τον απόλυτο έλεγχο των κλεμμένων δεδομένων δισεκατομμυρίων ανθρώπων», αυτά τα βίντεο γίνονται όλο και πιο πειστικά και συνηθισμένα. Τα εργαλεία της AI, τα ονομαζόμενα deepfake, αντιγράφουν το ηχόχρωμα και τις εκφραστικές κινήσεις των προσώπων με πολύ μεγάλη ευκολία, δημιουργώντας τελικά μια σύγχυση για το τι είναι αληθινό και τι όχι.
Οι δυνατότητές τους μοιάζουν ατελείωτες, από πειστικές τηλεφωνικές απάτες με στόχο να αποσπαστούν χρηματικά ποσά, μέχρι την επιρροή των ψηφοφόρων και την κατεύθυνση του εκλογικού αποτελέσματος. Ωστόσο, παράλληλα με την επικράτηση των προαναφερθέντων, πολλοί οργανισμοί, ιθύνοντες και κυβερνήσεις έχουν θορυβηθεί και προσπαθούν να οχυρώσουν το κοινό απέναντι σε αυτή την νέα απειλή που αμφισβητεί την πραγματικότητα και μπορεί να γίνει τρομερά επώδυνη και επικίνδυνη. Αυτό όμως που φαίνεται να ξεφεύγει από τον έλεγχό τους, είναι η συνειδητοποίηση ότι η AI τεχνολογία και τα deepfakes μπορούν όχι απλά να αλλάξουν το παρόν μας, αλλά και το παρελθόν μας, με την ίδια ευκολία. Μπορείτε να σκεφτείτε που θα οδηγήσει αυτό;
Τα deepfake ουσιαστικά αποτελούν την απάντηση του 21ου αιώνα στο Photoshopping. Χρησιμοποιούν μια μορφή τεχνητής νοημοσύνης που ονομάζεται deep learning (βαθιά μάθηση) για να δημιουργήσουν πειστικές εικόνες ψεύτικων γεγονότων, άλλοτε φτιαγμένων από το μηδέν, ή άλλοτε απλώς παραλλαγμένων. Μπορούν επιπλέον να μιμηθούν ήχους και φωνές για τη δημιουργία "voice skins" ή "voice clones" δημόσιων προσώπων. Δεν είναι όμως πάντα κακόβουλα. Πολλά είναι διασκεδαστικά και μερικά είναι χρήσιμα, καθώς για παράδειγμα, οι απομιμήσεις φωνής μπορούν να αποκαταστήσουν τη φωνή των ανθρώπων όταν τη χάνουν λόγω ασθένειας.
Τα deepfake βίντεο μπορούν επίσης να δώσουν ζωή σε γκαλερί και μουσεία. Χαρακτηριστικό παράδειγμα το μουσείο Νταλί της Φλόριντα, που έχει ένα deepfake του σουρεαλιστή ζωγράφου που παρουσιάζει την τέχνη του και βγάζει selfies με τους επισκέπτες. Για τη βιομηχανία ψυχαγωγίας, η τεχνολογία μπορεί να χρησιμοποιηθεί για τη βελτίωση της μεταγλώττισης σε ξενόγλωσσες ταινίες και, πιο αμφιλεγόμενα, για την “ανάσταση” αποθανόντων ηθοποιών. Για παράδειγμα, ο αείμνηστος Τζέιμς Ντιν πρόκειται να πρωταγωνιστήσει στην ταινία Finding Jack, μια πολεμική ταινία για το Βιετνάμ.
Ωστόσο τα deepfake χρησιμοποιούνται συχνά με αρνητικό αντίκτυπο. Τον περασμένο Μάρτιο για παράδειγμα, ο επικεφαλής μιας βρετανικής θυγατρικής μιας γερμανικής εταιρείας ενέργειας κατέβαλε σχεδόν 200.000 λίρες σε έναν ουγγρικό τραπεζικό λογαριασμό, αφού του τηλεφώνησε ένας απατεώνας που μιμήθηκε τη φωνή του Γερμανού διευθύνοντος συμβούλου, σύμφωνα με την Guardian. Παρόμοιες απάτες φέρεται να έχουν χρησιμοποιήσει ηχογραφημένα φωνητικά μηνύματα deepfake και στα social media, όπως το WhatsApp.
Τα εργαλεία αυτά συνήθως δημιουργούν επίσης βίντεο που περιέχουν πορνογραφικό περιεχόμενο. Πιο συγκεκριμένα, η εταιρεία τεχνητής νοημοσύνης Deeptrace, η οποία βρήκε 15.000 deepfake βίντεο στο διαδίκτυο τον Σεπτέμβριο του 2019, αριθμό σχεδόν διπλάσιο από πριν εννέα μήνες, ανακάλυψε ότι το 96% αυτών ήταν πορνογραφικά. Μεγάλος αριθμός τους επίσης, απεικόνιζε πρόσωπα από γυναίκες διασημότητες σε σώματα πορνοστάρ. Μια τεχνική που μοιάζει εύκολα διαχειρίσιμη, ακόμα και από ανειδίκευτους ανθρώπους και που μας κάνει να αναρωτιόμαστε πόσο εύκολα μπορεί πια να γιγαντωθεί.
Αλλάζοντας την ιστορία
Η δυνατότητα που διαθέτει η τεχνητή νοημοσύνη να διαμορφώνει τόσο πειστικά το παρόν μας όμως, δεν παραμένει εκεί, αλλά επεκτείνεται και στην αναδιαμόρφωση της ιστορίας και του παρελθόντος μας. Αυτό μπορεί, όπως και κάθε εργαλείο, να χρησιμοποιηθεί για καλό. Ζωντανό παράδειγμα αποτελεί η περίπτωση της καλλιτέχνη Μαρίας Μαυροπούλου, η οποία χρησιμοποίησε την τεχνολογία αυτή για να ξαναγράψει τη δική της οικογενειακή ιστορία.
Η ίδια δεν είχε πολλά οικογενειακά φωτογραφικά άλμπουμ, γεγονός που τάραζε την προσωπική της αίσθηση του ανήκειν. Ξεκίνησε έτσι, να χρησιμοποιεί τις οικογενειακές πληροφορίες που είχε ως προτροπές για το DALL-E, το πρόγραμμα μετατροπής κειμένου σε εικόνα, που συνδυάζει μεθοδολογίες τεχνητής νοημοσύνης και βαθιάς μάθησης (deepfake) για τη δημιουργία ψηφιακών εικόνων. Το έργο "Imagined Images", που προέκυψε, περιλαμβάνει πάνω από 400 καρέ που περιγράφουν επτά δεκαετίες οικογενειακής ιστορίας και απεικονίζουν γάμους, γεννήσεις, γιορτές και πάρτι γενεθλίων μαζί με απλές, καθημερινές στιγμές. Οι εικόνες που έφτιαξε ενσωματώνουν όλα τα χαρακτηριστικά της ερασιτεχνικής οικογενειακής φωτογραφίας: ατελές καδράρισμα, αδέξια πόζα και αναγκαστικά χαμόγελα. Η καλλιτέχνης βίωσε αυτή την διαδικασία ως άκρως θεραπευτική, καθώς ξαναέγραψε το παρελθόν της για να διαμορφώσει καλύτερα το μέλλον της.
Σε ένα πιο ευρύ πλαίσιο, μια αντίστοιχη ιστορία δημιουργήθηκε εκ νέου από την τεχνητή νοημοσύνη, με πρωταγωνιστή αυτή την φορά, τον Ρίτσαρντ Νίξον. Την εποχή της προσελήνωσης - 50 χρόνια πριν -, ο τότε πρόεδρος των ΗΠΑ είχε ετοιμάσει μια δήλωση που θα διάβαζε σε περίπτωση που τα πράγματα πήγαιναν στραβά και οι αστροναύτες Νιλ Άρμστρονγκ και Μπαζ Όλντριν έμεναν αποκλεισμένοι στη σεληνιακή επιφάνεια. Δεκαετίες αργότερα, μια νέα καλλιτεχνική εγκατάσταση, από μια ομάδα του MIT Center for Advanced Virtuality, χρησιμοποίησε την τεχνολογία deepfake για να επανασχεδιάσει την ιστορία της προσελήνωσης. Την αποκάλεσε "In Event of Moon Disaster" και την παρουσίασε στο Διεθνές Φεστιβάλ Ντοκιμαντέρ (IDFA) στο Άμστερνταμ.
In Event of Moon Disaster - FULL FILM
Συνεργαζόμενη με την ουκρανική εταιρεία Respeecher, η ομάδα χρησιμοποίησε έναν ηθοποιό μεταγλώτισης για να μιμηθεί τη φωνή του Ρίτσαρντ Νίξον και χρησιμοποίησε την τεχνολογία αντικατάστασης διαλόγου βίντεο της ισραηλινής εταιρείας Canny AI, για να χειριστεί τα χείλη και το πρόσωπο του Νίξον. Οι ίδιοι έιχαν διαθέσιμοι την μη εκφωνηθείσα ομιλία του Νίξον, γραμμένη από τον συγγραφέα προεδρικών ομιλιών William Safire, η οποία αποθηκεύτηκε κάποτε στα Εθνικά Αρχεία και τελικά δόθηκε στη δημοσιότητα το 1999 κατά τη διάρκεια της 30ής επετείου της προσελήνωσης του Apollo 11. "Δεν θέλαμε να κάνουμε κάτι που να είναι τρικ, κωμωδία ή τρέχουσα πολιτική, θέλαμε να διευρύνουμε την αντίληψη των ανθρώπων για το πώς μπορούν να χρησιμοποιηθούν τα deepfakes", δήλωσε η υπεύθυνη της ομάδας στο Euronews. "Πήραμε ένα από τα σημαντικότερα ιστορικά γεγονότα... Κατά κάποιο τρόπο, ναι, είναι μυθοπλασία, αλλά είναι επίσης κάτι που θα μπορούσε πραγματικά να έχει συμβεί", συνέχισε.
Και στα δυο προαναφερθέντα περιστατικά, η τεχνολογία έκανε πλήρως αντιληπτή την ευκολία με την οποία μπορεί να χρησιμοποιηθεί για να παραλλάξει το παρελθόν, με έναν άκρως ρεαλιστικό τρόπο. Τα deepfakes συγκεκριμένα, διαθέτουν την ικανότητα να ξαναγράφουν την ιστορία, χειραγωγώντας οπτικά και ακουστικά στοιχεία. Φανταστείτε λοιπόν ένα σενάριο, όπου εμφανίζεται ένα σχολαστικά επεξεργασμένο βίντεο deepfake, το οποίο απεικονίζει ιστορικά πρόσωπα να συμμετέχουν σε συζητήσεις ή ενέργειες που δεν έλαβαν ποτέ χώρα. Τέτοια βίντεο θα μπορούσαν σίγουρα να αλλάξουν την αντίληψη του κοινού, διαβρώνοντας τα θεμέλια της εμπιστοσύνης στα ιστορικά αρχεία και παραμορφώνοντας τη συλλογική μνήμη των κοινωνιών.
shutterstock_2261036051
Πόσο επικίνδυνο είναι να αλλάξουν τα πεπραγμένα;
Ας ξεκινήσουμε λέγοντας ότι η ιστορία μπορεί να αποτελέσει ένα ισχυρό εργαλείο χειραγώγησης, γεγονός που έχει συμβεί και αναπαραχθεί μέσα στα έτη, ακόμα και όταν δεν υπήρχε η τόσο προηγμένη τεχνολογία. Πολλές κυβερνήσεις, καθεστώτα και άνθρωποι σε εξουσία, προσπάθησαν και κατόρθωσαν, στιγμιαία έστω, να διαστρεβλώσουν τα γεγονότα και την αλήθεια, ποδηγετώντας την κοινή αντίληψη και γνώμη, ή επιβάλλοντας την εξουσία τους. Ο Στάλιν εξαφάνισε από την ιστορία τους απείθαρχους συντρόφους, εκτελώντας τους και στη συνέχεια αλλοιώνοντας τα φωτογραφικά αρχεία για να φαίνεται ότι δεν υπήρξαν ποτέ.
Η Σλοβενία, όταν έγινε ανεξάρτητη χώρα το 1992, διέγραψε πάνω από 18.000 άτομα από τα μητρώα των κατοίκων - κυρίως μέλη της μειονότητας των Ρομά και άλλων εθνοτικών μη Σλοβένων -, με αποτέλεσμα αυτοί να χάσουν τα σπίτια τους, τις συντάξεις τους και την πρόσβαση σε άλλες υπηρεσίες, σύμφωνα με έκθεση του 2003 του Επιτρόπου Ανθρωπίνων Δικαιωμάτων του Συμβουλίου της Ευρώπης. Η ναζιστική προπαγάνδα χρησιμοποίησε τα διαβόητα Πρωτόκολλα των Σοφών της Σιών, που δημοσιεύτηκαν για πρώτη φορά σε μια ρωσική εφημερίδα το 1903 και υποτίθεται ότι ήταν πρακτικά συνεδριάσεων μιας εβραϊκής συνωμοσίας για τον έλεγχο του κόσμου. Η Ναζί βασίστηκαν σε αυτά για να δικαιολογήσουν την αντισημιτική βία.
Σε όλα αυτά τα παραδείγματα, σίγουρα καταλαβαίνετε ή γνωρίζετε, το μέγεθος της καταστροφής που προκάλεσε η παραπληροφόρηση και η διαστρέβλωση της αλήθειας. Μια καταστροφή που μοιάζει αναπόφευκτη, αν συνεχίσουμε να παραλλάζουμε το παρελθόν μας και να το μετουσιώνουμε σε ότι εμείς θέλουμε. Σε μια εποχή λοιπόν, όπου η κοινή γνώμη επηρεάζεται σε μεγάλο βαθμό από τα ψηφιακά μέσα, αυτή η επιλεκτική χειραγώγηση των πληροφοριών, μπορεί να χρησιμοποιηθεί με πολλούς αρνητικούς και μεροληπτικούς τρόπους.
Η ιστορία, που κάποτε θεωρούνταν μια αξιόπιστη καταγραφή των γεγονότων, γίνεται πλέον εύπλαστη, φτιαγμένη από εκείνους που έχουν την τεχνολογική ικανότητα να διαμορφώνουν τη δική τους εκδοχή της πραγματικότητας. Αυτό φυσικά θα δημιουργήσει μια πληθώρα επιλογών για την υποστήριξη ψευδών ισχυρισμών, από φωτογραφίες που τοποθετούν ιστορικά πρόσωπα σε συγκεκριμένες καταστάσεις, την αλλαγή μεμονωμένων ιστοριών σε ιστορικές εφημερίδες, μέχρι την αλλαγή ονομάτων σε τίτλους ιδιοκτησίας. Και ενώ όλες αυτές οι τεχνικές έχουν χρησιμοποιηθεί, όπως αναφέραμε προηγουμένως και στο παρελθόν, η αντιμετώπισή τους πλέον είναι πολύ πιο δύσκολη.
shutterstock_1715221288
Αποσοβώντας την απειλή
Καθώς η τεχνολογία deepfake συνεχίζει να εξελίσσεται, η δυνατότητα αναδιαμόρφωσης των ιστορικών αφηγήσεων γίνεται έτσι συνεχώς πιο απτή. Ο αντίκτυπος στην πολιτική, τη δικαιοσύνη και την πολιτιστική ταυτότητα, υπογραμμίζει την επείγουσα ανάγκη για προληπτικά μέτρα για την αντιμετώπιση αυτής της απειλής, καθώς η διαφύλαξη της ακεραιότητας των ιστορικών αρχείων, δεν αποτελεί απλώς μια τεχνολογική πρόκληση, αλλά μια κοινωνική ευθύνη για τη διατήρηση της αλήθειας για τις μελλοντικές γενιές. Τι μπορούμε λοιπόν να κάνουμε για αυτό;
Διατηρούμε μια “υγιή δόση” σκεπτικισμού. Πρέπει να προσπαθούμε ελέγχουμε την εγκυρότητα των πληροφοριών και να διατηρούμε τις αμφιβολίες μας γαι όσα βλέπουμε και ακούμε.
Μπορούμε να αναζητούμε και να συμβουλευόμαστε πολλαπλές πηγές. Διαβάζοντας διαφορετικές εφημερίδες, αλλά και περνώντας χρόνο με ανθρώπους που δεν συμφωνούν μαζί μας, στην οθόνη και στον πραγματικό κόσμο.
Δεν κοινοποιούμε περιεχόμενο αν έχουμε αμφιβολίες για την προέλευσή του. Πρέπει να θυμόμαστε ότι η αλήθεια είναι εκεί έξω, απλώς υπάρχουν πολλές εκδοχές της πλέον, οπότε πρέπει να βεβαιωθούμε ότι έχουμε τη σωστή.