Είναι το μέλλον ή επίσημα το παρόν (μας); Η τεχνολογία της αναγνώρισης προσώπου με τεχνητή νοημοσύνη (AI) δεν ανήκει πια αποκλειστικά στις ταινίες επιστημονικής φαντασίας, αλλά στη ζωή μας.
Όπως αναφέρει στο άρθρο του ο Michael Clune στο Harper’s Bazaar, η αναγνώριση προσώπου έχει προχωρήσει πέρα από τον - παρανοϊκό - φακό των δυστοπικών οραμάτων· σήμερα, προσφέρει μια ευκαιρία να προβληματιστούμε για τον ίδιο τον τρόπο με τον οποίο ελέγχουμε και ελέγχεται η εικόνα μας.
Ραγδαία επέκταση της αναγνώρισης προσώπου
Ταυτόχρονα, η τεχνολογική πρόοδος δεν σταματά. Τουλάχιστον στο Ηνωμένο Βασίλειο, η μέθοδος της «ζωντανής αναγνώρισης προσώπου» - live facial recognition - επεκτείνεται ραγδαία.
Περίπου 4,7 εκατομμύρια πρόσωπα σκανάρονται από την αστυνομία σε δημόσιους χώρους, ενώ αναπτύσσεται και εθνική πλατφόρμα ανάλυσης βιομετρικών δεδομένων.
Ορισμένοι, όπως ο Tony Blair, βλέπουν τη νέα αυτή τεχνολογία ως μέσο βελτίωσης της δημόσιας ασφάλειας και της αστυνόμευσης, παράλληλα μάλιστα με την προοπτική αποταμίευσης δισεκατομμυρίων λιρών.
Αλλά όσο η τεχνολογία διεισδύει, τόσο πληθαίνουν οι φωνές που προειδοποιούν για κινδύνους κατάλυσης θεμελιωδών δικαιωμάτων, όπως η ελευθερία συναθροίσεων, το δικαίωμα στην ιδιωτικότητα και στην ίση μεταχείριση.
Η εμπειρία της Joy Buolamwini - ιδρύτριας της Algorithmic Justice League - μας υπενθυμίζει ότι τα συστήματα αναγνώρισης προσώπου συχνά αποτυγχάνουν να εντοπίσουν σωστά γυναίκες με σκούρο δέρμα, με ποσοστά λάθους έως 35%, ενώ για λευκούς άνδρες το ποσοστό λάθους βρίσκεται γύρω από 1 %.
Αυτή η κραυγαλέα ανισότητα προκλήθηκε από μοντέλα εκπαιδευμένα κατά κύριο λόγο σε πρόσωπα λευκών ανδρών. Το αποτέλεσμα δεν είναι απλώς τεχνική ατέλεια, αλλά κοινωνική αδικία που καθιστά συγκεκριμένες κοινότητες πιο ευάλωτες σε επιτήρηση, λανθασμένες συλλήψεις και διακρίσεις.
Η εμπειρία της Joy Buolamwini - ιδρύτριας της Algorithmic Justice League - μας υπενθυμίζει ότι τα συστήματα αναγνώρισης προσώπου συχνά αποτυγχάνουν να εντοπίσουν σωστά γυναίκες με σκούρο δέρμα / SHUTTERSTOCK
Στη νομική και ρυθμιστική πλευρά, η Ευρωπαϊκή Ένωση κινείται με το Artificial Intelligence Act, που επιδιώκει να απαγορεύσει τη χρήση της αναγνώρισης προσώπου σε πραγματικό χρόνο σε δημόσιους χώρους, εκτός εάν υπάρχει αποδεδειγμένος και επείγων κίνδυνος τρομοκρατικής απειλή. Αντίθετα, το Ηνωμένο Βασίλειο έχει κενά στην εποπτεία - και, όπως τονίζει το ίδρυμα Ada Lovelace Institute, χρειάζεται ειδικό ρυθμιστικό σώμα για τις βιομετρικές εφαρμογές της AΙ.
Προσοχή στο κενό μεταξύ σωστής χρήσης και ηθικής
Πέρα απ’ τις εφαρμογές επιτήρησης, η τεχνολογία διεισδύει και στον χώρο της υγείας: η εφαρμογή FaceAge, που ανέπτυξε το Harvard, υπόσχεται να εκτιμά την βιολογική ηλικία ενός προσώπου μόνο από φωτογραφία, ανιχνεύοντας ρυτίδες, παρενεχομένους χαρακτήρες και ενδεχόμενα προβλήματα υγείας.
Παρόμοιες εφαρμογές εξετάζουν σημάδια πόνου, γενετικές διαταραχές, ακόμη και συναισθηματική κατάσταση. Ωστόσο, οι ειδικοί προειδοποιούν για την υπέρβαση των ηθικών ορίων, καθώς οι ισχυρισμοί τους παραπέμπουν σε «προσωμογνωσία» ή physiognomy, και εγείρουν σοβαρά ερωτήματα για το ποιόν των δεδομένων και την ενημερωμένη συναίνεση.
Αν κοιτάξουμε προς το 2035, τα ευρύτερα σενάρια για την AI φαντάζουν ακόμη πιο διεισδυτικά. Τα συστήματα θα είναι «υπερ-προσωπικοί βοηθοί» που αντιλαμβάνονται φωνές, βλέμματα, χειρονομίες, συναισθηματικές καταστάσεις και βιοσήματα - και θα προχωρούν σε ενδείξεις και παροχές πριν καν ζητηθούν. Η αναγνώριση προσώπου θα ενσωματώνεται σε ένα ευρύτερο οικοσύστημα «έξυπνης» παρακολούθησης, μη επεμβατικής, αλλά παρόλα αυτά βαθιά ελέγχουσας.
H Ευρωπαϊκή Ένωση κινείται με το Artificial Intelligence Act, που επιδιώκει να απαγορεύσει τη χρήση της αναγνώρισης προσώπου σε πραγματικό χρόνο σε δημόσιους χώρους / GETTY
Οι αντιδράσεις δεν είναι μόνο θεωρητικές: το κίνημα κατά της αναγνώρισης προσώπου καταγγέλλει τη λήψη δεδομένων χωρίς συναίνεση, την επιτήρηση των διαδηλώσεων, και την περιθωριοποίηση κοινοτήτων, με επισφαλή εξουσιοδότηση σε κράτη και ιδιώτες. Ειδικά σε χώρες όπου η τεχνολογία συνοδεύεται από ρατσιστική πρακτική ή γενικευμένο έλεγχο, οι κίνδυνοι είναι αμέτρητοι.
Εντέλει, η αυριανή αναγνώριση προσώπου δεν αφορά απλώς την επίτευξη υψηλότερης ακρίβειας, αλλά τον τρόπο με τον οποίο επιλέγουμε - ή αφήνουμε άλλους να αποφασίσουν - πότε και πώς το πρόσωπό μας γίνεται δεδομένο και data που καταγράφεται και αναλύεται. Η τεχνολογία έχει τη δυναμική να ενισχύσει τη δημόσια ασφάλεια, να απλοποιήσει διαδικασίες, να ενισχύσει την υγεία· αλλά μπορεί εξίσου να πυροδοτήσει παραβιάσεις, διακρίσεις και χάος.
Στην τελική της ανάγνωση, αυτή η ιστορία είναι για τον έλεγχο του εαυτού μας: την εικόνα, τα προσωπικά μας δεδομένα, και τα δικαιώματα που την προστατεύουν. Όπως καταλήγει εμφατικά ο Clune, το να αποστασιοποιηθούμε από την παρανοϊκή αντίδραση δεν σημαίνει άκρως μετριοπαθή αποδοχή, αλλά μια ωριμότερη, στοχαστική στάση απέναντι στην εξουσία του ίδιου του προσώπου μας.