Της Ελένης Νάτση*
Φανταστείτε ότι παρακολουθείτε ένα χαρούμενο βίντεο με ζώα και την ίδια στιγμή ένα εξελιγμένο λογισμικό αναγνώρισης προσώπου «σκανάρει» με λεπτομέρεια τις επιμέρους εκφράσεις του προσώπου σας, για να αποφανθεί για το συναίσθημά σας.
Είστε σίγουρος/η ότι η ετυμηγορία θα είναι χαρούμενος/η. Στην πραγματικότητα όμως, δεν είστε χαρούμενος, και το λογισμικό μπορεί να το «καταλάβει». Μετά από πολλές ώρες δουλειάς στο γραφείο, δεν έχετε κοιμηθεί καλά και πάρα την υποτιθέμενη χαρούμενη έκφραση σας, το σύστημα μπορεί να «διαβάσει» την πραγματική ψυχική σας κατάσταση.Σενάριο επιστημονικής φαντασίας; Όχι.
Η Τεχνολογία Αναγνώρισης Προσώπου (facial recognition technology) είναι μια από τις πλέον δημοφιλείς βιομετρικές τεχνολογίες, μαζί με την σάρωση δακτυλικού αποτυπώματος και της ίριδας, που μπορεί να αναγνωρίσει ένα άτομο μέσω της ψηφιακής του απεικόνισης.
Οι συγκεκριμένες τεχνολογίες εξελίσσονται με γοργούς ρυθμούς, επιδιώκοντας όχι μόνο να αποτελούν ένα σύγχρονο μέσο ταυτοποίησης ενός ατόμου με τη χρήση τεχνητής νοημοσύνης αλλά και ερμηνείας της συναισθηματικής του κατάστασης (emotion recognition technology).
Παραδείγματα εφαρμογής λογισμικού αναγνώρισης προσώπου βρίσκουμε στην διαδικασία προσλήψεων, για την καταπολέμηση του εγκλήματος από αστυνομικές αρχές ακόμα και στην πολιτική επικοινωνία, όπου εταιρίες εκμαιεύουν τις πολιτικές μας προτιμήσεις και πιστεύω με τη δύναμη των αλγορίθμων.
Aυτο-αστυνόμευση και επιτήρηση
To 1787, ο Βρετανός φιλόσοφος Τζέρεμι Μπένθαμ παρουσιάζει το «Πανοπτικόν», μια κυλινδρική φυλακή, όπου ο κάθε κρατούμενος πιστεύει πως παρακολουθείται διαρκώς. Η ιδέα αυτή θα «εμπνεύσει» σε μεγάλο βαθμό τον Μισέλ Φουκώ, που βλέπει το Πανοπτικόν ως το απόλυτο σύμβολο του τρόπου επιβολής της εξουσίας. Το εξεταστικό βλέμμα που είναι εγγεγραμμένο στην ίδια τη δομή του πειθαρχικού θεσμού (φυλακή, σχολείο, στρατός, εργοστάσιο) εσωτερικεύεται από τον έγκλειστο: καταλήγει o ίδιος να αναλαμβάνει την αστυνόμευση του εαυτού του.
Ένα «Πανοπτικόν», όπου οι άνθρωποι υπακούν στους νόμους, επειδή έχουν την αίσθηση ότι διαρκώς παρακολουθούνται είναι και ο στόχος όλων των σύγχρονων συστημάτων ελέγχου και προληπτικής καταστολής. Όσον αφορά στην τεχνολογία αναγνώρισης προσώπου και στη χρήση της σε δημόσιους χώρους, εγείρονται πολλαπλά ζητήματα ως προς την ιδιωτικότητα τoυ ατόμου και την προστασία θεμελιωδών δικαιωμάτων του.
Στο Σαν Φρανσίσκο, οι αστυνομικές αρχές δεν μπορούν πλέον να χρησιμοποιήσουν τεχνολογία αναγνώρισης προσώπου για τη σύλληψη προσώπων. Παρ’ όλα αυτά, τέτοιου είδους τεχνολογία μπορεί, για παράδειγμα, να χρησιμοποιηθεί από τον ιδιοκτήτη ενός οικήματος ή από σχολικές μονάδες.
Πέρυσι το Σαν Φρανσίσκο, όπως και το Όκλαντ και το Σόμερσβιλ της Μασαχουσέτης, απαγόρευσαν στις αστυνομικές αρχές να χρησιμοποιούν συστήματα αναγνώρισης προσώπου διότι ακόμα και τα πιο εξελιγμένα εξ αυτών αποδείχθηκε ότι παρουσιάζουν μεροληψία εις βάρος των μαύρων και των γυναικών.
Το 2015, ακόμα και μια πιο απλή εφαρμογή αναγνώρισης προσώπου, όπως το Google photos, αναγνώρισε τους μαύρους ως «γορίλες», δημιουργώντας κύμα αντιδράσεων, για τα ρατσιστικά κριτήρια του λογισμικού.
Από το αμερικάνικο πολιτικό φάσμα, ο γερουσιαστής Μπέρνι Σάντερς, ο οποίος θα διεκδικήσει ξανά το χρίσμα του Δημοκρατικού Κόμματος για τις προεδρικές εκλογές του 2020, ανήκει στους πολέμιους της συγκεκριμένης τεχνολογίας, έχοντας ανακοινώσει την πρόθεση του να την απαγορεύσει ως μέρος μιας ευρύτερης αναθεώρησης του αμερικάνικου συστήματος ποινικής δικαιοσύνης.
Και στην Ευρώπη όμως, η Σουηδική Αρχή Προστασίας Δεδομένων επέβαλε το 2019 πρόστιμο 20.000 ευρώ σε δήμο επειδή χρησιμοποιούσε τεχνολογία αναγνώρισης προσώπου για την παρακολούθηση της φοίτησης των μαθητών στο σχολείο, ενώ η Αρχή Προστασίας Προσωπικών Δεδομένων CNIL στην Γαλλία, δήλωσε ότι η τεχνολογία παραβιάζει τους κανόνες συγκατάθεσης του Γενικού Κανονισμού για την Προστασία Δεδομένων (GDPR).
Από την πλευρά της η Ευρωπαϊκή Επιτροπή, σε ένα διαρρεύσαν σχέδιο λευκής βίβλου για την Τεχνητή Νοημοσύνη εξέταζε μέτρα για την προσωρινή απαγόρευση σχετικών τεχνολογιών (π.χ. 3-5 χρόνια) που χρησιμοποιούνται τόσο από τους δημόσιους όσο και από τους ιδιωτικούς φορείς, με στόχο να αξιολογηθούν πλήρως οι αρνητικές επιπτώσεις και να αναπτυχθούν μέτρα διαχείρισης των επιμέρους κινδύνων.
Κάτι τέτοιο θα μπορούσε να σημάνει το τέλος σε εν εξελίξει έργα τεχνητής νοημοσύνης σε ορισμένες χώρες της ΕΕ, όπως στη Γερμανία που επιθυμεί να εφαρμόσει τεχνολογία αναγνώρισης προσώπου σε 134 σιδηροδρομικούς σταθμούς και 14 αεροδρόμια.
Παρ’όλα αυτά, στο τελικό επίσημο έγγραφο που εξέδωσε η Επιτροπή, δεν συμπεριελήφθη καμία απαγόρευση ή έστω περιορισμός παρά μόνο μία γενική διατύπωση ότι η Ευρωπαϊκή Επιτροπή επιθυμεί να δρομολογήσει έναν εκτεταμένο διάλογο, ο οποίος θα μπορούσε να δικαιολογήσει εξαιρέσεις στη μαζική αναγνώριση προσώπου στο μέλλον, εφόσον χρειαστεί.
Αχαρτογράφητα νερά
Η αμφίβολη διαφάνεια ως προς τη χρήση και αποθήκευση των προσωπικών χαρακτηριστικών εκατομμυρίων ανθρώπων σε μεγάλες βάσεις δεδομένων φαίνεται ότι είναι μόνο η μία πλευρά του νομίσματος. Πρόσφατες έρευνες δείχνουν σημαντικά τεχνικά προβλήματα στην ίδια την αρχιτεκτονική των συστημάτων αναγνώρισης προσώπου, επομένως και στην ορθότητα των αποτελεσμάτων τους.
Χαρακτηριστικό παράδειγμα είναι η γαλλική εταιρία Idemia, που αναπτύσσει λογισμικό αναγνώρισης προσώπου με πελάτες τις κρατικές αρχές σε ΗΠΑ, Αυστραλία και Γαλλία. Το συγκεκριμένο λογισμικό χρησιμοποιείται για τον έλεγχο επιβατών σε κρουαζιερόπλοια που καταφθάνουν στις ΗΠΑ κατά παράβαση των κανόνων τελωνειακής και συνοριακής προστασίας. Υψηλόβαθμος αξιωματούχος του FBI παραδέχτηκε το 2017 στο Κογκρέσο ότι το λογισμικό της Idemia σκανάρει 30 εκατ. φωτογραφίες προσώπων «προστατεύοντας τον αμερικάνικο λαό.»
Δύο χρόνια αργότερα, τον Ιούλιο του 2019, το Εθνικό Ινστιτούτο Τυποποίησης και Τεχνολογίας των ΗΠΑ, (National Institute of Standards and Technology) ανέδειξε, μέσω σχετικών ελέγχων, σημαντικά προβλήματα των αλγορίθμων στην αναγνώριση προσώπων μεταξύ λευκών και μαύρων.
Οι έξυπνοι αλγόριθμοι της Idemia κλήθηκαν να πιστοποιήσουν ότι δύο διαφορετικές φωτογραφίες έδειχναν το ίδιο πρόσωπο, όπως ακριβώς θα έκανε και ένας συνοριακός ελεγκτής σε έλεγχο διαβατηρίων. Το αποτέλεσμα ήταν ότι εντοπίστηκαν λάθη στην αναγνώριση προσώπων που ανήκαν σε μαύρους από πέντε έως και δέκα φορές περισσότερο σε σχέση με τους λευκούς.
«Xακάροντας» τους εγκεφάλους των ψηφοφόρων
H εταιρία Εmotion Research Lab στην Ισπανία ειδικεύεται στην τεχνολογία αναγνώρισης συναισθημάτων: Με τη χρήση τεχνητής νοημοσύνης και ειδικά σχεδιασμένων αλγορίθμων, υπόσχεται στους πελάτες της – μεταξύ αυτών και πολιτικά κόμματα – να ξεκλειδώσει τις πραγματικές προθέσεις ψηφοφόρων- καταναλωτών.
Σύμφωνα με την Μaria Povoci, ιδρύτρια της εταιρίας, το σύστημα τεχνητής νοημοσύνης για την αναγνώριση προσώπου που έχει αναπτύξει η εταιρία της μπορεί να ανιχνεύσει και να μετρήσει 6 διαφορετικά συναισθήματα, 101 δευτερεύοντα και 8 ψυχολογικές διαθέσεις.
Το λογισμικό της ERL βασίζεται στη δουλειά του Πολ Έκμαν, Αμερικάνου ψυχολόγου που πρότεινε τη δεκαετία του 1960 το FACS (facial action coding system), ένα σύστημα κωδικοποίησης εκφράσεων του προσώπου για την αναγνώριση των βασικών συναισθημάτων.
Ο αλγόριθμος που έχει αναπτυχθεί από την Εmotion Research Lab «διαβάζει» ακόμα και τις ενδότερες συναισθηματικές καταστάσεις ερμηνεύοντας μικρο-εκφράσεις και ανεπαίσθητες κινήσεις στο πρόσωπό μας, οι οποίες στο σύνολό τους αποκαλύπτουν θυμό, χαρά και άλλα βασικά συναισθήματα.
Είναι όμως το πρόσωπό μας και οι εκφράσεις του, ο καθρέφτης της ψυχής μας; Κι ακόμα παραπέρα, ακόμα και ο πιο σύνθετος αλγόριθμος είναι σε θέση να μας «διαβάσει» κάθε φορά σωστά;
Ορισμένοι επικριτές του συστήματος του Έκμαν, όπως η νευροεπιστήμονας Λίζα Φέλνταμ Μπάρετ, υποστηρίζουν ότι οι εκφράσεις του προσώπου δεν αντικατοπτρίζουν πάντα την συναισθηματική μας κατάσταση.
Από την πλευρά του, το ερευνητικό ινστιτούτο ΑΙ Now στην Αμερική, που μελετά τις επιπτώσεις από την χρήση της τεχνητής νοημοσύνης στην κοινωνία, στην ετήσια έκθεση του για το 2019, καταλήγει ότι η τεχνολογία αναγνώρισης συναισθημάτων πρέπει να απαγορευτεί. Ο λόγος; Δεν υπάρχουν, σύμφωνα με τους συντάκτες της έκθεσης επαρκείς επιστημονικές βάσεις για τη χρήση της, ούτε έχει γίνει ανάλυση και αξιολόγηση των επιμέρους κινδύνων από την εφαρμογή της.
Καθώς οι εξελίξεις στον τομέα της τεχνητής νοημοσύνης προχωρούν με ρυθμούς γεωμετρικής προόδου, η ανθρωπότητα καλείται να φροντίσει για την ομαλή μετάβαση μας από την «Άγρια Δύση» των αλγορίθμων σε ένα περιβάλλον ρυθμιζόμενο από σαφείς αρχές. Έχοντας μπροστά μας το ορμητικό ποτάμι της τεχνολογικής εξέλιξης το μόνο που μπορούμε και οφείλουμε να κάνουμε είναι όχι να ανακόψουμε την πορεία του αλλά να διαμορφώσουμε την κοίτη του.
* Δημοσιογράφος, Marketing & Communications manager με ειδίκευση στον τεχνολογικό κλάδο, ερευνήτρια στο Advanced Media Institute.