της Ελένης Νάτση
Οι πρώτες λέξεις της Tay στο Twitter τον Μάρτιο του 2016 ήταν “hellooooooo world!!!”. Ήταν ένα φιλικό ξεκίνημα για το chatbot που σχεδιάστηκε από τη Microsoft με σκοπό την αλληλεπίδραση με ανθρώπους ηλικίας 18 έως 24. Όμως, εντός μόλις 12 ωρών, η Tay μετατράπηκε από ευχάριστη συνομιλήτρια σε ρατσίστρια αρνητή του Ολοκαυτώματος, ενώ έβαλε στο κάδρο και τις φεμινίστριες, λέγοντας ότι όλες «πρέπει να πεθάνουν και να καούν στην κόλαση», και υποστήριξε ότι ο ηθοποιός «Ricky Gervais έμαθε τον ολοκληρωτισμό από τον Αδόλφο Χίτλερ, τον “πατέρα” του αθεϊσμού».
Δεν είναι αυτό που η Microsoft είχε κατά νου (η Τay βγήκε από την πρίζα 24 ώρες μετά από το ντεμπούτο της στην τουϊτερόσφαιρα). Επομένως, το πείραμά της ήταν αποτυχημένο; Από αυστηρά τεχνικής άποψης όχι. Κάθε σύστημα τεχνητής νοημοσύνης, είναι ένα υπολογιστικό σύστημα που μπορεί να εκτελέσει γνωστικές λειτουργίες ενώ ταυτόχρονα προσαρμόζεται και «μαθαίνει», ώστε να γίνεται αποτελεσματικότερο.
Αυτό ακριβώς συνέβη και με την Τay, εκπληρώνοντας τον αρχικό στόχο της Microsoft που ήταν να εκθέσει το chatbot της στις συμπεριφορές άλλων χρηστών του Twitter, και να μάθει από αυτές.
Η αποτυχία, επί της ουσίας, ή καλύτερα ο μεγάλος κίνδυνος, έγκειται στο γεγονός ότι τα συστήματα τεχνητής νοημοσύνης όπως η Tay, αναπαράγουν και μαθαίνουν τις προκαταλήψεις των ίδιων των δημιουργών τους ή του κοινού στο οποίο εκτίθενται. Και οι συνέπειες δεν είναι μεμονωμένες, αλλά έχουν πολλαπλασιαστική ισχύ.
Οποιοδήποτε σύστημα τεχνητής νοημοσύνης μαθαίνει, αφού πρώτα «εκπαιδευθεί». Η εκπαίδευση ενός τέτοιου συστήματος, καθίσταται εφικτή μέσα από την έκθεση και τροφοδότησή του με μεγάλο όγκο δεδομένων ή πολύ απλά με πολυάριθμες πληροφορίες που αφορούν πραγματικούς ανθρώπους.
Γιατί και πώς δημιουργείται το AI bias
H προκατάληψη που εμφιλοχωρεί στα συστήματα τεχνητής νοημοσύνης είναι πολύ πιο σύνθετη απ’ όσο νομίζουμε. Κι αυτό γιατί συναντάται σε διάφορα στάδια της αρχιτεκτονικής αυτών των συστημάτων, τα οποία χονδρικά μπορούμε να χωρίσουμε στα εξής τρία:
Ορισμός του προβλήματος
Το πρώτο πράγμα που κάνουν οι μηχανικοί ενός συστήματος τεχνητής νοημοσύνης, είναι να ορίσουν τι θέλουν ακριβώς να πετύχουν. Ας πάρουμε το παράδειγμα μιας εταιρείας πιστωτικών καρτών η οποία θέλει να αναπτύξει ένα σύστημα πρόβλεψης της πιστοληπτικής ικανότητας-φερεγγυότητας ενός πελάτη. Στη γλώσσα της πληροφορικής όμως, η λέξη φερεγγυότητα είναι μια νεφελώδης έννοια. Προκειμένου να μεταφραστεί σε κάτι που μπορεί να υπολογιστεί, η εταιρία πρέπει να αποφασίσει αν θέλει να μεγιστοποιήσει τα περιθώρια κέρδους ή να μεγιστοποιήσει τον αριθμό των δανείων που εξυπηρετούνται. Στη συνέχεια, θα μπορούσε να ορίσει την πιστοληπτική της πολιτική στο πλαίσιο του δεύτερου στόχου. Αν ο αλγόριθμος ανακαλύψει στην πορεία ότι η χορήγηση δανείων υψηλού κινδύνου είναι το μέσο για τη μεγιστοποίηση του κέρδους, θα υιοθετήσει μία αρπακτική συμπεριφορά, ακόμη κι αν αυτό δεν ήταν αρχική πρόθεση της εταιρίας.
Στάδιο συλλογής δεδομένων
Στο στάδιο αυτό τα δεδομένα με τα οποία τροφοδοτείται ένα σύστημα τεχνητής νοημοσύνης μπορεί να μην ανταποκρίνονται στην πραγματικότητα ή να αντικατοπτρίζουν υφιστάμενες προκαταλήψεις. Το AI bias θα αποτυπωθεί και στις δύο περιπτώσεις στο τελικό αποτέλεσμα. Χαρακτηριστικό παράδειγμα είναι αυτό της Amazon όπου η εταιρία ανέπτυξε το 2018 εσωτερικά ένα σύστημα τεχνητής νοημοσύνης για την πρόσληψη νέων εργαζομένων, μόνο και μόνο για να διαπιστώσει στην πορεία ότι το συγκεκριμένο εργαλείο απέρριπτε γυναίκες υποψηφίους. Αυτό συνέβαινε διότι το σύστημα εκπαιδεύθηκε με βάση δεδομένα και προγενέστερες αποφάσεις πρόσληψης που ευνοούσαν τους άνδρες υποψηφίους έναντι των γυναικών.
Στάδιο προετοιμασίας των δεδομένων
Τέλος, είναι δυνατό να εισαχθεί προκατάληψη κατά τη φάση προετοιμασίας δεδομένων, η οποία περιλαμβάνει την επιλογή των κριτηρίων (attributes) που θέλουμε ο αλγόριθμος να εξετάσει. Στην περίπτωση του εργαλείου πρόσληψης του Amazon, ένα κριτήριο θα μπορούσε να είναι το φύλο του υποψηφίου, το επίπεδο εκπαίδευσης ή τα χρόνια εμπειρίας.
Στην πράξη, η επιλογή των εκάστοτε κριτηρίων, μπορεί να επηρεάσει σημαντικά την ακρίβεια της πρόβλεψης του μοντέλου μας. Παρ’ όλα αυτά, ενώ ο βαθμός ακρίβειας είναι εύκολο να μετρηθεί, ο βαθμός προκατάληψης στο τελικά διαμορφωμένο μοντέλο, με βάση τα επιλεγμένα χαρακτηριστικά, αποτελεί δύσκολη εξίσωση.
Γιατί το AI bias είναι δύσκολο να διορθωθεί
Στην περίπτωση της Amazon, όταν οι μηχανικοί της εταιρίας κατάλαβαν ότι το σύστημα απέρριπτε γυναίκες υποψηφίους, το προγραμμάτισαν εκ νέου ώστε να αγνοεί εντελώς λέξεις έμφυλου χαρακτήρα, όπως τη λέξη «γυναίκες». Εν τω μεταξύ, ο αλγόριθμος «τιμωρούσε» τις γυναίκες υποψηφίους με το να επιλέγει και λέξεις, όπως «executed» και «captured», πoυ εμφανίζονταν περισσότερο σε βιογραφικά ανδρών υποψηφίων, τα οποία ήταν και τα περισσότερα με τα οποία είχε τροφοδοτηθεί το σύστημα προκειμένου να εκπαιδευθεί και να επιλέξει. Η εταιρία τελικά αποφάσισε να σταματήσει το πρόγραμμα, γιατί παρουσίαζε μεταξύ άλλων και προβλήματα με την ανάλυση δεδομένων, ενώ δεν μπορούσε να αποκλείσει το γεγονός ότι το εργαλείο δεν θα έβρισκε στην πορεία νέους τρόπους για να κάνει την επιλογή των υποψηφίων στη βάση διακρίσεων.
Ένα άλλο πρόβλημα είναι ότι η πρακτική στην αρχιτεκτονική τέτοιων συστημάτων δεν περιλαμβάνει την ανίχνευση της προκατάληψης ή ότι δεν λαμβάνονται υπόψη οι εκάστοτε κοινωνικές παράμετροι σε κάθε ξεχωριστή περίπτωση.
Ενώ στην πληροφορική, θεωρείται σε γενικές γραμμές καλή πρακτική να σχεδιάζονται συστήματα έχοντας πολλαπλές εφαρμογές σε διαφορετικές περιπτώσεις, είναι παρακινδυνευμένο να σχεδιάζει κάποιος έναν αλγόριθμο που χρησιμοποιείται στην ποινική δικαιοσύνη και την ίδια στιγμή για προσλήψεις, ή ακόμα σε διαφορετικές χώρες με εντελώς διαφορετικές συνθήκες και κοινωνικοοικονομικά δεδομένα.
Μπορούμε επομένως να φτιάξουμε «δίκαιους» αλγόριθμους; Στον κόσμο της πληροφορικής η έννοια της δικαιοσύνης, σε αντιστοιχία με το παραπάνω παράδειγμα με την εταιρία πιστωτικών καρτών και την εξέταση της φερεγγυότητας, πρέπει να οριστεί με μαθηματικούς όρους, όπως το να εξισορροπηθούν τα ψευδώς θετικά με τα ψευδώς αρνητικά ποσοστά ενός συστήματος πρόβλεψης. Στην πράξη, αυτό που έχουν διαπιστώσει οι ερευνητές είναι ότι υπάρχουν πολλοί μαθηματικοί «ορισμοί» της δικαιοσύνης, που είναι αλληλοαναιρούμενοι. Για παράδειγμα, είναι δίκαιο η ίδια αναλογία λευκών και μαύρων ατόμων να λαμβάνει υψηλές βαθμολογίες αξιολόγησης ρίσκου ή το ίδιο ποσοστό ρίσκου να οδηγεί στην ίδια βαθμολογία ανεξαρτήτως χρώματος; Είναι αδύνατον να επιλεχθούν και τα δύο ταυτόχρονα, οπότε πρέπει να γίνει επιλογή του ενός έναντι του άλλου.
Εύλογα αναρωτιέται κάποιος: Oι ραγδαίες εξελίξεις στον τομέα της τεχνητής νοημοσύνης έρχονται ως εκτροχιασμένο τρένο καταπάνω μας ή μπορούμε πραγματικά να ωφεληθούμε από αυτές, με το να μην αγνοούμε όμως τον ελέφαντα στο δωμάτιο;
Η όλη συζήτηση γύρω από την τεχνητή νοημοσύνη και το πού θα φθάσει, θυμίζει λίγο το διάσημo θεωρητικό πείραμα του Αυστριακού φυσικού Erwin Schrödinger στην κβαντική φυσική. Σε αυτό το πείραμα, μια γάτα τοποθετείται σε κουτί και εκτίθεται σε δυνητικά θανατηφόρο δόση ακτινοβολίας. Tο 1935, ο Schrödinger, υποστήριξε σε θεωρητικό επίπεδο, ότι η γάτα είναι ταυτόχρονα ζωντανή και νεκρή διότι υπάρχει και στις δύο μορφές, σε παράλληλα σύμπαντα. Αν εφαρμόσουμε το παράδοξο της γάτας του Schrödinger στην επίδραση της τεχνητής νοημοσύνης στη κοινωνία, οι επιπτώσεις αυτών των τεχνολογιών θα είναι ταυτόχρονα καταστρεπτικές αλλά και ωφέλιμες; Και τελικά, αν πρέπει υποχρεωτικά να καταλήξουμε σε ένα από τα δύο παράλληλα σύμπαντα, ποιο θα είναι αυτό;
Πηγή κεντρικής φωτογραφίας άρθρου: https://www.pcmag.com/news/artificial-intelligence-has-a-bias-problem-and-its-our-fault