Οι αλγόριθμοι αποτελούν μια πεπερασμένη σειρά ενεργειών, αυστηρά καθορισμένων και εκτελέσιμων σε πεπερασμένο χρόνο οι οποίοι στοχεύουν στην επίλυση ενός προβλήματος. Αποτελούν δηλαδή μία σειρά από εντολές και οδηγίες που έχουν αρχή και τέλος, είναι σαφείς και στοχεύουν στην επίλυση κάποιου προβλήματος ή στην πραγματοποίηση διάφορων ενεργειών. Οι οδηγίες αυτές ακολουθούνται βήμα προς βήμα από τους υπολογιστές με στόχο τη βελτιστοποίηση και την απλοποίηση της διαδικασίας.
Το διαδίκτυο, τα social media, οι μηχανές αναζήτησης, οι εφαρμογές, η τεχνητή νοημοσύνη, τα video games, οι ιστοσελίδες για ραντεβού ή για βιβλία κ.ο.κ., είναι γεμάτα με αλγόριθμους και δεν θα μπορούσαν να υπάρχουν χωρίς αυτούς.
Ένα συνηθισμένο φαινόμενο που εμφανίζεται στις περιπτώσεις αυτές ονομάζεται filter bubble (φούσκα φίλτρου), όρος που επινοήθηκε από έναν ακτιβιστή του διαδικτύου. Το filter bubble είναι μια κατάσταση πνευματικής απομόνωσης, που φέρεται να μπορεί να προκύψει από εξατομικευμένες αναζητήσεις, όταν ένας αλγόριθμος ιστότοπου μαντεύει επιλεκτικά ποιες πληροφορίες θα ήθελε να δει ένας χρήστης βάσει πληροφοριών σχετικά με αυτόν, όπως η τοποθεσία, η προηγούμενη συμπεριφορά κλικ και το ιστορικό αναζήτησης.
Με αυτόν τον τρόπο οι χρήστες διαχωρίζονται από πληροφορίες που διαφωνούν με τις απόψεις τους, απομονώνοντάς τους αποτελεσματικά στις δικές τους πολιτιστικές ή ιδεολογικές φυσαλίδες. Οι επιλογές αυτών των αλγορίθμων πολύ συχνά δεν είναι διαφανείς (google, facebook, αποτελέσματα προεδρικών εκλογών των Η.Π.Α. κ.α.), ενώ σύμφωνα με μια τελευταία μελέτη, οι κορυφαίοι πενήντα ιστότοποι στο Διαδίκτυο, όπως το CNN, το Yahoo και το MSN, εγκαθιστούν κατά μέσο όρο 64 cookies με δεδομένα και προσωπικούς φάρους παρακολούθησης την ημέρα.
Δεδομένου όμως ότι πρόκειται για προγράμματα που έχουν κατασκευαστεί από ανθρώπους, οι αλγόριθμοι μπορούν να κάνουν λάθη.
Ας δούμε τρία χαρακτηριστικά παραδείγματα:
1) Τον Νοέμβριο του 2019 ένας γνωστός δημιουργός λογισμικού από τη Δανία, στράφηκε κατά της Apple Card γράφοντας τα εξής: «Η Apple Card είναι ένα σεξιστικό πρόγραμμα. Εγώ και η γυναίκα μου έχουμε κοινή φορολογική δήλωση και είμαστε παντρεμένοι εδώ και πολύ καιρό. Όμως, ο αλγόριθμος της Apple θεωρεί ότι εγώ αξίζω κατά 20 φορές περισσότερο το πιστωτικό όριο σε σύγκριση με τη γυναίκα μου». Αυτή η υποψία στη συνέχεια επιβεβαιώθηκε και από άλλους χρήστες. Το τμήμα οικονομικών υπηρεσιών της Νέας Υόρκης διεξήγαγε έρευνα, με την Apple να κατηγορεί την Goldman Sachs που είναι υπεύθυνη για τη διαχείριση , ενώ η τράπεζα επενδύσεων απέδωσε ευθύνες σε έναν αλγόριθμο.
Το πρόβλημα με τον παραπάνω αλγόριθμο είναι ότι έχει δημιουργηθεί με παλαιότερα δεδομένα τα οποία δεν είχαν επικαιροποιηθεί με τις σύγχρονες κοινωνικές αλλαγές. «Αν πρέπει να μεγιστοποιήσεις τον βαθμό αξιοπιστίας και να κοιτάξεις τα ιστορικά δεδομένα, τότε ιστορικά οι άνδρες έβγαζαν πάντα περισσότερα χρήματα από τις γυναίκες», εξηγεί η συγγραφέας του βιβλίου «Artificial Unintelligence: How Computers Misunderstand the World».
Με βάση τα δεδομένα, οι αλγόριθμοι μαθαίνουν τους κανόνες για να ταξινομούν μια καινούργια περίπτωση, στηριζόμενοι στις περιπτώσεις που έχουν ήδη ταυτοποιηθεί. Ο αλγόριθμος καταλαβαίνει πώς να συμπεριφερθεί με βάση τα δεδομένα που έχει στη διάθεσή του, μέσω από ένα σύνολο παραμέτρων και με σκοπό την αναπαραγωγή της gold truth (χρυσή αλήθεια), η οποία φυσικά μπορεί να εμπεριέχει στατιστικό λάθος.
2) Παρόμοια ήταν και μια παλιότερη περίπτωση με έναν αλγόριθμο της Amazon, ο οποίος έκανε διακρίσεις σε άτομα με βάση τα βιογραφικά που έστελναν. Το πρόγραμμα βασιζόταν σε δεδομένα ανθρώπων από την τελευταία δεκαετία και επειδή οι περισσότεροι ήταν άνδρες, οι γυναίκες αυτόματα απορρίπτονταν.
Παραδείγματα υπάρχουν πολλά. Ας δούμε όμως και ένα που έχει και εκπαιδευτικό ενδιαφέρον.
3) Στο Ηνωμένο Βασίλειο, οι φετινές εξετάσεις που καθορίζουν τη βαθμολογία βάσει της οποίας γίνεται η εισαγωγή των μαθητών στην τριτοβάθμια εκπαίδευση ακυρώθηκαν λόγω covid-19.
Οι μαθητές επρόκειτο να βαθμολογηθούν μέσω της χρήσης ενός αλγόριθμου, ο οποίος για να καταλήξει στην τελική βαθμολογία εισαγωγής θα συνυπολόγιζε μεταξύ άλλων τα αποτελέσματα των τεστ των μαθητών μέσα στη χρονιά, τα αποτελέσματα των δοκιμαστικών εξετάσεων και τις βαθμολογικές προτάσεις των εκπαιδευτικών τους.
Τα αποτελέσματα όμως που δημοσιεύθηκαν πριν λίγες μέρες δεν ήταν τα αναμενόμενα, δημιουργώντας μεγάλη αναταραχή στην εκπαιδευτική κοινότητα, καθώς σε ποσοστό περίπου 40% οι μαθητές είδαν τη βαθμολογία τους να μειώνεται κατά έναν ή δύο βαθμούς περισσότερο από το αναμενόμενο, γκρεμίζοντας τα όνειρα για την εισαγωγή τους στα μεγάλα πανεπιστήμια.
Όπως φαίνεται, ο αλγόριθμος εμπεριείχε και "ταξικά" χαρακτηριστικά στον σχεδιασμό του, καθώς η πλειοψηφία των μαθητών που είδαν τις βαθμολογίες τους να μειώνονται, ανήκαν σε δημόσια σχολεία φτωχών περιοχών, ενώ αντίθετα τα ιδιωτικά σχολεία της χώρας είδαν τους βαθμούς των μαθητών τους να αυξάνονται οριακά σε σχέση με την περσινή βαθμολογία.
Οι λεπτομέρειες του τρόπου βαθμολόγησης δεν έχουν δοθεί ακόμα στη δημοσιότητα, αλλά θεωρείται ότι ο αλγόριθμος συνυπολόγισε το βαθμολογικό ιστορικό ενός σχολείου για να κρίνει την φετινή επίδοση του μαθητή που φοιτούσε σε αυτό. Δηλαδή μαθητές που φοιτούν σε σχολεία με ιστορικό χαμηλών βαθμολογιών, είδαν τους βαθμούς τους να μειώνονται ασχέτως των επιδόσεών τους και των προτάσεων των καθηγητών τους, για να συμβαδίσουν με το ιστορικό των σχολείων τους.
Σύμφωνα με ειδικούς της πληροφορικής για περισσότερα από είκοσι χρόνια υπήρχε η άποψη ότι οι αλγόριθμοι θα είναι καλύτεροι από τον άνθρωπο. Τώρα όμως καταλαβαίνουμε ότι κάτι τέτοιο δεν ισχύει. Τα τελευταία χρόνια έχει εμφανιστεί μια ολόκληρη, νέα κατηγορία επαγγελματιών, οι οποίοι εργάζονται για να προβλέπουν και να αποκλείουν τυχόν τεχνολογικά λάθη και όλο και περισσότερες εταιρείες επενδύουν στον περιορισμό προβλημάτων από αλγόριθμους μέσα από την αξιολόγηση της διαφάνειας και της ακρίβειας τους.
Πηγή: alfavita.gr