Κλισέ και προκαταλήψεις: Έτσι η τεχνητή νοημοσύνη δείχνει παραμορφωμένα τα χάμπουργκερ!
Το Eppendorf περιγράφεται ως κλισέ στο τεστ τεχνητής νοημοσύνης t-online. Το άρθρο επισημαίνει την προκατάληψη στα δεδομένα τεχνητής νοημοσύνης και τις επιπτώσεις της.

Κλισέ και προκαταλήψεις: Έτσι η τεχνητή νοημοσύνη δείχνει παραμορφωμένα τα χάμπουργκερ!
Σε ένα συναρπαστικό τεστ, η πλατφόρμα ειδήσεων t-online εξέτασε πώς η τεχνητή νοημοσύνη (AI) μπορεί να περιγράψει τους τυπικούς κατοίκους του Αμβούργου. Διαπιστώθηκε ότι τα αποτελέσματα συχνά δεν αντικατοπτρίζουν την πραγματική εικόνα των περιοχών. Το AI αντλεί από μια δεξαμενή ψηφιακών δεδομένων που βασίζονται σε μέσα κοινωνικής δικτύωσης, πύλες ειδήσεων και ιστολόγια. Αυτό σημαίνει ότι οι αναπαραστάσεις είναι συχνά παραμορφωμένες και δεν διαθέτουν την απαραίτητη εκπροσώπηση ορισμένων πληθυσμιακών ομάδων. Η ποικιλομορφία των περιοχών του Αμβούργου, όπως το Eppendorf, το Wilhelmsburg και το St. Pauli, φαίνεται περισσότερο σε κλισέ παρά σε ρεαλιστικές περιγραφές, όπως t-online αναφορές.
Αυτό που είναι ενδιαφέρον είναι ότι τα μοντέλα AI, από το ChatGPT έως τις γεννήτριες εικόνων, δεν λειτουργούν αντικειμενικά. Αναλύουν μοτίβα και πιθανότητες, ενώ αγνοούν λιγότερο ορατές ομάδες. Ένα καλό παράδειγμα είναι οι περιγραφές των συνοικιών, οι οποίες φαίνονται συνεκτικές με την πρώτη ματιά, αλλά είναι κλισέ: το Eppendorf συνδέεται με «ίσια μαλλιά και μπεζ πουπουλένιο γιλέκο», ενώ το St. Pauli σημαίνει απλώς «μαύρα κουκούλα και τατουάζ». Τέτοιες αποδόσεις προσφέρουν ελάχιστο χώρο για την ποικιλομορφία της ζωής και τις ταυτότητες που διαμορφώνουν πραγματικά το Αμβούργο.
The Bias: A Shadow in the AI Field
Μια βασική πτυχή αυτών των αποκλίσεων είναι η λεγόμενη μεροληψία. Αυτός ο όρος περιγράφει το γεγονός ότι δεν εκπροσωπούνται όλες οι ομάδες εξίσου στις αναπαραστάσεις AI. Τέτοιες στρεβλώσεις προκύπτουν από λανθασμένα δεδομένα και την επεξεργασία τους, γεγονός που μπορεί να πλήξει ιδιαίτερα τις μειονότητες. Για παράδειγμα, ένα παράδειγμα από το σύστημα υγειονομικής περίθαλψης των ΗΠΑ δείχνει ότι οι Αφροαμερικανοί ασθενείς είναι λιγότερο πιθανό να λάβουν τη θεραπεία που χρειάζονται όταν έχουν το ίδιο βάρος ασθένειας. Αυτό δείχνει πόσο βαθιά ριζωμένες προκαταλήψεις επηρεάζουν τους αλγόριθμους που χρησιμοποιούνται για τη λήψη των αποφάσεών μας, όπως εξηγεί το anti-bias.eu.
Οι επικριτές των τεχνολογιών τεχνητής νοημοσύνης επισημαίνουν ότι οι τεχνητές νοημοσύνης συχνά γίνονται αντιληπτές ως ουδέτερες και αμερόληπτες, αλλά είναι το αντίθετο, καθώς βασίζονται σε δεδομένα που δημιουργούνται από τον άνθρωπο και μερικές φορές εισάγουν διακρίσεις. Ο Lorenzo Medici από τα συστήματα a&f τονίζει ότι οι διακρίσεις μπορεί να επηρεάσουν όχι μόνο τις εθνοτικές ομάδες, αλλά και τις κοινωνικές τάξεις και τα φύλα. Τα δεδομένα που επεξεργάζονται οι AI αντικατοπτρίζουν πάντα τις πολιτιστικές αξίες της δημιουργίας τους και δεν μπορούν εύκολα να θεωρηθούν δίκαια. Αυτό καθιστά σαφές πόσο σημαντικό είναι να αμφισβητούνται οι αλγόριθμοι και να ελέγχεται η προέλευσή τους, όπως δηλώνει τα συστήματα a&f.
Μια λεπτή πρόκληση για την κοινωνία
Η συζήτηση για την τεχνητή νοημοσύνη και τον αντίκτυπό της στην αντίληψή μας είναι πιο επίκαιρη από ποτέ. Τα τελευταία χρόνια, η χρήση της τεχνητής νοημοσύνης έχει αναπτυχθεί γρήγορα σε πολλούς τομείς, συμπεριλαμβανομένης της ομιλίας και της αναγνώρισης προσώπου, του νόμου και της υγειονομικής περίθαλψης. Αυτό γίνεται ιδιαίτερα ανησυχητικό αν σκεφτεί κανείς ότι το ποσοστό της διαφορετικότητας στην κοινότητα προγραμματιστών είναι πολύ περιορισμένο. Μόνο το 10% των προγραμματιστών τεχνητής νοημοσύνης είναι γυναίκες και η πλειονότητα προέρχεται από δυτικές, βιομηχανικές χώρες, γεγονός που επιδεινώνει μόνο το πρόβλημα της μεροληψίας.
Προκειμένου να αντιμετωπιστούν αυτές οι προκλήσεις, δεν είναι μόνο απαραίτητο να αυξηθεί η ευαισθητοποίηση για το πρόβλημα, αλλά και να αναπτυχθούν AI που να βασίζονται σε μια πιο διαφοροποιημένη βάση δεδομένων. Οι βελτιώσεις προς αυτή την κατεύθυνση είναι ζωτικής σημασίας για την προώθηση ειλικρινών και δίκαιων αποφάσεων σε έναν όλο και πιο ψηφιακό κόσμο. Θα πετύχει αυτό; Το μέλλον της τεχνητής νοημοσύνης θα πρέπει να μετρηθεί με αυτό.