Σε έναν κόσμο όπου η τεχνολογία καθορίζει την καθημερινότητά μας, η ερώτηση δεν είναι πια ποιος τη χρησιμοποιεί, αλλά ποιος …
Αλγόριθμοι που ξεχνούν τις γυναίκες
Η επανάσταση της τεχνητής νοημοσύνης υπόσχεται πρόοδο και καινοτομία, ωστόσο φέρνει στο προσκήνιο ερωτήματα για το αν ενισχύει ή αναπαράγει κοινωνικές ανισότητες, ιδιαίτερα εις βάρος του γυναικείου φύλου.
Οι αλγόριθμοι δεν είναι ουδέτεροι και συχνά αντανακλούν προκαταλήψεις, που ενυπάρχουν στα δεδομένα και στους κοινωνικούς θεσμούς.Το κρίσιμο ερώτημα που τίθεται είναι αν τελικά υπάρχει ακόμα χρόνος να προγραμματιστεί η ισότητα στον αλγόριθμο.
Η τεχνητή νοημοσύνη αποτελεί έναν από τους σημαντικότερους τεχνολογικούς άξονες της εποχής μας, με εφαρμογές που εκτείνονται από την ιατρική μέχρι τα χρηματοοικονομικά και από την εκπαίδευση μέχρι τη βιομηχανία. Παρά τις τεράστιες δυνατότητες που προσφέρει, πολλοί ειδικοί εκφράζουν ανησυχία για τον τρόπο με τον οποίο η χρήση της μπορεί να παρασύρει σε κοινωνικές ανισότητες. Ιδιαίτερα σε ό,τι αφορά το γυναικείο φύλο, η τεχνητή νοημοσύνη φαίνεται να εγείρει προβληματισμούς, που ξεκινούν από την αγορά εργασίας και φτάνουν έως την καθημερινή εκπροσώπηση της γυναίκας στον δημόσιο λόγο.
Η μεροληψία των δεδομένων
Η τεχνητή νοημοσύνη «μαθαίνει» μέσα από δεδομένα. Αν αυτά τα δεδομένα είναι προκατειλημμένα, τότε και τα αποτελέσματα που παράγει ο αλγόριθμος ενισχύουν τις ίδιες προκαταλήψεις. Σε εφαρμογές αναζήτησης εργασίας, για παράδειγμα, έχει παρατηρηθεί ότι τα συστήματα προτείνουν περισσότερες θέσεις υψηλού κύρους σε άνδρες παρά σε γυναίκες, επειδή τα δεδομένα αντανακλούν μια αγορά εργασίας που παραδοσιακά έδινε προβάδισμα στους άνδρες. Παρόμοια φαινόμενα έχουν εντοπιστεί σε αυτόματα συστήματα αξιολόγησης βιογραφικών, όπου τα ανδρικά ονόματα ή η ανδρική εμπειρία θεωρούνται πιο «κατάλληλα».
Ο κίνδυνος στην αγορά εργασίας
Η τεχνητή νοημοσύνη υποτίθεται πως είναι στην διάθεση όλων. Ως εκ τούτου οι γυναίκες πρέπει να έχουν την θέση τους στο τραπέζι όπου διαμορφώνεται το μέλλον της τεχνολογίας. Επαγγέλματα που ασκούνται συχνότερα από γυναίκες, όπως η διοικητική υποστήριξη, η τηλεφωνική εξυπηρέτηση και η τυποποιημένη λογιστική, είναι περισσότερο εκτεθειμένα στον αυτοματισμό. Αυτό σημαίνει ότι οι γυναίκες βρίσκονται σε μεγαλύτερο κίνδυνο να χάσουν τη δουλειά τους λόγω αντικατάστασης από μηχανές.
Αντίθετα, οι τομείς που σχετίζονται με τον σχεδιασμό, την ανάπτυξη και τον έλεγχο συστημάτων τεχνητής νοημοσύνης, όπου κυριαρχούν οι άνδρες, φαίνεται να έχουν πιο σταθερή και ασφαλή πορεία. Έτσι δημιουργείται μια νέα μορφή ανισότητας: οι γυναίκες κινδυνεύουν να χάσουν τις θέσεις τους, ενώ οι άνδρες καταλαμβάνουν τις ηγετικές θέσεις στο τεχνολογικό οικοσύστημα.
Οι έμφυλες αναπαραστάσεις στα συστήματα ΑΙ
Ένα άλλο πεδίο προβληματισμού αφορά στον τρόπο που τα συστήματα αναπαριστούν το γυναικείο φύλο. Εικονικοί βοηθοί, όπως αυτοί που χρησιμοποιούνται σε κινητά τηλέφωνα και υπηρεσίες εξυπηρέτησης ή/και πλοήγησης, προγραμματίζονται συχνά με γυναικεία φωνή και πιο «υπάκουη» συμπεριφορά, ενισχύοντας στερεότυπα υποτακτικότητας.
Ακόμη και στην αυτόματη δημιουργία εικόνων ή κειμένων, οι αλγόριθμοι τείνουν να αναπαράγουν παραδοσιακές εικόνες της γυναίκας, περιορίζοντάς την σε ρόλους που αντανακλούν την ιστορική ανισότητα. Έτσι, η τεχνητή νοημοσύνη όχι μόνο δεν καταρρίπτει τα στερεότυπα αλλά μπορεί να τα παγιώνει.
Προοπτικές και λύσεις
Για να περιοριστούν αυτά τα φαινόμενα απαιτούνται πολλαπλές παρεμβάσεις. Αρχικά, η συλλογή και η επεξεργασία δεδομένων πρέπει να γίνεται με τρόπο που να εξασφαλίζει ισότιμη εκπροσώπηση των φύλων. Παράλληλα, οι ομάδες που σχεδιάζουν και προγραμματίζουν συστήματα τεχνητής νοημοσύνης χρειάζεται να περιλαμβάνουν περισσότερες γυναίκες, ώστε να αποφεύγεται η αναπαραγωγή μιας ανδρικής οπτικής στον κώδικα.
Εξίσου σημαντική είναι η εκπαίδευση και η ευαισθητοποίηση της κοινωνίας σχετικά με τον κίνδυνο της μεροληψίας, καθώς και η δημιουργία νομικών και θεσμικών πλαισίων, τα οποία θα διασφαλίζουν την ισότητα.
Αναμφισβήτητα, η τεχνητή νοημοσύνη είναι ένα ισχυρό εργαλείο, που μπορεί να προσφέρει μεγάλες δυνατότητες προόδου. Ωστόσο, αν παραμείνει ανεξέλεγκτη κινδυνεύει να αναπαράγει ή και να ενισχύσει υπάρχουσες κοινωνικές ανισότητες, ειδικά σε βάρος των γυναικών.
Το κρίσιμο ερώτημα δεν είναι αν η τεχνητή νοημοσύνη δημιουργεί ανισότητα από μόνη της, αλλά πώς η κοινωνία επιλέγει να τη χρησιμοποιήσει. Η απάντηση βρίσκεται στην πρόθεση για ισότιμη ανάπτυξη, στον έλεγχο της μεροληψίας και στη διαρκή επιδίωξη για ισότητα σε όλους τους τομείς.




























