UPDATE #NOW

Ο αλγόριθμος αδικεί τις γυναίκες στο εργασιακό περιβάλλον και επηρεάζει τις προσλήψεις τους


JTeam

14 Ιουλίου 2022

Γυναίκα με λαπτον μπροστά από οθόνη με ηλεκτρονικά
Unsplash
Οι αλγόριθμοι που χρησιμοποιούνται για τη λήψη δίκαιων αποφάσεων δεν είναι όσο ουδέτεροι νομίζαμε

Σύμφωνα με έρευνα που δημοσιεύθηκε στο Proceedings of the National Academy of Sciences (PNAS), η τεχνητή νοημοσύνη μπορεί να επηρεάσει τις απόψεις και τις πράξεις μας.

«Η ανησυχία ότι οι αλγόριθμοι που χρησιμοποιούν τα σύγχρονα συστήματα ΑΙ αναπαράγουν κοινωνικές προκαταλήψεις, επειδή ακριβώς χρησιμοποιούν δεδομένα στα οποία είναι διάχυτες οι ίδιες προκαταλήψεις» λέει η Madalina Vlasceanu, ερευνήτρια στο New York University και συγγραφέας της έρευνας. «Συνεπώς όταν τα αποτελέσματα χρησιμοποιούνται από ανθρώπους, συνεχίζουν να διαδίδουν τις προκαταλήψεις, αντί να τις περιορίζουν».

Έτσι, αποτελέσματα τα οποία μπορεί μια εταιρεία να εμπιστεύεται για την ουδετεροτητα τους, μπορεί να είναι σεξιστικά, ρατσιστικά, ομοφοβικά και γενικώς άδικα προς κάποια κοινωνική ομάδα, όπως άλλωστε και οι μετέπειτα αποφάσεις που θα βασιστούν σε αυτά.

Για τη συγκεκριμένη έρευνα, οι επιστήμονες διενήργησαν 2 πειράματα για να διαπιστώσουν 1) αν οι διακρίσεις στο αλγοριθμικό output έχουν κοινωνικές επιπτώσεις και 2) αν ναι, ποιος είναι ο αντίκτυπος σε άτομα των οποίων τις προκαταλήψεις επιβεβαιώνει. Για το πρώτο πείραμα, έψαξαν τη λέξη «άνθρωπος» στο Google Image Search στην εθνική γλώσσα 52 χωρών. Σε χώρες όπου το χάσμα ανάμεσα στα φύλα είναι πιο έντονο, οι πρώτες 100 φωτογραφίες στα αποτελέσματα απεικόνιζαν περισσότερους άντρες παρά γυναίκες.

Σε άλλο πείραμα, δόθηκαν στους συμμετέχοντες οι τίτλοι ασυνήθιστων επαγγελμάτων και φωτογραφίες ατόμων που τα ασκούν. Έπειτα, οι συμμετέχοντες ρωτήθηκαν αν θα προσλάμβαναν έναν άντρα ή μια γυναίκα για το ρόλο. Οι συμμετέχοντες που είχαν δει περισσότερες φωτογραφίες ανδρών, ήταν πιο πιθανό να απαντήσουν αναλόγως. Το πείραμα έδειξε λοιπόν πως η ανισότητα των φύλων φαίνεται στα αποτελέσματα της αναζήτησης ενός ΑΙ και μπορεί να επηρεάσει άμεσα εταιρικές αποφάσεις σχετικά με το αν μια γυναίκα ή ένας άντρας πρέπει να προσληφθεί για μία θέση.

Όταν τα συστήματα ΑΙ βασίζονται λοιπόν σε ατελή ή προκατειλημμένα δεδομένα, θα παράξουν και λάθος αποτελέσματα που μπορεί να έχουν καταστροφικές συνέπειες για τα δικαιώματα, την ψυχική υγεία, την οικονομική ασφάλεια και την υγεία ενός ατόμου -και στην περίπτωση διακρίσεων με βάση το φύλο, μιας γυναίκας. Ο σχεδιασμός και η χρήση τεχνητής νοημοσύνης στο χώρο εργασίας μπορεί άρα να φέρει της γυναίκες σε μειονεκτική θέση. Αν και υπερασπιστές του ΑΙ υποστηρίζουν ότι η τεχνολογία μπορεί να φέρει την ισότητα, οι ειδικοί προειδοποιούν πως ίσως δεν έχουμε μάθει ακόμα να ρωτάμε τις σωστές ερωτήσεις όταν συλλέγουμε τα δεδομένα που οι αλγόριθμοι επεξεργάζονται.