Η τεχνητή νοημοσύνη έχει εκτροχιαστεί. To Bing της Microsoft αισθάνεται «λυπημένο και φοβισμένο», ο Bard της Google απαντά λάθος σε ερωτήσεις αστροφυσικής και οι επιστήμονες του απαντούν μέσω Twitter – γενικά, τα πράγματα δεν πηγαίνουν τόσο καλά. Για τον τελευταίο, ίσως και να υπάρχει ελπίδα.
Η Google, σε μία προσπάθεια να βελτιώσει το bot της, έστειλε email στους εργαζομένους της και τους ζήτησε να κάνουν γράψουν εκ νέου τις απαντήσεις του σε θέματα με τα οποία είναι εξοικειωμένοι. Κι αυτό γιατί «μαθαίνει καλύτερα αν του δώσεις το παράδειγμα», οπότε θα εκπαιδευτεί και θα είναι πιο έγκυρο. Επίσης, τους έδωσαν κι ένα «εγχειρίδιο» με do’s και don’ts, για να μάθουν στον Bard να μην ξεπερνά τα όρια.
Οι απαντήσεις θα πρέπει να δίνονται σε πρώτο πρόσωπο, να είναι ουδέτερες, να μην εκφράζουν άποψη. Οι εργαζόμενοι της Google πρέπει να αποφύγουν «τις προκαταλήψεις με βάση τη φυλή, την εθνικότητα, το φύλο, την ηλικία, τη θρησκεία, τον σεξουαλικό προσανατολισμό, την πολιτική ιδεολογία, τον τόπο και οποιαδήποτε άλλη κατηγορία». Τους ζητήθηκε να μην αναφερθούν στον Bard σαν να είναι άνθρωπος με συναισθήματα ή εμπειρίες, αλλά και να κάνουν thumbs down σε απαντήσεις που δίνουν νομικές, οικονομικές και ιατρικές συμβουλές, κάνουν ρητορική μίσους ή είναι κακοποιητικές.
Από τη στιγμή που βγήκε το ChatGPT από την OpenAI, περιμέναμε την απάντηση της Google με το δικό της bot. Και την έδωσε. Και τι καταλάβαμε; Πρέπει να εκπαιδευτεί από ανθρώπους.