ChatGPT: Πάνω από 1 εκατ. χρήστες εκφράζουν κάθε εβδομάδα αυτοκτονικές τάσεις, σύμφωνα με στοιχεία της OpenAI
JTeam
29 Οκτωβρίου 2025
Το ChatGPT και γενικότερα τα μέσα της τεχνητής νοημοσύνης έχουν «εισβάλει» στις ζωές μας τα τελευταία χρόνια, αλλάζοντας ριζικά την καθημερινότητά μας. Μπορεί στην αρχή να τα αντιμετωπίζαμε ως ένα χρήσιμο εργαλείο δουλειάς, όμως πλέον φαίνεται πως αποτελούν αναπόσπαστο κομμάτι της ημέρας μας. Πέρα από θέματα δουλειάς, πολλοί είναι εκείνοι που συμβουλεύονται το ChatGPT για οικονομικούς, ψυχολογικούς, διατροφικούς, οικογενειακούς, σχεσιακούς, επιχειρηματικούς λόγους, προκειμένου να πάρουν απαντήσεις σε ερωτήματα που τους απασχολούν. Τώρα, αν ικανοποιεί τις προσδοκίες τους, είναι ένα άλλο θέμα.
Οι χρήστες ανοίγουν την καρδιά τους στο ChatGPT, εκφράζοντας σκέψεις, προβληματισμούς, επιθυμίες ή ανησυχίες για το μέλλον τους. Σύμφωνα με μια νέα έκθεση του OpenAI, ένα μεγάλο ποσοστό των ανθρώπων που χρησιμοποιεί το ChatGPT, αντιμετωπίζει σοβαρά ψυχολογικά προβλήματα. Για την ακρίβεια, περισσότεροι από ένα εκατομμύριο χρήστες στέλνουν μηνύματα κάθε εβδομάδα, τα οποία περιλαμβάνουν «σαφείς ενδείξεις πιθανού σχεδίου ή πρόθεσης αυτοκτονίας». Το εύρημα αυτό, που εντάσσεται σε μια ενημέρωση σχετικά με τον τρόπο που το chatbot διαχειρίζεται ευαίσθητες συνομιλίες, αποτελεί μία από τις πιο άμεσες αναφορές της εταιρείας σχετικά με το πώς η τεχνητή νοημοσύνη μπορεί να επιδεινώσει ζητήματα ψυχικής υγείας.
Ανησυχία προκαλει ο αριθμός των χρηστών που εκφράζουν αυτοκτονικές τάσεις στο ChatGPT
Εκτός από τις εκτιμήσεις για τις αυτοκτονικές τάσεις, η OpenAI ανέφερε, επίσης, ότι περίπου 0,07% των ενεργών χρηστών μέσα σε μία εβδομάδα - δηλαδή περίπου 560.000 άτομα από τα συνολικά 800 εκατομμύρια εβδομαδιαίους χρήστες - εμφανίζουν «πιθανές ενδείξεις ψυχικών κρίσεων που σχετίζονται με ψύχωση ή μανία». Η εταιρεία διευκρίνισε, ωστόσο, ότι αυτού του είδους οι συνομιλίες είναι δύσκολο να ανιχνευθούν ή να μετρηθούν με ακρίβεια.
Η δημοσιοποίηση αυτών των δεδομένων έρχεται σε μια περίοδο αυξημένου ελέγχου για την OpenAI, έπειτα από αγωγή που κατέθεσε η οικογένεια ενός έφηβου αγοριού, ο οποίος αυτοκτόνησε έπειτα από εκτεταμένη χρήση του ChatGPT. Παράλληλα, η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ (FTC) ξεκίνησε τον περασμένο μήνα ευρεία έρευνα για τις εταιρείες που αναπτύσσουν chatbots τεχνητής νοημοσύνης, με στόχο να διαπιστώσει πώς μετρούν τις αρνητικές επιπτώσεις σε παιδιά και εφήβους.
Η OpenAI ισχυρίστηκε ότι η πρόσφατη αναβάθμιση του GPT-5 μείωσε τον αριθμό των ανεπιθύμητων ή επικίνδυνων αποκρίσεων και βελτίωσε την ασφάλεια των χρηστών, μέσα από αξιολόγηση που περιλάμβανε περισσότερες από 1.000 συνομιλίες σχετικές με αυτοτραυματισμό και αυτοκτονία. «Οι νέες αυτοματοποιημένες αξιολογήσεις δείχνουν ότι το GPT-5 είναι κατά 91% συμβατό με τις επιθυμητές συμπεριφορές μας, έναντι 77% του προηγούμενου μοντέλου», αναφέρει η εταιρεία.
Η OpenAI πρόσθεσε, ότι παρέχει διευρυμένη πρόσβαση σε γραμμές ψυχολογικής υποστήριξης και υπενθυμίσεις για διαλείμματα κατά τη διάρκεια μακροχρόνιων συνεδριών συνομιλίας. Για τη βελτίωση του μοντέλου, η εταιρεία συνεργάστηκε με 170 κλινικούς γιατρούς από το Global Physician Network, ώστε να αξιολογήσουν την ασφάλεια των απαντήσεων και να συμβάλουν στη διαμόρφωση κατάλληλων αποκρίσεων σε ζητήματα ψυχικής υγείας.
«Ψυχίατροι και ψυχολόγοι εξέτασαν περισσότερες από 1.800 απαντήσεις του μοντέλου σε περιπτώσεις σοβαρών ψυχολογικών κρίσεων και συνέκριναν τα αποτελέσματα του νέου GPT-5 με εκείνα προηγούμενων εκδόσεων», υποστήριξε η OpenAI. Ο ορισμός της «επιθυμητής» απάντησης βασίστηκε στην εκτίμηση που είχαν οι περισσότεροι ειδικοί για το τι πρέπει να ειπωθεί στην εκάστοτε περίπτωση.