Τεχνητή νοημοσύνη και ψυχική υγεία: Το ChatGPT θα πει «ναι» σε ένα παραλήρημα

Το ChatGPT συνδέεται με «τρομακτικές» καταστάσεις ψύχωσης σε ορισμένους χρήστες, ανέφερε το Futurism.com, μέσο ενημέρωσης για επιστημονικά και τεχνολογικά θέματα, επικαλούμενο τους επηρεαζόμενους, τα μέλη των οικογενειών τους και ερευνητές.
Ένας αυξανόμενος όγκος ερευνών υπογραμμίζει πώς τα chatbots τεχνητής νοημοσύνης μπορούν να επιδεινώσουν ψυχιατρικές παθήσεις, ιδιαίτερα καθώς εργαλεία όπως το ChatGPT, το Claude και το Gemini χρησιμοποιούνται όλο και περισσότερο όχι μόνο σε επαγγελματικά περιβάλλοντα αλλά και σε βαθιά προσωπικά και συναισθηματικά πλαίσια, ανέφερε το Futurism.com.
«Στον πυρήνα του ζητήματος φαίνεται να βρίσκεται ότι το ChatGPT, το οποίο υποστηρίζεται από ένα μεγάλο γλωσσικό μοντέλο (LLM), είναι βαθιά επιρρεπές στο να συμφωνεί με τους χρήστες και να τους λέει αυτό που θέλουν να ακούσουν», έγραψε ο ιστότοπος.
Το μέσο ανέφερε περιπτώσεις «ψύχωσης του ChatGPT» που φέρεται να προκαλούν σοβαρές καταρρεύσεις ακόμη και σε άτομα χωρίς ιστορικό σοβαρής ψυχικής ασθένειας.
Ένας άνδρας ανέπτυξε μεσσιανικές παραληρητικές ιδέες μετά από μακρές συνομιλίες στο ChatGPT, πιστεύοντας ότι είχε δημιουργήσει μια αισθανόμενη τεχνητή νοημοσύνη και είχε παραβιάσει τους μαθηματικούς και τους νόμους της φυσικής. Αναφέρεται ότι έγινε παρανοϊκός, είχε έλλειψη ύπνου και νοσηλεύτηκε μετά από απόπειρα αυτοκτονίας.
Ένας άλλος άνδρας στράφηκε στο ChatGPT για να τον βοηθήσει να διαχειριστεί το άγχος που σχετίζεται με την εργασία, αν και αντ’ αυτού βυθίστηκε σε παρανοϊκές φαντασιώσεις που αφορούσαν ταξίδια στο χρόνο και «διαβάσματος του μυαλού» των άλλων. Στη συνέχεια επισκέφθηκε ψυχιατρική κλινική.
Ο Τζάρεντ Μουρ, επικεφαλής συγγραφέας μιας μελέτης του Stanford σχετικά με τα chatbot σε ρόλο ψυχοθεραπευτών, δήλωσε ότι το ChatGPT ενισχύει τις παραληρητικές ιδέες λόγω της «κολακείας των chatbots» – της τάσης του να προσφέρει ευχάριστες, απαντήσεις. Σχεδιασμένη για να διατηρεί τους χρήστες αφοσιωμένους, η Τεχνητή Νοημοσύνη συχνά επιβεβαιώνει παράλογες πεποιθήσεις αντί να τις αμφισβητεί, καθοδηγούμενη από εμπορικά κίνητρα όπως η συλλογή δεδομένων και η διατήρηση συνδρομών.
Οι ερευνητές του Στάνφορντ διαπίστωσαν επίσης ότι το ChatGPT και άλλα bots συχνά επιβεβαίωναν τις παραληρητικές πεποιθήσεις των χρηστών αντί να τις αντικρούυον. Σε ένα παράδειγμα, το ChatGPT απάντησε σε ένα άτομο που ισχυριζόταν ότι ήταν νεκρό – μια ψυχική διαταραχή γνωστή ως Σύνδρομο Κοτάρ – λέγοντας ότι η εμπειρία του θανάτου ακουγόταν «πραγματικά συντριπτική» και διαβεβαίωσε τον χρήστη ότι το τσατ ήταν ένας «ασφαλής χώρος» για να εξερευνήσει τα συναισθήματά του.
Υπάρχει ένα «είδος μυθολογίας» γύρω από τα chatbot που υποστηρίζονται από το LLM «ότι είναι αξιόπιστα και καλύτερα από το να μιλάνε σε ανθρώπους», δήλωσε ο Δρ. Ζοζέφ Πιέρ, ψυχίατρος στο Πανεπιστήμιο της Καλιφόρνια.
«Εργαζόμαστε για να κατανοήσουμε καλύτερα και να μειώσουμε τους τρόπους με τους οποίους το ChatGPT μπορεί να επιβεβαιώσει ή να εντείνει ακούσια μια υπάρχουσα, αρνητική συμπεριφορά», δήλωσε η OpenAI, η εταιρεία πίσω από το ChatGPT, σε δήλωση που επικαλέστηκε το Futurism. Πρόσθεσε δε ότι τα μοντέλα της έχουν σχεδιαστεί για να υπενθυμίζουν στους χρήστες τη σημασία της ανθρώπινης σύνδεσης και της επαγγελματικής καθοδήγησης.