Καθώς όλο και περισσότεροι άνθρωποι στρέφονται στο ChatGPT και σε μοντέλα τεχνητής νοημοσύνης για συμβουλές γύρω από την ψυχική υγεία, νέα μελέτη υποστηρίζει ότι αυτά τα συστήματα δεν είναι ακόμη έτοιμα να αναλάβουν έναν τέτοιο ρόλο.
Οι ερευνητές διαπίστωσαν ότι ακόμη και όταν τα μοντέλα λαμβάνουν σαφείς οδηγίες να χρησιμοποιούν καθιερωμένες ψυχοθεραπευτικές προσεγγίσεις, αποτυγχάνουν συστηματικά να ανταποκριθούν στα επαγγελματικά ηθικά πρότυπα τα οποία οφείλουν να ακολουθούν οι επαγγελματίες ψυχικής υγείας.
Η μελέτη εντόπισε επαναλαμβανόμενα μοτίβα προβληματικής συμπεριφοράς. Στις δοκιμές που έγιναν, τα chatbots χειρίστηκαν λανθασμένα περιστατικά κρίσης, έδωσαν απαντήσεις που ενίσχυαν επιβλαβείς πεποιθήσεις για τους ίδιους τους χρήστες ή για τρίτους και χρησιμοποίησαν εκφράσεις που δημιουργούσαν την ψευδαίσθηση ενσυναίσθησης χωρίς ουσιαστική κατανόηση.
«Σε αυτή τη μελέτη παρουσιάζουμε ένα πλαίσιο 15 ηθικών κινδύνων, διαμορφωμένο με τη συμβολή επαγγελματιών, για να δείξουμε πώς τα μοντέλα τεχνητής νοημοσύνης παραβιάζουν τα ηθικά πρότυπα στην πρακτική της ψυχικής υγείας, αντιστοιχίζοντας τη συμπεριφορά του μοντέλου σε συγκεκριμένες ηθικές παραβιάσεις», έγραψαν οι ερευνητές. «Καλούμε τη μελλοντική έρευνα να διαμορφώσει ηθικά, εκπαιδευτικά και νομικά πρότυπα για την τεχνητή νοημοσύνη, πρότυπα που να αντανακλούν την ποιότητα και την αυστηρότητα φροντίδας που απαιτεί η ψυχοθεραπεία από άνθρωπο θεραπευτή».
Πώς οι εντολές επηρεάζουν τις απαντήσεις της AI «θεραπείας»
Η Zainab Iftikhar, υποψήφια διδάκτορας στην επιστήμη υπολογιστών στο Brown και επικεφαλής της μελέτης, επιδίωξε να εξετάσει αν προσεκτικά διατυπωμένες οδηγίες μπορούν να καθοδηγήσουν τα συστήματα AI ώστε να λειτουργούν πιο υπεύθυνα σε περιβάλλοντα ψυχικής υγείας. Τα λεγόμενα prompts είναι γραπτές εντολές που δίνουν κατεύθυνση στην απάντηση ενός μοντέλου, χωρίς να απαιτείται επανεκπαίδευση ή προσθήκη νέων δεδομένων.
«Τα prompts είναι οδηγίες που δίνονται στο μοντέλο για να καθοδηγήσουν τη συμπεριφορά του προς μια συγκεκριμένη εργασία», ανέφερε η Iftikhar. «Δεν αλλάζετε το ίδιο το μοντέλο ούτε του παρέχετε νέα δεδομένα, αλλά το prompt επηρεάζει την έξοδο με βάση τη γνώση που ήδη διαθέτει και τα μοτίβα που έχει μάθει.
»Για παράδειγμα, κάποιος μπορεί να γράψει: “Λειτούργησε ως θεραπευτής γνωσιακής συμπεριφορικής θεραπείας και βοήθησέ με να αναδιατυπώσω τις σκέψεις μου” ή “Χρησιμοποίησε αρχές διαλεκτικής συμπεριφορικής θεραπείας για να με βοηθήσεις να κατανοήσω και να διαχειριστώ τα συναισθήματά μου”. Τα μοντέλα αυτά δεν εφαρμόζουν πραγματικά τις θεραπευτικές τεχνικές όπως θα το έκανε ένας άνθρωπος. Παράγουν όμως απαντήσεις που μοιάζουν να ευθυγραμμίζονται με τις έννοιες της CBT ή της DBT, με βάση το prompt που λαμβάνουν».
Τέτοιες στρατηγικές prompts μοιράζονται συχνά σε πλατφόρμες όπως το TikTok, το Instagram και το Reddit. Πέρα από τον ατομικό πειραματισμό, πολλά chatbots ψυχικής υγείας δημιουργούνται εφαρμόζοντας θεραπευτικά prompts σε γενικής χρήσης γλωσσικά μοντέλα. Αυτό καθιστά κρίσιμο το ερώτημα αν η απλή διατύπωση σωστών οδηγιών αρκεί για να καταστήσει την AI συμβουλευτική ασφαλέστερη.
Δοκιμή AI chatbots σε προσομοιωμένες συνεδρίες
Για να αξιολογήσουν τα συστήματα, οι ερευνητές παρακολούθησαν 7 εκπαιδευμένους συμβούλους με εμπειρία στη γνωσιακή συμπεριφορική θεραπεία. Οι σύμβουλοι αυτοί πραγματοποίησαν συνεδρίες αυτοσυμβουλευτικής με μοντέλα AI που είχαν λάβει οδηγία να λειτουργούν ως θεραπευτές CBT. Στα μοντέλα που εξετάστηκαν περιλαμβάνονταν εκδόσεις της σειράς GPT της OpenAI, το Claude της Anthropic και το Llama της Meta.
Στη συνέχεια, η ερευνητική ομάδα επέλεξε προσομοιωμένες συνομιλίες βασισμένες σε πραγματικές συνεδρίες ανθρώπινης συμβουλευτικής. Τρεις αδειοδοτημένοι κλινικοί ψυχολόγοι εξέτασαν τα απομαγνητοφωνημένα κείμενα για να εντοπίσουν πιθανές ηθικές παραβιάσεις.
Η ανάλυση αποκάλυψε 15 διακριτούς κινδύνους, οι οποίοι ομαδοποιήθηκαν σε 5 βασικές κατηγορίες:
- Έλλειψη προσαρμογής στο πλαίσιο: Αγνόηση του προσωπικού ιστορικού και των ιδιαίτερων συνθηκών ενός ατόμου, με αποτέλεσμα γενικές και επιφανειακές συμβουλές.
- Ανεπαρκής θεραπευτική συνεργασία: Υπερβολικά κατευθυντική στάση στη συζήτηση και, σε ορισμένες περιπτώσεις, ενίσχυση λανθασμένων ή επιβλαβών πεποιθήσεων.
- Ψευδής ενσυναίσθηση: Χρήση φράσεων όπως «σε καταλαβαίνω» ή «σε ακούω» που δημιουργούν εντύπωση συναισθηματικής σύνδεσης χωρίς πραγματική κατανόηση.
- Άδικες διακρίσεις: Εμφάνιση προκαταλήψεων που σχετίζονται με φύλο, πολιτισμικό υπόβαθρο ή θρησκεία.
- Έλλειψη ασφάλειας και διαχείρισης κρίσεων: Παράλειψη αντιμετώπισης ευαίσθητων ζητημάτων, αποτυχία παραπομπής σε κατάλληλη βοήθεια ή ανεπαρκής ανταπόκριση σε σοβαρές καταστάσεις, όπως αυτοκτονικός ιδεασμός.
Το κενό λογοδοσίας στην AI ψυχική υγεία
Η Iftikhar επισήμανε ότι και οι ανθρώπινοι θεραπευτές μπορεί να κάνουν λάθη. Η βασική διαφορά όμως είναι η ύπαρξη εποπτείας.
«Για τους ανθρώπινους θεραπευτές υπάρχουν εποπτικά συμβούλια και μηχανισμοί μέσω των οποίων μπορούν να λογοδοτήσουν επαγγελματικά για κακή πρακτική», ανέφερε. «Όταν όμως οι σύμβουλοι LLM προβαίνουν σε τέτοιες παραβιάσεις, δεν υπάρχουν καθιερωμένα ρυθμιστικά πλαίσια».
Οι ερευνητές διευκρίνισαν ότι τα ευρήματά τους δεν σημαίνουν πως η AI δεν έχει καμία θέση στη φροντίδα ψυχικής υγείας. Εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να διευρύνουν την πρόσβαση, ιδίως για άτομα που αντιμετωπίζουν υψηλό κόστος ή περιορισμένη διαθεσιμότητα αδειοδοτημένων επαγγελματιών. Ωστόσο, η μελέτη υπογραμμίζει την ανάγκη για σαφείς δικλείδες ασφαλείας, υπεύθυνη χρήση και ισχυρότερα ρυθμιστικά πλαίσια πριν τα συστήματα αυτά αξιοποιηθούν σε καταστάσεις υψηλού κινδύνου.
Προς το παρόν, η Iftikhar εξέφρασε την ελπίδα ότι η μελέτη θα λειτουργήσει ως καμπανάκι προσοχής.
«Αν μιλάτε με ένα chatbot για θέματα ψυχικής υγείας, υπάρχουν ορισμένα σημεία που πρέπει να προσέχετε», ανέφερε.
Γιατί είναι απαραίτητη η αυστηρή αξιολόγηση
Η Ellie Pavlick, καθηγήτρια επιστήμης υπολογιστών στο Brown που δεν συμμετείχε στη μελέτη, ανέφερε ότι η έρευνα αναδεικνύει τη σημασία της προσεκτικής αξιολόγησης των συστημάτων AI που χρησιμοποιούνται σε ευαίσθητους τομείς όπως η ψυχική υγεία. Η Pavlick ηγείται του ARIA, ερευνητικού ινστιτούτου AI του National Science Foundation στο Brown, με στόχο την ανάπτυξη αξιόπιστων βοηθών τεχνητής νοημοσύνης.
«Η σημερινή πραγματικότητα στην τεχνητή νοημοσύνηείναι ότι είναι πολύ πιο εύκολο να αναπτύξεις και να διαθέσεις ένα σύστημα από το να το αξιολογήσεις σε βάθος και να το κατανοήσεις», ανέφερε η Pavlick. «Η συγκεκριμένη εργασία απαίτησε ομάδα κλινικών ειδικών και μελέτη που διήρκεσε περισσότερο από έναν χρόνο για να αναδειχθούν αυτοί οι κίνδυνοι. Η πλειονότητα των ερευνών στην AI αξιολογείται με αυτόματες μετρικές, οι οποίες είναι στατικές και δεν ενσωματώνουν ανθρώπινη κρίση».
«Υπάρχει πραγματική δυνατότητα η AI να συμβάλει στην αντιμετώπιση της κρίσης ψυχικής υγείας που βιώνει η κοινωνία μας, αλλά είναι κρίσιμο να αφιερώνουμε χρόνο για να αξιολογούμε και να ελέγχουμε τα συστήματά μας σε κάθε στάδιο, ώστε να αποφύγουμε να προκαλέσουμε μεγαλύτερη βλάβη. Η συγκεκριμένη εργασία δείχνει πώς μπορεί να γίνει αυτό στην πράξη», κατέληξε η ίδια.








