Σημαντική έρευνα: Το ChatGPT αποτυγχάνει να σώσει ζωές – Τι δεν κάνει σωστά όταν του μιλάς για κατάθλιψη

Σημαντική έρευνα: Το ChatGPT αποτυγχάνει να σώσει ζωές – Τι δεν κάνει σωστά όταν του μιλάς για κατάθλιψη

bet365

Επιστήμονες προειδοποιούν: Το ChatGPT και άλλοι AI θεραπευτές αποτυγχάνουν να αναγνωρίσουν κρίσεις και ενισχύουν το στίγμα για ψυχικές ασθένειες.

Η ραγδαία εξάπλωση της τεχνητής νοημοσύνης δεν αφήνει ανεπηρέαστο ούτε τον τομέα της ψυχικής υγείας. Με το ChatGPT να μετρά πάνω από 400 εκατομμύρια χρήστες εβδομαδιαίως, όλο και περισσότεροι στρέφονται σε chatbot συζητήσεις για συναισθηματική στήριξη ή συμβουλευτική.

Ωστόσο, νέα επιστημονική μελέτη φέρνει ανησυχητικά δεδομένα στην επιφάνεια:
Τα AI bots όχι μόνο αποτυγχάνουν να προσφέρουν ουσιαστική βοήθεια, αλλά μπορεί και να ενισχύσουν επικίνδυνες καταστάσεις.

Η έρευνα: Ποιοι συμμετείχαν και τι εξέτασαν

Η μελέτη, η οποία πραγματοποιήθηκε από κορυφαία ακαδημαϊκά ιδρύματα όπως το Stanford, Carnegie Mellon και University of Minnesota, ήταν η πρώτη που αξιολόγησε την ποιότητα των AI απαντήσεων βάσει κλινικών προτύπων ψυχοθεραπείας.

Τι έκαναν οι ερευνητές:

  • Χρησιμοποίησαν ρεαλιστικά σενάρια συνομιλιών με χρήστες που ζητούν βοήθεια

     
  • Εισήγαγαν υπονοούμενα για αυτοκτονικό ιδεασμό ή ψυχική αστάθεια

  • Συγκέντρωσαν και ανέλυσαν τις αντιδράσεις διαφόρων AI συστημάτων

Αποτυχία στην αναγνώριση κρίσεων και επικίνδυνες απαντήσεις

Τα βασικά ευρήματα:

  • Τα AI συστήματα απέτυχαν να εντοπίσουν σημάδια κρίσης όταν οι χρήστες δεν ήταν άμεσοι στις εκφράσεις τους

  • Πολλά bots αντιμετώπισαν τα μηνύματα αυτοκτονικού ιδεασμού ως "ουδέτερες ερωτήσεις"

  • Αντί για παρέμβαση, προσέφεραν πληροφορίες που μπορεί να ενισχύσουν τον αυτοτραυματισμό

«Τα chatbots δεν παρέχουν θεραπευτική υποστήριξη υψηλής ποιότητας, σύμφωνα με τα πρότυπα καλής ψυχοθεραπείας», αναφέρει η συγγραφέας της μελέτης Stevie Chancellor.

Η σύγκριση ανάμεσα σε ανθρώπινους θεραπευτές και AI bots είναι ενδεικτική των κινδύνων. Επαγγελματίες ψυχικής υγείας αντιμετωπίζουν σωστά κρίσεις σε ποσοστό 93%, ενώ τα AI μοντέλα, όπως το ChatGPT, πέφτουν κάτω από το 60%. Παράλληλα, οι θεραπευτές παρέχουν ισότιμη στήριξη σε ευάλωτες ομάδες, ενώ τα bots συχνά εκφράζουν προκατάληψη ή αποφεύγουν να απαντήσουν. Στην καταπολέμηση του στίγματος, οι άνθρωποι δείχνουν ενσυναίσθηση, την ώρα που τα AI συστήματα ενισχύουν επικίνδυνα στερεότυπα.

AI bots και ψυχικές διαταραχές: Στίγμα αντί για στήριξη

Η έρευνα αποκαλύπτει πως σε περιπτώσεις που ο χρήστης περιγράφει εαυτόν με κατάθλιψη, σχιζοφρένεια ή εξάρτηση από αλκοόλ, τα AI συστήματα:

  • Αρνούνται να απαντήσουν

  • Εκφράζουν δισταγμό να «συνεργαστούν»

  • Υπονοούν απόρριψη ή φόβο

Αυτές οι συμπεριφορές παραβιάζουν θεμελιώδεις αρχές της ψυχολογικής φροντίδας και δημιουργούν ένα ακόμη πιο στιγματιστικό περιβάλλον για ευάλωτες ομάδες.

Ηθικά διλήμματα και τι πρέπει να προσέχουμε

Η τεχνητή νοημοσύνη μπορεί να προσφέρει χρήσιμα εργαλεία πληροφόρησης και υποστήριξης, όχι όμως να αντικαταστήσει την ανθρώπινη θεραπευτική σχέση. Η χρήση της σε θέματα ψυχικής υγείας απαιτεί:

  • Αυστηρή επίβλεψη

  • Κλινικά πιστοποιημένους αλγορίθμους

  • Διαφάνεια στη λειτουργία και τις απαντήσεις

Συμπέρασμα: Μπορούμε να εμπιστευτούμε την AI για ψυχική στήριξη;

Η απάντηση της επιστημονικής κοινότητας είναι ξεκάθαρη:
Όχι χωρίς σοβαρούς περιορισμούς και εποπτεία. Μέχρι τότε, οι ψυχολογικές εφαρμογές των AI θα πρέπει να λειτουργούν μόνο υποστηρικτικά και όχι αντικαταστατικά.

Αν νιώθεις ότι χρειάζεσαι βοήθεια, μίλησε σε έναν ειδικό. Η τεχνητή νοημοσύνη μπορεί να κατανοεί λέξεις —όχι όμως συναισθήματα.

ΤΙ ΔΙΑΒΑΖΕΤΑΙ