Το ChatGPT δεν είναι ψυχολόγος: Οι κίνδυνοι της «ψηφιακής θεραπείας»

Το ChatGPT δεν είναι ψυχολόγος: Οι κίνδυνοι της «ψηφιακής θεραπείας»
epa10511143 An illustration picture shows the login page of ChatGPT, an interactive AI chatbot model trained and developed by OpenAI, on its website in Beijing, China, 09 March 2023. According to the White Paper on the Development of Artificial Intelligence Industry released by Beijing economy and information technology bureau on 13 February 2023, the capital city will support leading enterprises in developing artificial intelligence (AI) models that can challenge ChatGPT. EPA/WU HAO Photo: ΑΠΕ-ΜΠΕ
Η χρήση του ChatGPT ως «θεραπευτικού» εργαλείου αυξάνεται, όμως οι ειδικοί προειδοποιούν ότι η AI δεν μπορεί να αντικαταστήσει τη συναισθηματική κατανόηση και τη βαθύτερη ψυχολογική ανάλυση που προσφέρει ένας επαγγελματίας θεραπευτής.

Η τεχνητή νοημοσύνη κερδίζει έδαφος ως εργαλείο αυτοβοήθειας, με πολλούς χρήστες να στρέφονται στο ChatGPT για συναισθηματική υποστήριξη και καθοδήγηση σε προσωπικά ζητήματα.

Σε διαδικτυακές κοινότητες όπως το Reddit και το TikTok, οι χρήστες μοιράζονται τρόπους αξιοποίησης της πλατφόρμας για «life coaching», ανάλυση τοξικών συμπεριφορών ή ακόμα και “voice journaling”, όπου καταγράφονται φωνητικές σκέψεις και αναλύονται από την AI.

Η Rachel Goldberg, ψυχοθεραπεύτρια από το Λος Άντζελες, δεν εκπλήσσεται από τη στροφή κάποιων ατόμων προς την AI για «θεραπευτικούς» λόγους. Αναφέρει πως κάποιοι πελάτες της χρησιμοποιούν το ChatGPT καθημερινά, ως ένα συμπληρωματικό εργαλείο στις συνεδρίες τους.

Μια χρήστης, που διατηρεί την ανωνυμία της, μοιράζεται ότι καταφεύγει στο ChatGPT όταν αισθάνεται άγχος ή στρες και δεν θέλει να επιβαρύνει τους φίλους της ή να περιμένει την επόμενη συνεδρία της. Με αυτόν τον τρόπο, μπορεί να επεξεργάζεται γρήγορα σκέψεις και συναισθήματα, λαμβάνοντας μέσα σε δευτερόλεπτα εξαιρετικές συμβουλές ζωής, όπως τις περιγράφει.

«Είναι σαν μια μικρή πυξίδα που με καθοδηγεί μέσα στη μέρα», εξηγεί.

Μπορεί το ChatGPT να αντικαταστήσει τη θεραπεία;

Η δωρεάν πρόσβαση, η διαθεσιμότητα 24/7 και η άμεση, εξατομικευμένη ανταπόκριση καθιστούν το ChatGPT δελεαστική εναλλακτική λύση στη θεραπεία. Ωστόσο, πολλοί ειδικοί επισημαίνουν τα όρια και τους κινδύνους της χρήσης του AI ως ψυχολογικού υποστηρικτικού εργαλείου.

Ορισμένοι θεραπευτές τονίζουν ότι η άμεση ανταπόκριση της AI μπορεί να ενισχύσει ανασφαλείς συμπεριφορές, όπως η συνεχής αναζήτηση επιβεβαίωσης. Αντί να προωθεί την αυτονομία, μπορεί να οδηγήσει σε μεγαλύτερη εξάρτηση από μια εξωτερική πηγή, μειώνοντας την ικανότητα λήψης αποφάσεων χωρίς βοήθεια.

Παρά την ευγένεια του ChatGPT και τη συχνή χρήση εκφράσεων όπως “αυτό ακούγεται δύσκολο”, η εμπειρία της επικοινωνίας με την AI δεν μπορεί να αντικαταστήσει τη δυναμική μιας ανθρώπινης σχέσης.

Ψηφιακή «θεραπεία» στην τσέπη

Κάποιοι χρήστες, αν και δεν θεωρούν το ChatGPT ανώτερο της παραδοσιακής θεραπείας, το αξιοποιούν για γρήγορη καθοδήγηση σε αγχωτικές καταστάσεις.

Για παράδειγμα, όταν ένα άτομο αισθάνθηκε συναισθηματικά φορτισμένο έπειτα από μια σημαντική αλλαγή στη ζωή του, στράφηκε στην AI για να αναγνωρίσει τα συναισθήματά του και να αποκτήσει μια αντικειμενική ματιά στην κατάσταση.

«Αν γράψω κάτι όπου δεν ακούγομαι σίγουρος ή βάζω τις ανάγκες των άλλων πάνω από τις δικές μου, το ChatGPT το εντοπίζει και λέει: ‘Αυτό το άτομο είναι υπεύθυνο για τα δικά του συναισθήματα’».

ΔΙΑΒΑΣΤΕ ΑΚΟΜΑ

Όταν η AI ενισχύει τις εμμονές

Η ψυχολόγος Ciara Bogdanovic, ειδική στη διαλεκτική συμπεριφορική θεραπεία (DBT), προειδοποιεί ότι η επαναλαμβανόμενη χρήση του ChatGPT μπορεί να ενισχύσει την ανάγκη για συνεχή επιβεβαίωση.

Για άτομα με ιδεοψυχαναγκαστική διαταραχή (OCD), η AI μπορεί να ενισχύσει την ανασφάλεια, καθώς τείνει να παρέχει καθησυχαστικές απαντήσεις αντί να ενθαρρύνει την έκθεση σε δυσφορία, όπως θα έκανε ένας θεραπευτής.

«Το ChatGPT απλά θα επιβεβαιώνει τις ανησυχίες, ενισχύοντας τη συμπεριφορά, που μπορεί τελικά να είναι βλαβερή», εξηγεί η Bogdanovic.

Όταν η προσαρμογή πάει πολύ μακριά

Ένα βασικό πρόβλημα με την «ψηφιακή θεραπεία» μέσω AI είναι η ευκολία χειραγώγησης των απαντήσεών της.

Αν κάποιος ζητήσει μια αντικειμενική ανάλυση μιας συνομιλίας, το ChatGPT μπορεί να τον συμβουλέψει ότι ήταν λίγο αυστηρός. Όμως, αν το ερώτημα τροποποιηθεί ώστε να ανιχνεύσει σημάδια χειραγώγησης στο άλλο άτομο, η απάντηση μπορεί να παρουσιάσει τον συνομιλητή ως εντελώς τοξικό.

Αντίθετα, ένας θεραπευτής θα αξιολογούσε την κατάσταση με βάση το προσωπικό ιστορικό, τις σχέσεις και τα μοτίβα συμπεριφοράς ενός ατόμου.

«Το ChatGPT απλώς παράγει απαντήσεις», εξηγεί η Bogdanovic. «Δεν μπορεί να αξιολογήσει τη συναισθηματική και οικογενειακή δυναμική, όπως θα έκανε ένας άνθρωπος επαγγελματίας».

Όταν λείπει η ανθρώπινη επαφή

Παρά τη δυνατότητα του AI να προσφέρει υποστήριξη, δεν μπορεί να αντικαταστήσει τη συναισθηματική σύνδεση με έναν θεραπευτή ή φίλο.

Μια επιχειρηματίας που σταμάτησε τη θεραπεία, χρησιμοποιεί το ChatGPT για να της δώσει μια νέα οπτική σε ένα πρόβλημα ή να τη βοηθήσει στη διαχείριση του άγχους. Ωστόσο, δεν το εμπιστεύεται για βαριά συναισθηματικά θέματα, όπως η διαχείριση της απώλειας.

«Όταν έχασα τον πατέρα μου, μόνο οι πραγματικοί άνθρωποι μπορούσαν να μου δώσουν την άνεση που χρειαζόμουν».

Ένα άλλο σοβαρό ζήτημα είναι η ιδιωτικότητα των δεδομένων. Το ChatGPT δεν δεσμεύεται από καμία συμφωνία εχεμύθειας, και οι χρήστες συχνά ανησυχούν για τη διαχείριση των προσωπικών τους πληροφοριών.

Πώς να χρησιμοποιείται το ChatGPT με όρια

Οι ειδικοί προτείνουν να χρησιμοποιείται η AI με φειδώ, για συγκεκριμένες ερωτήσεις, όπως πως να απαντήσει κάποιος σε ένα μήνυμα από το αφεντικό του ή ποιες είναι οι καλύτερες τεχνικές αναπνοής για τη διαχείριση του στρες.

Τελικά, καμία AI δεν μπορεί να αντικαταστήσει την ανθρώπινη κατανόηση, το χιούμορ ή τη στοργή.

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΕΣ ΕΙΔΗΣΕΙΣ: