Μπορεί ένα chatbot να πάρει το ρόλο του ψυχοθεραπευτή;
Μπορεί ένα εργαλείο τεχνητής νοημοσύνης να πάρει το ρόλο του ψυχοθεραπευτή και μάλιστα να το πράξει αποτελεσματικά; Πλήθος ερευνών επιχειρούν να δώσουν μια ικανοποιητική απάντηση.
Πρόσφατα ένα στέλεχος εταιρίας τεχνητής νοημοσύνης προκάλεσε αναστάτωση υποστηρίζοντας ότι είχε μια άκρως προσωπική και συναισθηματική συνεδρία με το viral chatbot ChatGPTτης εταιρίας της. Η Lilian Weng έγραψε στο X (Twitter): ποτέ πριν δεν είχα δοκιμάσει κάποια θεραπεία μάλλον αυτό έφταιγε» και προκάλεσε ένα καταιγισμό αρνητικών σχολίων ό,τι υποβαθμίζει με αυτόν τον τρόπο την ψυχική ασθένεια.
Ωστόσο η άποψη της Weng σχετικά με την αλληλεπίδραση από το ChatGPT πιθανό να μπορεί να βασιστεί στο φαινόμενο placebo το οποίο περιγράφεται σε πρόσφατη έρευνα του περιοδικού Nature Machine Intelligence.
Μια ομάδα από το Τεχνολογικό Ινστιτούτο της Μασαχουσέτης (ΜΙΤ) και από το Πανεπιστήμιο της Αριζόνα ζήτησε από 300 συμμετέχοντες να αλληλεπιδράσουν με προγράμματα τεχνητής νοημοσύνης για την ψυχική υγεία και τους ενημέρωσε για το τι να περιμένουν.
Κατά τη διάρκεια του πειράματος κάποιοι από τους συμμετέχοντες δήλωσαν ό,τι το chatbot είχε ενσυναίσθηση. Σε κάποιους άλλους φάνηκε πως είναι χειριστικό, σε μερικούς δεν έκανε καθόλου εντύπωση.
Από αυτή την μελέτη καταλαβαίνουμε πως σε κάποιο βαθμό η τεχνητή νοημοσύνη είναι στην ουσία εκείνη του παρατηρητή όπως σημειώνει ο συγγραφέας Pat Pataranutaporn.
Πρέπει να σημειώσουμε πως υπάρχουν πολλές καινούριες επιχειρήσεις που επενδύουν σε εφαρμογές τεχνητής νοημοσύνης. Είναι πολύ σημαντικό αν σκεφτεί κανείς ό,τι οι εφαρμογές αυτές προσφέρουν θεραπεία, συντροφιά αλλά και υποστήριξη για την ψυχική υγεία.
Υπάρχει βέβαια η ανησυχία από πολλούς πως τα ρομπότ θα αντικαταστήσουν στις δουλειές τους ανθρώπους. Σχετικά με τον κλάδο της ψυχικής υγείας είναι δεδομένο πως δεν θα μπορούν να κάνουν ακριβώς την ίδια δουλειά με έναν επαγγελματία, ούτε βέβαια να έχουν την ίδια αποτελεσματικότητα.
Η Cher Scarlett απάντησε μέσω X στην Weng πως «η θεραπεία για την ψυχική υγεία είναι μια σκληρή δουλειά». Πολλές εφαρμογές σχετικά καινούριες για την ψυχική υγεία ενισχύουν την γενικότερη φοβία για την τεχνητή νοημοσύνη.
Για παράδειγμα η Replica είναι μια εφαρμογή συντρόφου τεχνητής νοημοσύνης που φέρεται να έχει οφέλη για την ψυχική υγεία. Πολλοί λοιπόν από εκείνους που έχουν χρησιμοποιήσει την συγκεκριμένη εφαρμογή υποστηρίζουν πως το ρομπότ έχει εμμονή με το σεξ.
Ένα ακόμα παράδειγμα ότι η τεχνητή νοημοσύνη δεν μπορεί να υποκαταστήσει τον επαγγελματία της ψυχική υγείας έρχεται από την Αμερικάνικη εταιρία Koko η οποία διεξήγαγε μια έρευνα. Ζήτησαν από 4.000 συμμετέχοντες να προσφέρουν συμβουλές μέσω της τεχνητής νοημοσύνης GPT-3. Διαπιστώθηκε λοιπόν ότι οι αυτοματοποιημένες απαντήσεις δεν μπορούσαν να λειτουργήσουν ως θεραπεία. Έγραψε ο Rob Morris, που είναι ο συνιδρυτής της εταιρίας, πως «η προσομοιωμένη συναίσθηση μοιάζει παράξενη και κενή».
Τα ευρήματα του Morris ήταν παρόμοια με αυτά των ερευνητών του Τεχνολογικού Ινστιτούτου της Μασαχουσέτης. Κατά τη διάρκεια αυτών πειραμάτων ορισμένοι συμμετέχοντες παρομοίασαν την εμπειρία του chatbot σαν να μιλούν σε ένα τοίχο.
Όπως είναι φυσιολογικό ο Morris αναγκάστηκε να ανασκευάσει μπροστά στην κριτική που δέχτηκε για το πείραμα του κυρίως επειδή δεν ήταν σαφές. Ο David Shaw από το πανεπιστήμιο της Βασιλείας ανέφερε πως τα αποτελέσματα από αυτά τα πειράματα δεν του προκαλούν εντύπωση. Επίσης δεν δίστασε να μιλήσει απαξιωτικά για τα chatbots.
Αξίζει να σημειωθεί πως η ιδέα του chatbot ως θεραπευτική μέθοδος δεν είναι καινούρια. Την συναντάμε στο μακρινό 1960 συνυφασμένη απόλυτα με τις ρίζες της τεχνολογίας. Η ELIZA είναι το πρώτο chatbot που αναπτύχθηκε για να προσομοιώσει ένα είδος ψυχοθεραπείας. Οι ερευνητές του MIT/ARIZONA χρησιμοποιήσαν το ELIZA για τους μισούς συμμετέχοντες και οι υπόλοιποι το GPT-3.
Μολονότι λοιπόν η επίδραση με το GPT-3 ήταν πολύ ισχυρότερη, οι χρήστες θεωρούσαν πιο αξιόπιστο το ELIZA. Έτσι δεν αποτέλεσε έκπληξη γιατί η Weng είναι ενθουσιασμένη με το ChatGPT.
Συμπερασματικά οι ερευνητές του MIT/ARIZONA τόνισαν πως «σημασία έχει ο τρόπος που παρουσιάζεται στην κοινωνία η τεχνητή νοημοσύνη».