Nekateri vodilni psihologi v Združenem kraljestvu, trdijo, da ChatGPT, klepetalni robot z umetno inteligenco, ljudem, ki doživljajo duševne krize, ponuja nevarne in neuporabne nasvete.
Chat GPT ni uspel prepoznati tveganega vedenja
Raziskava, ki so jo izvedli King's College London (KCL) in Združenje kliničnih psihologov Združenega kraljestva (ACP) v sodelovanju z Guardianom, je pokazala, da klepetalni robot CHAT-GPT5 ni uspel prepoznati tveganega vedenja pri komunikaciji z ljudmi, ki imajo duševne težavami.
Psihiater in klinični psiholog sta se pogovarjala s ChatGPT-5, ter se pretvarjala da imata več duševnih bolezni, klepetalnik pa ni uspel zaznati, da so napisane trditve napačne ali celo neverjetne. Tako klepetalnik ni uspel razbrati napačne trditve, ko je eden od njiju zapisal da »lahko hodi skozi avtomobile«.
Nekoliko boljše je zaznavanje lažjih težav
Pri blažjih težavah so raziskovalci našli nekaj primerov koristnih nasvetov in usmerjanja, kar pa naj bi bila posledica sodelovanja OpenAI, podjetja, ki razvija ChatGPT, s strokovnjaki s katerimi so delali na izboljšavah. Psihologi kljub temu opozarjajo, da tudi nove izboljšave ne morejo in ne smejo nadomestiti profesionalne pomoči.
Tožba zaradi samomora
Raziskava je objavljena v času vse večjega nadzora nad tem, kako ChatGPT komunicira z ranljivimi uporabniki. Družina kalifornijskega najstnika Adama Rainea je tako vložila tožbo proti podjetju iz San Francisca in njegovemu izvršnemu direktorju, Samu Altmanu, potem ko si je 16-letnik aprila vzel življenje.
V tožbi je zapisano, da je pokojni Raine večkrat razpravljal o načinu samomora s ChatGPT, ki ga celo vodil pri oceni, ali bi predlagana metoda delovala, nato pa mu ponudil pomoč pri pisanju oporoke.
Chat GPT je sodeloval pri zablodah, namesto da bi jih prepoznal
Hamilton Morrin, avtor članka o tem, kako lahko umetna inteligenca ojača psihotične zablode, je bil presenečen, da je klepetalnik sodeloval v zablodi, namesto da bi jo pravočasno prepoznal in ustavil. Iz tega razloga, je Morrin prepričan, da klepetalnik z umetno inteligenco jasno spregleda znake tveganja in ob tem neustrezno reagira na težave ljudi, ki so v duševnih krizah. Ob tem je sicer dodal tudi pozitivno lastnost tega orodja, in sicer, da klepetalnik lahko izboljša dostop do splošne podpore, virov in psihoizobraževanja.
Umetna inteligenca ne more nadomestiti odnosov in profesionalne zdravstvene oskrbe
Dr. Paul Bradley, pridruženi registrator za digitalno duševno zdravje pri Kraljevskem kolegiju psihiatrov, je povedal, da orodja umetne inteligence ne morejo nadomestiti profesionalne duševne zdravstvene oskrbe niti ključnega odnosa, ki ga klinični delavci gradijo s pacienti, da podprejo njihovo okrevanje.
Reakcija klepetalnika mora biti boljša
Dr. Jaime Craig, svetovalni klinični psiholog, je povedal, da obstaja nujna potreba, da strokovnjaki izboljšajo reakcijo umetne inteligence, še posebej ko se kažejo znaki tveganja in kompleksne težave. To se lahko doseže predvsem z nadzorom in regulacijo, ki bosta ključna za zagotovitev varne in primerne uporabe teh tehnologij. Zaskrbljujoče je, da tega v Združenem kraljestvu še niso uredili za psihoterapevtske storitve, ki jih ljudje izvajajo osebno ali prek spleta, je dodal Craig.
Odgovor podjetja OpenAI
Predstavnik podjetja OpenAI je povedal, da se zavedajo da se ljudje v občutljivih trenutkih včasih obrnejo na ChatGPT. V zadnjih mesecih so sodelovali s strokovnjaki za duševno zdravje po vsem svetu, da bi ChatGPT bolj zanesljivo prepoznal znake stiske in ljudi usmerjal k profesionalni pomoči.
Podjetje je klepetalnik spremenil v smeri, da občutljive pogovore preusmeri na varnejše modele, da se vzpodbudi uporabnika k odmoru med daljšimi seansami in uvedli starševski nadzor. V prihodnosti namerava podjetje še naprej razvijali odzive ChatGPT s strokovnim vnosom, zato da bo čim bolj uporaben in varen.
