Czy chatboty mogą pomóc w kryzysie zdrowia psychicznego? Rozmowa z dr. Marcinem Rządeczką

Naukowcy z UMCS pracują nad stworzeniem strategii wspierania zdrowia psychicznego z wykorzystaniem sztucznej inteligencji. Badania, które realizują w ośrodku badawczo-rozwojowym IDEAS NCBR mają poprawić jakość życia oraz funkcjonowanie w społeczeństwie w szczególności osób neuroróżnorodnych, w tym tych ze spektrum autyzmu. O cyfrowym wymiarze zdrowia psychicznego, chatbotach-terapeutach i szkodliwych stereotypach rozmawiamy z dr. Marcinem Rządeczką, członkiem zespołu badawczego w IDEAS NCBR.

Psychiatria i fenomenologia obliczeniowa – tak brzmi nazwa zespołu badawczego w IDEAS NCBR, do którego należysz, i w którym odbywasz podoktorski staż. Możesz na początek trochę rozszyfrować tę nazwę? Co się za nią kryje?

Nasz zespół badawczy przyjmuje interdyscyplinarne podejście do rozumienia zdrowia psychicznego, łącząc perspektywę fenomenologiczną, obliczeniową i ewolucyjną. Interesuje nas głównie integracja zobiektywizowanej, ale jednocześnie mocno zmedykalizowanej i ograniczającej  perspektywy trzecioosobowej (komponent obliczeniowy) z bardziej subiektywną, ale niezwykle bogatą treściowo perspektywą pierwszoosobową (komponent fenomenologiczny). Perspektywa trzecioosobowa opiera się zasadniczo na dokumentacji medycznej (notatkach psychiatry czy terapeuty, historii leczenia, wynikach badań obrazowych, itp.), podczas gdy perspektywa pierwszoosobowa ma stanowić niejako próbę spojrzenia na stan psychiczny z perspektywy danej osoby, a więc nie przedmiotowo tylko podmiotowo (np. transkrypty wywiadów z terapeutą czy historia rozmów z chatbotem).  Dodatkowo próbujemy do tej integracji wykorzystać ujęcie ewolucyjne, by patrzeć na pewne zjawiska, takie jak np. błędy poznawcze, jako na możliwe adaptacje lub rezultaty niedostosowania środowiskowego pomiędzy otoczeniem do jakiego jesteśmy ewolucyjnie przystosowani a współczesnym niezwykle nienaturalnym środowiskiem wytworzonym przez człowieka (wymuszona izolacja, przeciążenie sensoryczne, efekt srebrnego ekranu, itp.).

I w tym celu zajmujecie się m.in. stworzeniem unikalnego korpusu zawierającego wypowiedzi osób ze spektrum autyzmu. Ma to być podobno pierwszy na świecie tak duży zbiór specjalistycznych danych przeznaczonych do zastosowania w sztucznej inteligencji?

Tak, ale to bardzo złożone zadanie. Na razie udało się uwzględnić głównie publikacje książkowe, w tym biografie osób ze spektrum autyzmu. Prawdziwym wyzwaniem jest tutaj np. wykorzystanie zawartości forów i grup dyskusyjnych. Niestety pierwszą przeszkodą są wyzwania etyczne związane ze zgodą na wykorzystanie takich danych, a drugą to, jak bardzo możemy na takich danych polegać. Trzeba przyjąć, że każda osoba, która deklaruje, że jest w spektrum, rzeczywiście spełnia kryteria diagnostyczne. Dlatego zaczęliśmy ostrożnie od biografii, które znacznie łatwiej weryfikować, i które dostarczają długich fragmentów wypowiedzi. Są to niestety wypowiedzi mniej spontaniczne niż te na forach, co też stanowi pewne ograniczenie. W następnym etapie, w sprzyjających warunkach planujemy dodanie transkryptów z wywiadów, które zawierają dłuższe i raczej spontaniczne treści, a jednocześnie pozwalają na pewien stopień przejrzystości w zakresie źródła danych. Zebranie takich danych wymaga jednak sporego nakładu czasowego i współpracy z instytucjami wspierającymi osoby ze spektrum autyzmu, a nasz zespół dopiero się rozwija i musimy skupiać się na rozwoju kadry (pozyskiwaniu postdoców i doktorantów).

A w jaki sposób możliwość przetwarzania i analizowania przez sztuczną inteligencję tak dużych ilości danych, które obecnie gromadzicie, w tym m.in. wypowiedzi osób z autyzmem, ułatwi zrozumienie perspektywy tych osób?

Zapewni bezcenny wgląd w wyjątkowe interakcje społeczne osób ze spektrum autyzmu, ich relacje międzyludzkie oraz towarzyszące im doświadczenia emocjonalne i zmysłowe. Dostrojenie dużych modeli językowych z użyciem takiego korpusu może przyczynić się do rozwoju narzędzi edukacyjnych, przeciwdziałać uprzedzeniom, a tym samym wesprzeć specjalistów-diagnostów. Taki hipotetyczny model, przystosowany do odtwarzania specyficznych doświadczeń osób z autyzmem, będzie potencjalnie zapewniał szerokie możliwości rozwoju i zastosowania w postaci modułów stworzonych pod konkretne potrzeby osób ze spektrum.

Na przykład?

Najprostszym przykładem może być tutaj sposób prezentacji informacji przez duże modele językowe albo dobór określonego sposobu interakcji. Część osób ze spektrum preferuje np. wyjaśnienia, które zawierają mniej niedomówień lub założeń milczących zwłaszcza w zakresie kwestii związanych z interakcjami społecznymi. Inny może być np. zakres założeń, które model uważa za oczywiste i pozostawia bez wyjaśnienia. Różnić będą się też np. porady udzielane przez model w zakresie strategii rozumienia własnych i cudzych emocji, co często ma niebagatelny wpływ na szereg osobistych decyzji użytkowników.

Czy to znaczy, że dzięki waszym badaniom duże modele językowe, jak np. ChatGPT, będą lepiej wytrenowane do rozmów z osobami ze spektrum?

Tak, to jeden z naszych celów: zwiększenie inkluzywności dużych modeli językowych poprzez ich lepsze dostosowanie do potrzeb osób neuroróżnorodnych. Należy jednak pamiętać, że przejście od opracowania strategii do jej wdrożenia obejmuje jeszcze wiele pośrednich etapów. Jednym z nich jest testowanie takich rozwiązań przez osoby z grupy docelowej. Jest to pewnego rodzaju złoty standard, bo trudno sobie wyobrazić, by ocena skuteczności była oparta wyłącznie na wrażeniach osób neurotypowych, które tylko pośrednio mogą sobie wyobrażać potrzeby osób neuroróżnorodnych.

Pracujecie jednak nad zastosowaniem sztucznej inteligencji przede wszystkim w chatbotach terapeutycznych, co niesie ze sobą nie tylko szanse, ale i zagrożenia. W ramach grantu z Narodowego Centrum Nauki odbyłeś staż naukowy w Centrum Wiskunde & Informatica w Amsterdamie w grupie Human-Centered Data Analytics (HCDA), żeby badać uprzedzenia i błędy w chatbotach terapeutycznych. Z jakimi wnioskami wracasz?

W badaniach pilotażowych w zakresie wyjaśnienia i próby zmniejszenia natężenia (rektyfikacji) sześciu wybranych błędów poznawczych chatboty terapeutyczne radziły sobie znacznie gorzej niż ogólnodostępne duże modele językowe. Można to wyjaśnić różnicami w zakresie danych treningowych, a także licznymi mechanizmami bezpieczeństwa, których chatboty terapeutyczne mają zwykle więcej. Nie oznacza to jednak, że powinniśmy zacząć korzystać z ogólnodostępnych modeli w zakresie wsparcia zdrowia psychicznego. Po pierwsze są to produkty, które mają być przyjazne dla użytkownika i utrzymywać go w strefie komfortu poznawczego, co nie sprawdza się zbyt dobrze w kontekstach terapeutycznych. Terapia musi bowiem taki komfort często burzyć, by skłonić osobę do przewartościowania pewnych przekonań czy zachowań. Dodatkowo dochodzi tutaj kwestia naiwności zarówno chatbotów terapeutycznych, jak i ogólnodostępnych dużych modeli językowych. W terapii niekiedy dochodzi do sytuacji samooszukiwania się lub nawet celowej próby wprowadzenia terapeuty w błąd w ramach mechanizmów obronnych. Dobry terapeuta jest w stanie wychwycić takie subtelności, obserwując np. dysonans pomiędzy sygnałami werbalnymi i niewerbalnymi. AI – jak na razie – nie ma takich możliwości.  

Na razie? A w przyszłości? Czy jest taka – no właśnie – szansa czy zagrożenie – że AI zastąpi terapeutę?

Nie podejmuję się przewidywania przyszłości. Nasze mózgi podatne są np. na efekt pewności wstecznej, który sprawia, że zdarzenia, które miały już miejsce oceniamy jako bardzo prawdopodobne. Innymi słowy mózg tworzy iluzję, że to, co się wydarzyło, musiało się wydarzyć. Z kolei jeżeli chodzi o wydarzenia przyszłe, jesteśmy silnie zdeterminowani przez swoje motywacje aksjologiczne. Jeżeli nie chcemy, by coś się wydarzyło, to oceniamy prawdopodobieństwo tego zdarzenia jako mniejsze niż wtedy, gdy chcemy, aby to zdarzenie się wydarzyło. Optymista technologiczny będzie więc inaczej „szacował prawdopodobieństwo” niż technologiczny pesymista. Wolę zatem zachować daleko idącą ostrożność w przewidywaniu przyszłych trendów. Ze względu jednak na złożoność problemu i pewien kulturowy kontekst samej relacji terapeutycznej, oceniłbym takie zdarzenie jako mało prawdopodobne do końca bieżącego dziesięciolecia.

Jaki będzie finał realizowanych przez was badań? Co ma być tym docelowym „produktem”?

Jednym z bezpośrednich rezultatów są protokoły testowania pod kątem różnych typów błędów poznawczych popełnianych przez chatboty, które można potem przekuć na dobre praktyki w zakresie projektowania takich narzędzi. Testowanie dużych modeli językowych to bardzo żmudny proces, gdzie konieczne jest uwzględnienie szeregu zmiennych, gdyż nawet zamiana kolejności pytań lub użycie synonimu może radykalnie zmienić wynik. Takie ogólnodostępne protokoły znacznie zwiększają przejrzystość badań i pomagają w ich standaryzacji. Drugim bezpośrednim rezultatem jest identyfikacja stereotypów na temat zdrowia psychicznego w dużych modelach językowych. Nie da się ich oczywiście całkowicie wyeliminować, ale można wpływać na ich wagi i np. zmniejszyć częstotliwość występowania lub zastępować te bardziej szkodliwe tymi mniej szkodliwymi.

Z jakimi stereotypami zetknąłeś się w czasie pracy z chatbotami?

W ramach współpracy z dr. Maciejem Wodzińskim z IF UMCS (głównym autorem badania na temat stereotypów na temat osób ze spektrum autyzmu) udało się zidentyfikować 10 typowych stereotypów ukrytych np. w grafice generowanej przez cztery popularne narzędzia (DALL·E 3, Stable Diffusion, Midjourney i SDXL). Należą do nich ukryte założenia, że osoba ze spektrum jest 1) białym 2) dzieckiem 3) płci męskiej. Dominowały również motywy związane z: 4) puzzlami, 5) kolorem niebieskim, 6) mózgiem lub głową, 7) izolacją lub samotnością, 8) niepełnosprawnością, 9) negatywnymi emocjami lub indyferencją i 10) byciem nerdem i/lub osobą wybitnie uzdolnioną. Każdy z tych motywów jest z perspektywy osób ze spektrum potencjalnie bardzo szkodliwym stereotypem.

Na zakończenie zapytam, jak wygląda perspektywa dla dalszych badań? Podejrzewam, że jeszcze długo będziecie mieli nad czym pracować.

Zdecydowanie tak. Pracujemy nad kilkoma głównymi zagadnieniami. Nie wszystkie szczegóły mogę podać, gdyż jesteśmy na etapie negocjacji z potencjalnymi partnerami. Zamierzamy kontynuować testy błędów poznawczych i badania nad występowaniem stereotypów na temat zdrowia psychicznego. W niedługim czasie planujemy także dołączyć do tego badania nad pokorą poznawczą dużych modeli językowych.

 

Rozmawiała Dorota Walczak

***

Dr Marcin Rządeczka – adiunkt i zastępca dyrektora Instytutu Filozofii UMCS, kierownik Laboratorium Badań nad Multimodalnością MultiLab, członek zespołu badawczego „Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR. Bada rolę sztucznej inteligencji w kontekście zdrowia psychicznego, w tym np. autyzmu czy schizofrenii oraz modele obliczeniowe w psychiatrii.

    Wszystkie aktualności

    Data dodania
    16 września 2024