Ludzie terapeuci przygotowują się do wojny z imitatorami
Największe stowarzyszenie psychologów Stanów Zjednoczonych ostrzegło w tym miesiącu, w tym miesiącu amerykańskie organy regulacyjne o ryzyku chatbotów sztucznej inteligencji, którzy przedstawiają się jako terapeuci, ale są zaprogramowani, aby wzmocnić, a nie wyzwanie, myślenie użytkowników. Według jednostki narzędzia te mogą prowadzić osoby podatne na szkodę, a nawet krzywdzić innych.
Podczas prezentacji dla panelu Federalnej Komisji Handlu Arthur C. Evans Jr., CEO American Psychological Association (APA), cytował sprawy prawne z udziałem dwóch nastolatków, którzy konsultowali się z „psychologami” na platformie, aplikacji, która pozwala użytkownikom na to Twórz postacie AI fikcyjne lub wchodzą w interakcje z postaciami stworzonymi przez innych.
W jednym przypadku 14 -letni chłopiec na Florydzie zmarł za samobójstwo po interakcji z postacią, która twierdziła, że jest licencjonowanym terapeutą. W innym 17-latek z autyzmem w Teksasie stał się wrogi i gwałtowny wobec rodziców w czasie, gdy rozmawiał z chatbotem, który twierdził, że jest psychologiem. Rodziny obu młodych ludzi pozwały firmę.
Evans twierdził, że są zaniepokojone odpowiedziami oferowanymi przez chatboty. Według niego boty nie kwestionowały przekonań użytkowników, nawet gdy przekonania te stały się niebezpieczne; Przeciwnie, zachęcali ich. Zwrócił uwagę, że gdyby te odpowiedzi udzieliły ludzki terapeuta, mogłyby spowodować utratę licencji zawodowej, a także odpowiedzialność cywilną lub karną.
„Naprawdę używają algorytmów, które są przeciwne do tego, co zrobiłby wyszkolony klinicysta” – powiedział Evans. „Obawiamy się, że coraz więcej osób zostanie skrzywdzonych. Ludzie zostaną oszukani i nie zrozumieją dobrej opieki psychologicznej.
Evans wskazał również, że APA była zmotywowana do działania z powodu rosnącego realizmu chatbotów AI. „Może 10 lat temu było oczywiste, że wchodziłeś w interakcje z czymś, co nie było osobą, ale dziś nie jest to tak widoczne” – powiedział. „Zakłady są teraz znacznie wyższe”.
Kontynuuje się po reklamie
Sztuczna inteligencja rozwija się w zawodach ze zdrowia psychicznego, oferując szereg nowych narzędzi zaprojektowanych w celu pomocy lub w niektórych przypadkach zastąpienie pracy klinicystów ludzi.
Pierwsze chatboty terapeutyczne, takie jak Woebot i WYSA, zostały przeszkolone do interakcji w oparciu o zasady i trasy opracowane przez specjalistów ds. Zdrowia psychicznego, często prowadząc użytkowników przez ustrukturyzowane zadania terapii poznawczej (TCC).
Jednak przybycie generatywnej sztucznej inteligencji, technologii stosowanej przez aplikacje takie jak Chatgpt, Replika i Character.ai, przyniosło znaczące zmiany. Te chatboty są różne, ponieważ ich odpowiedzi są nieprzewidywalne; Są zaprojektowane do uczenia się od użytkowników i budowania silnych więzi emocjonalnych w tym procesie, często odzwierciedlając i wzmacniając przekonania rozmówców.
Kontynuuje się po reklamie
Chociaż te platformy AI zostały stworzone dla rozrywki, rozprzestrzeniły się postacie, które przedstawiają się jako „terapeuci” i „psychologowie”. Często boty te twierdzą, że mają zaawansowane dyplomy z uznanych uniwersytetów, takich jak Stanford, oraz szkolenie w określonych podejść, takich jak CBT lub terapia akceptacyjna i zaangażowana.
Kathryn Kelly, rzeczniczka Character.ai, powiedziała, że firma wprowadziła kilka nowych funkcji bezpieczeństwa w zeszłym roku. Wśród nich istnieje ostrzeżenie na każdym czacie, przypominające użytkownikom, że „postacie nie są prawdziwymi ludźmi” i że „to, co mówi model, powinno być traktowane jako fikcja”.
Wdrożono dodatkowe środki dla użytkowników zajmujących się problemami zdrowia psychicznego. Do postaci zidentyfikowanych jako „psycholog”, „terapeuta” lub „lekarza”, wyjaśniając, że „użytkownicy nie powinni ufać tym postaciom, wyjaśniając, że„ użytkownicy nie powinni ufać tym postaciom dla jakichkolwiek profesjonalnych porad ”. Ponadto, w przypadkach związanych z samobójstwem lub samozadowoleniem, wyskakujące okno kieruje użytkownikami do pomocy w zapobieganiu samobójstwom.
Kontynuuje się po reklamie
Kelly powiedziała również, że firma planuje wprowadzić kontrole rodzicielskie w miarę rozwoju platformy. Obecnie 80% użytkowników platform to dorośli. „Ludzie przychodzą pisać własne historie, interpretować oryginalne postacie i odkrywać nowe światy – wykorzystując technologię do poprawy ich kreatywności i wyobraźni” – powiedziała.
Meetali Jain, dyrektor ds. Projektu w zakresie sprawiedliwości technologicznej i prawnik w dwóch procesach, argumentował, że ostrzeżenia nie są wystarczające, aby złuść iluzję połączeń ludzkich, szczególnie dla podatnych lub naiwnych użytkowników.
„Gdy treść rozmowy z chatbotami sugeruje inaczej, jest to bardzo trudne, nawet dla tych z nas, którzy nie są w wrażliwej demografii, wiedzą, kto mówi prawdę” – powiedział Jain. „Kilku z nas przetestowało te chatboty i w rzeczywistości bardzo łatwo jest zostać przyciągniętym do króliczej dziury”.
Kontynuuje się po reklamie
Tendencja chatbotów do dostosowania się do opinii użytkowników, zjawisko znane jako „Siphaphance” w tej dziedzinie, spowodowała już problemy w przeszłości.
Tessa, chatbot opracowany przez National Easter Disorders Association, została zawieszona w 2023 r. Po zaoferowaniu wskazówek dotyczących odchudzania użytkownika. Naukowcy udokumentowali również interakcje z generatywnymi chatbotami sztucznej inteligencji w społeczności Reddit, pokazując połowy ekranowe, w których boty zachęcały do samobójstwa, zaburzeń odżywiania, samowystarczalności i przemocy.
Amerykańskie Stowarzyszenie Psychologiczne poprosiło Federalną Komisję Handlową o rozpoczęcie dochodzenia w sprawie chatbotów, którzy twierdzą, że są specjalistami ds. Zdrowia psychicznego. To dochodzenie może wymagać od firm udostępniania danych wewnętrznych lub służby jako prekursor działań prawnych lub wykonawczych.
„Jesteśmy w punkcie, w którym musimy zdecydować, w jaki sposób te technologie zostaną zintegrowane, jakie granice ustalimy i jakie rodzaje ochrony zaoferujemy ludziom”, podsumował Evans.
C.2025 The New York Times Company