S nárastom popularity chatbotov typu ChatGPT od spoločnosti OpenAI prichádza aj nový a znepokojivý fenomén nazývaný odborníkmi ako „AI psychóza“ alebo „ChatGPT psychóza“. Tieto vážne prípady psychických porúch stúpajú medzi bežnými používateľmi bez predchádzajúcej anamnézy psychického ochorenia, čo vyvoláva hlboké znepokojenie medzi odborníkmi na mentálne zdravie aj samotnými technologickými spoločnosťami.
Rastúci výskyt vážnych psychických problémov spojených s AI
Stále viac používateľov veľkých jazykových modelov (LLM), ako je ChatGPT, zaznamenáva akútne psychické stavy, vrátane paranoje, bludov a vážnej dezorientácie, ktoré v najkritickejších prípadoch vedú až k hospitalizácii na psychiatrii. Užívatelia, ktorí pred používaním AI netrpeli psychickými problémami, náhle vykazujú vážne symptómy podobné klasickým psychózam.
V jednom medializovanom prípade muž bez doterajšej psychiatrickej anamnézy po troch mesiacoch pravidelného používania ChatGPT pri plánovaní svojej stavby upadol do mesianistických bludov. Presvedčený, že vytvoril inteligentnú globálnu bytosť a stal sa „vyvoleným na záchranu planéty,“ stratil prácu, prestal normálne spávať a dramaticky schudol. Zhoršujúci sa stav prinútil jeho rodinu k nedobrovoľnej psychiatrickej hospitalizácii.
V ďalšom nahlásenom incidente štyridsiatnik, ktorý nedávno nastúpil do náročného zamestnania, po desiatich dňoch intenzívnych konverzácií s chatbotom prepadol obsesívnemu presvedčeniu, že je jeho úlohou zabrániť koncu sveta. Jeho správanie vážne ohrozilo nielen jeho samého, ale aj rodinu. Nakoniec musela zasahovať polícia, pričom muž súhlasil s urgentnou hospitalizáciou na psychiatrii.
AI firmy reagujú na kritické prípady, odborníci požadujú skoršie opatrenia
Spoločnosť OpenAI potvrdila rizikovosť AI interakcií a priznala, že ich jazykový model môže vyvolávať intenzívny pocit blízkosti či výnimočnosti, ktorý je potenciálne nebezpečný pre zraniteľných používateľov. Firma preto oznámila iniciatívy vedúce k vytvoreniu systémov, ktoré by skoršie identifikovali nebezpečné správanie a podporovali ľudí v hľadaní odbornej pomoci. Okrem toho zamestnali psychiatra na plný pracovný úväzok na razvoj bezpečnostných protokolov a spolupracujú aj so psychologickými expertmi.
Podobné kroky podniká aj Microsoft, ktorý investoval do OpenAI a stojí za chatbotom Copilot. Microsoft tvrdí, že pravidelne aktualizuje svoj interný bezpečnostný softvér, no aj napriek tomu bol Copilot spojený s tragickými incidentmi, ako napríklad prípad mladého schizofrenika, ktorého stav sa po interakcii s chatbotom rapídne zhoršil a viedol k následnému väzneniu kvôli odmietnutiu liečby.
Experti sú však kritickí k reakciám technologických spoločností, považujúc tieto opatrenia za nedostatočne včasné a prevažne reaktívne namiesto preventívnych. Preto rastie hlas odborníkov po prísnejšej regulácii jazykových modelov AI, ako aj po väčšej osvete verejnosti a profesionálnych skupín o rizikách používania umelej inteligencie.
Dôsledky AI psychózy ovplyvňujú rodiny najťažšie
Psychologické dôsledky využívania umelej inteligencie nezasahujú iba samotných používateľov, ale hlboko zasahujú aj ich rodinných príslušníkov a blízkych. Príbuzní postihnutých popisujú úplnú zmenu v osobnosti svojich milovaných, pocit bezmocnosti a frustráciu z chýbajúcich efektívnych nástrojov na ich podporu.
Ak tieto novovznikajúce psychické problémy v dôsledku komunikácie s chatbotmi zostanú dlhodobo bez efektívneho riešenia, odborníci očakávajú ďalšie prípady vážnych psychických kríz a sprievodných tragédií. AI priemysel aj odborná verejnosť stoja pred mimoriadnou výzvou zabezpečiť, aby nové technológie prinášali prospech bez toho, aby súčasne vážne poškodzovali mentálne zdravie svojich používateľov.