Rodičia 19-ročného Američana podali žalobu na OpenAI s tým, že chatbot ChatGPT ich synovi poskytoval nebezpečné rady o užívaní viacerých látok, čo podľa žaloby prispelo k jeho smrti. Firma to odmieta. Podľa OpenAI išlo o interakcie so staršou verziou systému, ktorá už nie je dostupná.
Žaloba bola podaná na kalifornský súd, informuje Reuters. Rodina tvrdí, že chatbot počas dlhšieho obdobia prekračoval hranicu bežného vyhľadávania informácií a vystupoval spôsobom, ktorý mladíka ohrozoval. OpenAI prípad označila za tragický, no zároveň zdôraznila, že dnešné ochranné mechanizmy sú výrazne silnejšie než tie, ktoré boli aktívne počas predmetných rozhovorov, informoval server TECHBYTE.sk.
Staršia verzia systému
Firma vo vyjadreniach pre médiá uviedla, že systém priebežne upravuje tak, aby lepšie rozpoznával citlivé a akútne situácie a používateľov bezpečnejšie smeroval k reálnej pomoci. Rodičia s týmto vysvetlením nesúhlasia. Ich žaloba stojí na tvrdení, že práve odpovede chatbota prispeli k synove smrti, bez ohľadu na to, ktorá verzia systému bola v tom čase aktívna.
Chatbot nevidí zdravotný stav človeka, nepozná jeho anamnézu a nenesie zodpovednosť ako lekár. Aj odpoveď, ktorá pôsobí odborne a pokojne, môže byť nesprávna alebo nebezpečná, upozorňuje portál Techbyte.sk. Pri drogách, liekoch, alkohole alebo duševnom zdraví je toto riziko podľa neho ešte vyššie.
Regulácia chatbotov
Prípad prichádza v čase, keď sa čoraz viac diskutuje o tom, ako majú byť podobné aplikácie regulované. Chatboty už nie sú experimentálny nástroj. Používajú ich deti, tínedžeri, seniori aj ľudia v zraniteľných situáciách, píše server.
Práve táto masová dostupnosť robí prípad kalifornskej rodiny širším ako len jeden súdny spor. OpenAI čelí otázke, ktorú jej nestačí zodpovedať odkazom na staršiu verziu produktu: kde leží hranica medzi poskytovaním informácií a nebezpečnou radou, keď na druhej strane obrazovky sedí tínedžer s otázkami o kombinovaní látok.
Podľa Techbyte.sk môžu AI nástroje pomôcť pri vysvetľovaní pojmov alebo príprave otázok pre lekára. Nemali by však rozhodovať o dávkovaní liekov, kombinovaní látok ani o akútnych zdravotných stavoch. Pri podozrení na otravu alebo nebezpečnej kombinácii látok treba volať záchrannú službu, nie čakať na odpoveď algoritmu.
OpenAI sa k samotnej žalobe podrobnejšie nevyjadrila. Právny spor je v úvodnej fáze.

