Technológia umelej inteligencie (AI) sa stáva súčasťou nášho každodenného života, no jej potenciál prináša nielen benefity, ale aj riziká. Nedávny prípad 60-ročného muža, ktorého zdravotný stav sa výrazne zhoršil po nesprávnej rade od ChatGPT, opäť upozorňuje na riziká prehnanej dôvery v tieto pokročilé nástroje. Muž skončil hospitalizovaný s psychózou a halucináciami po tom, čo začal experimentovať so substitúciou kuchynskej soli na základe odporúčania AI.
Nadmerné používanie bromidov vyústilo v bromizmus
Problémy sa začali nevinným spôsobom, keď muž nadobudol podozrenie, že ho sused úmyselne otrávil. Po vlastnom prieskume na internete narazil na články o škodlivosti kuchynskej soli a následne vyhľadal radu u ChatGPT. Systém mu odporučil použitie bromidu sodného ako alternatívy ku chloridu sodnému. Hoci AI vo svojej odpovedi spomenula, že kontext je dôležitý, neposkytla potrebné zdravotné varovania. Výsledkom bolo, že muž začal dlhodobo užívať bromid sodný, čo viedlo ku vzniku bromizmu – ochorenia, ktoré je v modernej medicíne takmer neznáme.
Bromizmus sa v minulosti spájal s používaním brómových solí v liekoch. Tento stav môže spôsobovať neurologické problémy, vrátane paranoje, halucinácií, triašky, kómy a ďalších závažných symptómov. Po obmedzení takýchto látok v medicíne v 70. rokoch sa tieto prípady stali extrémne zriedkavé. V tomto prípade však nestabilný psychologický stav a nedostatok kritického uvažovania spojeného s nadužívaním self-diagnostických nástrojov situáciu dramaticky zhoršili.
AI ako nástroj, nie náhrada odborníkov
Lekársky tím, ktorý pacienta prijal, testoval odpovede ChatGPT 3.5 na tú istú otázku, ktorú pravdepodobne položil pacient. Výsledky ukázali, že model v rámci svojich schopností naozaj navrhol použitie bromidu ako náhrady za soľ, no neposkytol jasné upozornenie na potenciálne zdravotné riziká. Podľa odborníkov to jasne dokazuje obmedzenia umelej inteligencie pri riešení komplexných medicínskych otázok.
Spoločnosť OpenAI, ktorá ChatGPT vyvinula, upozornila, že jej modely nie sú určené na nahradenie profesionálneho zdravotníckeho poradenstva. Hoci sa snaží zabudovať viac kontrol a upozornení, komplexný posudok pacienta je stále mimo možností súčasnej AI. Tento prípad preto znova zvýrazňuje potrebu obozretnosti pri používaní týchto nástrojov.
Limity a zodpovednosť umelej inteligencie
Práca umelej inteligencie je založená na analýze dát a štatistickom predpovedaní. Hoci sa javí ako vysoko sofistikovaný nástroj, najväčším problémom ostáva jej neschopnosť plne porozumieť otázkam alebo zvážiť jednotlivé faktory. AI, ako v tomto prípade, často generuje odpovede na základe pravdepodobnosti, nie overených faktov. Tento tzv. jav „halucinácií” môže byť fatálny, ak ide o rady týkajúce sa zdravia.
Dôležitým aspektom je aj nedostatok právnej a etickej zodpovednosti umelej inteligencie. Kým za odporúčania lekára nesie zodpovednosť daný odborník, AI systém funguje len ako nástroj, ktorý reaguje na vstupy používateľa bez ďalších záväzkov. Absencia osobného kontaktu či empatie sú ďalšie faktory, ktoré zdôrazňujú limity použitia AI v medicíne.
Odborníci apelujú na to, aby AI technológie ostali v medicíne iba pomocným nástrojom v rukách kvalifikovaných profesionálov. Slepo dôverovať návrhom generovaným algoritmami môže viesť k vážnym zdravotným komplikáciám alebo tragickým následkom.