Bezpečnostní experti zo Safety Detectives analyzovali tisíc verejne dostupných konverzácií s ChatGPT a zistili, že ľudia bežne zadávali celé mená, adresy bydliska, telefónne čísla aj prihlasovacie údaje k rôznym službám. ChatGPT denne spracuje približne 2,5 miliardy otázok, pričom konverzačný štýl chatbota podľa portálu Techbyte.sk vedie tisíce používateľov k tomu, že mu zdôveria informácie, ktoré by nikde inde na internete nezverejnili.
Problém nie je len v správaní používateľov. Začiatkom roka 2025 opravovala Meta AI chybu, ktorá umožňovala nahliadnuť do cudzích súkromných konverzácií. Staršie verzie ChatGPT čelili útokom typu prompt injection, pri ktorých útočník vloží do vstupu špeciálne formulovaný text, prinúti AI ignorovať pôvodné inštrukcie a získa citlivé údaje z prebiehajúcich chatov. Zdieľané konverzácie sa navyše objavovali vo verejných výsledkoch vyhľadávania po tom, čo ich indexovali vyhľadávače.
Finančné údaje a zdravotné záznamy
ChatGPT sa bežne využíva na zostavovanie rozpočtov a finančné plánovanie. To samo o sebe nie je problém. Riziko nastáva pri zadávaní reálnych čísel bankových účtov, údajov o platobných kartách alebo celých daňových dokumentov. Chatboty nefungujú v zabezpečených bankových systémoch a raz zadané údaje sa môžu ocitnúť mimo prostredia, nad ktorým má používateľ akúkoľvek kontrolu. Aj pri finančnom plánovaní postačia fiktívne sumy a čísla.
Rovnaká logika platí pri zdravotných informáciách. Podľa prieskumov, na ktoré sa odvoláva Techbyte.sk, využíva chatboty na zdravotné otázky aspoň raz mesačne každý šiesty dospelý, medzi mladými každý štvrtý. Všeobecné vysvetlenia medicínskych pojmov sú prijateľné. Konkrétne diagnózy, výsledky laboratórnych testov či detailná anamnéza už nie sú chránené rovnakými reguláciami ako údaje v zdravotníckych systémoch. Používateľ nad nimi po zadaní do chatu nemá možnosť overiť, ako s nimi bude naložené, a to aj napriek tomu, že v nastaveniach ChatGPT možno vypnúť využívanie konverzácií na tréning modelu.
Firemné dokumenty
Úprava e-mailov, zhrnutie dlhých reportov, prepis odborných textov. Využívanie ChatGPT pri práci je lákavé a rozšírené. Ak však ide o interné materiály s údajmi o klientoch, obchodnými tajomstvami alebo duševným vlastníctvom, dôsledky môžu zasiahnuť celú organizáciu, nie len jednotlivca. Server ďalej uvádza jednoduchý test: ak by ste daný dokument nezverejnili na webe ani na sociálnej sieti, nepatrí ani do konverzácie s AI. Mnohé firmy preto zavádzajú interné smernice, ktoré používanie generatívnej AI pri práci s dôvernými podkladmi regulujú alebo úplne zakazujú.
Bezpečnostní experti zo Safety Detectives pri analýze tisíca verejných chatov zaznamenali, že rozsah zdieľaných informácií bol prekvapivo široký. Ľudia zadávali nielen osobné údaje, ale aj prihlasovacie mená a heslá k rôznym službám. Pri tvorbe životopisu či motivačného listu pritom úplne postačia zástupné údaje, napríklad „Ján Vzorový“ namiesto skutočného mena.
Spolupráca s orgánmi
Poslednou oblasťou je obsah v rozpore so zákonom. OpenAI spolupracuje s orgánmi činnými v trestnom konaní a prevádzkuje systémy na odhaľovanie pokusov o trestnú činnosť. ChatGPT má zabudované filtre proti navádzaniu na násilie, podvody a iné škodlivé správanie. Pokusy tieto obmedzenia obchádzať môžu viesť k označeniu účtu. Konverzácie nie sú anonymné a pri podozrení z protiprávnej činnosti môžu byť sprístupnené príslušným orgánom.
Prompt injection, úniky cez indexovanie vyhľadávačmi, chyby v cudzích platformách. Žiadny z týchto incidentov nevznikol tým, že by používateľ urobil niečo zjavne nerozumné. Vznikli preto, že systémy nie sú bezchybné a citlivé informácie raz zadané do chatu prestávajú byť výlučne v rukách toho, kto ich napísal.

