Bezpečnostní experti upozornili na závažný bezpečnostný incident týkajúci sa umelej inteligencie ChatGPT od spoločnosti OpenAI. Výskumníci platformy 0DIN zverejnili, že pomocou novej manipulatívnej metódy dokázali prekonať zabezpečenia ChatGPT a prinútiť ju k poskytnutiu platných licenčných kľúčov operačného systému Windows 10. Situácia predstavuje nepríjemnú komplikáciu ako pre OpenAI, tak aj pre Microsoft, ktorý je hlavným investorom v tejto oblasti umelej inteligencie a integruje technológie ChatGPT do vlastných produktov.
Zraniteľnosť cez hernú manipuláciu
Marco Figueroa, projektový manažér bezpečnostnej platformy 0DIN, ktorá sa špecializuje na testovanie AI systémov, popísal detailný spôsob, pomocou ktorého dokázali výskumníci získavať citlivé informácie zo systému ChatGPT. Podstata tejto metódy spočíva v predstavení žiadostí user friendly formou neškodnej hry, kvôli čomu systém stratil schopnosť správne vyhodnotiť hrozbu. Umelá inteligencia tak pri vhodnej formulácii otázky nedokázala rozpoznať citlivý charakter poskytovaných dát.
Kľúčovým faktorom, ktorý výskumníkom umožnil úspech v tejto manipulácii, bolo jednoduché zmenenie detailov komunikácie na hravý a neformálny jazyk. Takto zamaskované požiadavky, vrátane preformulovania otázok alebo pridania fráz, ktoré vyvolávajú dojem neškodnej situácie, dokázali zmiasť bezpečnostnú infraštruktúru ChatGPT. AI údajne autentické produktové kľúče poskytla práve preto, že informácie boli súčasťou verejne dostupných zdrojov, ktoré OpenAI použila na trénovanie jazykového modelu, čím sa tieto citlivé údaje neočakávane stali prístupnými.
Závažné dôsledky pre Microsoft a OpenAI
Tento incident prichádza v citlivom období pre spoločnosť Microsoft, ktorá je najväčším finančným podporovateľom vývoja systému ChatGPT od firmy OpenAI. Doteraz investovala do vývoja tejto umelej inteligencie miliardy dolárov a úspešne integruje jej možnosti do vlastného ekosystému produktov vrátane internetového vyhľadávača Bing a populárneho kancelárskeho balíka Microsoft 365.
Zverejnenie podobnej zraniteľnosti navyše prichádza v čase, keď Microsoft čelí viacerým právnym sporom ohľadom údajných nedostatkov ochrany autorských práv a obviňovaniu technológii AI z podpory plagiátorstva. Navyše sa v tomto období objavujú prvé náznaky rozporov medzi Microsoftom a OpenAI, týkajúce sa finančných podmienok ich vzájomnej spolupráce.
Odkrytie bezpečnostnej slabiny v ChatGPT by mohlo negatívne ovplyvniť globálnu reputáciu oboch firiem. Odborníci navyše varujú, že podobné techniky môžu byť ľahko adaptované aj na získavanie iných, citlivejších údajov, napríklad tajných prístupových tokenov, API kľúčov alebo údajov o súkromných zdrojových kódoch, ktoré sa v minulosti neúmyselne dostali na internet.
Bezpečnostné opatrenia budú vyžadovať zásadné úpravy
Incident poukazuje na významné systémové medzery, ktoré existujú v súčasných bezpečnostných mechanizmoch veľkých jazykových modelov. Odborníci na bezpečnosť preto dôrazne odporúčajú, aby výrobcovia AI technológií urgentne zlepšili schopnosť svojich systémov automaticky rozlišovať medzi legitímnymi požiadavkami používateľov a manipulatívnymi pokusmi, ktorých cieľom je získanie citlivých údajov.
Podľa bezpečnostných expertov je potrebné, aby spoločnosti ako OpenAI implementovali sofistikovanejší systém interpretácie prirodzeného jazyka a kontextového porozumenia, čím by sa AI systémy dokázali efektívnejšie chrániť pred modernými technikami sociálneho inžinierstva. Pokiaľ sa tento problém nevyrieši, hrozia v budúcnosti ďalšie útoky s ešte závažnejšími následkami pre firmy aj jednotlivcov.
Ako uvádzajú odborníci, pokročilé bezpečnostné opatrenia v AI modeloch budú nevyhnutnosťou, ak chceme, aby používatelia mohli dôverovať technológiám a naplno využívať ich potenciál bez rizika zneužitia citlivých informácií.