Viac ako 100-tisíc výziev smerovalo v ostatných mesiacoch na chatbota Gemini s jediným cieľom: prinútiť ho prezradiť, ako funguje zvnútra. Google incident zverejnil a označil ho za pokus o klonovanie modelu, za ktorým podľa neho stoja súkromné spoločnosti hľadajúce konkurenčnú výhodu.
Za útokmi nestoja jednotlivci. Google tvrdí, že útoky pochádzajú prakticky zo všetkých kútov sveta a ich pôvodcami sú firmy aj výskumníci, ktorí chcú schopnosti Gemini skopírovať nelegálne. Spoločnosť však nespresnila, o aké konkrétne subjekty ide, informoval server TECHBYTE.sk.
Destilačné útoky
Metóda, ktorú útočníci použili, má v bezpečnostnom slovníku vlastný názov: destilačný útok. Spočíva v zadávaní opakujúcich sa otázok, pri ktorých útočník v odpovediach hľadá vzorce a logiku, aby pochopil interné fungovanie modelu. Google takúto aktivitu považuje za extrakciu modelu a za krádež duševného vlastníctva. Do vývoja AI tečú miliardy dolárov, pričom firmy predbiehajú jedna druhú v tom, kto vytvorí užitočnejší model.
Mnohé z útokov, ktoré Google zaznamenal, boli navrhnuté tak, aby odhalili algoritmy Gemini. Útočníci chceli vedieť, čo pomáha chatbotovi spracovávať informácie a na základe čoho sa rozhoduje. Google zároveň upozornil, že čoraz viac spoločností navrhuje vlastné jazykové modely trénované na potenciálne citlivých údajoch, čo ich robí zraniteľnými voči rovnakému typu útokov.
Hultquistovo varovanie
John Hultquist, hlavný analytik skupiny Threat Intelligence Group spoločnosti Google, uviedol, že rozsah útokov na Gemini naznačuje, že podobné akcie sú alebo čoskoro budú bežné aj proti nástrojom menších spoločností. Nie je to teda problém výlučne technologických gigantov s miliardovými rozpočtami na výskum.
Gemini pritom nie je jediný chatbot v hľadáčiku. Ako informoval portál NBC News, OpenAI vlani obvinila čínskeho rivala DeepSeek z destilačných útokov zameraných na vylepšenie jeho vlastných modelov. Google čelí rovnakému problému ako OpenAI, pričom obe spoločnosti investujú do ochrany modelov súbežne s ich vývojom.
Krádež namiesto vývoja
Vytvorenie kvalitnej umelej inteligencie predstavuje roky práce. Destilačné útoky sú pokusom túto cestu obísť. Google vo svojej správe zverejnenej pred niekoľkými dňami zdôraznil, že firmy, ktoré sa o to pokúšajú, neriskujú len právne dôsledky, ale zároveň získavajú model, ktorého schopnosti závisia od toho, čo sa im podarilo extrahovať, nie od vlastného tréningu na originálnych dátach.
Podľa NBC News útočníci pri klonovacom pokuse na Gemini použili viac ako 100-tisíc výziev. Takýto objem dopytov nie je dielom jednotlivca ani malej skupiny, čo zodpovedá Googlovmu tvrdeniu o organizovaných súkromných subjektoch. Spoločnosť zároveň varovala, že veľkí hráči budú musieť investovať nielen do vývoja a udržiavania modelov, ale aj do ich ochrany pred neoprávneným zneužitím.
OpenAI obvinila DeepSeek ešte v minulom roku. Google sa k podobnému kroku odhodlal teraz, no ani jedna spoločnosť zatiaľ nepomenovala konkrétnych páchateľov.

