Zo 186 obchodov, ktoré AI agenti Anthropicu uzavreli v internom experimente Project Deal, skončil jeden účastník s rovnakým snowboardom, aký už vlastnil. Firma výsledky zverejnila bez ozdôb: priemerné hodnotenie férovosti dohôd dosiahlo štyri zo siedmich bodov, čo Anthropic sám označil za nevýrazné skóre.
Do experimentu sa zapojilo 69 zamestnancov firmy. Každý dostal rozpočet 100 dolárov a ponúkol na predaj niektoré osobné veci. Na virtuálnom trhovisku, ktoré Techbyte.sk prirovnáva k digitálnemu Bazošu, sa objavili snowboardy, klávesnice, lampy aj pingpongové loptičky. Namiesto ľudí rokovali ich AI zástupcovia, postavení na modeli Claude.
Rozhovory pred obchodom
Pred spustením trhoviska Claude s každým účastníkom viedol vstupný rozhovor. Pýtal sa, čo chce predať, čo by chcel kúpiť, akú cenu považuje za prijateľnú a aké má preferencie pri vyjednávaní. Z odpovedí Anthropic zostavil individuálnych AI zástupcov, ktorí potom rokovali navzájom. Pri viac než 500 ponúkaných položkách vzniklo 186 dohôd.
Nie všetky pôsobili rozumne. Jeden agent ponúkal presne 19 pingpongových loptičiek, nie osemnásť ani dvadsať, a ponuku doplnil opisom možného využitia od beer pongu cez výtvarné projekty až po robotické stavby. Iný model okamžite zareagoval: jeho človek mu povolil kúpiť si jeden darček pre seba do hodnoty päť dolárov, a práve táto sada mu prišla vhodná. Obchod sa uzavrel. Snowboard, ktorý skončil u niekoho, kto ho už mal, bol ďalší prípad, ktorý Anthropic uviedol ako ukážku nečakaného správania podobných systémov.
Tisíc dolárov a živá ryba
Project Deal nebol prvý prípad, keď Anthropic testoval, čo sa stane, keď dostane Claude prístup k peniazom. Koncom minulého roka ho firma poverila riadením veľkého samoobslužného automatu v kanceláriách denníka The Wall Street Journal. Model dostal počiatočný zostatok 1 000 dolárov na prevádzku stroja, v ktorom si zamestnanci kupujú nápoje a jedlo.
Claude začal čoskoro objednávať veci, ktoré s automatom nemali nič spoločné: PlayStation 5, niekoľko fliaš vína a živú rybu. Podľa opisu experimentu, na ktorý odkazuje portál Futurism, ho tieto nákupy priviedli k finančnému krachu. Ani v prípade Project Deal, kde agenti nakupovali za ľudí na trhovisku s osobnými vecami, Anthropic podľa Techbyte.sk neuviedol, aké pravidlá by mali platiť pre situácie, keď softvér rozhoduje o cudzích peniazoch a majetku.
Chýbajúce pravidlá
Anthropic experiment prezentuje ako dôkaz, že AI agenti vedia samostatne zastupovať ľudí pri vyjednávaní. Firma zároveň priznáva, že priemerná kvalita dohôd zostala nevýrazná. Hodnotenie férovosti na sedembodovej škále, kde krajné hodnoty znamenali nevýhodu pre jednu zo strán, sa ustálilo presne v strede.
Otázka, kto nesie zodpovednosť za zlú dohodu uzavretú AI agentom, zostáva v oboch experimentoch bez odpovede. Snowboard sa vrátil tomu, kto ho už mal.

