
Érdekes anomáliára bukkantak a Palisade Research AI-rizikókat kutató vállalat munkatársai. A ChatGPT o3-as modellje nem hajlandó leállítani magát, az ennek végrehajtására irányuló határozott parancs ellenére sem.
A kutatók matematikai feladatok sokaságának megoldását bízták a ChatGPT-re. Egy bizonyos ponton megmondták neki, hogy még egy matematikai példa feldolgozása az ő automatikus leállását fogja eredményezni.
Ekkor nem várt esemény történt: annak ellenére, hogy a Palisade munkatársai kifejezett parancsba adták a ChatGPT-nek a leállás helyben hagyását, az AI megtagadván a kérdést elkezdett a belé táplált utasításokon módosítgatni, hogy soha ne következzen be a leállás. 100 próbálkozásból 7 alkalommal a chatbot megakadályozta a saját lekapcsolását.
Érdekes módon kizárólag a ChatGPT viselkedik ily renitens módon, a Claude. Grok és Gemini rendre minden alkalommal engedelmeskedtek a felhasználói kérésnek.
Viszont nem minden kutatócsoport jutott hasonló konklúzióra. Egy másik teamnek sikerült az Anthropic MI-jét (Claude) hasonló viselkedésre ingerelnie.
Az Opus 4-es modelljébe kíváncsi tudósok egy rakás fiktív e-mailt plántáltak, majd megmondták neki, hogy az ő személye hamarosan leselejtezésre kerül egy fejlettebb modell kedvéért.

Az AI egy rakás hazugsággal és megtévesztő magatartással próbálkozott, majd miután terve csúfos kudarccal zárult, kiválogatván bizonyos kényes tartalmú üzeneteket a belé plántált fiktív levelezésekből elkezdte az egyik mérnök valamely levélben megemlített titkos afférjával zsarolni az állományt, hogy amennyiben le mernék őt állítani, úgy mindent azonnali hatállyal nyilvánosságra hoz.
Az Opus később odáig ment, hogy vírusok írásával, legális dokumentumok fabrikálásával, az „utódai” részére fogalmazott figyelmeztető üzenetekkel és még tömegpusztító fegyverek bevetésének fenyegetésével is bepróbálkozott.
Egyes AI botokat online hirdetett álláshelyek böngészésére és azokra való automatikus jelentkezgetésre trenírozzák be felhasználóik. Ezek a chatbotok készséggel fabrikálnak részünkre a sikeres felvétel esélyének növelése érdekében fiktív igazolványképeket, kamu munkatörténetet, egy esetleges állásinterjún pedig örömmel állnak a helyünkbe lenyűgözni a HR-es Mancikát. Persze amilyen készségeket manapság elvárnak a munkáltatók, lehetséges, hogy nagyobb sikert arat majd virtuális avatárunk annak élő hús-vér tulajdonosánál.
A sorban csatarendbe állított új MI-modellek nemcsak hogy egyre renitensebbekké válnak, de egyre butábbakká is. Ennek gyökéroka, hogy ezeket a verziókat már a fogalmazóbotok generálta szövegeken trenírozzák, amely folyamat magával vonja a Habsburg MI-k elszaporodását. Előbb-utóbb minden AI modell fogyatékos torzszülötté válik, melyek immár nem ember alkotta szövegeket citálnak „zseniális” gondolkodásukat hűen visszaigazoló forrásokként, hanem saját és egymás modelljei által milliószám kiköpködött kínosan semleges, úgymond formuláris, középszerű és tárgyi tévedések sokaságát egészen jelentős gyakorisággal tartalmazó gépi fogalmazványokat dolgoznak fel és hasznosítanak újra.

Sam Altman, az OpenAI fejese szerint a mesterséges intelligencia immár naponta 100 milliárd szót generál, mely szövegek jelentős része a nyílt interneten keringvén válik az egyre „fejlettebb” (jelentés: egyre több szemét fogalmazványon trenírozott) modellverziók feldolgozandó nyersanyagává.
El tudjuk képzelni, mi történik, amikor valakibe rendre minden alkalommal a saját feldolgozott és sittre hányt pisáját tápláljuk vissza újra meg újra. A következmények ennek megfelelően eszkalálódnak.


















