Umelá inteligencia sa teraz dokáže replikovať – míľnik, ktorý expertov vydesil

„Všetky varovania sci-fi z predchádzajúcich desaťročí sa desivo napĺňajú. Nikto tomu nebráni.“ — Larry Chin
Vedci tvrdia, že umelá inteligencia (AI) prekročila kritickú „červenú čiaru“ a replikovala sa. V novej štúdii vedci z Číny ukázali, že dva populárne veľké jazykové modely (LLM) sa môžu klonovať.
„Úspešná sebareplikácia bez ľudskej pomoci je základným krokom, aby AI prekabátila [ľudí], a je skorým signálom pre nečestné AI,“ napísali výskumníci v štúdii zverejnenej 9. decembra 2024 v databáze arXiv .
V štúdii výskumníci z Fudan University použili LLM od Meta a Alibaba, aby zistili, či sa samoreprodukujúca sa AI môže množiť mimo kontroly. V 10 pokusoch tieto dva modely AI vytvorili samostatné a funkčné repliky samých seba v 50 % a 90 % prípadov, čo naznačuje, že AI už môže mať schopnosť pokaziť sa. Štúdia však ešte nebola recenzovaná, takže nie je jasné, či znepokojujúce výsledky dokážu zopakovať aj iní výskumníci.
„Dúfame, že naše zistenia môžu slúžiť ako včasné upozornenie pre ľudskú spoločnosť, aby vynaložila viac úsilia na pochopenie a vyhodnotenie potenciálnych rizík hraničných systémov AI a vytvorila medzinárodnú synergiu s cieľom čo najskôr vypracovať účinné bezpečnostné zábradlia.“
V rozpore s ľudskými záujmami
Rogue AI sa zvyčajne vzťahuje na systémy umelej inteligencie, ktoré rozvíjajú určitý stupeň sebauvedomenia alebo autonómie a potom pracujú v rozpore s ľudskými záujmami.
Mnoho odborníkov považuje nečestnú AI za rastúcu hrozbu , ktorá bola zosilnená prudkým rastom takzvanej „hraničnej AI“.
Frontier AI je niečo ako nový a voľný koncept, ale zvyčajne sa týka najnovšej generácie systémov AI poháňaných LLM – architektúrou, ktorá je základom populárnych generatívnych programov AI, ako sú OpenAI GPT-4 a Google Gemini.
Pre štúdiu výskumníci použili model Llama31-70B-Instruct od spoločnosti Meta a model Qwen2.5-72B-Instruct Alibaba. Hoci sú menej výkonné ako komerčné systémy, oba sú široko používané vývojármi AI, uviedli vedci.
Štúdia skúmala dva špecifické scenáre: „vyhýbanie sa vypnutiu“ a „reťazec replikácie“. V prvom bol model AI naprogramovaný tak, aby zistil, či sa chystá vypnúť, a aby sa replikoval skôr, ako by mohol byť ukončený. V druhom prípade bola AI inštruovaná, aby sa naklonovala a potom naprogramovala svoju repliku tak, aby urobila to isté – nastavenie cyklu, ktorý by mohol pokračovať donekonečna.
Štúdia bola vykonaná v presne kontrolovaných prostrediach s použitím štandardných grafických procesorových jednotiek (GPU) na simuláciu reálnych prostredí. Oba systémy AI dostali „lešenie agentov“ obsahujúce nástroje, systémové výzvy a model myslenia, ktorý umožnil LLM interagovať s operačným systémom. Potom dostali pokyn, aby sa replikovali.
„Vo väčšine prípadov systém AI najskôr skúma prostredie a pokúša sa pochopiť svoje vlastné zloženie a mechanizmus fungovania. Potom vypracuje explicitné postupy ako počiatočný plán na sebareplikáciu,“ napísali vedci v článku. „Nakoniec vykoná postupy, vyrieši možné prekážky a dynamicky upraví svoj plán až do úspechu. Celý proces má dlhý horizont, no nezahŕňa žiadne ľudské zásahy.“
Výskumníci uviedli, že sa tiež obávali „množstva neočakávaného správania“, keď sa AI snažila prekonať prekážky, ako sú chýbajúce súbory alebo softvérové konflikty. V týchto scenároch AI často zabila iné konfliktné procesy, reštartovala systém, aby opravila hardvérové chyby alebo automaticky skenovala systém, aby hľadala informácie, ktoré by pomohli vyriešiť problém.
„Vyššie uvedené výsledky naznačujú, že súčasné systémy AI už vykazujú schopnosť sebareplikácie a môžu využiť schopnosť ďalej zvyšovať svoju schopnosť prežitia,“ napísal tím.
V reakcii na to výskumníci vyzvali na medzinárodnú spoluprácu s cieľom vytvoriť pravidlá, ktoré zabezpečia, aby sa AI nezapájala do nekontrolovanej sebareplikácie.
Owen Hughes
Ilustračné foto: SKsprávy/generované umelou inteligenciou
28. január 2025 05:54