SVETTechnológie

Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!

Ilustračné foto:  Wikimedia Commons

Vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov umelej inteligencie (AI) výkonnejších ako GPT-4.

Systémy AI s ľudskou konkurenčnou inteligenciou môžu predstavovať vážne riziká pre spoločnosť a ľudstvo, ako ukázal rozsiahly výskum [1] a potvrdili to špičkové laboratóriá AI. [2]

Ako sa uvádza v široko uznávaných princípoch umelej inteligencie Asilomar , pokročilá umelá inteligencia by mohla predstavovať hlbokú zmenu v histórii života na Zemi a mala by byť plánovaná a riadená s primeranou starostlivosťou a zdrojmi.

Žiaľ, takáto úroveň plánovania a riadenia sa neuskutočňuje, aj keď v posledných mesiacoch boli laboratóriá AI zamknuté v pretekoch, ktoré sa vymkli kontrole, aby vyvinuli a nasadili stále výkonnejšie digitálne mysle, ktorým nikto – dokonca ani ich tvorcovia – nerozumie. predvídať alebo spoľahlivo kontrolovať.

Súčasné systémy AI sa teraz stávajú konkurencieschopnými pre ľudí vo všeobecných úlohách [3] a musíme si položiť otázku: Mali by sme nechať stroje zaplaviť naše informačné kanály propagandou a nepravdou?

Mali by sme automatizovať všetky úlohy, vrátane tých, ktoré napĺňajú?

Mali by  sme rozvíjať neľudské mysle, ktoré by nás mohli časom prevýšiť, prekabátiť, zastarať a nahradiť nás?

Mali by sme riskovať stratu kontroly nad našou civilizáciou? Takéto rozhodnutia sa nesmú delegovať na nevolených technologických lídrov.

Výkonné systémy umelej inteligencie by sa mali vyvíjať len vtedy, keď sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné.

Táto dôvera musí byť dobre odôvodnená a musí sa zvyšovať s veľkosťou potenciálnych účinkov systému. Nedávne vyhlásenie Open AI týkajúce sa umelej všeobecnej inteligencie uvádza, že „V určitom bode môže byť dôležité získať nezávislú kontrolu pred začatím trénovania budúcich systémov a pre čo najpokročilejšie úsilie dohodnúť sa na obmedzení tempa rastu výpočtovej techniky používanej na vytváranie nových modely.” Súhlasíme. Ten bod je teraz.

Musia byť dôveryhodné a lojálne

Preto vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov AI výkonnejších ako GPT-4 .

Táto pauza by mala byť verejná a overiteľná a mala by zahŕňať všetkých kľúčových aktérov. Ak sa takáto pauza nedá uzákoniť rýchlo, vlády by mali zasiahnuť a zaviesť moratórium.

Laboratóriá AI a nezávislí experti by mali využiť túto pauzu na spoločný vývoj a implementáciu súboru zdieľaných bezpečnostných protokolov pre pokročilý návrh a vývoj AI, ktoré sú prísne kontrolované a kontrolované nezávislými externými odborníkmi.

Tieto protokoly by mali zabezpečiť, že systémy, ktoré sa k nim pridŕžajú, sú bez akýchkoľvek pochybností bezpečné. [4] Neznamená to pauzu vo vývoji AI vo všeobecnosti, iba krok späť od nebezpečných pretekov k stále väčším nepredvídateľným modelom čiernej skrinky s novými schopnosťami.

Výskum a vývoj AI by sa mal preorientovať na to, aby boli dnešné výkonné, najmodernejšie systémy presnejšie, bezpečnejšie, interpretovateľné, transparentné, robustné, zosúladené, dôveryhodné a lojálne.

Súčasne musia vývojári AI spolupracovať s tvorcami politiky, aby dramaticky urýchlili vývoj robustných systémov riadenia AI.

Mali by zahŕňať minimálne:

  • nové a schopné regulačné orgány venované AI;
  • dohľad a sledovanie vysoko výkonných systémov AI a veľkých zdrojov výpočtových schopností;
  • systémy proveniencie a vodoznaku, ktoré pomáhajú rozlíšiť skutočné od syntetických a sledovať úniky modelov;
  • robustný audítorský a certifikačný ekosystém;
  • zodpovednosť za škody spôsobené AI; r
  • ozsiahle verejné financovanie výskumu technickej bezpečnosti AI;
  • a dobre vybavené inštitúcie na zvládanie dramatických ekonomických a politických narušení (najmä demokracie), ktoré AI spôsobí.

Ľudstvo sa môže tešiť z prosperujúcej budúcnosti s AI. Po úspešnom vytvorení výkonných systémov umelej inteligencie si teraz môžeme užiť „leto umelej inteligencie“, v ktorom žneme odmeny, vytvárame tieto systémy pre jasný prospech všetkých a dávame spoločnosti šancu prispôsobiť sa. Spoločnosť sa pozastavila nad ďalšími technológiami s potenciálne katastrofálnymi dopadmi na spoločnosť. [5]   Môžeme tak urobiť tu. Užime si dlhé AI leto, neponáhľajme sa nepripravení na jeseň.

 Pôvodným zdrojom tohto článku je Future of Life Institute

Poznámky

[1] Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, marec). O nebezpečenstvách stochastických papagájov: Môžu byť jazykové modely príliš veľké?. In Zborník z konferencie ACM 2021 o spravodlivosti, zodpovednosti a transparentnosti (s. 610-623).

Bostrom, N. (2016). Superinteligencia. Oxford University Press.

Bucknall, BS a Dori-Hacohen, S. (2022, júl). Súčasná a krátkodobá AI ako potenciálny existenčný rizikový faktor. In  Zborník z konferencie AAAI/ACM 2022 o AI, etike a spoločnosti (s. 119-129).

Carlsmith, J. (2022). Je umelá inteligencia na hľadanie sily existenčným rizikom? . arXiv predtlač arXiv:2206.13353.

Christian, B. (2020). Problém zosúladenia: strojové učenie a ľudské hodnoty. Norton & Company.

Cohen, M. a kol. (2022). Do poskytovania odmeny zasahujú pokročilé umelé agenty.  AI Magazine ,  43 (3) (str. 282-293).

Eloundou, T., a kol. (2023). GPT sú GPT: Včasný pohľad na potenciál vplyvu veľkých jazykových modelov na trh práce.

Hendrycks, D. a Mazeika, M. (2022). Analýza X-rizika pre výskum AI . arXiv predtlač arXiv:2206.05862.

Ngo, R. (2022). Problém zosúladenia z perspektívy hlbokého učenia. arXiv predtlač arXiv:2209.00626.

Russell, S. (2019). Kompatibilné s ľuďmi: Umelá inteligencia a problém kontroly. Viking.

Tegmark, M. (2017). Život 3.0: Byť človekom vo veku umelej inteligencie. Knopf.

Weidinger, L. a kol. (2021). Etické a sociálne riziká poškodenia z jazykových modelov. arXiv predtlač arXiv:2112.04359.

[2] Ordonez, V. a kol. (2023, 16. marec). Generálny riaditeľ OpenAI Sam Altman hovorí, že AI pretvorí spoločnosť, uznáva riziká: „Trochu sa toho bojím“ . Správy ABC.

Perrigo, B. (2023, 12. januára). Generálny riaditeľ DeepMind Demis Hassabis vyzýva na opatrnosť v súvislosti s AI . čas.

[3] Bubeck, S. a kol. (2023). Sparks of Artificial General Intelligence: Rané experimenty s GPT-4 . arXiv:2303.12712.

OpenAI (2023). Technická správa GPT-4 . arXiv: 2303.08774.

[4] Existuje rozsiahly právny precedens – napríklad široko prijaté Zásady umelej inteligencie OECD vyžadujú, aby systémy umelej inteligencie „fungovali primerane a nepredstavovali neprimerané bezpečnostné riziko“.

[5] Príklady zahŕňajú klonovanie ľudí, modifikáciu ľudskej zárodočnej línie, výskum zisku z funkcie a eugeniku.

 

31. marec 2023     05:45

 

 

 

Zroj
globalresearch

Podobné články

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *

Back to top button