SVETTechnológie

Vysoké riziká umelej inteligencie a robotických zbraní

Nedávne tragické skúsenosti v Gaze potvrdili obavy tých vedcov, ktorí varovali pred používaním umelej inteligencie (AI) a robotiky v zbraňových systémoch a vo vojne.

Použitie AI v zameriavacích systémoch malo uľahčiť presnejšie zacielenie a tým ušetriť nevinných civilistov – pomocou systému Lavender sa zameriavali na personál a systému evanjelií na cielenie budov, kde sa mali nachádzať militanti. Táto technológia AI, ktorá sa používa narýchlo, však v skutočnosti viedla k mnohým nevyberaným vraždám nevinných civilistov.

Toto nie je jediný nedávny príklad vysoko rizikového používania AI zbraní. Po veľmi desivých, no faktoch založených varovaniach uznávaných odborníkov nasledovali rastúce investície veľkých mocností na posilnenie ich príprav na vývoj širokého spektra robotických zbraní.

Zatiaľ čo niektoré civilné aplikácie robotov čelia čoraz väčšej kritike v súvislosti s obavami z rozsiahlej nezamestnanosti, ktorú pravdepodobne spôsobia vo viacerých oblastiach práce vo svete, ktorý už trpí nepriaznivými vplyvmi rastu bez práce, nepriaznivé vplyvy vojenského využívania robotov roboty budú pravdepodobne oveľa nebezpečnejšie.

Jedným z argumentov, ktoré sa uvádzajú pre nekontrolovanie vojenského použitia robotických zbraní (nazývaných aj smrtiace autonómne zbrane alebo PRÁVO), je, že práca pre civilné a vojenské využitie robotov, najmä v kontexte vedeckého výskumu a inovácií, môže úzko súvisieť. Správa znie, že ako civilný výskum robotov napreduje, bude to mať sprievodné dôsledky pre vojenské využitie robotov, ktoré nemôže ignorovať žiadna vedúca vojenská mocnosť.

Na jednej strane sa teda uvádza, že civilný pokrok v oblasti robotov znižovaním nákladov a ponúkaním iných úzkych výhod bez ohľadu na sociálne náklady nevyhnutne povedie k rozšíreniu robotiky v civilných aplikáciách a na druhej strane sa uvádza, že vojenské možnosti, ktoré sa objavia v kontexte tohto technologického rozvoja budú rovnako nevyhnutne používané rôznymi vojenskými zariadeniami v rôznych častiach sveta.

Samozrejme, akonáhle bude význam robotov pre armádu čoraz jasnejší, potom aj vojenské inštitúcie budú veľa investovať do čisto vojenského vývoja robotov. Toto štádium je už dosiahnuté v prípade popredných vojenských mocností sveta. Preto sme v situácii, keď aj napriek narastajúcemu varovaniu odborníkov pred robotickými zbraňami sa trend vývoja čoraz ničivejších robotických zbraní javí ako nezastaviteľný. V USA sa zdá, že niekoľko nových start-upov napreduje v narastajúcej ochote Pentagonu investovať do AI zbraní a iné mocnosti pravdepodobne nebudú zaostávať.

Už v rokoch 2012-13 v rámci úsilia Medzinárodného výboru pre kontrolu robotických zbraní až 270 počítačových expertov, expertov a inžinierov AI vyzvalo na zákaz vývoja a rozmiestnenia zbraňových systémov, ktoré rozhodujú o použiť násilnú silu autonómne, bez akejkoľvek ľudskej kontroly. Jasne povedali, že rozhodnutie o použití násilnej sily by sa nemalo delegovať na stroje.

Títo experti sa pýtali, ako budú zariadenia riadené zložitými algoritmami interagovať, pričom varovali, že takéto interakcie by mohli vytvoriť nestabilné a nepredvídateľné správanie, ktoré môže iniciovať alebo eskalovať konflikty alebo spôsobiť neospravedlniteľné a vážne škody na civilnom obyvateľstve.

V auguste 2017 až 116 špecialistov z 26 krajín, vrátane niektorých popredných svetových priekopníkov v oblasti robotiky a umelej inteligencie, vyzvalo Organizáciu Spojených národov, aby zakázala vývoj a používanie zabijáckych robotov.  Oni napísali,

Akonáhle sa vyvinú smrtiace autonómne zbrane, umožnia boj proti ozbrojenému konfliktu vo väčšom rozsahu ako kedykoľvek predtým a v časovom rozsahu rýchlejšie, ako ľudia dokážu pochopiť. Môžu to byť zbrane teroru, zbrane, ktoré používajú despoti a teroristi proti nevinnému obyvateľstvu, a zbrane napadnuté, aby sa správali nežiaducim spôsobom.

„Nemusíme dlho konať.“ Tento list varoval. „Keď sa táto Pandorina skrinka otvorí, bude ťažké ju zavrieť.“

Ryan Gariepy, zakladateľ spoločnosti Clearpath Robotics, povedal:

„Na rozdiel od iných potenciálnych prejavov AI, ktoré stále zostávajú v oblasti sci-fi, autonómne zbraňové systémy sú práve teraz na vrchole vývoja a majú veľmi reálny potenciál spôsobiť značné škody nevinným ľuďom spolu s globálnou nestabilitou.“

The Economist (27. januára 2017) uviedol vo svojej špeciálnej správe s názvom „Budúcnosť vojny“,

„Svet aspoň vie, aké je to žiť v tieni jadrových zbraní. Oveľa väčšie otázniky sú nad tým, ako rýchly pokrok v oblasti umelej inteligencie (AI) a hlbokého učenia ovplyvní spôsob vedenia vojen a možno aj spôsob, akým ľudia o vojne uvažujú. Veľkým problémom je, že tieto technológie môžu vytvoriť autonómne zbraňové systémy, ktoré sa môžu rozhodnúť o zabíjaní ľudí nezávisle od tých, ktorí ich vytvorili alebo rozmiestnili.

Táto špeciálna správa rozlišovala medzi tromi typmi zbraní AI alebo robotických zbraní

i) v slučke (pričom človek neustále monitoruje operáciu a zostáva zodpovedný za kritické rozhodnutia,

(ii) na slučke (s človekom dohliadajúcim na stroje, ktoré môžu zasiahnuť v ktorejkoľvek fáze misie) alebo

iii) mimo slučky (so strojom, ktorý vykonáva úlohu bez akéhokoľvek ľudského zásahu po spustení).

Úplne autonómne robotické zbrane (tretia kategória) sú samozrejme najnebezpečnejšie.

List varujúci pred nadchádzajúcou rasou týchto zbraní podpísalo v roku 2015 viac ako 1000 expertov na AI. Medzinárodná kampaň s názvom ‚Campaign to Stop Killer Robots‘ pravidelne pracuje na tomto a súvisiacich cieľoch. Elon Musk uviedol, že súťaž o prevahu AI na národnej úrovni je „najpravdepodobnejšou príčinou 3. svetovej vojny“.

Stephen Hawking, Elon Musk a mnohí ďalší experti v spoločnom vyhlásení uviedli, že pri zlom zaobchádzaní môže AI ako zbraň predstavovať existenčnú hrozbu pre ľudskú rasu.

Paul Scharre, odborník na autonómne zbrane, napísal, že „spolu majú roje robotických systémov potenciál pre ešte dramatickejšie, rušivejšie zmeny vo vojenských operáciách“. Jednou z možností, ktoré spomenul, je, že z malých 3D tlačených dronov sa môžu sformovať inteligentné oblaky, ktoré môžu preniknúť do budovy alebo ich zhodiť vzduchom nad širokú oblasť, aby hľadali skryté nepriateľské sily.

Vo svojom románe Deň v roku 2071 predstavujem situáciu, v ktorej mocné elity používajú takú silu veľmi malých robotických vojakov na potlačenie vzbury obyčajných ľudí.

Niekoľko krajín prudko napreduje v oblasti robotických zbraní. V roku 2014 Pentagon oznámil svoju „tretiu stratégiu kompenzácie“ s osobitným dôrazom na robotiku, autonómne systémy a „veľké dáta“. To má pomôcť USA udržať si vojenskú prevahu. V júli 2017 Čína predstavila svoj „Plán rozvoja umelej inteligencie novej generácie“, ktorý dáva kľúčovú úlohu AI ako transformačnej technológii v civilných, ako aj vojenských oblastiach, s dôrazom na „vojensko-civilnú fúziu“.

Kampaň s názvom Stop Killer Robots chce právne záväznú medzinárodnú zmluvu zakazujúcu PRÁVO. Existujú však určité otázky, či to môže byť účinné bez toho, aby to podpísali veľké vojenské mocnosti a tieto veľké mocnosti pokračujú vo veľkých investíciách do robotických zbraní.

Bez ohľadu na to, aké úsilie sa v súčasnosti vynakladá na kontrolu robotických zbraní, by malo pokračovať a malo by sa posilniť, ale okrem toho je tiež dôležité veľmi vážne sa pozrieť na to, prečo sa náš svet, spôsob, akým je v súčasnosti organizovaný, stále viac považuje za neschopné kontrolovať niektoré z najnebezpečnejších hrozieb.

Bharat Dogra

O autorovi: Bharat Dogra je čestným organizátorom kampane za záchranu Zeme. Medzi jeho nedávne knihy patrí Planéta v ohrození, Ochrana Zeme pre deti, Deň v roku 2071 a Zem bez hraníc.  Je pravidelným prispievateľom do Global Research.

Ilustračné foto: aoav.org.uk

19. máj 2024   05:48

Zroj
globalresearch

Podobné články

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *

Back to top button