Vedci varujú pred robotickými vojakmi. Zabíjali by bez súcitu
Máte vypnuté reklamy
Vďaka financiám z reklamy prinášame kvalitné a objektívne informácie. Povoľte si prosím zobrazovanie reklamy na našom webe. Ďakujeme, že podporujete kvalitnú žurnalistiku.
NEW YORK / Autonomné robotické zbraňové systémy, v skratke by sa dalo povedať robotickí vojaci, by sami rozhodovali o tom, kedy a koho zabijú. Ich existencia teda vyvoláva množstvo otáznikov. Žiadna veľmoc ale v ich vývoji nechce zaostávať.
V roku 2015 dostala OSN neobvyklý otvorený list. Podpísalo ho viac ako tisíc výskumníkov, vedcov a vývojárov z oblasti robotiky, kybernetiky a umelej inteligencie. Boli medzi nimi aj Elon Musk, Stephen Hawking či Steve Wozniak. Všetci požadovali okamžitý zákaz vývoja a používania prvkov ozbrojenej technológie s umelou inteligenciou.
"Umelá inteligencia nahrádza riziká vyplývajúce z možnej straty života vojaka v poli. Jej nasadenie nespôsobuje formálne komplikácie. Nástroje ako sú plne automatizované drony, budú schopné vyhľadávať svoje ciele a ničiť ich nezávisle od ľudských príkazov, nebude pri tom príliš nákladné ich vyrábať," píšu odborníci v liste.
Krajiny, ktoré zatiaľ nevlastnia technológiu na výrobu jadrových zbraní si tak tento "nedostatok" môžu vynahradiť výrobou tisícov automatizovaných bojovníkov. Vedci si v tomto ohľade kladú veľa otázok. Môžeme veriť stroju, ktorému dáme inteligenciu a smrtiacu silu? Kto ponesie zodpovednosť, ak sa samostatne mysliaci robot rozhodne zaútočiť na nemocnicu alebo na školu?
OSN si s odpoveďou dala na čas
Organizácia spojených národov odpovedala v decembri 2016. Zostavila údajne expertíznu skupinu zloženú z odborníkov rôznych národností, ktorí prešetria legislatívne kroky, ktoré sú potrebné na to, aby sa požiadavka vedcov o zákaz zbraní riadených umelou inteligenciou mohol zaviesť. Autori listu ale namietajú, že to môže trvať aj niekoľko rokov a svet zatiaľ zbrojí.
Podľa portálu IDnes.cz, s testovaním takýchto bojových systémov už prišla ruská spoločnosť Kalashnikov Group, ale aj armáda USA, Číny či Izraela. Americký generálny štáb sa zatiaľ k možnosti využiť pokročilé technológie stavia váhavo. Oficiálne stanovisko je založené na tom, že súčasťou rozhodovacieho procesu zatiaľ vždy musí byť prvok ľudského myslenia. Potenciálny útočník teda môže byť odhalený technológiami, no "spúšť" na jeho zneškodnenie musí vždy stlačiť len ľudský vojak. Americký vojenský experti ale poukazujú na medzery.
Medzery v logickom systéme
Plukovník americkej armády Joseph Brecher je za plnú automatizáciu zbraňových systémov. Svoje presvedčenie podporuje dvoma argumentmi. "Ak proti sebe budú stáť plne automatizovaný autonómny zbraňový systém a človekom spoluriadený poloautomatický, ten zbavený ľudského faktoru bude jednoznačne efektívnejší a rýchlejší," uvádza.
Druhým argumentom je podľa neho zraniteľnosť zbraňových prvkov spoluriadených človekom voči vonkajšiemu narušeniu systému. Poloautomatické zbrane totiž s človekom, ktorý ich riadi musia nejako komunikovať. "Táto komunikačná spojnica môže systém prezradiť nepriateľovi alebo môže byť napadnutá nepriateľským hackerom," dodáva Brecher.
Pentagon v roku 2016 vyčlenil 18 miliárd dolárov, ktoré majú v horizonte nasledujúcich troch rokov ísť na výskum autonómnych vojenských systémov. Táto suma sa považuje za relatívne nízku. "Trendom súčasnosti zatiaľ nie je vyrábať niečo ako terminátor, ale skôr podporné prostreidky boje a prieskumu, ktoré by sprevádzali ľudských vojakov. Podstatné pre nás je, aby bol súčasťou rozhodovacieho procesu vždy človek," povedal Robert Work, tajomník amerického ministerstva obrany.
Otvárajú Pandorinu skrinku, tvrdia vedci
Peter Singer, technický poradca Washingtonu neverí, že by USA alebo ktorákoľvek iná krajina, ktorá by v prípade vojny prehrávala, nepoužila všetky dostupné prostriedky bez ohľadu na to, či sú morálne alebo etické. "Problém s autonómnymi zbraňovými systémami je ten, že keď už ich raz máte, budete ich chcieť použiť," povedal Singer.
V uliciach Dubaja už časť policajtov nahradili robotickí policajti, ktorí sa premávajú po uliciach.