TEHNOLOGIJA KOJA BI NAS MOGLA ISTRIJEBITI: /

Zbog razvijene UI dronovi ubojice mogu sami birati svoje mete

Image
Foto: YouTube

Dronovi već sad imaju sposobnost nezavisnog biranja meta koristeći umjetnu inteligenciju. To bi moglo oduzeti ljudima mogućnost konačne odluke s etičkog stajališta.

22.4.2018.
19:30
YouTube
VOYO logo

Ratna su oružja s vremenom evoluirala, no odluka o ubijanju uvijek je bila na ljudima. Ali razvojom umjetne inteligencije (UI) i autonomne tehnologije, sada je moguće izgraditi strojeve za ubijanje koje ne traže nikakvu ljudsku prisutnost, piše Daily Mail.

Istrijebiti neprijatelja

Oduzimanje krajnje odluke ljudima dovodi do ozbiljnog etičkog problema o korištenju potpuno autonomnog oružja. To bi značilo da bi u ratovima moglo biti manje borbe, a više istrebljivanja.

Tekst se nastavlja ispod oglasa

Američka je vojska nedavno najavila da razvija prve dronove koji će moći primijetiti i ciljati vozila i ljude koristeći umjetnu inteligenciju. Radi se o, tehnološki gledano, velikom koraku naprijed. Naime, dok sadašnje vojne dronove i dalje kontroliraju ljudi, ova nova tehnologija sama će odlučivati koga da ubije gotovo bez ljudskog sudjelovanja. Nakon što budu dovršeni, ovi će dronovi predstavljati savršenu militarizaciju umjetne inteligencije te će pokrenuti ogromne legalne i etičke posljedice za šire društvo.

Postoji i mogućnost da će ratovanje prijeći s borbe protiv neprijatelja na njegovo potpuno istrebljenje, te će u potpunosti izgubiti svu čovječnost, koliko god to paradoskalno zvučalo. No istovremeno bi moglo i proširiti sferu ratovanja, tako da bi tvrtke, inženjeri i znanstvenici koji stvaraju UI mogli postati valjane ratne mete.

Tekst se nastavlja ispod oglasa

Postojeći vojni dronovi, poput MQ-9 Reapera, pažljivo se kontroliraju preko satelita. Ako pilot ispusti bombu ili lansira projektil, ljudski operater senzora aktivno ju navodi na izabranu metu pomoću lasera. Upravo oni imaju krajnju etičku, pravnu i operativnu odgovornost za ubijanje određenih ljudskih meta. "Spreman sam omogućiti gerilcu, koliko god važna meta isti bio, da ode radije nego da riskiram i ubijem civile."

I operateri dronova pate od PTSP-a

Iako dronovi ubijaju, ljudske emocije, prosude i etika uvijek ostaju u samom središtu ratovanja. Postojanje mentalnih trauma i PTSP-a među operaterima dronova posljedica je psihološke težine ubijanja na daljinu. I to ustvari ukazuje na moguće jedan vojni i etički argument u prilog autonomnim dronovima za ubijanje. Jer ako bi takvi dronovi bacali bombe, ne bi bili psiholoških problema među posadom. Ono što slabi ovaj argument je činjenica da ne morate biti odgovorni za ubijanje da bi vas ono traumatiziralo.

Obavještajni stručnjaci i drugo vojno osoblje redovito analizira grafičke snimke nakon napada dronova. Istraživanja su pokazala da je moguće dobiti psihološke probleme čestim gledanjem slika ekstremnog nasilja.

Razgovor s više od 100 operatera Reaper drona pokazao je kako je svaka osoba koja je izvodila ubilačke napade dronom uvjerena da bi čovjek trebao biti taj koji će na kraju povući okidač. Bez ljudi, odluka o ubijanju gubi svoju ljudskost.

Tekst se nastavlja ispod oglasa

Teške posljedice

Potpuno autonomni dronovi radikalno bi izmijenili složene procese i odluke na kojima se temelji vojno ubijanje. No pravna i etička odgovornost ne nestanu ako samo uklonite ljudski nadzor. Umjesto toga, odgovornost će se sve više širiti na druge ljude, uključujući i znanstvenike koji se bave umjetnom inteligencijom. Pravne implikacije ovakvog razvoja već postaju očite.

Tekst se nastavlja ispod oglasa

Po trenutačnom međunarodnom humanitarnom zakonu, postrojenja 'dvostruke namjene', koja razvijaju proizvode i za civilnu i za vojnu primjenu, mogu biti napadnuta u određenim okolnostima. Na primjer, tijekom NATO-vog napada na Srbiju 1999., napadnuta je i rafinerija nafte u Pančevu jer je proizvodila gorivo za srpske tenkove, kao i za civilna vozila.

S autonomnim dronovima kao oružanim sustavima, određene linije kompjuterskog koda gotovo će sigurno biti označene kao da su 'dvostruke namjene'. Stoga bi tvrtke poput Googlea, njegovi zaposlenici ili sustavi, mogli postati zakoniti ciljevi napada neke neprijateljske države.

Naprimjer, ako Googleov Projekt Maven, UI softver za prepoznavanje slika bude inkorporiran u američke dronove-ubojice, Google bi se mogao naći kao suučesnik u njihovim akcijama, kao i svaki drugi civilni suradnik ovakvih smrtonosnih autonomnih sustava.

Kad je dosta?

Etički, postoje i još mračniji problemi. Cijeli smisao samoučećih algoritama, programa koji nezavisno uče iz svih podataka koje mogu prikupiti, jest da tehnologija postaje sve bolja i bolja u izvršavanju svojih zadataka. Ako smrtonosni autonomni dronovi budu postajali sve bolji, netko će morati odlučiti o prihvatljivom stadiju razvoja, koliko još moraju naučiti, dok ne budu spremni za akciju. U slučaju vojnog stroja, to znači da će političkim, vojni i industrijski vođe morati specificirati koliko je točno civilnih smrti prihvatljivo.

Tekst se nastavlja ispod oglasa

Nedavni događaji s autnonomnim UI-ma trebali bi poslužiti kao upozorenje. Kobni eksperimenti Ubera i Tesle sa samovozećim automobilima praktički garantiraju da će se događati neplanirane smrti prouzročene autonomnim dronovima dok se svi bugovi ne uklone.

Ako se strojevima bude dozvoljavalo da same odluče tko će umrijeti, onda bismo mogli svjedočiti istrebljivanju, a svaka vlada ili vojska koja pošalje takve snage na neprijatelja prekršila bi koje god vrijednosti se zalaže da čuva.

Tekst se nastavlja ispod oglasa
FNC 20 PROPUŠTENE
Gledaj odmah bez reklama
VOYO logo