Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco

Kazalo:

Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco
Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco

Video: Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco

Video: Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco
Video: Очаровательный заброшенный замок 17 века во Франции (полностью замороженный во времени на 26 лет) 2024, April
Anonim
Slika
Slika

Protislovni ATLAS

V začetku lanskega leta je vojska Združenih držav prebudila svet z novico o razvoju sistema ATLAS (Advanced Targeting and Lethality Aided System), ki je zasnovan tako, da bojne operacije popelje na novo raven avtomatizacije. Pobuda je povzročila mešane reakcije med navadnimi ljudmi in razsvetljenimi vojaškimi strokovnjaki. Velik del krivde so bili na strani razvijalcev (vojaški center C5ISR in center za oborožitev Ministrstva za obrambo), ki so zaradi eufonične okrajšave ATLAS v ime vključili izraza "smrtonosnost" in "izboljšana oznaka cilja". Prestrašeni nad zgodbami o uporniških robotih so Američani kritizirali pobudo vojske, pravijo, da je v nasprotju z etiko vojne. Mnogi so se zlasti sklicevali na direktivo Pentagona 3000.09, ki prepoveduje prenos pravice do odprtega ognja na avtomatiziran sistem. Po mnenju protestnikov bi lahko vključitev umetne inteligence in strojnega učenja v kopenska vozila povzročila nenadne žrtve med civilisti in prijaznimi četami. Med kritiki so bili precej ugledni znanstveniki - na primer Stuart Russell, profesor računalništva na kalifornijski univerzi v Berkeleyju.

Slika
Slika

Razvijalci so povsem razumno pojasnili, da ATLAS nima nič skupnega s hipotetičnimi "roboti morilci", o katerih človeštvo sanja že od prvega "Terminatorja". Sistem temelji na algoritmih za iskanje cilja z uporabo različnih senzorskih sistemov, izbiro najpomembnejših in obveščanje operaterja o tem. Zdaj se v ZDA testira oklepni transporter M113 z integriranim sistemom ATLAS. Upravljavcu orožja algoritmi umetne inteligence ne prikažejo le najnevarnejših tarč na zaslonu, temveč tudi priporočajo vrsto streliva in celo število strelov za zagotovljen poraz. Po mnenju razvijalcev je končna odločitev o zadetku v zadetku strelca in on je tisti, ki je odgovoren za rezultat. Glavna naloga ATLAS -a v oklepni različici je povečati hitrost odziva na potencialno grožnjo - v povprečju tank (BMP ali oklepni transporter) trikrat hitreje odpre streljanje na tarčo z avtomatskim pomočnikom. Seveda lahko oklepno vozilo učinkoviteje deluje s skupinskimi cilji. V tem primeru umetna inteligenca takoj izbere cilje po vrstnem redu nevarnosti tankov, samostojno vodi orožje in priporoči vrsto streliva. Na poligonu Aberdeen so od začetka avgusta testirali različne vrste oklepnih vozil z integriranimi sistemi ATLAS. Na podlagi rezultatov dela bo sprejeta odločitev o vojaških preizkusih in celo o sprejetju takšnega orožja.

Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco
Panika v rezervoarju. Pentagon namerava oklepna vozila opremiti z umetno inteligenco

Cisterne so zdaj ena najbolj konzervativnih tarč na bojišču. Mnogi od njih se že desetletja niso bistveno izboljšali, v tehničnem razvoju so ostali v 70-80-ih letih prejšnjega stoletja. Pogosto je ta vztrajnost povezana s široko uporabo tankov v posameznih državah. Za resno posodobitev večtisočkovne oklepne vojske potrebujejo ogromna sredstva. Toda sredstva za boj proti tankom se razvijajo skokovito. Odličen primer je trenutni konflikt v Gorskem Karabahu, ko so turški in izraelski brezpilotni letali izjemno učinkoviti proti armenskim tankom. Če zanemarimo žrtve, so izračun razmerja med ceno in zmogljivostjo takšnega protitankovskega orožja preprosto kralji bojišča. Seveda ATLAS ne bo zaščitil pred zračnimi grožnjami, vendar je lahko dobro orodje za zgodnje opozarjanje na tarče, nevarne za cisterne, kot so posadke ATGM ali posamezni izstrelki granat.

Slika
Slika

Pentagon sistem ATLAS ne obravnava kot eno samo vojaško strukturo, ampak kot del velikega projekta Convergence. Ta pobuda bi morala ozaveščenost čet dvigniti na naslednjo raven. Američani upajo, da bodo s strojnim učenjem, umetno inteligenco in nasičenjem bojišča z brezpilotnimi letali resno povečali bojno zmogljivost svojih enot. Ključna ideja ni nova - povezati vse predmete na bojišču s skupno informacijsko strukturo in digitalizirati okolico. Doslej ATLAS zaradi pomanjkanja spretnosti pri izmenjavi podatkov s "sosedi" ni v celoti vključen v projekt Convergence, v prihodnosti pa bodo umetni možgani tanka postali skupna last. Mimogrede, v reklami za projekt sta Kitajska in Rusija označeni kot nedvoumni vojaški cilji.

Brez zaupanja v elektroniko

Ameriški vojaki že imajo negativne izkušnje z oboroženimi robotskimi sistemi. Leta 2007 so bile v Irak poslane tri majhne goseničarske platforme SWORDS (kratica za Special Weapons Observation Reconnaissance Detection System), oborožene z mitraljezi M249. In čeprav niso bili popolnoma avtonomna vozila, jim je med patruljiranjem po ulicah Bagdada uspelo prestrašiti vojake s svojimi občasnimi kaotičnimi premiki cevi mitraljezov. Pentagonu se je to zdelo kot znak nepredvidljivosti in sledilne mitraljeznike so počasi poslali domov. Leta 2012 je bila izdana direktiva, v kateri je navedeno, da avtomatizirani in daljinsko vodeni orožni sistemi ne smejo ustreliti sami. Formalno je bil ATLAS v celoti razvit v okviru te določbe, vendar ni nič manj vprašanj o inovacijah. Nekateri strokovnjaki (zlasti Michael S. Horowitz, docent za politične vede na Univerzi v Pensilvaniji) novost obtožujejo kot preveč poenostavitev procesa zadetka. Pravzaprav ta stopnja avtomatizacije iskanja in označevanja ciljev spremeni boj v običajno igro, kot je World of Tanks. V sistemu vodenja ATLAS je prednostna tarča označena z rdečo barvo, oglasi se alarm in tehnika, kot lahko, spodbudi osebo k odpiranju ognja. V ekstremnih bojnih razmerah je malo časa za odločitev o streljanju, nato pa vas "pametni robot" spodbudi. Posledično borec preprosto nima časa kritično oceniti situacije in brez razumevanja odpre ogenj. Oceniti je treba, kako je ATLAS po streljanju pravilno izbral cilje. V kolikšni meri je ta pristop etičen in ali je v skladu z razvpito ameriško direktivo? Mimogrede, Microsoft je že uspel javno obsoditi takšen sistem označevanja ciljev za vojsko, vse do bojkota uporabnikov. V Združenih državah že več let poteka razprava o robotizaciji sistemov za odkrivanje in vodenje. Kritiki na primer navajajo primere napak sistema avtopilota na javnih cestah, ki so že povzročile žrtve. Če tudi po prevoženih milijonih kilometrov avtopiloti niso postali 100% zanesljivi, kaj lahko rečemo o popolnoma svežem ATLAS-u, ki lahko tankerje potisne v nedolžno osebo s 120-milimetrskim izstrelkom. Sodobne vojne so zdaj tako krvave ravno zato, ker je vojska pridobila sposobnost ubijanja na daljavo in se skrila za zanesljivo pregrado. Primer omenjenega Gorskega Karabaha to resnico še enkrat potrjuje. Če je borec prikrajšan tudi za možnost kritične ocene parametrov tarče (točno do tega vodi ATLAS), potem je žrtev lahko veliko več, krivdo za umor pa lahko že delno prestavimo na stroj.

In končno, glavni argument proti sistemom tipa ATLAS med pacifističnimi komentatorji je bila navidezna odsotnost prepovedi odpiranja avtomatskega ognja. Zdaj le etične zahteve Pentagona (ki imajo tudi veliko zadržkov) prepovedujejo popolno avtomatizacijo procesa umora. Z uvedbo ATLAS -a za to sploh ne bo nobenih tehničnih ovir. Ali se bo ameriška vojska lahko odrekla tako obetavni priložnosti, da bi dodatno pospešila odzivni čas na grožnjo in preprečila napad svojim borcem?

Priporočena: