Motstridende ATLAS
I begynnelsen av fjoråret vekket det amerikanske militæret verden med nyheten om utviklingen av ATLAS (Advanced Targeting and Lethality Aided System) -systemet, designet for å ta kampoperasjoner til et nytt automatiseringsnivå. Initiativet forårsaket en blandet reaksjon blant vanlige mennesker og opplyste militære eksperter. Mye av skylden var på utviklerne (det militære C5ISR -senteret og bevæpningssenteret i forsvarsdepartementet), som av hensyn til den eufoniske forkortelsen ATLAS inkluderte begrepene "dødelighet" og "forbedret målbetegnelse" i navnet. Amerikanerne ble skremt av historier om opprørske roboter og kritiserte hærinitiativet, sier de, i strid med etikk i krig. Spesielt henviste mange til Pentagon -direktivet 3000.09, som forbyr overføring av retten til å åpne ild til et automatisert system. Integreringen av kunstig intelligens og maskinlæring i bakkekjøretøyer, ifølge demonstranter, kan føre til utslettsfeller blant sivile og vennlige tropper. Blant kritikerne var ganske respektable forskere - for eksempel Stuart Russell, professor i informatikk ved University of California i Berkeley.
Utviklerne forklarte ganske rimelig at ATLAS ikke har noe å gjøre med de hypotetiske "morderobotene" som menneskeheten har drømt om siden den første "Terminator". Systemet er basert på algoritmer for å finne et mål ved hjelp av forskjellige sensorsystemer, velge de viktigste og informere operatøren om det. Nå i USA testes det pansrede personellskipet M113 med det integrerte ATLAS -systemet. For våpens operatør viser kunstig intelligensalgoritmer ikke bare de farligste målene på skjermen, men anbefaler også typen ammunisjon og til og med antall skudd for garantert nederlag. Ifølge utviklerne forblir den endelige avgjørelsen om å treffe målet hos skytteren, og det er han som er ansvarlig for resultatet. Hovedoppgaven til ATLAS i en pansret versjon er å øke responshastigheten på en potensiell trussel - i gjennomsnitt åpner en tank (BMP eller pansret personellbærer) ild mot et mål med en automatisk assistent tre ganger raskere. Naturligvis kan et pansret kjøretøy arbeide mer effektivt med gruppemål. I dette tilfellet velger kunstig intelligens raskt mål i rekkefølgen på tankfare, styrer våpenet på egen hånd og anbefaler typen ammunisjon. Siden begynnelsen av august har forskjellige typer pansrede kjøretøyer med integrerte ATLAS -systemer blitt testet på Aberdeen Proving Ground. Basert på resultatene av arbeidet vil det bli tatt en beslutning om militære tester og til og med om adopsjon av slike våpen.
Tanker er nå et av de mest konservative målene på slagmarken. Mange av dem har ikke forbedret seg grunnleggende i flere tiår, og har forblitt i 70-80-årene av forrige århundre når det gjelder teknisk utvikling. Ofte er denne tregheten forbundet med utbredt bruk av tanker i enkeltland. For å kunne modernisere en pansret hær på mange tusen, kreves enorme ressurser. Men virkemidlene for å motvirke tanker utvikler seg med stormskritt. Et utmerket eksempel er den nåværende konflikten i Nagorno-Karabakh, når tyrkiske og israelske droner er ekstremt effektive mot armenske stridsvogner. Hvis vi ignorerer ofre, gjør beregningen av pris / ytelsesforholdet for slike antitankvåpen dem ganske enkelt kongene på slagmarken. Selvfølgelig vil ATLAS ikke beskytte mot lufttrusler, men det kan være et godt verktøy for tidlig varsling av tankfarlige mål som ATGM-mannskaper eller enkeltgranatskyttere.
Pentagon anser ATLAS -systemet ikke som en enkelt militær struktur, men som en del av en stor prosjektkonvergens. Dette initiativet bør ta troppsbevisstheten til neste nivå. Gjennom maskinlæring, kunstig intelligens og den enestående metningen av slagmarken med droner håper amerikanerne å øke kampkapasiteten til enhetene deres på alvor. Nøkkeltanken er ikke ny - å koble alle objekter på slagmarken med en felles informasjonsstruktur og å digitalisere den omkringliggende virkeligheten. Så langt er ATLAS ikke fullt ut inkludert i Project Convergence på grunn av mangel på datautvekslingskunnskaper med "naboer", men i fremtiden vil tankens kunstige hjerner bli en felles eiendom. For øvrig, i reklamen for prosjektet, er Kina og Russland utpekt som entydige militære mål.
Ingen tillit til elektronikk
Amerikanske tropper har allerede en negativ erfaring med væpnede robotsystemer. I 2007 ble tre små sporede plattformer SWORDS (forkortelse for Special Weapons Observation Reconnaissance Detection System), bevæpnet med M249 maskingevær, sendt til Irak. Og selv om de ikke var helt autonome kjøretøyer, klarte de å skremme soldatene med sine periodiske kaotiske bevegelser av fatene med maskingevær mens de patruljerte gatene i Bagdad. Dette virket for Pentagon som et tegn på uforutsigbarhet, og maskinskytespillerne ble sakte sendt hjem. I 2012 ble det gitt et direktiv om at automatiserte og fjernstyrte våpensystemer ikke skal skyte av seg selv. Formelt har ATLAS blitt utviklet helt innenfor rammen av denne bestemmelsen, men det er ikke færre spørsmål om innovasjon. Noen eksperter (spesielt Michael S. Horowitz, assisterende professor i statsvitenskap ved University of Pennsylvania) anklager nyheten for å forenkle prosessen med å treffe et mål. Faktisk gjør dette nivået av automatisering av søk og målbetegnelse kamp til et vanlig spill som World of Tanks for gunner. I ATLAS -veiledningssystemet er det prioriterte målet markert med rødt, en alarm høres og teknikken, som den kan, stimulerer en person til å åpne ild. Under ekstreme kampforhold er det lite tid til å ta en beslutning om skyting, og da oppmuntrer den "smarte roboten" deg. Som et resultat har jagerfly rett og slett ikke tid til å vurdere situasjonen kritisk, og han åpner ild uten å forstå. Det er nødvendig å vurdere hvordan ATLAS korrekt valgte mål etter skyting. I hvilken grad er denne tilnærmingen etisk, og er den i samsvar med det beryktede amerikanske direktivet? Microsoft, forresten, har allerede klart å falle under offentlig fordømmelse for et slikt hjelmmontert målbetegnelsessystem for militæret, til og med en brukerboikott. I USA har det vært en debatt om robotisering av deteksjons- og veiledningssystemer i mange år. Som et eksempel nevner kritikere eksempler på feil i autopilotsystemet på offentlige veier, som allerede har ført til havari. Hvis autopilotene ikke ble 100% pålitelige etter å ha kjørt millioner av kilometer, så hva kan vi si om et helt ferskt ATLAS, som kan presse tankskip til å skyte på en uskyldig person med et 120 mm prosjektil. Moderne kriger er nå så blodige nettopp fordi militæret fikk evnen til å drepe eksternt og gjemte seg bak en pålitelig barriere. Eksemplet på nevnte Nagorno-Karabakh bekrefter nok en gang denne sannheten. Hvis jagerflyet også blir fratatt muligheten til å kritisk vurdere parametrene til målet (dette er akkurat det ATLAS fører til), så kan det være mye flere ofre, og skylden for drapet kan allerede delvis flyttes til maskinen.
Og til slutt var hovedargumentet mot systemer av ATLAS-type blant pasifistiske kommentatorer det virtuelle fraværet av et forbud mot åpning av automatisk brann. Nå er det bare de etiske kravene til Pentagon (som også har mange forbehold) som forbyr å fullt ut automatisere drapsprosessen. Med introduksjonen av ATLAS vil det ikke være noen tekniske hindringer for dette i det hele tatt. Vil den amerikanske hæren kunne gi avkall på en så lovende mulighet til ytterligere å akselerere responstiden på en trussel og hindre krigerne i å bli angrepet?