Kunstig intelligens. Fremtiden for Russlands nasjonale sikkerhet?

Innholdsfortegnelse:

Kunstig intelligens. Fremtiden for Russlands nasjonale sikkerhet?
Kunstig intelligens. Fremtiden for Russlands nasjonale sikkerhet?

Video: Kunstig intelligens. Fremtiden for Russlands nasjonale sikkerhet?

Video: Kunstig intelligens. Fremtiden for Russlands nasjonale sikkerhet?
Video: По следам древней цивилизации? 🗿 Что, если мы ошиблись в своем прошлом? 2024, November
Anonim
Bilde
Bilde

Ti års utvikling

Det er ingen hemmelighet at kunstig intelligens trenger dypere og dypere inn i livet til vanlige mennesker rundt om i verden. Dette lettes av både den globale spredningen av Internett og den massive økningen i datakraft. Nevrale nettverk, som har en viss likhet med den menneskelige hjerne, har gjort det mulig å kvalitativt forbedre arbeidet til den utviklede programvaren. Det er imidlertid et par presiseringspunkter: nevrale nettverk er fortsatt veldig langt fra nivået på den menneskelige hjernen, spesielt når det gjelder energieffektivitet, og algoritmene for arbeidet er fremdeles ekstremt vanskelige å forstå.

Bilde
Bilde

Pengene til kunstig intelligensindustri, til tross for noen begrensninger og høyprofilerte ulykker med selvkjørende biler, er en bred elv. I fjor, i henhold til den godkjente nasjonale strategien, oversteg markedet for IT -løsninger på dette området 21,5 milliarder dollar. Gud vet hvilket beløp, men det vil bare øke hvert år, og innen 2024 vil den totale AI i verden betinget koste 140 milliarder, og den potensielle økonomiske veksten fra introduksjonen av AI på dette tidspunktet vil nå en anstendig 1 billion. dollar. Faktisk var godkjennelsen av den nevnte nasjonale strategien av president Vladimir Putin 10. oktober 2019, et forsøk på å holde tritt med verdens trender. Samtidig erklærer selve programmet ikke bare en reduksjon i gapet med verdens ledere, men en oppføring i antall toppspillere i dette markedet. Og det er planlagt å gjøre dette innen 2030. Blant de åpenbare hindringene på denne veien vil være de proteksjonistiske uttalelsene fra en rekke land om at enhver russisk programvare utgjør en potensiell fare.

Hvor skal de implementere de "grenseløse" evnene til AI på russisk jord? Først og fremst er dette automatisering av rutinemessige operasjoner sammen med utskifting av en person i farlige næringer (les: inkludert i hæren). Videre er det planlagt seriøst arbeid med store data, som har blitt generert akkurat som et skred i det siste. Det antas at de vil kunne forbedre prognoser for ledelsesbeslutninger, samt optimalisere valg og opplæring av personell. Helse med utdanning om ti år vil også være aktive brukere av AI. Innen medisin vil profylakse, diagnostikk, dosering av legemidler og til og med kirurgi bli gitt til maskintanken, delvis eller helt. På skolen vil AI være involvert i individualisering av læringsprosesser, analyse av barnets tilbøyelighet til profesjonell aktivitet og tidlig identifisering av talentfulle ungdommer. I strategien kan man finne en bestemmelse om "utvikling og implementering av utdanningsmoduler innenfor utdanningsprogrammene på alle utdanningsnivåer." Det vil si at det grunnleggende om AI vil bli undervist på skolen?

Som vanlig, i tillegg til de håndgripelige resultatene av utviklingen av AI, vil det vitenskapelige samfunnet bli pålagt å øke antall og siteringsindeks for artikler av russiske forskere i verdens spesialiserte publikasjoner. Og innen 2024, det vil si veldig snart, bør antallet innbyggere med AI -kompetanse øke i Russland. Spesielt vil dette bli realisert ved å tiltrekke innenlandske spesialister fra utlandet, samt tiltrekke utenlandske borgere til å jobbe med dette emnet i Russland.

Imidlertid har AI en kontroversiell egenskap, som skal tas opp i strategien ved å "utvikle etiske regler for menneskelig interaksjon med kunstig intelligens." Det viser seg at den kalde beregningen av datasinnet fører til at det gjør partiske og urettferdige generaliseringer.

AI -skjevhet

Blant de mange spørsmålene om hvordan moderne AI -systemer fungerer, skiller de for tiden ufullkomne algoritmene seg ut for autopilotering av hjulkjøretøyer, som fremdeles ikke tillater at de lovlig kan brukes mye. Mest sannsynlig vil vi i overskuelig fremtid ikke se AI -biler på veiene våre. Veiforholdene våre er ikke egnet for dette, og klimaet favoriserer ikke bruk av autopiloten hele året: gjørme og snø vil raskt "blinde" sensoriske systemer til den mest avanserte roboten. I tillegg vil den massive introduksjonen av AI uunngåelig ta jobber fra millioner av mennesker rundt om i verden - de må enten omskole seg eller tilbringe resten av dagene i ledighet. Det er rimelig å si at forskjellige nyskapende "Atlases of the professions of the future" noen ganger bærer åpenlyst tull: i en av dem, datert 2015, av det nye 2020, bør for eksempel yrkene til regnskapsfører, bibliotekar, korrekturleser og tester har blitt foreldet. Men likevel vil profilen til de fleste yrker endre seg, og den negative faktoren for AI vil råde her. Uansett stiller utsiktene til videre introduksjon av AI i samfunnet mange spørsmål for myndighetene. Og det ser ut til at få mennesker vet hvordan de skal løse dem.

Bilde
Bilde

Et annet problem som allerede truer i horisonten er AI -skjevhet i beslutningsprosesser. Amerikanerne var en av de første som møtte dette da COMPAS -systemet ble introdusert i 15 stater for å forutsi tilfeller av tilbakefall av kriminelle. Og alt så ut til å starte veldig bra: Vi klarte å utvikle en algoritme som, basert på datamengden (Big Data), danner anbefalinger om straffens alvorlighetsgrad, regimet til en korrektivinstitusjon eller tidlig frigivelse. Programmørene hevdet med rette at en sulten dommer på ettermiddagen kan tåle en altfor streng straff, og en godt matet tvert imot er for mild. AI må legge til kald beregning til denne prosedyren. Men det viste seg at COMPAS og alle lignende programmer er rasistiske: AI var dobbelt så sannsynlig å feilaktig klandre afroamerikanere for tilbakefall enn hvite (45% mot 23%). AI ser generelt på lyse kriminelle som mennesker med et lavt risikonivå, siden det statistisk sett er mindre sannsynlig at de bryter loven - derfor er prognosene for dem mer optimistiske. I denne forbindelse blir det i USA hørt flere og flere stemmer om avskaffelse av AI for å løse saker om kausjon, straffeutmåling og tidlig løslatelse. Samtidig har amerikansk rettferdighet ingenting å gjøre med programkoden til disse systemene - alt er kjøpt fra tredjepartsutviklere. Predpol, HunchLab og Series Finder programvaresystemer som opererer på gatene i mange byer rundt om i verden, har allerede statistisk vist at de er effektive: kriminalitet avtar, men de er ikke blottet for rasefordommer. Det mest interessante er at vi ikke vet hvilke andre "kakerlakker" som sys inn i de kunstige hjernene til disse systemene, siden mange parametere i analysen er klassifisert. Det er også tvil om at utviklerne selv forstår hvordan AI tar visse beslutninger, hvilke parametere den anser som viktige. Lignende situasjoner utvikler seg ikke bare innen rettshåndhevelse og rettferdighet, men også i rekrutteringsbyråer. AI gir i de fleste tilfeller preferanse til å ansette unge menn, og la de svakere kjønn- og alderskandidatene være til side. Det er morsomt at vestens verdier, som de så nidkjært fremmer (likestilling mellom kjønn og rase), blir tråkket på av den siste vestlige prestasjonen - kunstig intelligens.

Bilde
Bilde

Konklusjonen fra en liten utflukt til teori og praksis for AI antyder følgende. Det er én ting når dataene våre fra sosiale nettverk og andre kilder blir massivt behandlet for markedsføring eller politisk manipulasjon, og en annen ting når rettferdighetens sverd eller, enda verre, arsenalet for nasjonal sikkerhet blir overlevert til AI. Prisen på en partisk beslutning stiger mange ganger, og det må gjøres noe med det. Den som lykkes med dette, vil bli den virkelige herskeren i det XXI århundre.

Anbefalt: