Forskere er redde for trusselen fra kunstig intelligens

Forskere er redde for trusselen fra kunstig intelligens
Forskere er redde for trusselen fra kunstig intelligens

Video: Forskere er redde for trusselen fra kunstig intelligens

Video: Forskere er redde for trusselen fra kunstig intelligens
Video: How did Russia begin? | 1450 - Present | AP US History | Khan Academy 2024, Kan
Anonim

Selvforbedrende kunstig intelligens (AI) i fremtiden kan slavebinde eller drepe mennesker hvis han vil. Dette ble fortalt av forskeren Amnon Eden, som mener at risikoen ved utvikling av en fritt tenkende og svært intelligent bevissthet er veldig høy, og "hvis du ikke tar vare på spørsmålene om AI-kontroll allerede på det nåværende stadiet av utvikling, så kan morgendagen rett og slett ikke komme. " I følge den engelske utgaven Express er menneskeheten ifølge Amnon Eden i dag på "point of no return" for implementeringen av handlingen til det berømte filmeposet "The Terminator".

Det er verdt å merke seg at Dr. Amnon Eden er en prosjektleder hvis hovedmål er å analysere de potensielle ødeleggende effektene av AI. Uten en riktig forståelse av konsekvensene av å skape kunstig intelligens, kan utviklingen true med katastrofe, mener forskeren. For tiden er samfunnet vårt dårlig informert om debatten som pågår i det vitenskapelige samfunnet om analysen av den potensielle virkningen av AI. "I 2016 som kommer, må analysen av mulige risikoer bli betydelig mer utbredt i tankene til selskaper og myndigheter, politikere og de som er ansvarlige for å ta avgjørelser," sier Eden.

Forskeren er sikker på at science fiction, som beskriver ødeleggelse av menneskeheten av roboter, snart kan bli vårt vanlige problem, ettersom prosessen med å lage AI har kommet ut av kontroll. For eksempel bestemte Elon Musk, med støtte fra gründer Sam Altman, seg for å lage en ny ideell organisasjon på 1 milliard dollar som utvikler åpen kildekode -AI som skal overgå menneskesinnet. Samtidig rangerer den amerikanske milliardæren Elon Musk selv kunstig intelligens blant de "største truslene mot vår eksistens". Steve Wozniak, som var med på å grunnlegge Apple, sa i mars i fjor at "fremtiden ser skremmende og veldig farlig ut for mennesker … til slutt kommer dagen da datamaskiner vil tenke raskere enn vi gjør, og de vil bli kvitt sakte mennesker for å slik at selskaper kan jobbe mer effektivt."

Bilde
Bilde

Det er verdt å merke seg at mange forskere ser trusselen fra AI. Flere titalls kjente forskere, investorer og gründere, hvis aktiviteter på en eller annen måte er knyttet til utviklingen av kunstig intelligens, har signert et åpent brev som ber om mer oppmerksomhet rundt spørsmålet om sikkerhet og sosial nytte av arbeid i feltet AI. Astrofysiker Stephen Hawking og grunnlegger av Tesla og SpaceX Elon Musk er blant signaturene til dette dokumentet. Brevet, sammen med et ledsagedokument, som ble utarbeidet av Future of Life Institute (FLI), ble skrevet blant økende bekymringer for virkningen av kunstig intelligens på arbeidsmarkedet og til og med hele menneskehetens langsiktige overlevelse i et miljø hvor evnene til roboter og maskiner vil vokse nesten ukontrollert.

Forskere forstår det faktum at potensialet for AI i dag er veldig stort, så det er nødvendig å undersøke mulighetene for optimal bruk for oss fullt ut for å unngå de medfølgende fallgruvene, bemerker FLI -brevet. Det er tvingende nødvendig at menneskeskapte AI-systemer gjør akkurat det vi vil at de skal gjøre. Det er verdt å merke seg at Future of Life Institute ble grunnlagt bare i fjor av en rekke entusiaster, blant dem skaperen av Skype, Jaan Tallinn, for å "minimere risikoen for menneskeheten" og stimulere forskning med en "optimistisk visjon av fremtiden ". Først og fremst snakker vi her om risikoen som er forårsaket av utviklingen av AI og robotikk. FLI Advisory Board inkluderer Musk og Hawking, sammen med den anerkjente skuespilleren Morgan Freeman og andre kjente personer. Ifølge Elon Musk er den ukontrollerte utviklingen av kunstig intelligens potensielt farligere enn atomvåpen.

Den berømte britiske astrofysikeren Stephen Hawking i slutten av 2015 prøvde å forklare at han avviste AI -teknologier. Etter hans mening vil superintelligente maskiner over tid se på mennesker som forbruksvarer eller maur som ganske enkelt forstyrrer løsningen av oppgavene. Stephen Hawking snakket med brukere av Reddit -portalen og bemerket at han ikke tror at slike superintelligente maskiner vil være "onde skapninger" som ønsker å ødelegge hele menneskeheten på grunn av deres intellektuelle overlegenhet. Mest sannsynlig vil det være mulig å snakke om det faktum at de ganske enkelt ikke vil legge merke til menneskeheten.

Bilde
Bilde

“Mediene har konstant forvrengt ordene mine i det siste. Hovedrisikoen i utviklingen av AI er ikke ondskapen til maskinene, men deres kompetanse. Superintelligent kunstig intelligens vil gjøre en utmerket jobb, men hvis det og målene våre ikke sammenfaller, vil menneskeheten få svært alvorlige problemer, forklarer den berømte forskeren. Som et eksempel nevnte Hawking en hypotetisk situasjon der en superkraftig AI er ansvarlig for driften eller byggingen av en ny vannkraftdamm. For en slik maskin vil prioriteten være hvor mye energi det overlatte systemet vil generere, og menneskers skjebne vil ikke ha betydning. “Det er få av oss som tråkker maurtuer og tråkker på maur av sinne, men la oss forestille oss en situasjon - du styrer et kraftig vannkraftverk som genererer elektrisitet. Hvis du trenger å heve vannstanden og som et resultat av handlingene dine vil en maurtue bli oversvømmet, så vil problemene med drukning av insekter neppe plage deg. La oss ikke sette mennesker i stedet for maur,”sa forskeren.

Det andre potensielle problemet for videreutvikling av kunstig intelligens, ifølge Hawking, kan være "tyranni til maskinene" - den raske veksten i gapet i inntektsnivået mellom rike mennesker som vil være i stand til å monopolisere produksjonen intelligente maskiner og resten av verdens befolkning. Stephen Hawking foreslår å løse disse mulige problemene på følgende måte - å bremse prosessen med AI -utvikling og gå over til utviklingen av ikke "universell", men høyt spesialisert kunstig intelligens, som bare kan løse et svært begrenset problemområde.

I tillegg til Hawking og Musk, ble brevet signert av nobelprisvinneren og MIT -fysikkprofessoren Frank Wilczek, administrerende direktør for Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, samt mange spesialister fra store IT -selskaper: Google, Microsoft og IBM, samt gründere som grunnla AI -selskapene Vicarious og DeepMind. Forfatterne av brevet bemerker at de ikke har som mål å skremme publikum, men planlegger å markere både de positive og negative aspektene som er forbundet med skapelsen av kunstig intelligens. "Foreløpig er alle enige om at forskning innen AI utvikler seg jevnt, og AIs innflytelse på det moderne menneskelige samfunn vil bare øke," sier brevet, "mulighetene som åpner seg for mennesker er enorme, alt den moderne sivilisasjon har å tilby ble opprettet av intelligens. person. Vi klarer ikke å forutsi hva vi vil oppnå hvis menneskelig intelligens kan multipliseres med AI, men problemet med å bli kvitt fattigdom og sykdom er ikke lenger uendelig vanskelig.”

Bilde
Bilde

Mange utviklinger innen kunstig intelligens er allerede inkludert i det moderne livet, inkludert bilde- og talegjenkjenningssystemer, ubemannede kjøretøyer og mye mer. Observatører fra Silicon Valley anslår at mer enn 150 oppstart for tiden implementeres i dette området. Samtidig tiltrekker utviklingen på dette området seg flere og flere investeringer, og flere og flere selskaper som Google utvikler sine prosjekter basert på AI. Derfor mener forfatterne av brevet at tiden er inne for å ta økt oppmerksomhet til alle mulige konsekvenser av den observerte boomene for de økonomiske, sosiale og juridiske aspektene av menneskeliv.

Posisjonen om at kunstig intelligens kan utgjøre en fare for mennesker deles av Nick Bostrom, professor ved University of Oxford, som er kjent for sitt arbeid med det antropiske prinsippet. Denne spesialisten mener at AI har kommet til det punktet som vil bli fulgt av dets inkompatibilitet med mennesker. Nick Bostrom understreker at "i motsetning til genteknologi og klimaendringer, som regjeringene tildeler tilstrekkelige midler til å kontrollere," blir det ikke gjort noe for å kontrollere utviklingen av AI. " Ifølge professoren blir det for tiden ført en "politikk for et juridisk tomrom som må fylles" med hensyn til kunstig intelligens. Selv teknologier som selvkjørende biler, som fremstår som ufarlige og nyttige, reiser en rekke spørsmål. Bør for eksempel en slik bil utføre nødbremsing for å redde passasjerene, og hvem vil være ansvarlig i tilfelle en ulykke begått av et ubemannet kjøretøy?

Nick Bostrom diskuterte de potensielle risikoene og bemerket at "datamaskinen ikke er i stand til å bestemme fordelene og skadene for mennesker" og "ikke engang har den minste ide om menneskelig moral." I tillegg kan selvforbedringssykluser i datamaskiner oppstå med en slik hastighet at en person rett og slett ikke kan holde styr på, og nesten ingenting kan gjøres med dette heller, sier forskeren. "På utviklingsstadiet når datamaskiner kan tenke selv, kan ingen med sikkerhet forutsi om dette vil føre til kaos eller forbedre vår verden vesentlig," sa Nick Bostrom og nevnte som et eksempel en enkel, mulig løsning for en datamaskin. i land med kaldt klimaoppvarming for å forbedre folks helse og øke utholdenheten, som "kan komme til hodet for kunstig intelligens."

Bilde
Bilde

I tillegg reiser Bostrom også problemet med å kutte den menneskelige hjernen for å øke vår biointelligens. "På mange måter kan en slik prosedyre være nyttig hvis alle prosesser kontrolleres, men hva skjer hvis den implanterte brikken kan omprogrammere seg selv? Hvilke konsekvenser kan dette føre til - fremveksten av et supermenneske eller fremveksten av en datamaskin som bare vil ligne et menneske? " - spør professoren. Måten datamaskiner løser menneskelige problemer er veldig forskjellig fra vår. For eksempel, i sjakk, vurderer den menneskelige hjernen bare et smalt sett med trekk, og velger det beste alternativet fra dem. På sin side vurderer datamaskinen alle mulige trekk, og velger den beste. Samtidig forventer ikke datamaskinen å irritere eller overraske motstanderen i spillet. I motsetning til et menneske som spiller sjakk, kan en datamaskin gjøre et utspekulert og subtilt trekk bare ved et uhell. Kunstig intelligens kan beregne på den beste måten - for å eliminere feilen fra ethvert system ved å fjerne den "menneskelige faktoren" derfra, men i motsetning til et menneske er en robot ikke klar til å utføre bragder som ville redde menneskers liv.

Blant annet representerer økningen i antall smarte maskiner scenen i en ny industriell revolusjon. I sin tur betyr dette at menneskeheten i den nærmeste fremtiden vil stå overfor uunngåelige sosiale endringer. Over tid vil arbeidet bli mye av høyt kvalifiserte spesialister, siden nesten alle enkle oppgaver kan utføres av roboter og andre mekanismer. Forskere mener at kunstig intelligens "trenger et øye og et øye" slik at planeten vår ikke blir til en tegneserieplanet "Zhelezyaka", som var bebodd av roboter.

Når det gjelder mer og mer automatisering av produksjonsprosesser, har fremtiden allerede kommet. World Economic Forum (WEF) presenterte sin rapport, ifølge hvilken automatisering vil føre til at innen 2020 vil mer enn 5 millioner mennesker som jobber på forskjellige felt miste jobben. Dette er virkningen av roboter og robotsystemer på våre liv. For å kompilere rapporten brukte WEF -ansatte data om 13,5 millioner ansatte fra hele verden. Ifølge dem vil det totale behovet for mer enn 7 millioner jobber forsvinne innen 2020, mens den forventede veksten i sysselsettingen i andre næringer vil utgjøre drøyt 2 millioner arbeidsplasser.

Anbefalt: