Kunstig intelligens. Del to: utryddelse eller udødelighet?

Innholdsfortegnelse:

Kunstig intelligens. Del to: utryddelse eller udødelighet?
Kunstig intelligens. Del to: utryddelse eller udødelighet?

Video: Kunstig intelligens. Del to: utryddelse eller udødelighet?

Video: Kunstig intelligens. Del to: utryddelse eller udødelighet?
Video: What We Know About How a Russian Nuclear Strike Could Play Out | WSJ 2024, April
Anonim
Kunstig intelligens. Del to: utryddelse eller udødelighet?
Kunstig intelligens. Del to: utryddelse eller udødelighet?

Før du er den andre delen av en artikkel fra serien "Vent, hvordan alt dette kan være ekte, hvorfor blir det fortsatt ikke snakket om det på hvert hjørne." I den forrige serien ble det kjent at en eksplosjon av intelligens gradvis kryper opp til menneskene på planeten Jorden, den prøver å utvikle seg fra smalt fokusert til universell intelligens og til slutt kunstig superintelligens.

"Kanskje står vi overfor et ekstremt vanskelig problem, og det er ikke kjent hvor mye tid som er avsatt til løsningen, men menneskehetens fremtid kan avhenge av løsningen." - Nick Bostrom.

Den første delen av artikkelen begynte uskyldig nok. Vi diskuterte smal fokusert kunstig intelligens (AI, som spesialiserer seg på å løse et bestemt problem som å bestemme ruter eller spille sjakk), det er mye av det i vår verden. Deretter analyserte de hvorfor det er så vanskelig å vokse generell retningsbestemt kunstig intelligens (AGI, eller AI, som når det gjelder intellektuelle evner, kan sammenligne med et menneske for å løse ethvert problem), er så vanskelig. Vi konkluderte med at den eksponentielle teknologiske fremskritt antyder at AGI kan være rundt hjørnet ganske snart. Til slutt bestemte vi oss for at så snart maskiner nådde menneskelig intelligens, kunne følgende skje med en gang:

Bilde
Bilde
Bilde
Bilde
Bilde
Bilde
Bilde
Bilde

Som vanlig ser vi på skjermen, uten å tro at kunstig superintelligens (ISI, som er mye smartere enn noen person) kan dukke opp i løpet av livet, og velge følelser som best vil gjenspeile vår mening om dette spørsmålet.

Før vi dykker ned i detaljene til ISI, la oss minne oss selv på hva det betyr for en maskin å være superintelligent.

Hovedforskjellen ligger mellom rask superintelligens og kvalitets superintelligens. Ofte er det første du tenker på når du tenker på en superintelligent datamaskin at den kan tenke mye raskere enn en person - millioner ganger raskere, og på fem minutter vil den forstå hva det ville ta en person ti år. ("Jeg kjenner kung fu!")

Det høres imponerende ut, og ISI burde virkelig tenke raskere enn noen av menneskene - men det viktigste skillet er kvaliteten på intelligensen, som er helt annerledes. Mennesker er mye smartere enn apekatter, ikke fordi de tenker raskere, men fordi hjernen inneholder en rekke geniale kognitive moduler som utfører komplekse språklige fremstillinger, langsiktig planlegging, abstrakt tenkning, som apekatter ikke er i stand til. Hvis du akselererer hjernen til en ape tusen ganger, blir den ikke smartere enn oss - selv etter ti år vil den ikke være i stand til å montere en konstruktør i henhold til instruksjonene, noe som ville ta en person maksimalt et par timer. Det er ting som en ape aldri vil lære, uansett hvor mange timer den bruker eller hvor raskt hjernen fungerer.

I tillegg vet ikke apen hvor menneskelig, fordi hjernen rett og slett ikke er i stand til å innse eksistensen av andre verdener - apen vet kanskje hva en person er og hva en skyskraper er, men vil aldri forstå at en skyskraper ble bygget av mennesker. I hennes verden tilhører alt naturen, og makaken kan ikke bare bygge en skyskraper, men forstår også at hvem som helst kan bygge den i det hele tatt. Og dette er resultatet av en liten forskjell i kvaliteten på intelligensen.

I den generelle intelligensordningen som vi snakker om, eller ganske enkelt etter standardene for biologiske vesener, er forskjellen i kvaliteten på intelligensen mellom mennesker og aper liten. I den forrige artikkelen plasserte vi biologiske kognitive evner på en stige:

Bilde
Bilde

For å forstå hvor alvorlig en superintelligent maskin vil være, plasser den to hakk høyere enn personen på den stigen. Denne maskinen er kanskje bare litt superintelligent, men dens overlegenhet over våre kognitive evner vil være den samme som vår - over apene. Og akkurat som en sjimpanse aldri vil forstå at en skyskraper kan bygges, kan vi aldri forstå hva en maskin et par trinn høyere vil forstå, selv om maskinen prøver å forklare det for oss. Men dette er bare et par trinn. Den smartere maskinen vil se maur i oss - den vil lære oss de enkleste tingene fra sin posisjon i mange år, og disse forsøkene vil være helt håpløse.

Den type superintelligens vi skal snakke om i dag ligger langt utenfor denne stigen. Dette er en eksplosjon av intelligens - når jo smartere en bil blir, desto raskere kan den øke sin egen intelligens, gradvis øke momentum. Det kan ta år før en maskin som denne overgår sjimpanser i intelligens, men kanskje et par timer for å overgå oss med et par hakk. Fra det øyeblikket kan bilen allerede hoppe over fire trinn hvert sekund. Det er derfor vi bør forstå at veldig snart etter at den første nyheten om at maskinen har nådd nivået av menneskelig intelligens dukker opp, kan vi møte realiteten til sameksistens på jorden med noe som vil være mye høyere enn oss på denne stigen (eller kanskje, og millioner ganger høyere):

Bilde
Bilde

Og siden vi har fastslått at det er helt ubrukelig å prøve å forstå kraften til en maskin som bare er to trinn over oss, la oss definere en gang for alle at det ikke er noen måte å forstå hva ISI vil gjøre og hva konsekvensene av dette vil være for oss. Alle som hevder det motsatte, forstår ganske enkelt ikke hva superintelligens betyr.

Evolusjonen har sakte og gradvis utviklet den biologiske hjernen over hundrevis av millioner av år, og hvis mennesker lager en superintelligent maskin, vil vi på en måte overskride evolusjonen. Eller det vil være en del av evolusjonen - kanskje fungerer evolusjonen på en slik måte at intelligens utvikler seg gradvis til den når et vendepunkt som varsler en ny fremtid for alle levende ting:

Bilde
Bilde

Av grunner vi skal diskutere senere, tror en stor del av det vitenskapelige samfunnet at spørsmålet ikke er om vi kommer til dette vippepunktet, men når.

Hvor ender vi etter dette?

Jeg tror ingen i denne verden, verken jeg eller du, vil kunne si hva som vil skje når vi når tipping point. Oxford -filosof og ledende AI -teoretiker Nick Bostrom mener at vi kan koke alle mulige utfall i to brede kategorier.

Først, når vi ser på historien, vet vi følgende om livet: arter dukker opp, eksisterer i en viss tid, og faller uunngåelig av balansen og dør ut.

Bilde
Bilde

"Alle arter dør ut" har vært en like pålitelig regel i historien som "alle mennesker dør en dag." 99,9% av artene har falt fra en logg av liv, og det er helt klart at hvis en art henger for lenge på denne tømmerstokken, vil et vindkast eller en plutselig asteroide snu stokken. Bostrom kaller utryddelse tilstanden til en tiltrekker - et sted hvor alle arter balanserer for ikke å falle der ingen arter har kommet tilbake ennå.

Og selv om de fleste forskere innrømmer at ISI vil ha evnen til å dømme mennesker til utryddelse, tror mange også at bruk av ISIs evner vil tillate enkeltpersoner (og arten som helhet) å oppnå tiltrekkerens andre tilstand - artsudødelighet. Bostrom mener at udødelighet av en art er like mye en tiltrekker som utryddelsen av en art, det vil si at hvis vi kommer til dette, vil vi være dømt til evig eksistens. Således, selv om alle arter til nå falt fra denne pinnen i utryddelsens malstrøm, tror Bostrom at stokken har to sider, og det så ganske enkelt ikke ut på Jorden en slik intelligens som ville forstå hvordan man skulle falle til den andre siden.

Bilde
Bilde

Hvis Bostrom og andre har rett, og etter all informasjonen som er tilgjengelig for oss å dømme, kan det godt være at vi må akseptere to veldig sjokkerende fakta:

Fremveksten av ISI for første gang i historien vil åpne for at en art kan oppnå udødelighet og falle ut av den fatale utryddelsessyklusen.

Fremveksten av ISI vil ha en så ufattelig stor innvirkning at det mest sannsynlig vil presse menneskeheten av denne loggen i en eller annen retning.

Det er mulig at når evolusjonen når et slikt vendepunkt, setter den alltid en stopper for forholdet mellom mennesker og livets strøm og skaper en ny verden, med eller uten mennesker.

Dette fører til et interessant spørsmål som bare en bummer ikke ville stille: når kommer vi til dette vippepunktet og hvor vil det bringe oss? Ingen i verden vet svaret på dette dobbelte spørsmålet, men mange smarte mennesker har prøvd å finne ut av det i flere tiår. For resten av artikkelen finner vi ut hvor de kom fra.

* * *

La oss starte med den første delen av dette spørsmålet: når skal vi nå vippepunktet? Med andre ord: hvor lang tid er det igjen til den første maskinen når superintelligens?

Meninger varierer fra sak til sak. Mange, inkludert professor Vernor Vinge, forskeren Ben Herzel, grunnleggeren av Sun Microsystems Bill Joy, futuristen Ray Kurzweil, var enige med maskinlæringsekspert Jeremy Howard da han presenterte følgende graf på TED Talk:

Bilde
Bilde

Disse menneskene deler oppfatningen om at ISI kommer snart - denne eksponentielle veksten, som virker sakte for oss i dag, vil bokstavelig talt eksplodere i løpet av de neste tiårene.

Andre, som Microsofts medgründer Paul Allen, forskningspsykolog Gary Marcus, dataekspert Ernest Davis og teknisk gründer Mitch Kapor, tror at tenkere som Kurzweil seriøst undervurderer størrelsen på problemet og tror vi ikke er nær så nær en vendepunkt.

Kurzweils leir argumenterer for at den eneste undervurderingen som skjer er ignorering av eksponensiell vekst, og tvilerne kan sammenlignes med de som så på det sakte blomstrende internett i 1985 og hevdet at det ikke ville ha noen innvirkning på verden i nær fremtid.

Tvilere kan avverge at det er vanskeligere for fremskritt å ta hvert påfølgende trinn når det gjelder den eksponentielle utviklingen av intelligens, noe som nøytraliserer den typiske eksponentielle naturen til teknologisk fremgang. Etc.

Den tredje leiren, der Nick Bostrom er, er uenig i enten den første eller den andre, og hevder at a) alt dette absolutt kan skje i nær fremtid; og b) det er ingen garanti for at dette vil skje i det hele tatt eller at det vil ta lengre tid.

Andre, som filosofen Hubert Dreyfus, tror at alle tre gruppene naivt tror at det i det hele tatt vil være et vendepunkt, og at vi mest sannsynlig aldri kommer til ISI.

Hva skjer når vi setter sammen alle disse meningene?

I 2013 gjennomførte Bostrom en undersøkelse der han intervjuet hundrevis av AI -eksperter på en serie konferanser om følgende tema: "Hva vil være dine spådommer for å oppnå AGI på menneskelig nivå?" og ba oss om å nevne et optimistisk år (der vi vil ha AGI med 10 prosent sjanse), en realistisk forutsetning (et år hvor vi vil ha AGI med 50 prosent sannsynlighet) og en sikker forutsetning (det tidligste året hvor AGI vil vises siden 90 -prosent sannsynlighet). Her er resultatene:

* Gjennomsnittlig optimistisk år (10%): 2022

* Gjennomsnittlig realistisk år (50%): 2040

* Gjennomsnittlig pessimistisk år (90%): 2075

Gjennomsnittlige respondenter tror at om 25 år vil vi ha AGI i stedet for ikke. En 90 prosent sjanse for at AGI skal skje innen 2075 betyr at hvis du fortsatt er ganske ung nå, vil det mest sannsynlig skje i løpet av livet ditt.

En egen studie nylig utført av James Barratt (forfatter av den anerkjente og veldig gode boken Our Latest Invention, utdrag fra Jeg presenterte lesernes oppmerksomhet Hi-News.ru) og Ben Hertzel på AGI-konferansen, den årlige AGI-konferansen, viste ganske enkelt folks meninger om året vi kommer til AGI: 2030, 2050, 2100, senere eller aldri. Her er resultatene:

* 2030: 42% av respondentene

* 2050: 25%

* 2100: 20%

Etter 2100: 10%

Aldri: 2%

Ligner på Bostroms resultater. I undersøkelsen til Barratt tror mer enn to tredjedeler av de spurte at AGI vil være her innen 2050, og mindre enn halvparten tror AGI vil dukke opp de neste 15 årene. Det er også påfallende at bare 2% av respondentene i prinsippet ikke ser AGI i fremtiden.

Men AGI er ikke et vippepunkt som ISI. Når skal vi ifølge eksperter ha ISI?

Bostrom spurte ekspertene når vi kommer til ASI: a) to år etter at vi nådde AGI (det vil si nesten umiddelbart på grunn av en eksplosjon av intelligens); b) etter 30 år. Resultater?

Den gjennomsnittlige oppfatningen er at den raske overgangen fra AGI til ISI vil skje med 10% sannsynlighet, men om 30 år eller mindre vil den skje med 75% sannsynlighet.

Fra disse dataene vet vi ikke hvilken dato respondentene vil kalle 50 prosent sjanse for ASI, men la oss anta at det er 20 år basert på de to svarene ovenfor. Det vil si at verdens ledende AI -eksperter tror at vendepunktet kommer i 2060 (AGI vil dukke opp i 2040 + det vil ta 20 år for overgangen fra AGI til ISI).

Bilde
Bilde

Selvfølgelig er alle de ovennevnte statistikkene spekulative og representerer ganske enkelt ekspertenes mening om kunstig intelligens, men de indikerer også at de fleste interesserte er enige om at innen 2060 vil AI sannsynligvis komme. På bare 45 år.

La oss gå videre til det andre spørsmålet. Når vi kommer til tipping point, hvilken side av det fatale valget vil avgjøre oss?

Superintelligens vil ha den kraftigste kraften, og det kritiske spørsmålet for oss vil være følgende:

Hvem eller hva vil kontrollere denne makten og hva vil være motivasjonen deres?

Svaret på dette spørsmålet vil avhenge av om ISI får en utrolig kraftig utvikling, en umåtelig skremmende utvikling eller noe i mellom.

Ekspertmiljøet prøver selvfølgelig også å svare på disse spørsmålene. Bostroms undersøkelse analyserte sannsynligheten for mulige konsekvenser av AGIs innvirkning på menneskeheten, og det viste seg at med en 52 prosent sjanse vil alt gå veldig bra og med en 31 prosent sjanse vil alt gå enten dårlig eller ekstremt dårlig. Undersøkelsen vedlagt på slutten av forrige del av dette emnet, gjennomført blant dere, kjære lesere av Hi-News, viste omtrent de samme resultatene. For et relativt nøytralt utfall var sannsynligheten bare 17%. Med andre ord tror vi alle at AGI kommer til å bli en stor avtale. Det er også verdt å merke seg at denne undersøkelsen angår fremveksten av AGI - i tilfelle av ISI vil andelen nøytralitet være lavere.

Før vi går dypere inn i å tenke på de gode og dårlige sidene av spørsmålet, la oss kombinere begge sider av spørsmålet - "når vil dette skje?" og "er dette bra eller dårlig?" i et bord som dekker synspunktene til de fleste eksperter.

Bilde
Bilde

Vi snakker om hovedleiren om et minutt, men bestemmer først posisjonen din. Sjansen er stor for at du er på samme sted som jeg var før jeg begynte å jobbe med dette emnet. Det er flere grunner til at folk ikke tenker på dette emnet i det hele tatt:

* Som nevnt i første del har filmene forvirret mennesker og fakta alvorlig, og presenterte urealistiske scenarier med kunstig intelligens, noe som førte til at vi ikke burde ta AI på alvor i det hele tatt. James Barratt liknet denne situasjonen med å bli utstedt av Centers for Disease Control (CDC) med en alvorlig advarsel om vampyrer i fremtiden.

* På grunn av såkalte kognitive skjevheter er det veldig vanskelig for oss å tro at noe er ekte før vi har bevis. Man kan trygt forestille seg datavitenskapsmenn fra 1988 som regelmessig diskuterer de vidtrekkende konsekvensene av Internett og hva det kan bli, men folk trodde neppe at det ville forandre livet deres før det faktisk skjedde. Det er bare det at datamaskiner ikke visste hvordan de skulle gjøre dette i 1988, og folk så bare på datamaskinene sine og tenkte: "Virkelig? Er det dette som vil forandre verden? " Fantasien deres var begrenset av det de hadde lært av personlig erfaring, de visste hva en datamaskin var, og det var vanskelig å forestille seg hva en datamaskin ville være i stand til i fremtiden. Det samme skjer nå med AI. Vi hørte at det vil bli en alvorlig ting, men siden vi ennå ikke har møtt det ansikt til ansikt, og generelt sett observerer vi ganske svake manifestasjoner av AI i vår moderne verden, er det ganske vanskelig for oss å tro at det radikalt vil endre livet vårt. Det er mot disse fordommer at mange eksperter fra alle leire, så vel som interesserte mennesker, er imot å prøve å fange oppmerksomheten vår gjennom støyen fra daglig kollektiv egosentrisme.

* Selv om vi trodde på alt dette - hvor mange ganger i dag har du tenkt på at du vil tilbringe resten av evigheten i ingenting? Litt, enig. Selv om dette faktum er mye viktigere enn noe du gjør dag ut og dag inn. Dette er fordi hjernen vår vanligvis er fokusert på små, dagligdagse ting, uansett hvor villfaret den langsiktige situasjonen vi befinner oss i. Det er bare det at vi er skapt.

Et av målene med denne artikkelen er å få deg ut av leiren kalt "Jeg liker å tenke på andre ting" og sette deg i ekspertleiren, selv om du bare står ved krysset mellom de to stiplede linjene på torget ovenfor, helt usikker.

I løpet av forskningen blir det åpenbart at de fleste menneskers meninger raskt driver mot "hovedleiren", og tre fjerdedeler av ekspertene faller inn i to underleirer i hovedleiren.

Bilde
Bilde

Vi vil besøke begge disse leirene i sin helhet. La oss starte med moro.

Hvorfor kan fremtiden være vår største drøm?

Når vi utforsker AI -verdenen, finner vi overraskende mange mennesker i komfortsonen vår. Folk på torget øverst til høyre summer av spenning. De tror at vi vil falle på den gode siden av stokken, og de tror også at vi uunngåelig kommer til dette. For dem er fremtiden alt det beste som bare kan drømmes om.

Poenget som skiller disse menneskene fra andre tenkere er ikke at de vil være på den lykkelige siden - men at de er sikre på at det er hun som venter på oss.

Denne tilliten kommer ut av kontrovers. Kritikere mener det kommer fra en blendende spenning som overskygger potensielle negative sider. Men talsmennene sier at dystre spådommer alltid er naive; teknologien fortsetter og vil alltid hjelpe oss mer enn å skade oss.

Du står fritt til å velge hvilken som helst av disse meningene, men legg til side skepsisen og ta en god titt på den glade siden av balansen, og prøv å akseptere at alt du leser om allerede kan ha skjedd. Hvis du viste jeger -samlere vår verden av komfort, teknologi og endeløs overflod, ville det virke for dem som en magisk fiksjon - og vi oppfører oss ganske beskjedent og kan ikke innrømme at den samme uforståelige transformasjonen venter oss i fremtiden.

Nick Bostrom beskriver tre veier som et superintelligent AI -system kan gå:

* Et orakel som kan svare på ethvert eksakt spørsmål, inkludert vanskelige spørsmål som mennesker ikke kan svare på - for eksempel "hvordan gjøre en bilmotor mer effektiv?" Google er en primitiv type "orakel".

* En geni som vil utføre enhver kommando på høyt nivå - ved å bruke molekylær assembler for å lage en ny, mer effektiv versjon av en bilmotor - og venter på neste kommando.

* En suveren som vil ha bred tilgang og evnen til å fungere fritt i verden, ta sine egne beslutninger og forbedre prosessen. Han vil finne opp en billigere, raskere og sikrere måte for privat transport enn en bil.

Disse spørsmålene og oppgavene, som virker vanskelige for oss, vil virke for det superintelligente systemet som om noen ba om å forbedre situasjonen "blyanten min falt av bordet", der du bare ville plukke den opp og sette den tilbake.

Eliezer Yudkowski, en amerikansk spesialist i kunstig intelligens, uttrykte det godt:

"Det er ingen harde problemer, bare problemer som er harde for et visst nivå av intelligens. Gå et skritt høyere (når det gjelder intelligens), og noen problemer vil plutselig flytte fra kategorien "umulig" til leiren av "åpenbare". Ett trinn høyere - og de vil alle bli åpenbare."

Det er mange utålmodige forskere, oppfinnere og gründere som har valgt en sone med trygg komfort fra bordet vårt, men vi trenger bare en guide for å gå for de beste i denne beste verdenen.

Ray Kurzweil er tvetydig. Noen avguder ideene hans, noen forakter ham. Noen blir i midten - Douglas Hofstadter, som diskuterer ideene i bøkene til Kurzweil, bemerket veltalende at "det er som om du tok mye god mat og litt hundestikk, og deretter blandet alt på en slik måte at det er umulig å forstå hva som er bra og hva som er dårlig."

Enten du liker ideene hans eller ikke, er det umulig å gå forbi dem uten en skygge av interesse. Han begynte å finne opp ting som tenåring, og i årene etter oppfant han flere viktige ting, inkludert den første flatbed-skanneren, den første skanneren som konverterte tekst til tale, den velkjente Kurzweil-musikksynteseren (det første virkelige elektriske pianoet), og den første kommersielt vellykkede talegjenkjenningen. Han er også forfatter av fem oppsiktsvekkende bøker. Kurzweil er verdsatt for sine vågale spådommer, og hans merittliste er ganske bra - på slutten av 80 -tallet, da Internett fortsatt var i sin spede begynnelse, spådde han at nettet på 2000 -tallet ville bli et globalt fenomen. Wall Street Journal kalte Kurzweil et "rastløst geni", Forbes en "global tankemaskin", Inc. Magazine - "Edisons rettmessige arving", Bill Gates - "den beste av dem som spår fremtiden for kunstig intelligens." I 2012 inviterte Google-grunnlegger Larry Page Kurzweil til stillingen som CTO. I 2011 var han med på å grunnlegge Singularity University, som er vert for NASA og delvis er sponset av Google.

Biografien hans betyr noe. Når Kurzweil snakker om framtidsvisjonen sin, høres det ut som en gal galhet, men det som er helt gal med det er at han er langt fra gal - han er utrolig smart, utdannet og fornuftig person. Du tror kanskje at han tar feil i sine spådommer, men han er ikke en dåre. Kurzweils spådommer deles av mange komfortsoneeksperter, Peter Diamandis og Ben Herzel. Det er dette han tror vil skje.

Kronologi

Kurzweil tror at datamaskiner vil nå nivået på generell kunstig intelligens (AGI) innen 2029, og innen 2045 vil vi ikke bare ha kunstig superintelligens, men også en helt ny verden - tiden for den såkalte singulariteten. Dens kronologi for AI anses fortsatt som skandaløst overdrevet, men i løpet av de siste 15 årene har den raske utviklingen av høyt fokuserte kunstige intelligenssystemer (AI) tvunget mange eksperter til å gå til side med Kurzweil. Hans spådommer er fortsatt mer ambisiøse enn de i Bostroms undersøkelse (AGI innen 2040, ISI innen 2060), men ikke så mye.

I følge Kurzweil drives singulariteten i 2045 av tre samtidige revolusjoner innen bioteknologi, nanoteknologi og, enda viktigere, AI. Men før vi fortsetter - og nanoteknologi følger kunstig intelligens nøye - la oss ta et øyeblikk til nanoteknologi.

Bilde
Bilde

Noen få ord om nanoteknologi

Vi kaller vanligvis nanoteknologiteknologier som omhandler manipulering av materie i området 1-100 nanometer. Et nanometer er en milliarddel av en meter, eller en milliondel av en millimeter; innenfor området 1-100 nanometer, virus (100 nm i diameter), DNA (10 nm i bredden), hemoglobinmolekyler (5 nm), glukose (1 nm) og andre kan innkvarteres. Hvis nanoteknologi noen gang blir gjenstand for oss, vil neste trinn være å manipulere individuelle atomer som er mindre enn en størrelsesorden (~, 1 nm).

For å forstå hvor mennesker får problemer med å prøve å manipulere materie i en slik skala, la oss hoppe til en større skala. Den internasjonale romstasjonen ligger 481 kilometer over jorden. Hvis mennesker var kjemper og slo ISS med hodet, ville de være 250 000 ganger større enn de er nå. Hvis du forstørrer alt fra 1 til 100 nanometer 250 000 ganger, får du 2,5 centimeter. Nanoteknologi tilsvarer et menneske som går i bane rundt ISS og prøver å manipulere ting på størrelse med et sandkorn eller et øyeeple. For å komme til neste nivå - kontrollen over individuelle atomer - må giganten nøye plassere objekter med en diameter på 1/40 millimeter. Vanlige mennesker trenger et mikroskop for å se dem.

For første gang snakket Richard Feynman om nanoteknologi i 1959. Så sa han: “Fysikkens prinsipper taler så langt jeg kan si ikke mot muligheten for å kontrollere ting atom for atom. I prinsippet kan en fysiker syntetisere ethvert kjemikalie som en kjemiker har skrevet ned. Hvordan? Ved å plassere atomer der kjemikeren sier at han skal få stoffet. Dette er hele enkelheten. Hvis du vet hvordan du flytter individuelle molekyler eller atomer, kan du gjøre nesten alt.

Nanoteknologi ble et seriøst vitenskapelig felt i 1986 da ingeniør Eric Drexler presenterte grunnlaget i sin sædvanlige bok Machines of Creation, men Drexler mener selv at de som ønsker å lære mer om moderne ideer innen nanoteknologi bør lese boken hans fra 2013. Full overflod (Radical Overflod).

Noen få ord om "grey goo"

Vi går dypere inn i nanoteknologi. Spesielt er temaet "grå goo" et av de ikke veldig hyggelige temaene innen nanoteknologi, som ikke kan ignoreres. Eldre versjoner av teorien om nanoteknologi foreslo en nano-monteringsmetode som involverer opprettelse av billioner av små nanoroboter som ville fungere sammen for å skape noe. En måte å lage billioner av nanoroboter på er å lage en som kan replikere seg selv, det vil si fra en til to, fra to til fire, og så videre. Flere billioner nanoroboter vil dukke opp på en dag. Dette er kraften i eksponentiell vekst. Morsomt, ikke sant?

Det er morsomt, men akkurat til det leder til apokalypsen. Problemet er at kraften i eksponentiell vekst, noe som gjør det til en ganske praktisk måte å raskt lage en billion nanoboter, gjør selvreplikasjon til en skummel ting i det lange løp. Hva om systemet krasjer, og i stedet for å stoppe replikering for et par billioner, fortsetter nanoboter å avle? Hva om hele denne prosessen er avhengig av karbon? Jordens biomasse inneholder 10 ^ 45 karbonatomer. En nanobot bør være i størrelsesorden 10 ^ 6 karbonatomer, så 10 ^ 39 nanoboter vil sluke alt liv på jorden i bare 130 replikasjoner. Et hav av nanobotter ("grå goo") vil oversvømme planeten. Forskere tror at nanobotter kan replikere på 100 sekunder, noe som betyr at en enkel feil kan drepe alt liv på jorden på bare 3,5 timer.

Det kan være enda verre - hvis terrorister og ugunstige spesialister når hendene på nanoteknologi. De kunne lage flere billioner nanoboter og programmere dem til å stille seg rundt verden i løpet av et par uker. Så, ved å trykke på en knapp, på bare 90 minutter vil de spise alt i det hele tatt, uten sjanse.

Selv om denne skrekkhistorien har blitt mye diskutert i årevis, er den gode nyheten at den bare er en skrekkhistorie. Eric Drexler, som skapte begrepet "grey goo", sa nylig følgende: "Folk elsker skrekkhistorier, og dette er en av zombiehorrorhistoriene. Denne ideen i seg selv spiser allerede hjerner."

Når vi kommer til bunns i nanoteknologi, kan vi bruke den til å lage tekniske enheter, klær, mat, bioprodukter - blodceller, virus- og kreftkjempere, muskelvev og så videre - uansett. Og i en verden som bruker nanoteknologi, vil kostnaden for et materiale ikke lenger være knyttet til mangel eller kompleksitet i produksjonsprosessen, men snarere til kompleksiteten i atomstrukturen. I nanoteknologiens verden kan en diamant være billigere enn et viskelær.

Vi er ikke engang i nærheten der ennå. Og det er ikke helt klart om vi undervurderer eller overvurderer kompleksiteten til denne veien. Alt går imidlertid til det punktet at nanoteknologi ikke er langt unna. Kurzweil antar at vi vil ha dem innen 2020 -årene. Verdensstatene vet at nanoteknologi kan love en stor fremtid, og derfor investerer de mange milliarder i dem.

Tenk deg hvilke muligheter en superintelligent datamaskin ville få hvis den kom til en pålitelig nanoskala -montør. Men nanoteknologi er ideen vår, og vi prøver å sykle på den, det er vanskelig for oss. Hva om de bare er en spøk for ISI -systemet, og ISI selv kommer med teknologier som vil være mange ganger kraftigere enn noe vi i prinsippet kan anta? Vi ble enige: ingen kan forestille seg hva kunstig superintelligens vil være i stand til? Det antas at hjernen vår ikke klarer å forutsi selv minimum av hva som vil skje.

Hva kan AI gjøre for oss?

Bilde
Bilde

Bevæpnet med superintelligens og all teknologien superintelligence kan skape, vil ISI trolig kunne løse alle menneskehetens problemer. Global oppvarming? ISI vil først stoppe karbonutslippene ved å finne en rekke effektive måter å generere energi som ikke er relatert til fossilt brensel. Deretter vil han finne en effektiv, innovativ måte å fjerne overflødig CO2 fra atmosfæren. Kreft og andre sykdommer? Ikke noe problem - helse og medisin vil forandre seg på måter som er utenkelige. Verdenssult? ISI vil bruke nanoteknologi for å lage kjøtt som er identisk med naturlig, fra bunnen av, ekte kjøtt.

Nanoteknologi vil kunne gjøre en haug søppel til et fat med ferskt kjøtt eller annen mat (ikke nødvendigvis i sin vanlige form - tenk deg en gigantisk epleterning) og distribuere all denne maten rundt om i verden ved hjelp av avanserte transportsystemer. Selvfølgelig vil dette være flott for dyr som ikke lenger trenger å dø for mat. ISI kan også gjøre mange andre ting, som å bevare truede arter, eller til og med bringe tilbake utdødde fra lagret DNA. ISI kan løse våre vanskeligste makroøkonomiske problemer - våre vanskeligste økonomiske debatter, etiske og filosofiske spørsmål, global handel - alt dette vil være smertefullt åpenbart for ISI.

Men det er noe helt spesielt som ISI kan gjøre for oss. Fristende og fristende som ville forandre alt: ISI kan hjelpe oss med å takle dødelighet … Etter hvert som du forstår evnene til AI, vil du kanskje revurdere alle ideene dine om døden.

Det var ingen grunn for evolusjon til å forlenge levetiden vår lenger enn den gjør nå. Hvis vi lever lenge nok til å føde og oppdra barn til et punkt der de kan klare seg selv, er evolusjon nok. Fra et evolusjonært synspunkt er 30+ år nok for utvikling, og det er ingen grunn for mutasjoner å forlenge livet og redusere verdien av naturlig utvalg. William Butler Yates kalte arten vår "en sjel knyttet til et døende dyr." Ikke mye moro.

Og siden vi alle dør en dag, lever vi med tanken på at døden er uunngåelig. Vi tenker på aldring over tid - fortsetter å gå videre og ikke være i stand til å stoppe denne prosessen. Men tanken på døden er forræderisk: fanget av den glemmer vi å leve. Richard Feynman skrev:

"Det er en fantastisk ting i biologi: det er ingenting i denne vitenskapen som kan snakke om nødvendigheten av død. Hvis vi ønsker å lage en evigvarende bevegelsesmaskin, innser vi at vi har funnet nok lover i fysikken som enten indikerer umuligheten av dette, eller at lovene er feil. Men det er ingenting i biologien som indikerer dødens uunngåelighet. Dette får meg til å tro at det ikke er så uunngåelig, og det er bare et spørsmål om tid før biologer oppdager årsaken til dette problemet, denne forferdelige universelle sykdommen, det vil bli kurert."

Faktum er at aldring ikke har noe med tid å gjøre. Aldring er når kroppens fysiske materialer slites ut. Bildeler nedbrytes også - men er aldring uunngåelig? Hvis du reparerer bilen etter hvert som delene slites ut, vil den vare evig. Menneskekroppen er ikke annerledes - bare mer kompleks.

Kurzweil snakker om intelligente, Wi-Fi-tilkoblede nanobotter i blodet som kan utføre utallige oppgaver for menneskers helse, inkludert regelmessig reparasjon eller utskifting av utslitte celler hvor som helst i kroppen. Å forbedre denne prosessen (eller finne et alternativ foreslått av en smartere ASI) vil ikke bare holde kroppen frisk, det kan reversere aldring. Forskjellen mellom kroppen til en 60-åring og en 30-åring er en håndfull fysiske problemer som kan korrigeres med riktig teknologi. ISI kan bygge en bil som en person ville gå inn i når de er 60 år og forlate når de er 30 år gamle.

Selv en forringet hjerne kan fornyes. ISI ville sikkert vite hvordan man gjør dette uten å påvirke hjernedataene (personlighet, minner, etc.). En 90 år gammel mann som lider av fullstendig nedbrytning av hjernen kan gjennomgå omskolering, fornye og gå tilbake til begynnelsen av livet. Det kan virke absurd, men kroppen er en håndfull atomer, og ISI kan sikkert enkelt manipulere dem, alle atomstrukturer. Det er ikke så absurd.

Kurzweil tror også at kunstige materialer vil integreres mer og mer i kroppen etter hvert som tiden går. For det første kunne organene erstattes med superavanserte maskinversjoner som ville vare evig og aldri mislykkes. Deretter kunne vi gjøre en fullstendig redesign av kroppen, erstatte røde blodlegemer med perfekte nanobotter som beveger seg alene, og eliminere behovet for et hjerte helt. Vi kan også forbedre våre kognitive evner, begynne å tenke milliarder ganger raskere og få tilgang til all informasjon som er tilgjengelig for menneskeheten gjennom skyen.

Mulighetene for å forstå nye horisonter ville være virkelig uendelige. Folk har klart å gi sex et nytt formål, de gjør det for glede, ikke bare for reproduksjon. Kurzweil tror vi kan gjøre det samme med mat. Nanoboter kan levere ideell ernæring direkte til cellene i kroppen, slik at usunne stoffer kan passere gjennom kroppen. Nanoteknologi -teoretikeren Robert Freitas har allerede utviklet en erstatning for blodceller, som, når den er implementert i menneskekroppen, kan tillate ham ikke å puste i 15 minutter - og dette ble oppfunnet av en person. Tenk når ISI får makt.

Tross alt tror Kurzweil at mennesker vil nå det punktet hvor de blir helt kunstige; tiden da vi ser på biologiske materialer og tenker på hvor primitive de var; tid da vi vil lese om de tidlige stadiene av menneskets historie, overrasket over hvordan bakterier, ulykker, sykdommer eller bare alderdom kan drepe en person mot hans vilje. Til syvende og sist vil mennesker beseire sin egen biologi og bli evig - dette er veien til den lykkelige siden av balansen som vi har snakket om helt fra begynnelsen. Og folk som tror på dette er også sikre på at en slik fremtid venter oss veldig, veldig snart.

Du vil sannsynligvis ikke bli overrasket over at Kurzweils ideer har trukket sterk kritikk. Dens særegenhet i 2045 og det påfølgende evige livet for mennesker ble kalt "oppstigningen av nerder" eller "intelligent skapelse av mennesker med en IQ på 140". Andre satte spørsmålstegn ved den optimistiske tidsrammen, forståelsen av menneskekroppen og hjernen, minnet om Moores lov, som ikke har forsvunnet ennå. For hver ekspert som tror på Kurzweils ideer, er det tre som tror han tar feil.

Men det mest interessante med dette er at de fleste av ekspertene som er uenige med ham, i det hele tatt ikke sier at dette er umulig. I stedet for å si "bullshit, this will never happen", sier de noe sånt som "alt dette vil skje hvis vi kommer til ISI, men dette er problemet." Bostrom, en av de anerkjente AI -ekspertene som advarer om AI -farer, innrømmer også:

“Det er knapt noe problem igjen som superintelligens ikke kan løse, eller til og med hjelpe oss med å løse. Sykdom, fattigdom, miljøødeleggelse, lidelse av alle slag - all denne superintelligensen ved hjelp av nanoteknologi kan løse på et øyeblikk. Superintelligens kan også gi oss ubegrenset levetid ved å stoppe og reversere aldringsprosessen ved hjelp av nanomedisin eller muligheten til å laste oss opp til nettskyen. Superintelligens kan også skape muligheter for endeløse økninger i intellektuelle og emosjonelle evner; han kan hjelpe oss med å skape en verden der vi vil leve i glede og forståelse, nærme oss våre idealer og regelmessig få drømmene våre til å gå i oppfyllelse."

Dette er imidlertid et sitat fra en av Kurzweils kritikere, som innrømmer at alt dette er mulig hvis vi kan lage et sikkert ASI. Kurzweil definerte ganske enkelt hva kunstig superintelligens skal bli, hvis det er mulig. Og hvis han er en god gud.

Den mest åpenbare kritikken av talsmenn for komfortsonen er at de kan bli fordømt feil når de vurderer fremtiden til ISI. I sin bok The Singularity viet Kurzweil 20 sider av 700 potensielle ISI -trusler. Spørsmålet er ikke når vi kommer til ISI, spørsmålet er hva som vil være dens motivasjon. Kurzweil svarer på dette spørsmålet med forsiktighet: “ISI stammer fra mange forskjellige anstrengelser og vil bli dypt integrert i infrastrukturen i vår sivilisasjon. Faktisk vil det være tett innebygd i kroppen og hjernen vår. Han vil gjenspeile våre verdier fordi han vil være ett med oss."

Men hvis svaret er, hvorfor er så mange smarte mennesker i denne verden bekymret for fremtiden for kunstig intelligens? Hvorfor sier Stephen Hawking at utviklingen av ISI "kan bety slutten på menneskeheten"? Bill Gates sier at han "ikke forstår folk som ikke bry seg" om det. Elon Musk frykter at vi "innkaller en demon". Hvorfor anser mange eksperter ISI for å være den største trusselen mot menneskeheten?

Vi snakker om dette neste gang.

Anbefalt: