Kunstig intelligens. Del to: udryddelse eller udødelighed?

Indholdsfortegnelse:

Kunstig intelligens. Del to: udryddelse eller udødelighed?
Kunstig intelligens. Del to: udryddelse eller udødelighed?

Video: Kunstig intelligens. Del to: udryddelse eller udødelighed?

Video: Kunstig intelligens. Del to: udryddelse eller udødelighed?
Video: Den russiske revolusjonen - 1/2 - Oversikt 2024, December
Anonim
Kunstig intelligens. Del to: udryddelse eller udødelighed?
Kunstig intelligens. Del to: udryddelse eller udødelighed?

Før du er den anden del af en artikel fra serien "Vent, hvordan alt dette kan være virkeligt, hvorfor tales der stadig ikke om det i hvert hjørne." I den foregående serie blev det kendt, at en eksplosion af intelligens gradvist kryber op til mennesker på planeten Jorden, den forsøger at udvikle sig fra snævert fokuseret til universel intelligens og til sidst kunstig superintelligens.

"Måske står vi over for et ekstremt vanskeligt problem, og det vides ikke, hvor lang tid der er afsat til løsningen, men menneskehedens fremtid kan afhænge af dens løsning." - Nick Bostrom.

Første del af artiklen begyndte uskyldigt nok. Vi diskuterede snævert fokuseret kunstig intelligens (AI, der er specialiseret i at løse et specifikt problem som at bestemme ruter eller spille skak), der er meget af det i vores verden. Derefter analyserede de, hvorfor det er så svært at dyrke generel retningsbestemt kunstig intelligens (AGI, eller AI, som med hensyn til intellektuelle evner kan sammenligne med et menneske til at løse ethvert problem), er så svært. Vi konkluderede, at den eksponentielle hastighed for teknologiske fremskridt antyder, at AGI snart kan være rundt om hjørnet. Til sidst besluttede vi, at så snart maskiner nåede menneskelig intelligens, kunne følgende ske med det samme:

Billede
Billede
Billede
Billede
Billede
Billede
Billede
Billede

Som sædvanlig ser vi på skærmen og tror ikke på, at kunstig superintelligens (ISI, som er meget smartere end nogen person) kan vises i løbet af vores levetid, og vælger følelser, der bedst afspejler vores mening om dette spørgsmål.

Inden vi dykker ned i specifikationerne ved ISI, lad os minde os selv om, hvad det betyder for en maskine at være superintelligent.

Hovedforskellen ligger mellem hurtig superintelligens og kvalitetssuperintelligens. Ofte er det første, man tænker på, når man tænker på en superintelligent computer, at den kan tænke meget hurtigere end en person - millioner gange hurtigere, og på fem minutter vil den forstå, hvad det ville tage en person ti år. ("Jeg kender kung fu!")

Det lyder imponerende, og ISI burde virkelig tænke hurtigere end nogen af de andre - men den vigtigste adskillelsesfunktion er kvaliteten af dens intelligens, som er en helt anden. Mennesker er meget klogere end aber, ikke fordi de tænker hurtigere, men fordi deres hjerner indeholder en række geniale kognitive moduler, der udfører komplekse sproglige fremstillinger, langsigtet planlægning, abstrakt tænkning, som aber ikke er i stand til. Hvis du accelererer en abes hjerne tusind gange, bliver den ikke klogere end os - selv efter ti år vil den ikke være i stand til at samle en konstruktør i henhold til instruktionerne, hvilket højst ville tage en person et par timer. Der er ting, som en abe aldrig vil lære, uanset hvor mange timer den bruger, eller hvor hurtigt hjernen fungerer.

Derudover ved aben ikke hvor menneskeligt, fordi dens hjerne simpelthen ikke er i stand til at indse eksistensen af andre verdener - aben ved måske, hvad en person er, og hvad en skyskraber er, men vil aldrig forstå, at en skyskraber blev bygget af mennesker. I hendes verden tilhører alt naturen, og makaken kan ikke kun bygge en skyskraber, men forstår også, at alle overhovedet kan bygge den. Og dette er resultatet af en lille forskel i kvaliteten af intelligens.

I den generelle intelligensordning, som vi taler om, eller simpelthen efter biologiske væseners standarder, er forskellen i kvaliteten af intelligens mellem mennesker og aber lille. I den forrige artikel placerede vi biologiske kognitive evner på en stige:

Billede
Billede

For at forstå, hvor alvorlig en superintelligent maskine vil være, skal du placere den to hak højere end personen på den stige. Denne maskine er måske bare lidt superintelligent, men dens overlegenhed i forhold til vores kognitive evner vil være den samme som vores - over aberne. Og ligesom en chimpanse aldrig vil forstå, at en skyskraber kan bygges, forstår vi måske aldrig, hvad en maskine et par trin højere vil forstå, selvom maskinen forsøger at forklare det for os. Men dette er kun et par trin. Den smartere maskine vil se myrer i os - den vil lære os de enkleste ting fra sin position i årevis, og disse forsøg vil være helt håbløse.

Den type superintelligens, vi taler om i dag, ligger langt ud over denne stige. Dette er en eksplosion af intelligens - når jo smartere en bil bliver, jo hurtigere kan den øge sin egen intelligens og gradvist øge momentum. Det kan tage år for en maskine som denne at overgå chimpanser i intelligens, men måske et par timer at overgå os med et par hak. Fra det øjeblik kan bilen allerede hoppe over fire trin hvert sekund. Derfor bør vi forstå, at vi meget snart efter den første nyhed om, at maskinen har nået niveauet for menneskelig intelligens, kan komme til at se realiteten af sameksistens på jorden med noget, der vil være meget højere end os på denne stige (eller måske, og millioner af gange højere):

Billede
Billede

Og da vi har fastslået, at det er helt ubrugeligt at forsøge at forstå kraften i en maskine, der kun er to trin over os, lad os definere en gang for alle, at der ikke er nogen måde at forstå, hvad ISI vil gøre, og hvad konsekvenserne af dette vil være for os. Enhver, der hævder det modsatte, forstår simpelthen ikke, hvad superintelligens betyder.

Evolutionen har langsomt og gradvist udviklet den biologiske hjerne i flere hundrede millioner år, og hvis mennesker skaber en superintelligent maskine, vil vi på en måde overskride evolutionen. Eller det vil være en del af evolutionen - måske fungerer evolutionen på en sådan måde, at intelligens udvikler sig gradvist, indtil den når et vendepunkt, der indvarsler en ny fremtid for alle levende ting:

Billede
Billede

Af grunde, vi vil diskutere senere, mener en enorm del af det videnskabelige samfund, at spørgsmålet ikke er, om vi kommer til dette vendepunkt, men hvornår.

Hvor ender vi efter dette?

Jeg tror, at ingen i denne verden, hverken mig eller dig, vil være i stand til at sige, hvad der vil ske, når vi når tipping point. Oxford -filosof og førende AI -teoretiker Nick Bostrom mener, at vi kan koge alle mulige resultater i to brede kategorier.

Først ved at kigge på historien ved vi følgende om livet: arter optræder, eksisterer i et bestemt stykke tid, og falder derefter uundgåeligt af balancebjælken og dør ud.

Billede
Billede

"Alle arter dør ud" har været lige så pålidelig en regel i historien som "alle mennesker dør en dag." 99,9% af arterne er faldet fra en log af liv, og det er helt klart, at hvis en art hænger på denne bjælke for længe, vil et vindstød af naturlig vind eller en pludselig asteroide vende stammen. Bostrom kalder udryddelse tilstanden af en tiltrækker - et sted, hvor alle arter balancerer for ikke at falde, hvor ingen arter er vendt tilbage endnu.

Og selvom de fleste forskere indrømmer, at ISI vil have evnen til at dømme mennesker til udryddelse, tror mange også, at brugen af ISI's muligheder vil give enkeltpersoner (og arten som helhed) mulighed for at opnå attraktorens anden tilstand - artsudødelighed. Bostrom mener, at en arts udødelighed er lige så attraktiv som en udryddelse af en art, det vil sige, at hvis vi kommer til dette, vil vi være dømt til evig eksistens. Selvom alle arter indtil nu faldt fra denne pind i udslettelsens malstrøm, mener Bostrom således, at bjælken har to sider, og der simpelthen ikke dukkede op på Jorden sådan en intelligens, der ville forstå, hvordan man faldt til den anden side.

Billede
Billede

Hvis Bostrom og andre har ret, og efter alle de oplysninger, vi har til rådighed, at dømme, kan de meget vel være det, vi er nødt til at acceptere to meget chokerende fakta:

Fremkomsten af ISI for første gang i historien vil åbne vejen for en art for at opnå udødelighed og falde ud af den fatale udryddelsescyklus.

Fremkomsten af ISI vil have en så ufatteligt stor indflydelse, at det højst sandsynligt vil skubbe menneskeheden fra denne log i den ene eller den anden retning.

Det er muligt, at når evolution når et sådant vendepunkt, sætter det altid en stopper for forholdet mellem mennesker og livets strøm og skaber en ny verden, med eller uden mennesker.

Dette fører til et interessant spørgsmål, som kun en bummer ikke ville stille: hvornår kommer vi til dette vendepunkt, og hvor vil det bringe os? Ingen i verden kender svaret på dette dobbelte spørgsmål, men mange kloge mennesker har forsøgt at finde ud af det i årtier. I resten af artiklen finder vi ud af, hvor de kom fra.

* * *

Lad os starte med den første del af dette spørgsmål: hvornår skal vi nå vendepunktet? Med andre ord: hvor lang tid er der tilbage, før den første maskine når superintelligens?

Meningerne varierer fra sag til sag. Mange, herunder professor Vernor Vinge, videnskabsmand Ben Herzel, Sun Microsystems medstifter Bill Joy, futurist Ray Kurzweil, var enige med maskinlæringsekspert Jeremy Howard, da han præsenterede følgende graf på TED Talk:

Billede
Billede

Disse mennesker deler den opfattelse, at ISI kommer snart - denne eksponentielle vækst, som forekommer os langsom i dag, vil bogstaveligt talt eksplodere i de næste årtier.

Andre, som Microsoft-medstifter Paul Allen, forskningspsykolog Gary Marcus, computerekspert Ernest Davis og tech-iværksætter Mitch Kapor, mener, at tænkere som Kurzweil for alvor undervurderer problemets størrelse og mener, at vi ikke er nær så tæt på en vendepunkt.

Kurzweils lejr hævder, at den eneste undervurdering, der opstår, er tilsidesættelsen af eksponentiel vækst, og tvivlerne kan sammenlignes med dem, der kiggede på det langsomt blomstrende internet i 1985 og argumenterede for, at det ikke ville have nogen indflydelse på verden i den nærmeste fremtid.

Tvivler kan afværge, at det er vanskeligere for fremskridt at tage hvert efterfølgende trin, når det kommer til eksponentiel intelligensudvikling, som neutraliserer den typiske eksponentielle karakter af teknologisk fremgang. Etc.

Den tredje lejr, hvor Nick Bostrom er, er uenig i enten den første eller den anden og hævder, at a) alt dette absolut kan ske i den nærmeste fremtid; og b) der ikke er nogen garanti for, at dette overhovedet vil ske, eller at det vil tage længere tid.

Andre, som filosoffen Hubert Dreyfus, mener, at alle tre grupper naivt tror, at der overhovedet vil være et vendepunkt, og at vi højst sandsynligt aldrig kommer til ISI.

Hvad sker der, når vi sætter alle disse meninger sammen?

I 2013 gennemførte Bostrom en undersøgelse, hvor han interviewede hundredvis af AI -eksperter ved en række konferencer om følgende emne: "Hvad vil dine forudsigelser være for at opnå AGI på menneskeligt plan?" og bad os om at nævne et optimistisk år (hvor vi vil have AGI med 10 procent chance), en realistisk antagelse (et år, hvor vi vil have AGI med 50 procent sandsynlighed) og en sikker antagelse (det tidligste år, hvor AGI vises siden 90 -procent sandsynlighed). Her er resultaterne:

* Gennemsnitligt optimistisk år (10%): 2022

* Gennemsnitligt realistisk år (50%): 2040

* Gennemsnitligt pessimistisk år (90%): 2075

Gennemsnitlige respondenter mener, at vi om 25 år vil have AGI frem for ikke. En 90 procent chance for at AGI opstår i 2075 betyder, at hvis du stadig er ganske ung nu, vil det højst sandsynligt ske i dit liv.

En separat undersøgelse for nylig foretaget af James Barratt (forfatter til den anerkendte og meget gode bog Our Latest Invention, uddrag fra Jeg præsenterede læsernes opmærksomhed Hi-News.ru) og Ben Hertzel på AGI-konferencen, den årlige AGI-konference, viste simpelthen folks mening om året, hvor vi kommer til AGI: 2030, 2050, 2100, senere eller aldrig. Her er resultaterne:

* 2030: 42% af respondenterne

* 2050: 25%

* 2100: 20%

Efter 2100: 10%

Aldrig: 2%

Ligner Bostroms resultater. I Barratt's meningsmåling mener mere end to tredjedele af de adspurgte, at AGI vil være her i 2050, og mindre end halvdelen mener, at AGI vil dukke op i de næste 15 år. Det er også påfaldende, at kun 2% af respondenterne i princippet ikke ser AGI i vores fremtid.

Men AGI er ikke et vendepunkt som ISI. Hvornår har vi ifølge eksperter et ISI?

Bostrom spurgte eksperterne, hvornår vi når ASI: a) to år efter at have nået AGI (det vil sige næsten øjeblikkeligt på grund af en eksplosion af intelligens); b) efter 30 år. Resultater?

Den gennemsnitlige opfattelse er, at den hurtige overgang fra AGI til ISI vil forekomme med en 10% sandsynlighed, men om 30 år eller mindre vil det ske med en 75% sandsynlighed.

Fra disse data ved vi ikke, hvilken dato respondenterne ville kalde en 50 procent chance for et ASI, men baseret på de to svar ovenfor, lad os antage, at det er 20 år. Det vil sige, at verdens førende AI -eksperter tror, at vendepunktet kommer i 2060 (AGI vil dukke op i 2040 + det vil tage 20 år for overgangen fra AGI til ISI).

Billede
Billede

Selvfølgelig er alle ovenstående statistikker spekulative og repræsenterer simpelthen udtalelse fra eksperter inden for kunstig intelligens, men de indikerer også, at de fleste interesserede er enige om, at AI sandsynligvis vil ankomme i 2060. På bare 45 år.

Lad os gå videre til det andet spørgsmål. Når vi kommer til vendepunktet, hvilken side af det fatale valg bestemmer os?

Superintelligens vil have den mest magtfulde magt, og det kritiske spørgsmål for os vil være følgende:

Hvem eller hvad vil kontrollere denne magt, og hvad vil være deres motivation?

Svaret på dette spørgsmål vil afhænge af, om ISI får en utrolig kraftfuld udvikling, en umådeligt frygtindgydende udvikling eller noget derimellem.

Ekspertfællesskabet forsøger naturligvis også at besvare disse spørgsmål. Bostroms undersøgelse analyserede sandsynligheden for mulige konsekvenser af AGIs indvirkning på menneskeheden, og det viste sig, at med en 52 procent chance vil alt gå meget godt og med en 31 procent chance vil alt gå enten dårligt eller ekstremt dårligt. Afstemningen vedhæftet i slutningen af den foregående del af dette emne, foretaget blandt jer, kære læsere af Hi-News, viste omtrent de samme resultater. For et relativt neutralt resultat var sandsynligheden kun 17%. Med andre ord tror vi alle på, at AGI kommer til at være en stor ting. Det er også værd at bemærke, at denne undersøgelse vedrører fremkomsten af AGI - i tilfælde af ISI vil procentdelen af neutralitet være lavere.

Inden vi går dybere ind i at tænke over de gode og dårlige sider af spørgsmålet, lad os kombinere begge sider af spørgsmålet - "hvornår sker dette?" og "er det godt eller dårligt?" i en tabel, der dækker de fleste eksperters synspunkter.

Billede
Billede

Vi taler om hovedlejren om et minut, men beslut først om din position. Chancerne er, at du er det samme sted, som jeg var, før jeg begyndte at arbejde med dette emne. Der er flere grunde til, at folk slet ikke tænker over dette emne:

* Som nævnt i første del har filmene alvorligt forvirret mennesker og fakta og præsenteret urealistiske scenarier med kunstig intelligens, hvilket førte til, at vi slet ikke skulle tage AI alvorligt. James Barratt sammenlignede denne situation med at blive udstedt af Centers for Disease Control (CDC) med en alvorlig advarsel om vampyrer i vores fremtid.

* På grund af såkaldte kognitive forstyrrelser er det meget svært for os at tro, at noget er virkeligt, før vi har bevis. Man kan roligt forestille sig computerforskerne fra 1988, der regelmæssigt diskuterer Internets vidtrækkende konsekvenser og hvad det kunne blive til, men folk troede næppe, at det ville ændre deres liv, før det faktisk skete. Det er bare, at computere ikke vidste, hvordan de skulle gøre dette i 1988, og folk kiggede bare på deres computere og tænkte:”Virkelig? Er det det, der vil ændre verden? Deres fantasi var begrænset af, hvad de havde lært af personlig erfaring, de vidste, hvad en computer var, og det var svært at forestille sig, hvad en computer ville være i stand til i fremtiden. Det samme sker nu med AI. Vi hørte, at det vil blive en alvorlig ting, men da vi endnu ikke er stødt på det ansigt til ansigt, og generelt observerer vi temmelig svage manifestationer af AI i vores moderne verden, er det ret svært for os at tro, at det radikalt vil ændre vores liv. Det er imod disse fordomme, at mange eksperter fra alle lejre såvel som interesserede mennesker er imod at forsøge at fange vores opmærksomhed gennem støj fra daglig kollektiv egocentrisme.

* Selvom vi troede på alt dette - hvor mange gange i dag har du tænkt på, at du vil tilbringe resten af evigheden i ingenting? Lidt, enig. Selvom denne kendsgerning er meget vigtigere end noget, du gør dag ud og dag ind. Det skyldes, at vores hjerner normalt er fokuseret på små, dagligdagse ting, uanset hvor vildvidden den langsigtede situation vi befinder os i. Det er bare det, vi er skabt.

Et af målene med denne artikel er at få dig ud af lejren kaldet "Jeg kan godt lide at tænke på andre ting" og sætte dig i ekspertlejren, selvom du bare står ved krydset mellem de to stiplede linjer på pladsen ovenfor, helt uafgjort.

I løbet af forskningen bliver det indlysende, at de fleste menneskers meninger hurtigt driver hen mod "hovedlejren", og tre fjerdedele af eksperterne falder ind i to underlejre i hovedlejren.

Billede
Billede

Vi vil besøge begge disse lejre fuldt ud. Lad os starte med sjov.

Hvorfor kunne fremtiden være vores største drøm?

Når vi udforsker AI -verdenen, finder vi overraskende mange mennesker i vores komfortzone. Folk på øverste højre firkant summer af spænding. De tror, at vi vil falde på den gode side af bjælken, og de tror også, at vi uundgåeligt vil komme til dette. For dem er fremtiden kun den bedste, der kun kan drømmes om.

Det punkt, der adskiller disse mennesker fra andre tænkere, er ikke, at de vil være på den lykkelige side - men at de er sikre på, at det er hende, der venter på os.

Denne tillid kommer ud af kontroverser. Kritikere mener, det kommer fra en blændende spænding, der overskygger potentielle negative sider. Men fortalerne siger, at dystre forudsigelser altid er naive; teknologien fortsætter og vil altid hjælpe os mere end skade os.

Du er fri til at vælge en af disse meninger, men sæt skepsis til side og kig godt på balancestrålens glade side og prøv at acceptere, at alt, hvad du læser om, allerede er sket. Hvis du viste jæger -samlere vores verden af komfort, teknologi og endeløs overflod, ville det for dem virke som en magisk fiktion - og vi opfører os ganske beskedent og kan ikke indrømme, at den samme uforståelige transformation venter os i fremtiden.

Nick Bostrom beskriver tre veje, som et superintelligent AI -system kan gå:

* Et orakel, der kan besvare ethvert præcist spørgsmål, herunder vanskelige spørgsmål, som mennesker ikke kan besvare - for eksempel "hvordan man gør en bilmotor mere effektiv?" Google er en primitiv type "orakel".

* En geni, der vil udføre enhver kommando på højt niveau - ved hjælp af molekylær assembler til at oprette en ny, mere effektiv version af en bilmotor - og venter på den næste kommando.

* En suveræn, der vil have bred adgang og evnen til at fungere frit i verden, træffe sine egne beslutninger og forbedre processen. Han vil opfinde en billigere, hurtigere og sikrere måde at privat transport på end en bil.

Disse spørgsmål og opgaver, som synes vanskelige for os, vil forekomme for det superintelligente system, som om nogen bad om at forbedre situationen "min blyant faldt af bordet", hvor du simpelthen ville tage den op og lægge den tilbage.

Eliezer Yudkowski, en amerikansk specialist i kunstig intelligens, udtrykte det godt:

”Der er ingen hårde problemer, kun problemer, der er svære for et vist niveau af intelligens. Gå et skridt højere (med hensyn til intelligens), og nogle problemer vil pludselig bevæge sig fra kategorien "umuligt" til lejren for "indlysende". Et trin højere - og de vil alle blive indlysende."

Der er mange utålmodige videnskabsmænd, opfindere og iværksættere, der har valgt en zone med tryg komfort fra vores bord, men vi har kun brug for en guide til at gå efter det bedste i denne bedste verden.

Ray Kurzweil er tvetydig. Nogle afguder hans ideer, nogle foragter ham. Nogle bliver i midten - Douglas Hofstadter, der diskuterer ideerne i Kurzweils bøger, bemærkede veltalende, at "det er som om du tog en masse god mad og lidt hundepis og derefter blandede alt på en sådan måde, at det er umuligt at forstå hvad der er godt og hvad der er dårligt."

Uanset om du kan lide hans ideer eller ej, er det umuligt at passere dem uden en skygge af interesse. Han begyndte at opfinde ting som teenager, og i de følgende år opfandt han flere vigtige ting, herunder den første flatbed-scanner, den første scanner til at konvertere tekst til tale, den velkendte Kurzweil-musiksyntesizer (det første rigtige elektriske klaver) og den første kommercielt succesfulde talegenkender. Han er også forfatter til fem opsigtsvækkende bøger. Kurzweil er værdsat for sine vovede forudsigelser, og hans track record er ganske god - i slutningen af 80'erne, da Internettet stadig var i sin spæde start, forudsagde han, at internettet i 2000'erne ville blive et globalt fænomen. Wall Street Journal kaldte Kurzweil for et "rastløst geni", Forbes for en "global tankemaskine", Inc. Magazine - "Edisons retmæssige arving", Bill Gates - "den bedste af dem, der spår fremtiden for kunstig intelligens." I 2012 inviterede Google medstifter Larry Page Kurzweil til stillingen som CTO. I 2011 var han med til at stifte Singularity University, som er hostet af NASA og delvist er sponsoreret af Google.

Hans biografi betyder noget. Når Kurzweil fortæller om sin vision om fremtiden, lyder det som vanvittigt vanvittigt, men det helt vanvittige ved det er, at han langt fra er skør - han er utrolig smart, veluddannet og fornuftig person. Du tror måske, at han tager fejl i sine forudsigelser, men han er ikke en tåbe. Kurzweils forudsigelser deles af mange komfortzoneeksperter, Peter Diamandis og Ben Herzel. Det er det, han tror, vil ske.

Kronologi

Kurzweil mener, at computere vil nå niveauet for generel kunstig intelligens (AGI) i 2029, og i 2045 vil vi ikke kun have kunstig superintelligens, men også en helt ny verden - tiden for den såkaldte singularitet. Dens kronologi af AI betragtes stadig som skandaløst overdrevet, men i løbet af de sidste 15 år har den hurtige udvikling af meget fokuserede kunstige intelligenssystemer (AI) tvunget mange eksperter til at tage side med Kurzweil. Hans forudsigelser er stadig mere ambitiøse end dem i Bostroms undersøgelse (AGI i 2040, ISI i 2060), men ikke meget.

Ifølge Kurzweil er singulariteten i 2045 drevet af tre samtidige revolutioner inden for bioteknologi, nanoteknologi og, endnu vigtigere, AI. Men inden vi fortsætter - og nanoteknologi følger nøje kunstig intelligens - lad os tage et øjeblik til nanoteknologi.

Billede
Billede

Et par ord om nanoteknologi

Vi kalder normalt nanoteknologiteknologier, der beskæftiger sig med manipulation af stof i området 1-100 nanometer. Et nanometer er en milliarddel af en meter eller en milliontedel af en millimeter; inden for området 1-100 nanometer, vira (100 nm i diameter), DNA (10 nm i bredden), hæmoglobinmolekyler (5 nm), glucose (1 nm) og andre kan indkvarteres. Hvis nanoteknologi nogensinde bliver underlagt os, er det næste trin at manipulere individuelle atomer, der er mindre end en størrelsesorden (~, 1 nm).

For at forstå, hvor mennesker støder på problemer med at forsøge at manipulere materie i en sådan skala, lad os springe til en større skala. Den internationale rumstation ligger 481 kilometer over Jorden. Hvis mennesker var kæmper og ramte ISS med hovedet, ville de være 250.000 gange større end de er nu. Hvis du forstørrer noget fra 1 til 100 nanometer 250.000 gange, får du 2,5 centimeter. Nanoteknologi svarer til, at et menneske, der kredser ISS, forsøger at manipulere ting på størrelse med et sandkorn eller et øjeæble. For at komme til det næste niveau - kontrollen med individuelle atomer - bliver giganten nødt til omhyggeligt at placere objekter med en diameter på 1/40 millimeter. Almindelige mennesker skal bruge et mikroskop for at se dem.

For første gang talte Richard Feynman om nanoteknologi i 1959. Derefter sagde han:”Fysikkens principper taler, så vidt jeg kan se, ikke imod muligheden for at kontrollere tingene atom for atom. I princippet kunne en fysiker syntetisere ethvert kemikalie, som en kemiker har nedskrevet. Hvordan? Ved at placere atomer, hvor kemikeren siger at få stoffet. Dette er hele enkelheden. Hvis du ved, hvordan du flytter individuelle molekyler eller atomer, kan du gøre næsten alt.

Nanoteknologi blev et seriøst videnskabeligt felt i 1986, da ingeniør Eric Drexler præsenterede sit fundament i sin skelsættende bog Machines of Creation, men Drexler mener selv, at dem, der ønsker at lære mere om moderne ideer inden for nanoteknologi, bør læse sin bog fra 2013. Full Abundance (Radical Overflod).

Et par ord om "grey goo"

Vi dykker dybere ned i nanoteknologi. Navnlig emnet "grey goo" er et af de ikke særlig behagelige emner inden for nanoteknologi, som ikke kan ignoreres. Ældre versioner af teorien om nanoteknologi foreslog en nano-samlingsmetode, der involverede oprettelse af billioner af små nanorobotter, der ville arbejde sammen om at skabe noget. En måde at oprette billioner af nanoroboter på er at oprette en, der kan replikere sig selv, det vil sige fra en til to, fra to til fire osv. Flere billioner nanorobots vises på en dag. Dette er kraften i eksponentiel vækst. Sjovt, ikke sandt?

Det er sjovt, men lige indtil det fører til apokalypsen. Problemet er, at kraften i eksponentiel vækst, hvilket gør det til en ret bekvem måde hurtigt at oprette en billion nanobots, gør selvreplikation til en skræmmende ting i det lange løb. Hvad hvis systemet går ned, og i stedet for at stoppe replikationen for et par billioner, fortsætter nanobotter med at yngle? Hvad hvis hele processen afhænger af kulstof? Jordens biomasse indeholder 10 ^ 45 carbonatomer. En nanobot bør være i størrelsesordenen 10 ^ 6 kulstofatomer, så 10 ^ 39 nanobotter vil fortære alt liv på Jorden i kun 130 replikationer. Et hav af nanobotter ("grå goo") vil oversvømme planeten. Forskere tror, at nanobotter kan replikere på 100 sekunder, hvilket betyder, at en simpel fejltagelse kan dræbe alt liv på Jorden på kun 3,5 timer.

Det kunne være endnu værre - hvis terrorister og ugunstige specialister når hænderne på nanoteknologi. De kunne oprette flere billioner nanobotter og programmere dem til stille og roligt at sprede sig rundt i verden om et par uger. Så ved et tryk på en knap vil de på bare 90 minutter spise alt overhovedet, uden chance.

Selvom denne gyserhistorie er blevet bredt diskuteret i årevis, er den gode nyhed, at den bare er en gyserhistorie. Eric Drexler, der opfandt udtrykket "grey goo", sagde for nylig følgende: "Folk elsker skrækhistorier, og dette er en af zombiehorrorhistorierne. Denne idé i sig selv spiser allerede hjerner."

Når vi kommer til bunds i nanoteknologi, kan vi bruge det til at skabe tekniske enheder, tøj, mad, bioprodukter - blodlegemer, virus- og kræftkæmpere, muskelvæv og så videre - uanset hvad. Og i en verden, der bruger nanoteknologi, vil omkostningerne ved et materiale ikke længere være bundet til dets mangel eller kompleksiteten i dets fremstillingsproces, men snarere til kompleksiteten af dets atomstruktur. I nanoteknologiens verden kan en diamant være billigere end et viskelæder.

Vi er ikke engang tæt på der endnu. Og det er ikke helt klart, om vi undervurderer eller overvurderer kompleksiteten af denne vej. Alt går imidlertid til det punkt, at nanoteknologi ikke er langt væk. Kurzweil går ud fra, at vi i 2020'erne vil have dem. Verdensstaterne ved, at nanoteknologi kan love en stor fremtid, og derfor investerer de mange milliarder i dem.

Forestil dig bare, hvilke muligheder en superintelligent computer ville få, hvis den kom til en pålidelig nanoskala -samler. Men nanoteknologi er vores idé, og vi forsøger at køre på den, det er svært for os. Hvad hvis de bare er en joke for ISI -systemet, og ISI selv kommer med teknologier, der vil være mange gange mere kraftfulde end noget, vi i princippet kan antage? Vi blev enige: ingen kan forestille sig, hvad kunstig superintelligens vil være i stand til? Det menes, at vores hjerner ikke er i stand til at forudsige selv minimum af, hvad der vil ske.

Hvad kunne AI gøre for os?

Billede
Billede

Bevæbnet med superintelligens og al den teknologi, superintelligens kunne skabe, vil ISI sandsynligvis kunne løse alle menneskehedens problemer. Global opvarmning? ISI vil først stoppe CO2 -udledningen ved at opfinde en lang række effektive måder at generere energi, der ikke er relateret til fossile brændstoffer. Han vil derefter komme med en effektiv, innovativ måde at fjerne overskydende CO2 fra atmosfæren. Kræft og andre sygdomme? Ikke et problem - sundhedspleje og medicin vil ændre sig på måder, der er utænkelige. Verdens sult? ISI vil bruge nanoteknologi til at skabe kød, der er identisk med naturligt, helt fra bunden, ægte kød.

Nanoteknologi vil være i stand til at gøre en bunke skrald til en beholder med fersk kød eller anden mad (ikke nødvendigvis endda i sin sædvanlige form - forestil dig en kæmpe æbleterning) og distribuere al denne mad rundt om i verden ved hjælp af avancerede transportsystemer. Selvfølgelig vil dette være fantastisk til dyr, der ikke længere skal dø for mad. ISI kan også gøre mange andre ting, som at bevare truede arter eller endda bringe uddøde arter tilbage fra lagret DNA. ISI kan løse vores sværeste makroøkonomiske problemer - vores vanskeligste økonomiske debatter, etiske og filosofiske spørgsmål, global handel - alt dette vil være smerteligt indlysende for ISI.

Men der er noget helt særligt, ISI kunne gøre for os. Fristende og fristende, der ville ændre alt: ISI kan hjælpe os med at håndtere dødeligheden … Når du gradvist forstår mulighederne for AI, vil du måske genoverveje alle dine ideer om døden.

Der var ingen grund til evolution for at forlænge vores levetid længere end nu. Hvis vi lever længe nok til at føde og opdrage børn til det punkt, hvor de kan klare sig selv, er evolution nok. Fra et evolutionært synspunkt er 30+ år nok til udvikling, og der er ingen grund til, at mutationer forlænger livet og reducerer værdien af naturligt udvalg. William Butler Yates kaldte vores art "en sjæl knyttet til et døende dyr." Ikke meget sjovt.

Og da vi alle en dag dør, lever vi med tanken om, at døden er uundgåelig. Vi tænker på at blive ældre over tid - fortsætte med at komme videre og ikke være i stand til at stoppe denne proces. Men tanken om døden er forræderisk: fanget af den glemmer vi at leve. Richard Feynman skrev:

”Der er en vidunderlig ting i biologi: der er ikke noget i denne videnskab, der taler om nødvendigheden af døden. Hvis vi vil oprette en evig bevægelsesmaskine, indser vi, at vi har fundet nok love i fysikken, der enten indikerer umuligheden af dette, eller at lovene er forkerte. Men der er intet i biologien, der ville indikere dødens uundgåelighed. Dette får mig til at tro, at det ikke er så uundgåeligt, og det er kun et spørgsmål om tid, før biologer opdager årsagen til dette problem, denne frygtelige universelle sygdom, det vil blive helbredt."

Faktum er, at ældning ikke har noget at gøre med tiden. Aldring er, når kroppens fysiske materialer slides. Bildele nedbrydes også - men er ældning uundgåelig? Hvis du reparerer din bil, når delene slides, vil den vare for evigt. Menneskekroppen er ikke anderledes - bare mere kompleks.

Kurzweil taler om intelligente, Wi-Fi-tilsluttede nanobotter i blodbanen, der kunne udføre utallige opgaver for menneskers sundhed, herunder regelmæssig reparation eller udskiftning af slidte celler overalt i kroppen. Forbedring af denne proces (eller at finde et alternativ foreslået af en smartere ASI) vil ikke kun holde kroppen sund, det kan vende aldring. Forskellen mellem kroppen på en 60-årig og en 30-årig er en håndfuld fysiske problemer, der kan rettes med den rigtige teknologi. ISI kunne bygge en bil, som en person ville komme ind i, når de er 60 år og forlade, når de er 30 år.

Selv en forringet hjerne kunne fornyes. ISI ville helt sikkert vide, hvordan man gør dette uden at påvirke hjernedataene (personlighed, minder osv.). En 90-årig mand, der lider af fuldstændig hjerneforringelse, kan omdannes, fornyes og vende tilbage til begyndelsen af sit liv. Det kan virke absurd, men kroppen er en håndfuld atomer, og ISI kunne sikkert nemt manipulere dem, enhver atomstruktur. Det er ikke så absurd.

Kurzweil mener også, at kunstige materialer vil integreres mere og mere i kroppen, efterhånden som tiden går. Til at begynde med kunne organerne erstattes med super-avancerede maskinversioner, der ville vare evigt og aldrig mislykkes. Derefter kunne vi lave et komplet redesign af kroppen og erstatte de røde blodlegemer med perfekte nanobotter, der bevæger sig på egen hånd, og helt eliminere behovet for et hjerte. Vi kunne også forbedre vores kognitive evner, begynde at tænke milliarder af gange hurtigere og få adgang til al den information, der er tilgængelig for menneskeheden gennem skyen.

Mulighederne for at forstå nye horisonter ville være virkelig uendelige. Folk har formået at skænke sex et nyt formål, de gør det for glæde, ikke kun for reproduktion. Kurzweil mener, at vi kan gøre det samme med mad. Nanobots kunne levere ideel ernæring direkte til kroppens celler, hvilket tillod usunde stoffer at passere gennem kroppen. Nanoteknologi -teoretikeren Robert Freitas har allerede udviklet en erstatning for blodlegemer, som, når de implementeres i menneskekroppen, kan tillade ham ikke at trække vejret i 15 minutter - og dette blev opfundet af en person. Forestil dig, hvornår ISI får magt.

Kurzweil tror jo, at mennesker vil nå det punkt, hvor de bliver helt kunstige; den tid, hvor vi ser på biologiske materialer og tænker på, hvor primitive de var; tid, hvor vi vil læse om de tidlige stadier af menneskets historie, forbløffet over, hvordan bakterier, ulykker, sygdomme eller simpelthen alderdom kunne dræbe en person mod hans vilje. I sidste ende vil mennesker besejre deres egen biologi og blive evige - det er vejen til den glade side af balancestrålen, som vi har talt om fra begyndelsen. Og folk, der tror på dette, er også sikre på, at en sådan fremtid venter os meget, meget snart.

Du vil sandsynligvis ikke blive overrasket over, at Kurzweils ideer har tiltrukket kraftig kritik. Dens singularitet i 2045 og det efterfølgende evige liv for mennesker blev kaldt "opstigning af nørder" eller "intelligent skabelse af mennesker med en IQ på 140". Andre satte spørgsmålstegn ved den optimistiske tidsramme, forståelsen af menneskekroppen og hjernen, mindede om Moores lov, som ikke er forsvundet endnu. For hver ekspert, der tror på Kurzweils ideer, er der tre, der mener, at han tager fejl.

Men det mest interessante ved dette er, at de fleste af de eksperter, der er uenige med ham, i det hele taget ikke siger, at dette er umuligt. I stedet for at sige "lort, dette vil aldrig ske", siger de noget i retning af "alt dette vil ske, hvis vi kommer til ISI, men dette er problemet." Bostrom, en af de anerkendte AI -eksperter, der advarer om AI -farer, indrømmer også:

”Der er næsten ikke noget problem tilbage, som superintelligens ikke kan løse eller endda hjælpe os med at løse. Sygdom, fattigdom, miljøødelæggelse, lidelse af enhver art - alt denne superintelligens ved hjælp af nanoteknologi kan løse på et øjeblik. Superintelligens kan også give os ubegrænset levetid ved at stoppe og vende aldringsprocessen ved hjælp af nanomedicin eller muligheden for at uploade os til skyen. Superintelligens kan også skabe muligheder for endeløse stigninger i intellektuelle og følelsesmæssige evner; han kan hjælpe os med at skabe en verden, hvor vi vil leve i glæde og forståelse, nærme os vores idealer og regelmæssigt gøre vores drømme til virkelighed."

Dette er imidlertid et citat fra en af Kurzweils kritikere, der indrømmer, at alt dette er muligt, hvis vi kan oprette et sikkert ASI. Kurzweil definerede simpelthen, hvad kunstig superintelligens skulle blive, hvis det overhovedet var muligt. Og hvis han er en god gud.

Den mest oplagte kritik af comfort zone -fortalere er, at de kan blive fordømt forkert, når de vurderer fremtiden for ISI. I sin bog The Singularity afsatte Kurzweil 20 sider ud af 700 potentielle ISI -trusler. Spørgsmålet er ikke, når vi kommer til ISI, spørgsmålet er, hvad der vil være dens motivation. Kurzweil besvarer dette spørgsmål med forsigtighed: “ISI stammer fra mange forskellige bestræbelser og vil blive dybt integreret i infrastrukturen i vores civilisation. Faktisk vil det være tæt indlejret i vores krop og hjerne. Han vil afspejle vores værdier, fordi han vil være ét med os."

Men hvis svaret er, hvorfor er så mange kloge mennesker i denne verden bekymrede for fremtiden for kunstig intelligens? Hvorfor siger Stephen Hawking, at udviklingen af ISI "kan betyde enden på den menneskelige race"? Bill Gates siger, at han "ikke forstår folk, der ikke er generet" om det. Elon Musk frygter, at vi "indkalder en dæmon". Hvorfor anser mange eksperter ISI for at være den største trussel mod menneskeheden?

Vi vil tale om dette næste gang.

Anbefalede: