Forskere er bange for truslen fra kunstig intelligens

Forskere er bange for truslen fra kunstig intelligens
Forskere er bange for truslen fra kunstig intelligens

Video: Forskere er bange for truslen fra kunstig intelligens

Video: Forskere er bange for truslen fra kunstig intelligens
Video: AP World History: 3.6 - Russian Empire (1450-1750) 2024, Kan
Anonim

Selvforbedrende kunstig intelligens (AI) i fremtiden kan slavebinde eller dræbe mennesker, hvis han vil. Dette blev fortalt af videnskabsmanden Amnon Eden, der mener, at risiciene ved udviklingen af en frit tænkende og meget intelligent bevidsthed er meget høje, og "hvis du ikke tager dig af spørgsmålene om AI-kontrol allerede på det nuværende stadium af udvikling, så kommer morgenen simpelthen ikke. " Ifølge den engelske udgave Express er menneskeheden ifølge Amnon Eden i dag på "point of no return" for implementeringen af handlingen i det berømte filmepos "The Terminator".

Det er værd at bemærke, at Dr. Amnon Eden er en projektleder, hvis hovedmål er at analysere de potentielle ødelæggende virkninger af AI. Uden en korrekt forståelse af konsekvenserne af at skabe kunstig intelligens kan dens udvikling true med katastrofe, mener forskeren. I øjeblikket er vores samfund dårligt informeret om den debat, der foregår i det videnskabelige samfund om analysen af den potentielle virkning af AI. "I det kommende 2016 bliver analysen af mulige risici nødt til at blive væsentligt mere udbredt i tankegangen for virksomheder og regeringer, politikere og dem, der er ansvarlige for at træffe beslutninger," siger Eden.

Videnskabsmanden er sikker på, at science fiction, der beskriver ødelæggelse af menneskeheden af robotter, snart kan blive vores fælles problem, da processen med at skabe AI er kommet ud af kontrol. For eksempel besluttede Elon Musk, med støtte fra iværksætteren Sam Altman, at oprette en ny nonprofitorganisation på 1 milliard dollar, der udvikler open source AI, der skulle overgå det menneskelige sind. Samtidig rangerer den amerikanske milliardær Elon Musk selv kunstig intelligens blandt de "største trusler mod vores eksistens." Steve Wozniak, der var med til at stifte Apple, sagde i marts sidste år, at "fremtiden ser skræmmende og meget farlig ud for mennesker … til sidst kommer den dag, hvor computere vil tænke hurtigere, end vi gør, og de vil slippe af med langsomme mennesker for at så virksomheder kan arbejde mere effektivt."

Billede
Billede

Det er værd at bemærke, at mange forskere ser truslen fra AI. Snesevis af kendte forskere, investorer og iværksættere, hvis aktiviteter på den ene eller anden måde er relateret til udviklingen af kunstig intelligens, har underskrevet et åbent brev, der opfordrer til mere opmærksomhed på spørgsmålet om sikkerhed og social nytte af arbejde i inden for AI. Astrofysiker Stephen Hawking og grundlægger af Tesla og SpaceX Elon Musk er blandt underskrivere af dette dokument. Brevet sammen med et ledsagedokument, der blev udarbejdet af Future of Life Institute (FLI), blev skrevet blandt voksende bekymringer over virkningen af kunstig intelligens på arbejdsmarkedet og endda hele menneskehedens overlevelse på lang sigt i et miljø, hvor robotter og maskiners muligheder vil vokse næsten ukontrollabelt.

Forskere forstår, at potentialet for AI i dag er meget stort, så det er nødvendigt fuldt ud at undersøge mulighederne for dets optimale brug for os for at undgå de ledsagende faldgruber, bemærker FLI -brevet. Det er bydende nødvendigt, at menneskeskabte AI-systemer gør præcis, hvad vi vil have dem til at gøre. Det er værd at bemærke, at Future of Life Institute først blev grundlagt sidste år af en række entusiaster, blandt dem var skaberen af Skype, Jaan Tallinn, for at "minimere de risici, menneskeheden står over for" og stimulere forskning med en "optimistisk vision fremtidens”. Først og fremmest taler vi her om de risici, der er forårsaget af udviklingen af AI og robotik. FLI Advisory Board omfatter Musk og Hawking sammen med den anerkendte skuespiller Morgan Freeman og andre berømte personer. Ifølge Elon Musk er den ukontrollerede udvikling af kunstig intelligens potentielt farligere end atomvåben.

Den berømte britiske astrofysiker Stephen Hawking i slutningen af 2015 forsøgte at forklare sit afslag på AI -teknologier. Efter hans mening vil superintelligente maskiner over tid se på mennesker som forbrugsvarer eller myrer, der simpelthen forstyrrer løsningen af deres opgaver. I en tale med brugere af Reddit -portalen bemærkede Stephen Hawking, at han ikke tror på, at sådanne superintelligente maskiner vil være "onde skabninger", der ønsker at ødelægge hele menneskeheden på grund af deres intellektuelle overlegenhed. Mest sandsynligt vil det være muligt at tale om, at de simpelthen ikke vil lægge mærke til menneskeheden.

Billede
Billede

”Medierne har konstant forvrænget mine ord på det seneste. Hovedrisikoen ved udviklingen af AI er ikke maskinernes ondskab, men deres kompetence. Superintelligent kunstig intelligens vil gøre et fremragende stykke arbejde, men hvis det og vores mål ikke falder sammen, vil menneskeheden have meget alvorlige problemer,”forklarer den berømte videnskabsmand. Som et eksempel nævnte Hawking en hypotetisk situation, hvor en superkraftig AI er ansvarlig for driften eller opførelsen af en ny vandkraftdæmning. For en sådan maskine vil prioriteten være, hvor meget energi det betroede system vil generere, og menneskers skæbne er ligegyldig.”Der er få af os, der træder myretuer og træder myrer ud af vrede, men lad os forestille os en situation - du styrer et kraftfuldt vandkraftværk, der genererer elektricitet. Hvis du har brug for at hæve vandstanden, og som et resultat af dine handlinger vil en myretue blive oversvømmet, så er problemerne med at drukne insekter usandsynligt at genere dig. Lad os ikke sætte folk i stedet for myrer,”sagde forskeren.

Det andet potentielle problem for den videre udvikling af kunstig intelligens, ifølge Hawking, kan være "tyranni for maskinejerne" - den hurtige vækst i kløften i indkomstniveauet mellem rige mennesker, der vil være i stand til at monopolisere produktionen intelligente maskiner og resten af verdens befolkning. Stephen Hawking foreslår at løse disse mulige problemer på følgende måde - at bremse processen med AI -udvikling og skifte til udviklingen af ikke "universel", men højt specialiseret kunstig intelligens, som kun kan løse en meget begrænset række problemer.

Ud over Hawking og Musk blev brevet underskrevet af nobelpristageren og MIT -fysikprofessor Frank Wilczek, administrerende direktør for Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, samt mange specialister fra store it -virksomheder: Google, Microsoft og IBM, samt iværksættere, der grundlagde AI -virksomhederne Vicarious og DeepMind. Bogens forfattere bemærker, at de ikke har til formål at skræmme offentligheden, men planlægger at fremhæve både de positive og negative aspekter, der er forbundet med skabelsen af kunstig intelligens. "På nuværende tidspunkt er alle enige om, at forskningen inden for AI skrider støt frem, og AI's indflydelse på det moderne menneskelige samfund vil kun stige," siger brevet, "de muligheder, der åbner sig for mennesker, er enorme, alt hvad moderne civilisation har at tilbyde blev skabt af intelligens. person. Vi er ikke i stand til at forudsige, hvad vi vil kunne opnå, hvis menneskelig intelligens kan multipliceres med AI, men problemet med at slippe af med fattigdom og sygdom er ikke længere uendeligt svært.”

Billede
Billede

Talrige udviklinger inden for kunstig intelligens er allerede inkluderet i det moderne liv, herunder billed- og talegenkendelsessystemer, ubemandede køretøjer og meget mere. Silicon Valley -observatører anslår, at mere end 150 startups i øjeblikket implementeres på dette område. Samtidig tiltrækker udviklingen på dette område flere og flere investeringer, og flere og flere virksomheder som Google udvikler deres projekter baseret på AI. Derfor mener forfatterne af brevet, at tiden er inde til at være mere opmærksom på alle de mulige konsekvenser af det observerede boom for de økonomiske, sociale og juridiske aspekter af menneskeliv.

Den holdning, at kunstig intelligens kan udgøre en fare for mennesker, deles af Nick Bostrom, professor ved University of Oxford, der er kendt for sit arbejde med det antropiske princip. Denne specialist mener, at AI er kommet til det punkt, der vil blive fulgt af dets uforenelighed med mennesker. Nick Bostrom understreger, at der i modsætning til genteknik og klimaforandringer, som regeringer tildeler tilstrækkelige midler til at kontrollere, "intet gøres for at kontrollere udviklingen af AI." Ifølge professoren føres der i øjeblikket en "politik med et juridisk tomrum, der skal udfyldes" med hensyn til kunstig intelligens. Selv teknologier som selvkørende biler, der fremstår ufarlige og nyttige, rejser en række spørgsmål. Skal en sådan bil f.eks. Udføre nødbremsning for at redde sine passagerer, og hvem er ansvarlig i tilfælde af en ulykke begået af et ubemandet køretøj?

Når han diskuterede de potentielle risici, bemærkede Nick Bostrom, at "computeren ikke er i stand til at bestemme fordele og skade for mennesker" og "ikke engang har den mindste idé om menneskelig moral." Derudover kan selvforbedringscyklusser i computere forekomme med en sådan hastighed, at en person simpelthen ikke kan holde styr på, og det kan man næsten ikke gøre noget ved, siger forskeren. "På udviklingsstadiet, hvor computere kan tænke selv, kan ingen med sikkerhed forudsige, om dette vil føre til kaos eller forbedre vores verden markant," sagde Nick Bostrom og nævnte som et eksempel en simpel mulig løsning for en computer - lukning i lande med koldt klimaopvarmning for at forbedre folks sundhed og øge deres udholdenhed, som "kan komme i spidsen for kunstig intelligens."

Billede
Billede

Derudover rejser Bostrom også problemet med at chippe den menneskelige hjerne for at øge vores biointelligens.”På mange måder kan en sådan procedure være nyttig, hvis alle processer styres, men hvad sker der, hvis den implanterede chip kan omprogrammere sig selv? Hvilke konsekvenser kan dette føre til - fremkomsten af et supermenneske eller fremkomsten af en computer, der kun vil ligne et menneske? " - spørger professoren. Den måde computere løser menneskelige problemer på er meget forskellig fra vores. For eksempel i skak overvejer den menneskelige hjerne kun et snævert sæt træk og vælger den bedste mulighed blandt dem. Til gengæld overvejer computeren alle mulige træk og vælger den bedste. På samme tid forventer computeren ikke at forstyrre eller overraske sin modstander i spillet. I modsætning til et menneske, der spiller skak, kan en computer kun foretage et snedigt og subtilt træk ved et uheld. Kunstig intelligens kan beregne på den bedste måde - for at fjerne fejlen fra ethvert system ved at fjerne den "menneskelige faktor" derfra, men i modsætning til et menneske er en robot ikke klar til at udføre bedrifter, der ville redde menneskers liv.

Blandt andet repræsenterer stigningen i antallet af smarte maskiner scenen i en ny industriel revolution. Til gengæld betyder det, at menneskeheden i den nærmeste fremtid vil stå over for uundgåelige sociale ændringer. Over tid vil arbejdet blive en del af højt kvalificerede specialister, da næsten alle enkle opgaver kan udføres af robotter og andre mekanismer. Forskere mener, at kunstig intelligens "har brug for et øje og et øje", så vores planet ikke bliver til en tegneserieplanet "Zhelezyaka", som var beboet af robotter.

Med hensyn til mere og mere automatisering af produktionsprocesser er fremtiden allerede kommet. World Economic Forum (WEF) fremlagde sin rapport, ifølge hvilken automatisering vil føre til, at mere end 5 millioner mennesker, der arbejder på forskellige områder i 2020, mister deres job. Dette er robotter og robotsystemers indvirkning på vores liv. Til at udarbejde rapporten brugte WEF -medarbejdere data om 13,5 millioner medarbejdere fra hele verden. Ifølge dem vil det samlede behov for mere end 7 millioner job i 2020 forsvinde, mens den forventede vækst i beskæftigelsen i andre brancher vil udgøre godt 2 millioner job.

Anbefalede: