Kunstig intelligens. Fremtiden for Ruslands nationale sikkerhed?

Indholdsfortegnelse:

Kunstig intelligens. Fremtiden for Ruslands nationale sikkerhed?
Kunstig intelligens. Fremtiden for Ruslands nationale sikkerhed?

Video: Kunstig intelligens. Fremtiden for Ruslands nationale sikkerhed?

Video: Kunstig intelligens. Fremtiden for Ruslands nationale sikkerhed?
Video: Pentagon releases video of US drone interception 2024, April
Anonim
Billede
Billede

Ti års udvikling

Det er ingen hemmelighed, at kunstig intelligens trænger dybere og dybere ind i livet for almindelige mennesker rundt om i verden. Dette lettes af både den globale spredning af Internettet og den massive stigning i computerkraft. Neurale netværk, der har en vis lighed med den menneskelige hjerne, har gjort det muligt kvalitativt at forbedre arbejdet med den udviklede software. Der er dog et par afklarende punkter: neurale netværk er stadig meget langt fra niveauet i den menneskelige hjerne, især hvad angår energieffektivitet, og arbejdets algoritmer er stadig ekstremt vanskelige at forstå.

Billede
Billede

Pengene til den kunstige intelligensindustri, på trods af nogle begrænsninger og profilerede ulykker med selvkørende biler, er en bred flod. Sidste år, ifølge den godkendte nationale strategi, oversteg markedet for it -løsninger på dette område $ 21,5 mia. Gud ved hvilket beløb, men det vil kun stige hvert år, og i 2024 vil den samlede AI i verden betinget koste 140 milliarder, og den potentielle økonomiske vækst fra introduktionen af AI på dette tidspunkt vil nå en anstændig 1 billion. dollars. Faktisk var godkendelse af den førnævnte nationale strategi af præsident Vladimir Putin den 10. oktober 2019 et forsøg på at følge med i verdens tendenser. Samtidig erklærer programmet i sig selv ikke kun en reduktion af kløften med verdens ledere, men en adgang til antallet af topspillere på dette marked. Og det er planlagt at gøre dette inden 2030. Blandt de åbenlyse forhindringer på denne vej vil være de protektionistiske udsagn fra en række lande om, at enhver russisk software udgør en potentiel fare.

Hvor skal de implementere AI's "ubegrænsede" muligheder på russisk jord? Først og fremmest er dette automatisering af rutinemæssige operationer sammen med udskiftning af en person i farlige industrier (læs: herunder i hæren). Yderligere planlægges seriøst arbejde med big data, som er blevet genereret ligesom en lavine på det seneste. Det antages, at de vil være i stand til at forbedre prognoser for ledelsesbeslutninger samt optimere udvælgelsen og uddannelsen af personale. Sundhedspleje med uddannelse om ti år vil også være aktive brugere af AI. Inden for medicin vil profylakse, diagnostik, dosering af lægemidler og endda kirurgi blive overdraget til maskinsindet, delvist eller fuldstændigt. I skolerne vil AI blive involveret i individualiseringen af læringsprocesser, analysen af barnets tilbøjelighed til professionel aktivitet og den tidlige identifikation af talentfulde unge. I strategien kan man finde en bestemmelse om "udvikling og implementering af uddannelsesmoduler inden for uddannelsesprogrammerne på alle uddannelsesniveauer." Det vil sige, at det grundlæggende i AI vil blive undervist i skolen?

Som sædvanlig vil det videnskabelige samfund ud over de håndgribelige resultater af udviklingen af AI blive forpligtet til at øge antallet og citationsindekset for artikler af russiske forskere i verdens specialiserede publikationer. Og i 2024, det vil sige meget snart, bør antallet af borgere med AI -kompetencer stige i Rusland. Dette vil især blive realiseret ved at tiltrække indenlandske specialister fra udlandet samt tiltrække udenlandske borgere til at arbejde med dette emne i Rusland.

Imidlertid har AI en kontroversiel kvalitet, som formodes at blive behandlet i strategien ved at "udvikle etiske regler for menneskelig interaktion med kunstig intelligens." Det viser sig, at den kolde beregning af edb -sindet får den til at foretage forudindtagede og uretfærdige generaliseringer.

AI -bias

Blandt massen af spørgsmål til funktionen af moderne AI -systemer skiller de i øjeblikket ufuldkomne algoritmer til autopilotation af hjulkøretøjer sig ud, som stadig ikke tillader dem lovligt at blive brugt i vid udstrækning. Mest sandsynligt vil vi i overskuelig fremtid ikke se AI -biler på vores veje. Vores vejforhold er ikke egnede til dette, og klimaet favoriserer ikke at bruge autopiloten året rundt: mudder og sne vil hurtigt "blinde" de sensoriske systemer i den mest avancerede robot. Derudover vil den massive introduktion af AI uundgåeligt tage job fra millioner af mennesker rundt om i verden - de bliver enten nødt til at efteruddanne sig eller tilbringe resten af deres dage i tomgang. Det er rimeligt at sige, at forskellige nybegyndte "Atlaser of the future's professions" undertiden bærer åbenlys nonsens: i en af dem, dateret 2015, af det nye 2020, f.eks. Bør erhverv som revisor, bibliotekar, korrekturlæser og tester er blevet forældede. Men ikke desto mindre vil profilen for de fleste erhverv ændre sig, og den negative faktor for AI vil herske her. Under alle omstændigheder stiller udsigterne til den videre introduktion af AI i samfundet mange spørgsmål for offentlige tilsynsmyndigheder. Og det ser ud til, at få mennesker ved, hvordan de skal løse dem.

Billede
Billede

Et andet problem, der allerede truer i horisonten, er AI -skævhed i beslutningsprocessen. Amerikanerne var en af de første, der stod over for dette, da COMPAS -systemet blev indført i 15 stater for at forudsige tilfælde af tilbagefald af kriminelle. Og alt syntes at starte meget godt: Det lykkedes os at udvikle en algoritme, der baseret på massen af data (Big Data) danner anbefalinger om straffens sværhedsgrad, en korrektionsinstitutions regime eller tidlig frigivelse. Programmørerne argumenterede med rette, at en sulten dommer om eftermiddagen kan udholde en alt for hård straf, og en velnæret tværtimod er for mild. AI skal tilføje kold beregning til denne procedure. Men det viste sig, at COMPAS og alle lignende programmer er racistiske: AI var dobbelt så tilbøjelige til at fejlagtigt bebrejde afroamerikanere for tilbagefaldshastigheder end hvide (45% mod 23%). AI betragter generelt lyshårede kriminelle som mennesker med et lavt risikoniveau, da de statistisk set er mindre tilbøjelige til at bryde loven - derfor er prognoserne for dem mere optimistiske. I den forbindelse høres der i USA flere og flere stemmer om afskaffelse af AI ved løsning af spørgsmål om kaution, strafudmåling og tidlig frigivelse. Samtidig har den amerikanske retfærdighed intet at gøre med programkoden for disse systemer - alt købes fra tredjepartsudviklere. Predpol, HunchLab og Series Finder softwaresystemer, der opererer på gaderne i mange byer rundt om i verden, har allerede statistisk bevist deres effektivitet: kriminalitet er faldende, men de er ikke blottet for racefordomme. Det mest interessante er, at vi ikke ved, hvilke andre "kakerlakker" der sys ind i disse systemers kunstige hjerner, da mange parametre i analysen er klassificeret. Der er også tvivl om, at udviklerne selv forstår, hvordan AI træffer bestemte beslutninger, hvilke parametre den anser for vigtige. Lignende situationer udvikler sig ikke kun inden for retshåndhævelse og retfærdighed, men også i rekrutteringsbureauer. AI giver i de fleste tilfælde fortrinsret til at ansætte unge mænd, idet de svagere køn- og alderskandidater tilsidesættes. Det er sjovt, at værdierne i Vesten, som de så nidkært fremmer (ligestilling mellem køn og racer), bliver nedtrampet af den seneste vestlige præstation - kunstig intelligens.

Billede
Billede

Konklusionen fra en lille udflugt til teori og praksis om AI antyder følgende. Det er en ting, når vores data fra sociale netværk og andre kilder massivt behandles med henblik på markedsføring eller politisk manipulation, og en anden ting, når retfærdighedens sværd eller, endnu værre, arsenal af national sikkerhed overdrages til AI. Prisen på en forudindtaget beslutning stiger mange gange, og der skal gøres noget ved det. Den, der lykkes med dette, bliver den reelle hersker i det XXI århundrede.

Anbefalede: