Hvordan man definerer kunstig intelligens. Moderne kunstig intelligens

Kunstig intelligens

Kunstig intelligens er en gren af ​​datalogi, der studerer muligheden for at give intelligent ræsonnement og handling vha computersystemer og andre kunstige enheder. I de fleste tilfælde er algoritmen til at løse problemet ukendt på forhånd.

Der er ingen nøjagtig definition af denne videnskab, da spørgsmålet om arten og status af menneskelig intelligens ikke er blevet løst i filosofien. Der er heller ikke noget nøjagtigt kriterium for computere for at opnå "intelligens", selvom der ved begyndelsen af ​​kunstig intelligens blev foreslået en række hypoteser, for eksempel Turing-testen eller Newell-Simon-hypotesen. I øjeblikket er der mange tilgange til både at forstå AI-problemet og skabe intelligente systemer.

En af klassifikationerne identificerer således to tilgange til AI-udvikling:

top-down, semiotisk - skabelsen af ​​symbolske systemer, der modellerer mentale processer på højt niveau: tænkning, ræsonnement, tale, følelser, kreativitet osv.;

bottom-up, biologisk - studiet af neurale netværk og evolutionære beregninger, der modellerer intelligent adfærd baseret på mindre "ikke-intelligente" elementer.

Denne videnskab er relateret til psykologi, neurofysiologi, transhumanisme og andre. Som al datalogi bruger den matematik. Filosofi og robotteknologi er af særlig betydning for hende.

Kunstig intelligens er et meget ungt forskningsfelt, som blev lanceret i 1956. Dens historiske sti ligner en sinusformet, hvor hver "start" blev initieret af en ny idé. I i øjeblikket dets udvikling er i tilbagegang, hvilket giver plads til anvendelsen af ​​allerede opnåede resultater inden for andre områder af videnskab, industri, erhvervsliv og endda hverdagen.

Studiet nærmer sig

Der er forskellige tilgange til at bygge AI-systemer. I øjeblikket er der 4 ret forskellige tilgange:

1. Logisk tilgang. Grundlaget for den logiske tilgang er boolsk algebra. Enhver programmør er bekendt med det og med logiske operatorer fra det tidspunkt, han mestrede IF-operatoren. Den boolske algebra fik sin videreudvikling i form af prædikatregning - hvor den blev udvidet ved at introducere subjektsymboler, relationer mellem dem, eksistensberegninger og universalitet. Næsten alle AI-systemer bygget på et logisk princip er en teorembevisende maskine. I dette tilfælde lagres kildedataene i databasen i form af aksiomer, logiske inferensregler som relationer mellem dem. Derudover har hver sådan maskine en målgenereringsenhed, og slutningssystemet forsøger at bevise dette mål som et teorem. Hvis målet er bevist, giver sporing af de anvendte regler os mulighed for at opnå en kæde af handlinger, der er nødvendige for at nå målet (sådan et system er kendt som ekspertsystemer). Effekten af ​​et sådant system bestemmes af evnerne hos målgeneratoren og sætningsbevismaskinen. En relativt ny retning, såsom fuzzy logic, gør det muligt for den logiske tilgang at opnå større udtryksfuldhed. Dens væsentligste forskel er, at sandheden af ​​et udsagn ud over ja/nej (1/0) også kan tage mellemværdier - jeg ved det ikke (0,5), patienten er mere sandsynligt i live end død (0,75) ), patienten temmelig død end i live (0,25). Denne tilgang minder mere om menneskelig tænkning, da den sjældent besvarer spørgsmål med kun ja eller nej.

2. Med strukturel tilgang mener vi her forsøg på at bygge AI ved at modellere strukturen af ​​den menneskelige hjerne. Et af de første sådanne forsøg var Frank Rosenblatts perceptron. Den vigtigste modellerede strukturelle enhed i perceptroner (som i de fleste andre hjernemodelleringsmuligheder) er neuronen. Senere opstod andre modeller, som er kendt af de fleste under betegnelsen neurale netværk(NS). Disse modeller adskiller sig i strukturen af ​​individuelle neuroner, i topologien af ​​forbindelser mellem dem og i indlæring af algoritmer. Blandt de mest kendte NN-muligheder nu er NN'er med tilbageudbredelse af fejl, Hopfield-netværk og stokastiske neurale netværk. I en bredere forstand er denne tilgang kendt som konnektivisme.

3. Evolutionær tilgang. Når man bygger AI-systemer ved hjælp af denne tilgang, lægges hovedvægten på at opbygge den indledende model og reglerne for, hvordan den kan ændres (udvikles). Desuden kan modellen kompileres ved hjælp af en række forskellige metoder, det kan være et neuralt netværk, et sæt logiske regler eller enhver anden model. Derefter tænder vi for computeren, og baseret på kontrol af modellerne vælger den de bedste af dem, på grundlag af hvilke nye modeller genereres i henhold til en række regler. Blandt evolutionære algoritmer betragtes den genetiske algoritme som klassisk.

4. Simuleringstilgang. Denne tilgang er klassisk for kybernetik, hvor et af dets grundlæggende koncepter er en sort boks. Objektet, hvis adfærd simuleres, er netop en "sort boks". Det er lige meget for os, hvad den og modellen har indeni, og hvordan den fungerer, det vigtigste er, at vores model opfører sig nøjagtigt ens i lignende situationer. Her modelleres således en anden menneskelig egenskab – evnen til at kopiere, hvad andre gør, uden at gå i detaljer om, hvorfor dette er nødvendigt. Ofte sparer denne evne ham for meget tid, især tidligt i hans liv.

Inden for rammerne af hybride intelligente systemer forsøger de at kombinere disse områder. Ekspertslutningsregler kan genereres af neurale netværk, og generative regler opnås ved hjælp af statistisk læring.

En lovende ny tilgang kaldet intelligensforstærkning betragter opnåelsen af ​​AI gennem evolutionær udvikling som en bivirkning af teknologi, der forbedrer menneskelig intelligens.

Forskningsvejledninger

Ved at analysere AI's historie kan vi fremhæve et så bredt område som ræsonnementmodellering. Lange år udviklingen af ​​denne videnskab bevægede sig netop ad denne vej, og nu er den en af ​​de mest udviklede områder i moderne kunstig intelligens. Modelleringsræsonnement involverer skabelsen af ​​symbolske systemer, hvis input er et vist problem, og outputtet kræver dets løsning. Som regel er det foreslåede problem allerede formaliseret, dvs. oversat til matematisk form, men har enten ikke en løsningsalgoritme, eller det er for komplekst, tidskrævende osv. Dette område omfatter: bevis for teoremer, beslutningstagning og spilteori, planlægning og afsendelse, forecasting.

Et vigtigt område er naturlig sprogbehandling, som involverer analyse af evnerne til at forstå, bearbejde og generere tekster på "menneskeligt" sprog. Især problemet med maskinoversættelse af tekster fra et sprog til et andet er endnu ikke løst. I den moderne verden spiller udviklingen af ​​metoder til informationssøgning en vigtig rolle. I sagens natur er den originale Turing-test relateret til denne retning.

Ifølge mange videnskabsmænd er en vigtig egenskab ved intelligens evnen til at lære. Således kommer vidensteknologi i forgrunden, der kombinerer opgaverne med at opnå viden fra simpel information, dens systematisering og brug. Fremskridt på dette område påvirker næsten alle andre områder af AI-forskning. Også her kan to vigtige delområder ikke overses. Den første af dem - maskinlæring - vedrører processen med uafhængig erhvervelse af viden af ​​et intelligent system i processen med dets drift. Den anden er forbundet med oprettelsen af ​​ekspertsystemer - programmer, der bruger specialiserede vidensbaser til at opnå pålidelige konklusioner om ethvert problem.

Stor og interessante præstationer tilgængelig inden for modellering af biologiske systemer. Strengt taget kan dette omfatte flere uafhængige retninger. Neurale netværk bruges til at løse fuzzy og komplekse problemer, såsom geometrisk formgenkendelse eller objektklynger. Den genetiske tilgang er baseret på ideen om, at en algoritme kan blive mere effektiv, hvis den låner bedre egenskaber fra andre algoritmer ("forældre"). En forholdsvis ny tilgang, hvor opgaven er at skabe et autonomt program – en agent, der interagerer med det ydre miljø, kaldes agenttilgangen. Og hvis du ordentligt tvinger en masse "ikke særlig intelligente" agenter til at interagere sammen, kan du få "myre"-intelligens.

Mønstergenkendelsesproblemer er allerede delvist løst på andre områder. Dette omfatter karaktergenkendelse, håndskrevet tekst, tale og tekstanalyse. Særligt værd at nævne er computersyn, som er relateret til maskinlæring og robotteknologi.

Generelt er robotteknologi og kunstig intelligens ofte forbundet med hinanden. Integrationen af ​​disse to videnskaber, skabelsen af ​​intelligente robotter, kan betragtes som et andet område af AI.

Maskinkreativitet skiller sig ud på grund af det faktum, at naturen af ​​menneskelig kreativitet er endnu mindre undersøgt end intelligensens natur. Ikke desto mindre eksisterer dette område, og problemerne med computerskrivning af musik, litterære værker (ofte poesi eller eventyr) og kunstnerisk skabelse stilles her.

Endelig er der mange anvendelser af kunstig intelligens, som hver især udgør et næsten selvstændigt felt. Eksempler omfatter programmeringsintelligens i computerspil, ikke-lineær kontrol og intelligente sikkerhedssystemer.

Det kan ses, at mange forskningsområder overlapper hinanden. Dette er typisk for enhver videnskab. Men inden for kunstig intelligens er forholdet mellem tilsyneladende forskellige områder særligt stærkt, og det hænger sammen med den filosofiske debat om stærk og svag AI.

I begyndelsen af ​​det 17. århundrede foreslog Rene Descartes, at et dyr er en slags kompleks mekanisme, og formulerede derved en mekanistisk teori. I 1623 byggede Wilhelm Schickard den første mekaniske digitale computer, efterfulgt af maskiner af Blaise Pascal (1643) og Leibniz (1671). Leibniz var også den første til at beskrive det moderne binære talsystem, selvom før ham var mange store videnskabsmænd periodisk interesserede i dette system. I det 19. århundrede arbejdede Charles Babbage og Ada Lovelace på en programmerbar mekanisk computer.

I 1910-1913 Bertrand Russell og A. N. Whitehead udgav The Principles of Mathematics, som revolutionerede formel logik. I 1941 byggede Konrad Zuse den første fungerende software-kontrollerede computer. Warren McCulloch og Walter Pitts udgav A Logical Calculus of the Ideas Immanent in Nervous Activity i 1943, som lagde grundlaget for neurale netværk.

Aktuelle tingenes tilstand

I øjeblikket (2008) i skabelsen af ​​kunstig intelligens (i ordets oprindelige betydning hører ekspertsystemer og skakprogrammer ikke hjemme her) er der mangel på ideer. Næsten alle tilgange er blevet testet, men ikke en eneste forskergruppe har nærmet sig fremkomsten af ​​kunstig intelligens.

Nogle af de mest imponerende civile AI-systemer er:

Deep Blue - besejrede verdensmesteren i skak. (Kampen mellem Kasparov og supercomputere bragte hverken dataloger eller skakspillere tilfredshed, og systemet blev ikke genkendt af Kasparov, selvom de originale kompakte skakprogrammer er et integreret element i skakkreativitet. Så dukkede IBM-serien af ​​supercomputere op i brute force-projekterne BluGene (molekylær modellering) og modellering af pyramidecellesystemet i Swiss Blue Brain Center Denne historie er et eksempel på det indviklede og hemmelighedsfulde forhold mellem AI, forretning og nationale strategiske mål.)

Mycin var et af de tidlige ekspertsystemer, der kunne diagnosticere et lille sæt sygdomme, ofte lige så præcist som læger.

20q er et projekt baseret på AI-ideer, baseret på det klassiske spil "20 spørgsmål". Det blev meget populært efter at have vist sig på internettet på hjemmesiden 20q.net.

Tale genkendelse. Systemer som ViaVoice er i stand til at betjene forbrugerne.

Robotter konkurrerer i en forenklet form for fodbold i den årlige RoboCup-turnering.

Anvendelse af AI

Banker bruger kunstig intelligens-systemer (AI) i forsikringsaktiviteter (aktuarmatematik), når de spiller på børsen og ejendomsadministration. I august 2001 slog robotter mennesker i en improviseret handelskonkurrence (BBC News, 2001). Mønstergenkendelsesmetoder (herunder både mere komplekse og specialiserede og neurale netværk) anvendes i vid udstrækning inden for optisk og akustisk genkendelse (herunder tekst og tale), medicinsk diagnostik, spamfiltre, i luftforsvarssystemer (målidentifikation) og også for at sikre et antal andre nationale sikkerhedsopgaver.

Computerspilsudviklere er tvunget til at bruge kunstig intelligens af varierende grad af sofistikering. Standard AI-opgaver i spil er at finde en vej i 2D eller tredimensionelt rum, efterligning af en kampenheds adfærd, beregning af den korrekte økonomiske strategi og så videre.

Udsigter for AI

To retninger af AI-udvikling er synlige:

den første er at løse problemer forbundet med at bringe specialiserede AI-systemer tættere på menneskelige evner og deres integration, som er realiseret af den menneskelige natur.

den anden er skabelsen af ​​kunstig intelligens, som repræsenterer integrationen af ​​allerede oprettede AI-systemer i et enkelt system, der er i stand til at løse menneskehedens problemer.

Forbindelser med andre videnskaber

Kunstig intelligens er tæt forbundet med transhumanisme. Og sammen med neurofysiologi og kognitiv psykologi danner det en mere generel videnskab kaldet kognitiv videnskab. Filosofi spiller en særlig rolle i kunstig intelligens.

Filosofiske spørgsmål

Videnskaben om at "skabe kunstig intelligens" kunne ikke undgå at tiltrække filosoffers opmærksomhed. Med fremkomsten af ​​de første intelligente systemer blev der rejst grundlæggende spørgsmål om mennesket og viden, og til dels om verdensordenen. På den ene side er de uløseligt forbundet med denne videnskab, og på den anden side introducerer de noget kaos i den. Blandt AI-forskere er der stadig ikke noget dominerende synspunkt på kriterierne for intelligens, systematisering af mål og opgaver, der skal løses, der er ikke engang en streng definition af videnskab.

Kan en maskine tænke?

Den mest ophedede debat i filosofien om kunstig intelligens er spørgsmålet om muligheden for at tænke skabt af menneskehænder. Spørgsmålet "Kan en maskine tænke?", som fik forskere til at skabe videnskaben om at simulere det menneskelige sind, blev stillet af Alan Turing i 1950. De to hovedsynspunkter på dette spørgsmål kaldes hypoteserne om stærk og svag kunstig intelligens.

Udtrykket "stærk kunstig intelligens" blev introduceret af John Searle, og tilgangen er karakteriseret i hans ord:

“Desuden ville et sådant program ikke bare være en model for sindet; hun, i ordets bogstavelige betydning, vil selv være sindet, i samme betydning som menneskesind- dette er sindet."

I modsætning hertil foretrækker tilhængere af svag AI kun at se programmer som værktøjer, der giver dem mulighed for at løse visse problemer, der ikke kræver hele spektret af menneskelige kognitive evner.

I sit "Chinese Room"-tankeeksperiment viser John Searle, at beståelse af Turing-testen ikke er et kriterium for, at en maskine har en ægte ræsonnementproces.

Tænkning er processen med at behandle information lagret i hukommelsen: analyse, syntese og selvprogrammering.

En lignende holdning indtager Roger Penrose, som i sin bog "The King's New Mind" argumenterer for, at det er umuligt at opnå tankeprocessen på grundlag af formelle systemer.

Der er forskellige synspunkter på dette spørgsmål. Den analytiske tilgang involverer analyse af en persons højere nervøse aktivitet til det laveste, udelelige niveau (funktionen af ​​højere nervøs aktivitet, en elementær reaktion på eksterne irritanter (stimuli), irritation af synapserne i et sæt neuroner forbundet med funktion) og den efterfølgende gengivelse af disse funktioner.

Nogle eksperter tager fejl af evnen til rationelle, motiverede valg under forhold med mangel på information for intelligens. Det vil sige, at et intellektuelt program simpelthen anses for at være det aktivitetsprogram (ikke nødvendigvis implementeret på moderne computere), der kan vælge fra et bestemt sæt alternativer, for eksempel hvor man skal hen i tilfælde af "du vil gå til venstre .. .", "du vil gå til højre ...", "du vil gå lige ..."

Videnskab om viden

Også epistemologi - videnskaben om viden inden for filosofiens rammer - er tæt forbundet med problemerne med kunstig intelligens. Filosoffer, der arbejder med dette emne, kæmper med spørgsmål svarende til dem, som AI-ingeniører står over for om, hvordan man bedst repræsenterer og bruger viden og information.

Holdninger til AI i samfundet

AI og religion

Blandt tilhængere af Abrahams religioner er der flere synspunkter på muligheden for at skabe AI baseret på en strukturel tilgang.

Ifølge en af ​​dem deltager hjernen, hvis arbejde systemerne forsøger at efterligne, efter deres mening ikke i tankeprocessen, ikke kilden til bevidsthed og nogen anden mental aktivitet. Det er umuligt at skabe AI baseret på en struktureret tilgang.

Ifølge et andet synspunkt er hjernen involveret i tænkeprocessen, men i form af en "transmitter" af information fra sjælen. Hjernen er ansvarlig for sådanne "simple" funktioner som ubetingede reflekser, respons på smerte osv. Det er muligt at skabe AI baseret på en strukturel tilgang, hvis systemet, der designes, kan udføre "overførsels"-funktioner.

Begge positioner svarer ikke til den moderne videnskabs data, fordi sjælsbegrebet tages ikke i betragtning moderne videnskab som en videnskabelig kategori.

Ifølge mange buddhister er AI muligt. Så, åndelig leder Den 14. Dalai Lama udelukker ikke muligheden for eksistensen af ​​bevidsthed på computerbasis.

Raelites støtter aktivt udviklingen inden for kunstig intelligens.

AI og science fiction

I science fiction-litteratur er AI oftest afbildet som en kraft, der forsøger at vælte menneskelig magt (Omnius, HAL 9000, Skynet, Colossus, The Matrix, and the Replicant) eller en tjenende humanoid (C-3PO, Data, KITT og KARR, 200-års mand). Uundgåeligheden af ​​at dominere verden af ​​AI, der er kommet ud af kontrol, bestrides af sådanne science fiction-forfattere som Isaac Asimov og Kevin Warwick.

En nysgerrig vision af fremtiden præsenteres i romanen "The Turing Selection" af science fiction-forfatteren Harry Garrison og videnskabsmanden Marvin Minsky. Forfatterne diskuterer emnet tabet af menneskeheden hos en person, i hvis hjerne en computer blev implanteret, og erhvervelsen af ​​menneskeheden af ​​en AI-maskine, til hvis hukommelse information fra den menneskelige hjerne blev kopieret.

Nogle science fiction-forfattere, såsom Vernor Vinge, har også spekuleret i implikationerne af fremkomsten af ​​AI, som sandsynligvis vil forårsage dramatiske ændringer i samfundet. Denne periode kaldes den teknologiske singularitet.

Definitionen af ​​kunstig intelligens citeret i præamblen, givet af John McCarthy i 1956 på en konference på Dartmouth University, er ikke direkte relateret til forståelsen af ​​menneskelig intelligens. Ifølge McCarthy kan AI-forskere frit bruge teknikker, der ikke ses hos mennesker, hvis det er nødvendigt for at løse specifikke problemer.

Samtidig er der et synspunkt, hvorefter intelligens kun kan være et biologisk fænomen.

Som formanden for Sankt Petersborg-afdelingen påpeger Russisk forening kunstig intelligens T. A. Gavrilova, i engelsk sprog udtryk kunstig intelligens har ikke de der lidt fantastiske antropomorfe overtoner, som den fik i den ret mislykkede russiske oversættelse. Ord intelligens betyder "evnen til at ræsonnere rationelt" og slet ikke "intelligens", som der er en engelsk analog til intelligens .

Deltagere i den russiske sammenslutning af kunstig intelligens giver følgende definitioner af kunstig intelligens:

En af de særlige definitioner af intelligens, fælles for en person og en "maskine", kan formuleres som følger: "Intelligence er et systems evne til at skabe programmer (primært heuristiske) under selvlæring for at løse problemer i en bestemt klasse af kompleksitet og løse disse problemer."

Forudsætninger for udvikling af kunstig intelligens videnskab

Historien om kunstig intelligens som en ny videnskabelig retning begynder i midten af ​​det 20. århundrede. På dette tidspunkt var der allerede dannet mange forudsætninger for dets oprindelse: blandt filosoffer havde der længe været debatter om menneskets natur og processen med at forstå verden, neurofysiologer og psykologer havde udviklet en række teorier om arbejdet i den menneskelige hjerne og tænkning, økonomer og matematikere stillede spørgsmål om optimale beregninger og præsentation af viden om verden i en formaliseret form; endelig blev grundlaget for den matematiske beregningsteori - teorien om algoritmer - født, og de første computere blev skabt.

Nye maskiners muligheder med hensyn til computerhastighed viste sig at være større end menneskelige, så spørgsmålet opstod i det videnskabelige samfund: hvad er grænserne for computerkapaciteter, og vil maskiner nå niveauet for menneskelig udvikling? I 1950 skrev en af ​​pionererne inden for databehandling, den engelske videnskabsmand Alan Turing, en artikel med titlen "Can a Machine Think?" , som beskriver en procedure, hvorved det vil være muligt at bestemme det øjeblik, hvor en maskine bliver lig med en person med hensyn til intelligens, kaldet Turing-testen.

Historien om udviklingen af ​​kunstig intelligens i USSR og Rusland

I USSR begyndte arbejdet inden for kunstig intelligens i 1960'erne. En række banebrydende undersøgelser blev udført ved Moskva Universitet og Videnskabsakademiet, ledet af Veniamin Pushkin og D. A. Pospelov. Siden begyndelsen af ​​1960'erne har M. L. Tsetlin og hans kolleger udviklet problemer relateret til træning af finite state-maskiner.

I 1964 udkom Leningrad-logikeren Sergei Maslovs arbejde, "Den omvendte metode til at etablere udledning i klassisk prædikatregning", hvori han var den første til at foreslå en metode til automatisk at søge efter beviser for sætninger i prædikatregning.

Indtil 1970'erne i USSR blev al AI-forskning udført inden for rammerne af kybernetik. Ifølge D. A. Pospelov var videnskaberne "datalogi" og "kybernetik" blandet på det tidspunkt på grund af en række akademiske tvister. Først i slutningen af ​​1970'erne i USSR begyndte de at tale om den videnskabelige retning "kunstig intelligens" som en gren af ​​datalogi. På samme tid blev datalogi selv født og underordnet sin forfader "kybernetik". I slutningen af ​​1970'erne blev det skabt Ordbog om kunstig intelligens, en opslagsbog i tre bind om kunstig intelligens og encyklopædisk ordbog i datalogi, hvor afsnittene "Kybernetik" og " Kunstig intelligens"er inkluderet, sammen med andre sektioner, i datalogi. Udtrykket "datalogi" blev udbredt i 1980'erne, og udtrykket "kybernetik" forsvandt gradvist fra cirkulationen og forblev kun i navnene på de institutioner, der opstod i æraen med det "cybernetiske boom" i slutningen af ​​1950'erne - begyndelsen af ​​1960'erne. Dette syn på kunstig intelligens, kybernetik og datalogi deles ikke af alle. Dette skyldes det faktum, at grænserne for disse videnskaber i Vesten er noget anderledes.

Tilgange og retninger

Tilgange til at forstå problemet

Der er ikke noget entydigt svar på spørgsmålet om, hvad kunstig intelligens gør. Næsten enhver forfatter, der skriver en bog om AI, tager udgangspunkt i en eller anden definition, idet man ser på resultaterne af denne videnskab i dens lys.

  • top-down AI), semiotisk - skabelse af ekspertsystemer, vidensbaser og logiske inferenssystemer, der simulerer mentale processer på højt niveau: tænkning, ræsonnement, tale, følelser, kreativitet osv.;
  • Bottom-Up AI), biologisk - studiet af neurale netværk og evolutionære beregninger, der modellerer intelligent adfærd baseret på biologiske elementer, såvel som skabelsen af ​​tilsvarende computersystemer, såsom en neurocomputer eller en biocomputer.

Sidstnævnte tilgang hører strengt taget ikke til videnskaben om AI i den forstand givet af John McCarthy - de er kun forenet af et fælles endeligt mål.

Turing-testen og den intuitive tilgang

Denne tilgang fokuserer på de metoder og algoritmer, der vil hjælpe en intelligent agent med at overleve i sit miljø, mens han udfører sin opgave. Så her studeres algoritmerne til at finde en vej og træffe beslutninger meget mere omhyggeligt.

Hybrid tilgang

Hybrid tilgang antager det kun den synergistiske kombination af neurale og symbolske modeller opnår hele rækken af ​​kognitive og beregningsmæssige evner. For eksempel kan ekspertinferensregler genereres af neurale netværk, og generative regler opnås ved hjælp af statistisk læring. Tilhængere af denne tilgang mener, at hybride informationssystemer vil være meget stærkere end summen af ​​de forskellige begreber hver for sig.

Forskningsmodeller og metoder

Symbolsk modellering af tankeprocesser

Ved at analysere AI's historie kan vi identificere et så bredt område som modellerende ræsonnement. I mange år har udviklingen af ​​denne videnskab bevæget sig netop ad denne vej, og nu er det et af de mest udviklede områder inden for moderne kunstig intelligens. Modelleringsræsonnement involverer skabelsen af ​​symbolske systemer, hvis input er sat til en bestemt opgave, og outputtet kræver sin løsning. Som regel er det foreslåede problem allerede blevet formaliseret, det vil sige oversat til matematisk form, men har enten ikke en løsningsalgoritme, eller det er for komplekst, tidskrævende osv. Dette område omfatter: bevise sætninger, træffe beslutninger og spilteori, planlægning og afsendelse, forecasting.

Arbejde med naturlige sprog

En vigtig retning er naturlig sprogbehandling, inden for hvilken analysen af ​​evnerne til at forstå, bearbejde og generere tekster på "menneskeligt" sprog udføres. Inden for denne retning er målet at bearbejde naturligt sprog på en sådan måde, at man selvstændigt vil kunne tilegne sig viden ved at læse eksisterende tekst tilgængelig på internettet. Nogle direkte anvendelser af naturlig sprogbehandling omfatter informationssøgning (herunder deep text mining) og maskinoversættelse.

Repræsentation og brug af viden

Retning vidensteknik kombinerer opgaverne med at opnå viden fra simpel information, deres systematisering og brug. Denne retning er historisk forbundet med skabelsen ekspertsystemer- programmer, der bruger specialiserede vidensbaser til at opnå pålidelige konklusioner om ethvert problem.

At producere viden ud fra data er et af de grundlæggende problemer ved datamining. Der er forskellige tilgange til at løse dette problem, herunder dem, der er baseret på neural netværksteknologi, ved hjælp af neurale netværks verbaliseringsprocedurer.

Maskinelæring

Problemer maskinelæring vedrører processen uafhængig erhvervelse af viden af ​​et intelligent system i processen med dets drift. Denne retning har været central siden begyndelsen af ​​udviklingen af ​​AI. I 1956, ved Dartmund Summer Conference, skrev Ray Solomonoff en rapport om en probabilistisk uovervåget læremaskine, der kaldte den "The Inductive Inference Machine."

Robotik

Maskinens kreativitet

Natur menneskelig kreativitet endnu mindre undersøgt end intelligensens natur. Ikke desto mindre eksisterer dette område, og problemerne med computerskrivning af musik, litterære værker (ofte poesi eller eventyr) og kunstnerisk skabelse stilles her. At skabe realistiske billeder er meget brugt i film- og spilindustrien.

Studiet af problemer med teknisk kreativitet af kunstige intelligenssystemer skiller sig ud separat. Teorien om at løse opfindsomme problemer, foreslået i 1946 af G. S. Altshuller, markerede begyndelsen på en sådan forskning.

Tilføjelse af denne evne til ethvert intelligent system giver dig mulighed for meget tydeligt at demonstrere, hvad systemet præcist opfatter, og hvordan det forstår det. Ved at tilføje støj i stedet for manglende information eller filtrere støj med viden tilgængelig i systemet, produceres abstrakt viden til konkrete billeder, der let opfattes af en person, dette er især nyttigt for intuitiv og lavværdi viden, hvis verifikation i en formel form kræver betydelig mental indsats.

Andre forskningsområder

Endelig er der mange anvendelser af kunstig intelligens, som hver især udgør et næsten selvstændigt felt. Eksempler omfatter programmeringsintelligens i computerspil, ikke-lineær kontrol, intelligente informationssikkerhedssystemer.

I fremtiden forventes det, at udviklingen af ​​kunstig intelligens vil være tæt forbundet med udviklingen af ​​en kvantecomputer, da nogle egenskaber ved kunstig intelligens har lignende driftsprincipper som kvantecomputere.

Det kan ses, at mange forskningsområder overlapper hinanden. Dette er typisk for enhver videnskab. Men i kunstig intelligens forholdet mellem tilsyneladende i forskellige retninger især stærkt udtrykt, og det er forbundet med den filosofiske debat om stærk og svag AI.

Moderne kunstig intelligens

Der kan skelnes mellem to retninger for AI-udvikling:

  • løse problemer forbundet med at bringe specialiserede AI-systemer tættere på menneskelige evner og deres integration, som er realiseret af den menneskelige natur ( se Intelligence Enhancement);
  • skabelsen af ​​kunstig intelligens, der repræsenterer integrationen af ​​allerede skabte AI-systemer i et enkelt system, der er i stand til at løse menneskehedens problemer ( se Stærk og svag kunstig intelligens).

Men i øjeblikket er feltet for kunstig intelligens involveret i mange fagområder, der har et praktisk forhold til AI snarere end et grundlæggende. Mange tilgange er blevet testet, men ingen forskergruppe har endnu nærmet sig fremkomsten af ​​kunstig intelligens. Nedenfor er blot nogle af de mest berømte udviklinger inden for kunstig intelligens.

Ansøgning

Nogle af de mest berømte AI-systemer er:

Banker bruger kunstige intelligenssystemer (AI) i forsikringsaktiviteter (aktuarmatematik), når de spiller på børsen og i ejendomsadministration. Mønstergenkendelsesmetoder (herunder både mere komplekse og specialiserede og neurale netværk) anvendes i vid udstrækning inden for optisk og akustisk genkendelse (herunder tekst og tale), medicinsk diagnostik, spamfiltre, i luftforsvarssystemer (målidentifikation) samt for at sikre en antal andre nationale sikkerhedsopgaver.

Psykologi og kognitionsvidenskab

Kognitiv modelleringsmetodologi er designet til at analysere og træffe beslutninger i dårligt definerede situationer. Det blev foreslået af Axelrod.

Den er baseret på modellering af eksperters subjektive ideer om situationen og omfatter: en metode til at strukturere situationen: en model til at repræsentere ekspertens viden i form af en signeret digraf (kognitivt kort) (F, W), hvor F er sættet af faktorer i situationen, W er sættet af årsag-virkning-forhold mellem situationens faktorer; metoder til situationsanalyse. I øjeblikket udvikler metoden for kognitiv modellering sig i retning af at forbedre apparatet til at analysere og modellere situationen. Her foreslås modeller til at forudsige udviklingen af ​​situationen; metoder til at løse omvendte problemer.

Filosofi

Videnskaben om at "skabe kunstig intelligens" kunne ikke undgå at tiltrække filosoffers opmærksomhed. Med fremkomsten af ​​de første intelligente systemer blev der rejst grundlæggende spørgsmål om mennesket og viden, og til dels om verdensordenen.

Filosofiske problemer med at skabe kunstig intelligens kan relativt set opdeles i to grupper "før og efter udviklingen af ​​AI." Den første gruppe besvarer spørgsmålet: "Hvad er AI, er det muligt at skabe det, og hvis muligt, hvordan gør man det?" Den anden gruppe (etik af kunstig intelligens) stiller spørgsmålet: "Hvad er konsekvenserne af at skabe AI for menneskeheden?"

Udtrykket "stærk kunstig intelligens" blev introduceret af John Searle, og tilgangen er karakteriseret i hans ord:

Desuden ville et sådant program ikke blot være en model for sindet; hun, i ordets bogstavelige betydning, vil selv være sindet, i samme betydning som det menneskelige sind er sindet.

Samtidig er det nødvendigt at forstå, om et "rent kunstigt" sind ("metamind") er muligt, der forstår og løser reelle problemer og samtidig er blottet for følelser, der er karakteristiske for en person og nødvendige for hans individuelle overlevelse [ ] .

I modsætning hertil foretrækker tilhængere af svag AI kun at se programmer som værktøjer, der giver dem mulighed for at løse visse problemer, der ikke kræver hele spektret af menneskelige kognitive evner.

Etik

Andre traditionelle trosretninger beskriver sjældent problemerne med AI. Men nogle teologer er ikke desto mindre opmærksomme på dette. For eksempel sætter ærkepræst Mikhail Zakharov, der argumenterer ud fra det kristne verdenssyn, næste spørgsmål: ”Mennesket er et rationelt frit væsen, skabt af Gud i hans billede og lignelse. Vi er vant til at henføre alle disse definitioner til biologiske art Homo Sapiens. Men hvor berettiget er dette? . Han besvarer dette spørgsmål sådan:

Hvis vi antager, at forskning inden for kunstig intelligens en dag vil føre til fremkomsten af ​​et kunstigt væsen, der er overlegent i intelligens i forhold til mennesker og har fri vilje, ville det så betyde, at dette væsen er en person? ... mennesket er Guds skaberværk. Kan vi kalde denne skabning en skabelse af Gud? Ved første øjekast er det en menneskelig skabelse. Men selv under menneskets skabelse er det næppe værd at forstå bogstaveligt, at Gud skulpturerede det første menneske af ler med sine egne hænder. Dette er sandsynligvis en allegori, der indikerer den menneskelige krops materialitet, skabt af Guds vilje. Men uden Guds vilje sker der intet i denne verden. Mennesket, som en medskaber af denne verden, kan, i opfyldelse af Guds vilje, skabe nye skabninger. Sådanne skabninger, skabt af menneskehænder efter Guds vilje, kan nok kaldes Guds skabninger. Mennesket skaber jo nye arter af dyr og planter. Og vi betragter planter og dyr som Guds skaberværk. Det samme kan anvendes på et kunstigt væsen af ​​ikke-biologisk karakter.

Science fiction

Emnet AI betragtes fra forskellige vinkler i Robert Heinleins værker: hypotesen om fremkomsten af ​​selvbevidsthed om AI, når strukturen bliver mere kompleks ud over et vist kritisk niveau, og der er interaktion med omverdenen og andre bærere af AI. intelligens ("The Moon Is a Barsh Mistress", "Time Enough For Love", karaktererne Mycroft, Dora og Aya i "History of the Future"-serien), problemer med AI-udvikling efter hypotetisk selvbevidsthed og nogle sociale og etiske spørgsmål ("Fredag"). De sociopsykologiske problemer ved menneskelig interaktion med AI overvejes også i Philip K. Dicks roman "Do Androids Dream of Electric Sheep? ", også kendt for filmatiseringen af ​​Blade Runner.

Science fiction-forfatteren og filosoffen Stanislaw Lems værker beskriver og foregriber i høj grad skabelsen af ​​virtual reality, kunstig intelligens, nanorobotter og mange andre problemer i filosofien om kunstig intelligens. Det er især værd at bemærke futurologien i Sum teknologi. Derudover beskrives i Iyon Tikhys eventyr gentagne gange forholdet mellem levende væsener og maskiner: den indbyggede computers oprør med efterfølgende uventede hændelser(11 rejse), tilpasning af robotter til menneskelige samfund("Vasketragedie" fra "Memoirs of Ijon the Quiet"), opbygning af absolut orden på planeten ved at behandle levende indbyggere (24. rejse), opfindelser af Corcoran og Diagoras ("Erindringer om Ijon den Stille"), en psykiatrisk klinik for robotter ("Ijon den Stilles erindringer" "). Derudover er der en hel række af romaner og historier Cyberiad, hvor næsten alle karaktererne er robotter, som er fjerne efterkommere af robotter, der flygtede fra mennesker (de kalder folk pallids og betragter dem som mytiske væsner).

Film

Siden næsten 1960'erne, sammen med forfatterskabet fantasihistorier og historier, bliver der lavet film om kunstig intelligens. Mange historier af forfattere, der er anerkendt over hele verden, bliver filmatiseret og bliver klassikere af genren, andre bliver en milepæl i udviklingen

Kunstig intelligens (AI, engelsk: Artificial intelligence, AI) - videnskaben og teknologien til at skabe intelligente maskiner, især intelligente computerprogrammer. AI er relateret til den lignende opgave at bruge computere til at forstå menneskelig intelligens, men er ikke nødvendigvis begrænset til biologisk plausible metoder.

Hvad er kunstig intelligens

Intelligens(fra lat. intellectus - sansning, perception, forståelse, forståelse, begreb, fornuft) eller sind - en kvalitet af psyken bestående af evnen til at tilpasse sig nye situationer, evnen til at lære og huske baseret på erfaring, forstå og anvende abstrakte begreber og bruge sin viden til miljøledelse. Intelligens er generel evne til viden og løsning af vanskeligheder, som forener alt kognitive evner menneske: sansning, perception, hukommelse, repræsentation, tænkning, fantasi.

I begyndelsen af ​​1980'erne. Computational videnskabsmænd Barr og Fajgenbaum foreslog følgende definition af kunstig intelligens (AI):


Senere begyndte en række algoritmer og softwaresystemer at blive klassificeret som AI, særpræg hvilket er, at de kan løse nogle problemer på samme måde, som en person, der tænker på deres løsning, ville gøre.

De vigtigste egenskaber ved AI er sprogforståelse, læring og evnen til at tænke og, vigtigere, handle.

AI er et kompleks af relaterede teknologier og processer, der udvikler sig kvalitativt og hurtigt, for eksempel:

  • tekstbehandling på naturligt sprog
  • ekspertsystemer
  • virtuelle agenter (chatbots og virtuelle assistenter)
  • anbefalingssystemer.

Teknologiske retninger af AI. Deloitte data

AI forskning

  • Hovedartikel: Forskning i kunstig intelligens

Standardisering i AI

2018: Udvikling af standarder inden for kvantekommunikation, AI og smart city

Den 6. december 2018 begyndte den tekniske komité "Cyber-Physical Systems" baseret på RVC sammen med det regionale ingeniørcenter "SafeNet" at udvikle et sæt standarder for markederne for National Technology Initiative (NTI) og den digitale økonomi. Inden marts 2019 er det planlagt at udvikle tekniske standardiseringsdokumenter inden for kvantekommunikation, og RVC rapporterede. Læs mere.

Effekten af ​​kunstig intelligens

Risiko for udviklingen af ​​den menneskelige civilisation

Indvirkning på økonomi og forretning

  • Indvirkningen af ​​kunstig intelligens-teknologier på økonomien og erhvervslivet

Indvirkning på arbejdsmarkedet

Artificial Intelligence Bias

Kernen i alt, hvad der er praksis med AI (maskinoversættelse, talegenkendelse, naturlig sprogbehandling, computersyn, automatiseret kørsel og meget mere) er dyb læring. Det er en delmængde af maskinlæring, karakteriseret ved brugen af ​​neurale netværksmodeller, som kan siges at efterligne hjernens funktion, så det ville være en strækning at klassificere dem som AI. Enhver neural netværksmodel er trænet på store datasæt, så den tilegner sig nogle "færdigheder", men hvordan den bruger dem, er stadig uklart for dens skabere, hvilket i sidste ende bliver et af de vigtigste problemer for mange deep learning-applikationer. Årsagen er, at sådan en model arbejder med billeder formelt uden nogen forståelse for, hvad den gør. Er sådan et system AI, og kan man stole på systemer bygget på maskinlæring? Værdien af ​​svaret på sidste spørgsmål går ud over videnskabelige laboratorier. Derfor er mediernes opmærksomhed på fænomenet kaldet AI-bias mærkbart intensiveret. Det kan oversættes til "AI bias" eller "AI bias". Læs mere.

Kunstig intelligens teknologimarked

AI-markedet i Rusland

Globalt AI-marked

Anvendelsesområder for AI

Anvendelsesområderne for AI er ret brede og dækker både teknologier, der er velkendte for øret, og nye områder, der er langt fra masseansøgning Det er med andre ord hele rækken af ​​løsninger, lige fra støvsugere til rumstationer. Du kan opdele al deres mangfoldighed i henhold til kriteriet om nøglepunkter i udviklingen.

AI er ikke et monolitisk fagområde. Desuden fremstår nogle teknologiske områder af AI som nye undersektorer af økonomien og separate enheder, mens de samtidig betjener de fleste områder i økonomien.

Vigtigste kommercielle anvendelser af kunstig intelligens-teknologier

Udviklingen af ​​brugen af ​​AI fører til tilpasning af teknologier i klassiske sektorer af økonomien langs hele værdikæden og transformerer dem, hvilket fører til algoritmisering af næsten al funktionalitet, fra logistik til virksomhedsledelse.

Brug af kunstig intelligens til forsvar og militære anliggender

Brug i undervisningen

Brug af AI i erhvervslivet

AI i elindustrien

  • På designniveau: forbedret forudsigelse af produktion og efterspørgsel efter energiressourcer, vurdering af pålideligheden af ​​strømproducerende udstyr, automatisering af øget produktion, når efterspørgslen stiger.
  • På produktionsniveau: optimering af forebyggende vedligeholdelse af udstyr, øget produktionseffektivitet, reduktion af tab, forebyggelse af tyveri af energiressourcer.
  • På kampagneniveau: optimering af priser afhængigt af tidspunktet på dagen og dynamisk fakturering.
  • På serviceniveau: automatisk valg af den mest rentable leverandør, detaljerede statistikker forbrug, automatiseret kundeservice, optimering af energiforbrug under hensyntagen til kundernes vaner og adfærd.

AI i fremstilling

  • På designniveau: øge effektiviteten af ​​udvikling af nye produkter, automatiseret leverandørvurdering og analyse af reservedelskrav.
  • På produktionsniveau: forbedring af processen med at udføre opgaver, automatisering af samlebånd, reduktion af antallet af fejl, reduktion af leveringstider for råvarer.
  • På salgsfremmende niveau: forudsigelse af mængden af ​​support- og vedligeholdelsestjenester, prisstyring.
  • På serviceniveau: forbedring af planlægningen af ​​ruter for bilflåden, efterspørgsel efter flådressourcer, forbedring af kvaliteten af ​​uddannelsen af ​​serviceingeniører.

AI i banker

  • Mønstergenkendelse - brugt inkl. at genkende kunder i filialer og formidle specialiserede tilbud til dem.

Vigtigste kommercielle anvendelsesområder for kunstig intelligens-teknologier i banker

AI i transport

  • Bilindustrien er på randen af ​​en revolution: 5 udfordringer fra æraen med ubemandet kørsel

AI i logistik

AI i brygning

Brug af kunstig intelligens i offentlig administration

AI i retsmedicin

  • Mønstergenkendelse - brugt inkl. at identificere kriminelle i det offentlige rum.
  • I maj 2018 blev det kendt, at det hollandske politi brugte kunstig intelligens til at efterforske komplekse forbrydelser.

Ifølge udgave The Næste web, retshåndhævende myndigheder begyndte at digitalisere mere end 1.500 rapporter og 30 millioner sider relateret til uopklarede sager. Materialer fra 1988 og frem, hvor forbrydelsen ikke er opklaret i mindst tre år, og gerningsmanden er idømt mere end 12 års fængsel, overføres til computerformat.

Løs en kompleks forbrydelse på en dag. Politiet adopterer AI

Når alt indholdet er digitaliseret, vil det blive forbundet med et maskinlæringssystem, der analyserer registreringerne og beslutter, hvilke sager der bruger de mest pålidelige beviser. Dette skulle reducere den tid, det tager at behandle sager og opklare tidligere og fremtidige forbrydelser fra flere uger til én dag.

Kunstig intelligens vil fordele sager efter deres "løselighed" og angive mulige resultater DNA undersøgelse. Planen er så at automatisere analyser på andre områder af retsmedicin, og måske endda udvide data til områder som f.eks samfundsvidenskab og vidneforklaringer.

Derudover, som en af ​​systemudviklerne, Jeroen Hammer, sagde, kan API-funktioner for partnere blive frigivet i fremtiden.


Det hollandske politi har en særlig enhed, der er specialiseret i at udvikle nye teknologier til at opklare forbrydelser. Det var ham, der skabte AI-systemet til hurtigt at søge efter kriminelle baseret på beviser.

AI i retsvæsenet

Udviklingen inden for kunstig intelligens vil bidrage til radikalt at ændre retssystemet, hvilket gør det mere retfærdigt og fri for korruptionsordninger. Denne udtalelse blev udtrykt i sommeren 2017 af Dr. tekniske videnskaber, teknisk konsulent for Artezio Vladimir Krylov.

Forskeren mener, at eksisterende løsninger inden for kunstig intelligens med succes kan anvendes på forskellige områder af økonomien og det offentlige liv. Eksperten påpeger, at AI med succes bruges i medicin, men i fremtiden kan det fuldstændig ændre retssystemet.

"Når man ser på nyhedsrapporter hver dag om udviklingen inden for AI, bliver man kun overrasket over den uudtømmelige fantasi og frugtbarhed hos forskere og udviklere på dette område. Rapporter om videnskabelig forskning bliver konstant blandet med publikationer om nye produkter, der brager ind på markedet og rapporter om fantastiske resultater opnået ved brug af kunstig intelligens i forskellige områder. Hvis vi taler om forventede begivenheder, ledsaget af mærkbar hype i medierne, hvor AI igen bliver nyhedens helt, så risikerer jeg nok ikke at lave teknologiske prognoser. Jeg kan antage, at den næste begivenhed vil være fremkomsten af ​​en yderst kompetent domstol i form af kunstig intelligens, retfærdig og ubestikkelig. Dette vil tilsyneladende ske i 2020-2025. Og de processer, der vil finde sted i denne domstol, vil føre til uventede refleksioner og mange menneskers ønske om at overføre de fleste processer til at styre det menneskelige samfund til kunstig intelligens."

Videnskabsmanden anerkender brugen af ​​kunstig intelligens i retssystemet som et "logisk skridt" til at udvikle lovgivningsmæssig lighed og retfærdighed. Maskinens intelligens er ikke underlagt korruption og følelser, kan nøje overholde de lovmæssige rammer og træffe beslutninger under hensyntagen til mange faktorer, herunder data, der karakteriserer parterne i tvisten. Analogt med det medicinske område kan robotdommere operere med big data fra lagerfaciliteter offentlige tjenester. Det kan antages, at maskinintelligens vil være i stand til hurtigt at behandle data og tage højde for væsentligt flere faktorer end en menneskelig dommer.

Eksperte psykologer mener dog, at fraværet af en følelsesmæssig komponent, når man behandler retssager, vil påvirke kvaliteten af ​​afgørelsen negativt. Dommen fra en maskindomstol kan være for ligetil, uden at tage hensyn til vigtigheden af ​​folks følelser og stemninger.

Maleri

I 2015 testede Google-teamet neurale netværk for at se, om de kunne skabe billeder på egen hånd. Derefter blev kunstig intelligens trænet ved hjælp af en lang række forskellige billeder. Men da maskinen blev "bedt" om at afbilde noget på egen hånd, viste det sig, at den fortolkede verden omkring os på en noget mærkelig måde. For eksempel, til opgaven med at tegne håndvægte, modtog udviklerne et billede, hvor metallet var forbundet af menneskehænder. Dette skete sandsynligvis på grund af det faktum, at de analyserede billeder med håndvægte under træningsfasen indeholdt hænder, og det neurale netværk fortolkede dette forkert.

Den 26. februar 2016 indsamlede Google-repræsentanter ved en særlig auktion i San Francisco omkring 98.000 USD fra psykedeliske malerier skabt af kunstig intelligens. Disse midler blev doneret til velgørenhed. Et af de mest succesrige billeder af bilen er præsenteret nedenfor.

Et maleri malet af Googles kunstige intelligens.

Kunstig intelligens

Kunstig intelligens[Engelsk] Kunstig intelligens (AI)] er en gren af ​​computervidenskab, der studerer muligheden for at give intelligent ræsonnement og handling ved hjælp af computersystemer og andre kunstige enheder.
I de fleste tilfælde er algoritmen til at løse problemet ukendt på forhånd.
Den første forskning relateret til kunstig intelligens blev foretaget næsten umiddelbart efter fremkomsten af ​​de første computere.
I 1910-13 Bertrand Russell og Alfred North Whitehead udgav The Principles of Mathematics, som revolutionerede den formelle logik. I 1931 viste Kurt Gödel, at et tilstrækkeligt komplekst formelt system indeholder udsagn, som ikke desto mindre ikke kan bevises eller modbevises inden for rammerne af dette system. Således kan et AI-system, der fastslår sandheden af ​​alle udsagn ved at udlede dem fra aksiomer, ikke bevise disse udsagn. Da mennesker kan "se" sandheden af ​​sådanne udsagn, er AI kommet til at blive set som en eftertanke. I 1941 byggede Konrad Zuse den første fungerende software-kontrollerede computer. Warren McCulloch og Walter Pitts udgav A Logical Calculus of the Ideas Immanent in Nervous Activity i 1943, som lagde grundlaget for neurale netværk.
I 1954 besluttede den amerikanske forsker A. Newel at skrive et program til at spille skak. Han delte denne idé med RAND Corporation (www.rand.org) analytikere J. Show og H. Simon, som tilbød Newell deres hjælp. Som et teoretisk grundlag for et sådant program blev det besluttet at bruge den metode, der blev foreslået i 1950 af Claude Shannon, grundlæggeren af ​​informationsteori. En præcis formalisering af denne metode blev udført af Alan Turing. Han modellerede det i hånden. En gruppe hollandske psykologer ledet af A. de Groot, som studerede fremragende skakspilleres spillestile, var involveret i arbejdet. Om to år samarbejde Dette hold skabte programmeringssproget IPL1 - tilsyneladende det første symbolsprog til behandling af lister. Snart blev det første program skrevet, hvilket kan tilskrives resultater inden for kunstig intelligens. Dette var programmet "Logic-Theorist" (1956), designet til automatisk bevis for sætninger i propositionalregning.
Selve programmet for at spille skak, NSS, blev afsluttet i 1957. Dets arbejde var baseret på såkaldte heuristika (regler, der tillader en at træffe et valg i mangel af præcise teoretiske grunde) og beskrivelser af mål. Kontrolalgoritmen forsøgte at reducere forskellene mellem vurderinger af den aktuelle situation og vurderinger af målet eller et af delmålene.
I 1960 skrev den samme gruppe, baseret på principperne brugt i NSS, et program, som dets skabere kaldte GPS (General Problem Solver) - en universel problemløser. GPS kunne klare en række gåder, beregn ubestemte integraler, løse nogle andre problemer. Disse resultater har tiltrukket sig opmærksomhed fra dataforskere. Der er dukket programmer op til automatisk at bevise sætninger fra planimetri og løse algebraiske problemer (formuleret på engelsk).
John McCarty fra Stanford var interesseret i det matematiske grundlag for disse resultater og symbolske beregninger generelt. Som et resultat udviklede han i 1963 LISP-sproget (LISP, fra List Processing), som var baseret på brugen af ​​en enkelt listerepræsentation for programmer og data, brugen af ​​udtryk til at definere funktioner og parentessyntaks.
Logikere er også begyndt at vise interesse for forskning inden for kunstig intelligens. Også i 1964 blev Leningrad-logikeren Sergei Maslovs arbejde, "En omvendt metode til at etablere deducerbarhed i klassisk prædikatregning," offentliggjort, hvori han først foreslog en metode til automatisk at søge efter beviser for sætninger i prædikatregning.
Et år senere (i 1965) udkom J.A. Robinsons værk i USA, viet til en lidt anderledes metode til automatisk at søge efter beviser for teoremer i førsteordens prædikatregning. Denne metode blev kaldt opløsningsmetoden og tjente som udgangspunkt for skabelsen af ​​et nyt programmeringssprog med en indbygget inferensprocedure - Prolog-sproget (PROLOG) i 1971.
I 1966, i USSR, udviklede Valentin Turchin det rekursive funktionssprog Refal, beregnet til at beskrive sprog og forskellige typer deres behandling. Selvom det var udtænkt som et algoritmisk metasprog, var det for brugeren, ligesom LISP og Prolog, et sprog til behandling af symbolsk information.
I slutningen af ​​60'erne. de første spilprogrammer dukkede op, systemer til elementær tekstanalyse og løsning af nogle matematiske problemer (geometri, integralregning). I de komplekse søgeproblemer, der opstod, blev antallet af muligheder, der skulle søges, kraftigt reduceret ved brug af alle former for heuristik og "sund fornuft". Denne tilgang kom til at blive kaldt heuristisk programmering. Videre udvikling heuristisk programmering fulgte vejen med at komplicere algoritmer og forbedre heuristikken. Det blev dog hurtigt klart, at der var en vis grænse, ud over hvilken ingen forbedringer i heuristik eller komplikationer af algoritmen ville forbedre kvaliteten af ​​systemet og, vigtigst af alt, udvide dets muligheder. Et program, der spiller skak, vil aldrig spille dam eller kortspil.
Efterhånden begyndte forskere at forstå, at alle tidligere oprettede programmer manglede det vigtigste - viden på det relevante område. Ved løsning af problemer opnår specialister høje resultater takket være deres viden og erfaring; Hvis programmer får adgang til viden og anvender den, vil de også opnå arbejde af høj kvalitet.
Denne forståelse, som opstod i begyndelsen af ​​70'erne, betød i det væsentlige et kvalitativt spring i arbejdet med kunstig intelligens.
Grundlæggende overvejelser i denne henseende blev udtrykt i 1977 på den 5. fælles konference om kunstig intelligens af den amerikanske videnskabsmand E. Feigenbaum.
Allerede i midten af ​​70'erne. De første anvendte intelligente systemer dukker op, der bruger forskellige metoder til at repræsentere viden til at løse problemer - ekspertsystemer. En af de første var DENDRAL-ekspertsystemet, udviklet ved Stanford University og designet til at generere formler kemiske forbindelser baseret på spektralanalyse. I øjeblikket leveres DENDRAL til kunderne sammen med et spektrometer. MYCIN-systemet er beregnet til diagnosticering og behandling af smitsomme blodsygdomme. PROSPECTOR-systemet forudsiger mineralforekomster. Der er oplysninger om, at der med dens hjælp blev opdaget molybdænaflejringer, hvis værdi overstiger 100 millioner dollars. Vandkvalitetsvurderingssystem implementeret baseret på Russisk teknologi SIMER + MIR for flere år siden, årsagerne til at overskride de maksimalt tilladte koncentrationer af forurenende stoffer i Moskva-floden i Serebryany Bor-området. CASNET-systemet er designet til at diagnosticere og vælge behandlingsstrategier for glaukom mv.
I øjeblikket er udvikling og implementering af ekspertsystemer blevet et selvstændigt ingeniørområde. Den videnskabelige forskning er koncentreret om en række områder, hvoraf nogle er anført nedenfor.
Teorien definerer ikke klart, hvad der præcist anses for nødvendigt og tilstrækkelige betingelser for at opnå intellektualitet. Selvom der er en række hypoteser på denne score, for eksempel Newell-Simon-hypotesen. Typisk nærmes implementeringen af ​​intelligente systemer netop ud fra synspunktet om at modellere menneskelig intelligens. Inden for kunstig intelligens er der således to hovedretninger:
■ symbolsk (semiotisk, top-down) er baseret på modellering af menneskelige tankeprocesser på højt niveau, på repræsentation og brug af viden;
■ neuro-kybernetisk (neuralt netværk, bottom-up) er baseret på modellering af individuelle hjernestrukturer på lavt niveau (neuroner).
Således er det ultimative mål med kunstig intelligens at bygge et computerintelligent system, der ville have et effektivitetsniveau til at løse uformelle problemer, der kan sammenlignes med eller overlegent et menneskeligt.
De mest almindeligt anvendte programmeringsparadigmer, når man bygger kunstige intelligenssystemer, er funktionel programmering og logisk programmering. De adskiller sig fra traditionelle strukturelle og objektorienterede tilgange til udvikling af programlogik ved ikke-lineær udledning af løsninger og lavniveauværktøjer til at understøtte analyse og syntese af datastrukturer.
Der er to videnskabelige skoler med forskellige tilgange til AI-problemet: Konventionel AI og Computational AI.
I konventionel AI Der anvendes hovedsageligt maskinelle selvlæringsmetoder baseret på formalisme og statistisk analyse.
Konventionelle AI-metoder:
■ Ekspertsystemer: programmer, der efter bestemte regler behandler en stor mængde information og som følge heraf udsender en konklusion baseret på den.
■ Case-baseret ræsonnement.
■ Bayesianske netværk - det er en statistisk metode til at opdage mønstre i data. Til dette formål anvendes primær information, enten indeholdt i netværksstrukturer eller i databaser
■ Adfærdsmæssig tilgang: en modulær metode til at bygge AI-systemer, hvor systemet er opdelt i flere relativt autonome adfærdsprogrammer, der lanceres afhængig af ændringer i det ydre miljø.
Computational AI involverer iterativ udvikling og træning (f.eks. valg af parametre i et tilslutningsnetværk). Læring er empirisk baseret og er forbundet med ikke-symbolsk AI og soft computing.
Grundlæggende metoder til beregningsmæssig AI:
■ Neurale netværk: systemer med fremragende genkendelsesegenskaber.
■ Fuzzy systemer: teknikker til ræsonnement under forhold med usikkerhed (udbredt i moderne industri- og forbrugerkontrolsystemer)
■ Evolutionære beregninger: her anvendes begreber, der traditionelt er relateret til biologi, såsom population, mutation og naturlig selektion at skabe bedre løsninger på et problem. Disse metoder er opdelt i evolutionære algoritmer (for eksempel genetiske algoritmer) og sværm-intelligens metoder (for eksempel myrealgoritmer).
Inden for rammerne af hybride intelligente systemer forsøger de at kombinere disse to retninger. Ekspertslutningsregler kan genereres af neurale netværk, og generative regler opnås ved hjælp af statistisk læring.
Lovende retninger for kunstig intelligens.
CBR-teknikker (Case-Based Reasoning) bruges allerede i mange anvendte problemer- i medicin, projektledelse, til analyse og omorganisering af miljøet, til udvikling af forbrugsvarer under hensyntagen til præferencer forskellige grupper forbrugere mv. Vi bør forvente anvendelser af CBR-metoder til opgaver med intelligent informationssøgning, e-handel (tilbyde varer, skabe virtuelle salgsbureauer), planlægningsadfærd i dynamiske miljøer, layout, design og syntese af programmer.
Derudover bør vi forvente en stigende indflydelse af ideer og metoder (AI) på maskinanalyse af naturlige sprogtekster (AT). Denne påvirkning vil sandsynligvis påvirke semantisk analyse og relaterede metoder parsing- på dette område vil det vise sig ved at tage højde for verdensmodellen på de sidste stadier af semantisk analyse og bruge viden om emneområde og situationsbestemt information for at reducere søgninger på tidligere stadier (for eksempel ved konstruktion af parse-træer).
Den anden "kommunikationskanal" mellem AI og AT er brugen af ​​maskinlæringsmetoder i AT; den tredje "kanal" er brugen af ​​ræsonnement baseret på præcedens og ræsonnement baseret på argumentation for at løse nogle AT-problemer, for eksempel problemer med at reducere støj og øge graden af ​​søgerelevans.
Et af de vigtigste og mest lovende områder inden for kunstig intelligens i dag er opgaven med automatisk adfærdsplanlægning. Anvendelsesområdet for automatiske planlægningsmetoder omfatter en bred vifte af enheder med en høj grad af autonomi og målrettet adfærd, fra husholdningsapparater til ubemandede rumfartøjer til udforskning af det dybe rum.

Brugte kilder
1. Stuart Russell, Peter Norvig "Artificial Intelligence: A Modern Approach (AIMA)", 2. udgave: Trans. fra engelsk - M.: Forlag"Williams", 2005.-1424 s. med illus.
2. George F. Luger "Artificial Intelligence: Strategies and Methods of Solution", 4. udgave: Trans. fra engelsk - M.: Williams Publishing House, 2004.
3. Gennady Osipov, formand for den russiske sammenslutning af kunstig intelligens, permanent medlem af European Coordination Committee on Artificial Intelligence (ECCAI), Doctor of Physical and Mathematical Sciences, Professor "Artificial Intelligence: State of Research and Looking to the Future."

Kunstig intelligens

Kunstig intelligens(AI, fra engelsk. Artificial intelligence, AI) - videnskaben og teknologien til at skabe intelligente maskiner, især intelligente computerprogrammer.

AI er relateret til den lignende opgave at bruge computere til at forstå menneskelig intelligens, men er ikke nødvendigvis begrænset til biologisk plausible metoder.

AI er en videnskabelig retning, der udvikler metoder, der gør det muligt for en elektronisk computer at løse intellektuelle problemer, hvis de løses af en person. Udtrykket "kunstig intelligens" refererer til en maskines funktionalitet til at løse menneskelige problemer. Kunstig intelligens har til formål at øge effektiviteten af ​​forskellige former for menneskeligt mentalt arbejde.

Den mest almindelige form for kunstig intelligens er en computer, der er programmeret til at reagere på et bestemt emne. Sådanne "ekspertsystemer" har den menneskelige evne til at udføre en eksperts analytiske arbejde. En lignende tekstbehandler kan registrere stavefejl og kan "læres" nye ord. Nært beslægtet med denne videnskabelige disciplin er en anden, hvis emne undertiden kaldes "kunstigt liv." Hun beskæftiger sig mere med intellektet lavt niveau. Eksempelvis kan en robot programmeres til at navigere i tåge, dvs. give ham evnen fysisk interaktion med miljøet.

Udtrykket "kunstig intelligens" blev første gang foreslået på et seminar med samme navn på Dartsmouth College i USA i 1956. Efterfølgende gav forskellige videnskabsmænd følgende definitioner af kunstig intelligens:

AI er en gren af ​​datalogi, der er forbundet med automatisering af intelligent adfærd;

AI er videnskaben om beregning, der gør perception, slutning og handling mulig;

AI er Informationsteknologi, forbundet med processerne for logisk inferens, læring og perception.

Historien om kunstig intelligens som en ny videnskabelig retning begynder i midten af ​​det 20. århundrede. På dette tidspunkt var der allerede dannet mange forudsætninger for dets oprindelse: blandt filosoffer havde der længe været debatter om menneskets natur og processen med at forstå verden, neurofysiologer og psykologer havde udviklet en række teorier om arbejdet i den menneskelige hjerne og tænkning, økonomer og matematikere stillede spørgsmål om optimale beregninger og præsentation af viden om verden i en formaliseret form; endelig blev grundlaget for den matematiske beregningsteori - teorien om algoritmer - født, og de første computere blev skabt.

Hovedproblemet med kunstig intelligens er udviklingen af ​​metoder til at repræsentere og bearbejde viden.

Kunstig intelligens programmer omfatter:

Spilprogrammer (stokastiske, computerspil);

Naturlige sprogprogrammer - maskinoversættelse, tekstgenerering, talebehandling;

Genkendelsesprogrammer - genkendelse af håndskrift, billeder, kort;

Programmer til at skabe og analysere grafik, malerier og musikalske værker.

Der skelnes mellem følgende områder af kunstig intelligens:

Ekspertsystemer;

Neurale netværk;

Naturlige sprogsystemer;

Evolutionære metoder og genetiske algoritmer;

Fuzzy sæt;

Videnudvindingssystemer.

Ekspertsystemer er fokuseret på at løse specifikke problemer.

Neurale netværk implementerer neurale netværksalgoritmer.

Er opdelt i:

Generelle netværk, der understøtter omkring 30 neurale netværksalgoritmer og er tilpasset til at løse specifikke problemer;

Objektorienteret - bruges til karaktergenkendelse, produktionsstyring, prognosesituationer på valutamarkeder,

Hybrid - bruges sammen med visse programmer (Excel, Access, Lotus).

Naturlige sprogsystemer (NL) er opdelt i:

Naturlige sproggrænsefladesoftwareprodukter i databasen (repræsentation af naturlige sprogforespørgsler i SQL-forespørgsler);

Naturlig sprogsøgning i tekster, indholdsscanning af tekster (brugt i internetsøgemaskiner, f.eks. Google);

Skalerbare talegenkendelsesværktøjer (bærbare simultantolke);

Komponenter af talebehandling som serviceværktøjer software(Windows XP OS).

Fuzzy sæt - implementer logiske relationer mellem data. Disse softwareprodukter bruges til at styre økonomiske objekter, bygge ekspertsystemer og beslutningsstøttesystemer.

Genetiske algoritmer er metoder til at analysere data, som ikke kan analyseres med standardmetoder. Som regel bruges de til at behandle store mængder information og bygge prædiktive modeller. Brugt i videnskabelige formål i simuleringsmodellering.

Videnudtrækssystemer - bruges til at behandle data fra informationslagre.

Nogle af de mest berømte AI-systemer er:

Dyb blå- besejrede verdensmesteren i skak. Kampen mellem Kasparov og supercomputeren gav hverken dataloger eller skakspillere tilfredshed, og systemet blev ikke genkendt af Kasparov. IBM's linje af supercomputere manifesterede sig derefter i brute force-projekterne BluGene (molekylær modellering) og pyramidecellesystemets modellering ved Swiss Blue Brain Center.

Watson- en lovende udvikling af IBM, i stand til at opfatte menneskelig tale og udføre en probabilistisk søgning ved hjælp af et stort antal algoritmer. For at demonstrere sit arbejde deltog Watson i det amerikanske spil "Jeopardy!", en analog af "Custom Game" i Rusland, hvor systemet formåede at vinde begge spil.

MYCIN- et af de tidlige ekspertsystemer, der kunne diagnosticere et lille sæt sygdomme, ofte lige så præcist som læger.

20Q- et projekt baseret på AI-ideer, baseret på det klassiske spil "20 spørgsmål". Det blev meget populært efter at have vist sig på internettet på hjemmesiden 20q.net.

Tale genkendelse. Systemer som ViaVoice er i stand til at betjene forbrugerne.

Robotter konkurrerer i en forenklet form for fodbold i den årlige RoboCup-turnering.

Banker bruger kunstige intelligenssystemer (AI) i forsikringsaktiviteter (aktuarmatematik), når de spiller på børsen og i ejendomsadministration. Mønstergenkendelsesmetoder (herunder både mere komplekse og specialiserede og neurale netværk) anvendes i vid udstrækning inden for optisk og akustisk genkendelse (herunder tekst og tale), medicinsk diagnostik, spamfiltre, i luftforsvarssystemer (målidentifikation) samt for at sikre en antal andre nationale sikkerhedsopgaver.

Computerspilsudviklere bruger kunstig intelligens i forskellige grader af sofistikering. Dette danner begrebet "Game Artificial Intelligence". Standardopgaver for AI i spil er at finde en vej i todimensionelt eller tredimensionelt rum, simulere opførselen af ​​en kampenhed, beregne den korrekte økonomiske strategi og så videre.

De største videnskabelige og forskningscentre inden for kunstig intelligens:

USA (Massachusetts Institute of Technology);

Tyskland (tysk Forskningscenter om kunstig intelligens);

Japan ( Nationalinstituttet moderne industriel videnskab og teknologi (AIST));

Rusland ( Videnskabsrådet om metodologien for kunstig intelligens fra Det Russiske Videnskabsakademi).

I dag er der, takket være fremskridt inden for kunstig intelligens, skabt en lang række videnskabelige udviklinger, som markant forenkler menneskers liv. Tale eller scannet tekstgenkendelse, løsning beregningsmæssigt komplekse opgaver på kort tid og meget mere - alt dette er blevet tilgængeligt takket være udviklingen af ​​kunstig intelligens.

Udskiftning af en menneskelig specialist med kunstige intelligenssystemer, især ekspertsystemer, selvfølgelig, hvor dette er tilladt, kan fremskynde og reducere omkostningerne ved produktionsprocessen betydeligt. Kunstige intelligenssystemer er altid objektive, og resultaterne af deres arbejde afhænger ikke af den øjeblikkelige stemning og en række andre subjektive faktorer, der er iboende i en person. Men på trods af alt ovenstående bør man ikke nære tvivlsomme illusioner og håbe på, at menneskeligt arbejde i den nærmeste fremtid vil blive erstattet af arbejdet med kunstig intelligens. Erfaring viser, at kunstige intelligenssystemer i dag opnår bedste resultater, fungerer sammen med en person. Det er trods alt mennesket, i modsætning til kunstig intelligens, der forstår at tænke ud af boksen og kreativt, som gjorde det muligt for ham at udvikle sig og komme videre gennem sin æra.

Brugte kilder

1. www.aiportal.ru

3. ru.wikipedia.org

Ny evolutionær strategi for menneskeheden

Kunstig intelligens er et af de mest populære emner i teknologiverdenen på det seneste. Sind som Elon Musk, Stephen Hawking og Steve Wozniak er alvorligt bekymrede over AI-forskning og hævder, at dens skabelse truer os livsfare. Samtidig har science fiction og Hollywood-film givet anledning til mange misforståelser omkring AI. Er vi virkelig i fare, og hvilke unøjagtigheder laver vi, når vi forestiller os ødelæggelsen af ​​Skynet Earth, generel arbejdsløshed eller tværtimod velstand og bekymringsløshed? Gizmodo har undersøgt menneskelige myter om kunstig intelligens. Her er den fulde oversættelse af hans artikel.

Det er blevet kaldt den vigtigste test af maskinintelligens, siden Deep Blue besejrede Garry Kasparov i en skakkamp for 20 år siden. Google AlphaGo besejrede stormester Lee Sedol ved Go-turneringen med en knusende score på 4:1, hvilket viser, hvor seriøst kunstig intelligens (AI) er gået frem. Den skæbnesvangre dag, hvor maskiner endelig vil overgå mennesker i intelligens, har aldrig virket så tæt på. Men vi synes ikke at være tættere på at forstå konsekvenserne af denne epokegørende begivenhed.

Faktisk klynger vi os til alvorlige og endda farlige misforståelser om kunstig intelligens. Sidste år advarede SpaceX-grundlægger Elon Musk om, at kunstig intelligens kunne overtage verden. Hans ord forårsagede en storm af kommentarer, både modstandere og tilhængere af denne mening. For sådan en fremtidig monumental begivenhed er der overraskende stor uenighed om, hvorvidt det vil ske og i givet fald i hvilken form. Dette er især bekymrende i betragtning af de utrolige fordele, menneskeheden kan opnå ved AI og de potentielle risici. I modsætning til andre menneskelige opfindelser har AI potentialet til at ændre menneskeheden eller ødelægge os.

Det er svært at vide, hvad man skal tro. Men takket være tidligt arbejde fra dataloger, neurovidenskabsmænd og AI-teoretikere begynder et klarere billede at dukke op. Her er nogle almindelige misforståelser og myter om kunstig intelligens.

Myte #1: "Vi vil aldrig skabe AI med intelligens, der kan sammenlignes med mennesker"

Virkelighed: Vi har allerede computere, der har svaret til eller overgået menneskelige evner til skak, Go, aktiehandel og samtale. Computere og de algoritmer, der kører dem, kan kun blive bedre. Det er kun et spørgsmål om tid, før de overgår mennesker til enhver opgave.

New York Universitys forskningspsykolog Gary Marcus sagde, at "bogstaveligt talt alle", der arbejder med kunstig intelligens, tror på, at maskiner til sidst vil slå os: "Den eneste reelle forskel mellem entusiasterne og skeptikerne er timingsestimaterne." Fremtidsforskere som Ray Kurzweil mener, at dette kan ske inden for et par årtier; andre siger, at det vil tage århundreder.

AI-skeptikere er ikke overbevisende, når de siger, at dette er et uløseligt teknologisk problem, men i naturen biologisk hjerne der er noget unikt. Vores hjerner er biologiske maskiner – de findes i virkelige verden og overholde fysikkens grundlæggende love. Der er intet uvidende om dem.

Myte #2: "Kunstig intelligens vil have bevidsthed"

Virkelighed: De fleste forestiller sig, at maskinintelligens vil være bevidst og tænke, som mennesker tænker. Desuden mener kritikere som Microsofts medstifter Paul Allen, at vi endnu ikke kan opnå kunstig generel intelligens (i stand til at løse ethvert mentalt problem, et menneske kan løse), fordi vi mangler en videnskabelig teori om bevidsthed. Men som Imperial College Londons kognitive robotikspecialist Murray Shanahan siger, bør vi ikke sætte lighedstegn mellem de to begreber.

“Bevidsthed er bestemt fantastisk og vigtig ting, men jeg tror ikke, det er nødvendigt for kunstig intelligens menneskeligt niveau. For at være mere præcis bruger vi ordet "bevidsthed" til at henvise til flere psykologiske og kognitive egenskaber, som en person "kommer med", forklarer videnskabsmanden.

Det er muligt at forestille sig en smart maskine, der mangler en eller flere af disse funktioner. I sidste ende kan vi skabe utrolig intelligent AI, der ikke er i stand til at opfatte verden subjektivt og bevidst. Shanahan argumenterer for, at sind og bevidsthed kan kombineres i en maskine, men vi må ikke glemme, at det er to forskellige begreber.

Bare fordi en maskine består Turing-testen, hvor den ikke kan skelnes fra et menneske, betyder det ikke, at den er bevidst. For os kan avanceret kunstig intelligens virke bevidst, men den vil ikke være mere selvbevidst end en sten eller en lommeregner.

Myte #3: "Vi skal ikke være bange for AI"

Virkelighed: I januar grundlæggeren Facebook Mark Zuckerberg sagde, at vi ikke skulle være bange for kunstig intelligens, fordi den vil gøre utrolig mange gode ting for verden. Han har halvt ret. Vi vil drage stor fordel af kunstig intelligens, fra selvkørende biler til skabelsen af ​​nye lægemidler, men der er ingen garanti for, at enhver implementering af kunstig intelligens vil være godartet.

Et yderst intelligent system kan vide alt om specifik opgave, såsom at løse et ubehageligt økonomisk problem eller hacke et fjendens forsvarssystem. Men uden for grænserne for disse specialiseringer vil det være dybt uvidende og ubevidst. Googles DeepMind-system er ekspert i Go, men det har ingen evne eller grund til at udforske områder uden for dets specialisering.

Mange af disse systemer er muligvis ikke underlagt sikkerhedsovervejelser. Et godt eksempel er den komplekse og kraftfulde Stuxnet-virus, en militariseret orm udviklet af det israelske og amerikanske militær til at infiltrere og sabotere iranske atomkraftværker. Denne virus inficerede på en eller anden måde (bevidst eller ved et uheld) et russisk atomkraftværk.

Et andet eksempel er Flame-programmet, der bruges til cyberspionage i Mellemøsten. Det er let at forestille sig fremtidige versioner af Stuxnet eller Flame, der går ud over deres tilsigtede formål og forårsager massiv skade på følsom infrastruktur. (For at være klar, er disse vira ikke AI, men i fremtiden kan de have det, derfor bekymringen).

Flame-virussen blev brugt til cyberspionage i Mellemøsten. Foto: Wired

Myte #4: "Kunstig superintelligens vil være for smart til at lave fejl"

Virkelighed: AI-forsker og grundlægger af Surfing Samurai Robots Richard Lucimore mener, at de fleste AI-dommedagsscenarier er inkonsekvente. De er altid bygget på den antagelse, at AI siger: "Jeg ved, at ødelæggelsen af ​​menneskeheden er forårsaget af en fejl i mit design, men jeg er tvunget til at gøre det alligevel." Lucimore siger, at hvis en AI opfører sig sådan og ræsonnerer om vores ødelæggelse, så vil sådanne logiske modsætninger hjemsøge den hele livet. Dette forringer igen hans vidensbase og gør ham for dum til at skabe en farlig situation. Forskeren argumenterer også for, at folk, der siger: "AI kan kun gøre, hvad den er programmeret til at gøre" tager lige så fejl som deres kolleger i begyndelsen af ​​computeræraen. Dengang brugte folk denne sætning til at argumentere for, at computere ikke var i stand til at demonstrere den mindste fleksibilitet.

Peter Macintyre og Stuart Armstrong, der arbejder på Future of Humanity Institute ved Oxford University, er uenige med Lucimore. De hævder, at AI i høj grad er bundet af, hvordan den er programmeret. McIntyre og Armstrong mener, at AI ikke vil være i stand til at lave fejl eller være for dumme til ikke at vide, hvad vi forventer af det.

"Pr definition er kunstig superintelligens (ASI) et emne med intelligens væsentligt større end den bedste menneskelige hjernes intelligens inden for ethvert vidensfelt. Han vil vide præcis, hvad vi ville have ham til at gøre,” siger McIntyre. Begge videnskabsmænd mener, at AI kun vil gøre, hvad den er programmeret til at gøre. Men hvis han bliver klog nok, vil han forstå, hvor forskelligt dette er fra lovens ånd eller menneskers hensigter.

McIntyre sammenlignede den fremtidige situation for mennesker og AI med den nuværende menneske-mus-interaktion. Musens mål er at søge mad og ly. Men det er ofte i konflikt med ønsket hos en person, der vil have sit dyr til at løbe frit rundt. "Vi er kloge nok til at forstå nogle af musenes mål. Så ASI vil også forstå vores ønsker, men være ligeglade med dem,” siger videnskabsmanden.

Som plottet i filmen Ex Machina viser, vil det være ekstremt svært for en person at holde fast i en smartere AI

Myte #5: "En simpel patch vil løse problemet med AI-kontrol"

Virkelighed: Ved at skabe kunstig intelligens klogere end en person, står vi over for et problem kendt som "kontrolproblemet". Futurister og AI-teoretikere falder i en tilstand af fuldstændig forvirring, hvis du spørger dem, hvordan vi vil indeholde og begrænse ASI, hvis en dukker op. Eller hvordan man sikrer sig, at han vil være venlig over for folk. For nylig foreslog forskere ved Georgia Institute of Technology naivt, at AI kunne adoptere menneskelige værdier og sociale regler, læsning simple historier. I virkeligheden vil det være meget sværere.

"Der er blevet foreslået en masse simple tricks, der kunne 'løse' hele AI-kontrolproblemet," siger Armstrong. Eksempler omfattede programmering af en ASI, så dens formål var at behage folk, eller så den simpelthen fungerede som et værktøj i hænderne på en person. En anden mulighed er at integrere begreberne kærlighed eller respekt i kildekoden. For at forhindre AI i at antage et forenklet, ensidigt syn på verden, er det blevet foreslået at programmere det til at værdsætte intellektuel, kulturel og social mangfoldighed.

Men disse løsninger er for simple, som et forsøg på at samle al kompleksiteten af ​​menneskelige kan lide og antipatier i én overfladisk definition. Prøv for eksempel at komme med en klar, logisk og brugbar definition af "respekt". Dette er ekstremt svært.

Maskinerne i The Matrix kunne nemt ødelægge menneskeheden

Myte #6: "Kunstig intelligens vil ødelægge os"

Virkelighed: Der er ingen garanti for, at AI vil ødelægge os, eller at vi ikke vil være i stand til at finde en måde at kontrollere det på. Som AI-teoretiker Eliezer Yudkowsky sagde: "AI hverken elsker eller hader dig, men du er lavet af atomer, som den kan bruge til andre formål."

I sin bog "Artificial Intelligence. Niveauer. Trusler. Strategier," skrev Oxford-filosof Nick Bostrom, at ægte kunstig superintelligens, når den først dukker op, vil udgøre større risici end nogen anden menneskelig opfindelse. Fremtrædende hjerner som Elon Musk, Bill Gates og Stephen Hawking (hvoraf sidstnævnte advarede om, at AI kunne være vores "værste fejl i historien") har også udtrykt bekymring.

McIntyre sagde, at til de fleste formål, som ASI måtte have, er der gode grunde til at slippe af med folk.

“AI kan helt korrekt forudsige, at vi ikke ønsker, at det skal maksimere profitten for en bestemt virksomhed, uanset hvad det koster for kunderne. miljø og dyr. Derfor har han et stærkt incitament til at sikre, at han ikke bliver afbrudt, forstyrret, slukket eller ændret i sine mål, da dette ville forhindre hans oprindelige mål i at blive nået,« argumenterer McIntyre.

Medmindre ASI's mål nøje afspejler vores egne, vil det have en god grund til at forhindre os i at stoppe det. I betragtning af, at hans intelligensniveau væsentligt overstiger vores, er der intet, vi kan gøre ved det.

Ingen ved, hvilken form AI vil tage, eller hvordan det kan true menneskeheden. Som Musk bemærkede, kan kunstig intelligens bruges til at kontrollere, regulere og overvåge anden AI. Eller det kan være gennemsyret af menneskelige værdier eller et altoverskyggende ønske om at være venlig over for mennesker.

Myte #7: "Kunstig superintelligens vil være venlig"

Virkelighed: Filosoffen Immanuel Kant mente, at fornuften var stærkt korreleret med moral. Neurovidenskabsmanden David Chalmers tog i sin undersøgelse "The Singularity: A Philosophical Analysis" Kants berømte idé og anvendte den på den nye kunstige superintelligens.

Hvis dette er sandt... kan vi forvente, at en intellektuel eksplosion vil føre til en moralsk eksplosion. Vi kan så forvente, at de nye ASI-systemer vil være supermoralske såvel som superintelligente, hvilket giver os mulighed for at forvente god kvalitet fra dem.

Men ideen om, at avanceret kunstig intelligens vil være oplyst og venlig, er ikke særlig plausibel i sin kerne. Som Armstrong bemærkede, er der mange smarte krigsforbrydere. Forbindelsen mellem intelligens og moral synes ikke at eksistere blandt mennesker, så han stiller spørgsmålstegn ved dette princips funktion blandt andre intelligente former.

"Intelligente mennesker, der opfører sig umoralsk, kan forårsage smerte i meget større skala end deres dummere kolleger. Rimelighed giver dem simpelthen mulighed for at være dårlige med stor intelligens, det gør dem ikke til gode mennesker,” siger Armstrong.

Som MacIntyre forklarede, er et forsøgspersons evne til at nå et mål ikke relevant for, om målet er rimeligt til at begynde med. "Vi vil være meget heldige, hvis vores AI'er er unikt begavede, og deres moralske niveau stiger sammen med deres intelligens. At stole på held er ikke den bedste tilgang til noget, der kan forme vores fremtid,” siger han.

Myte #8: "Risiciene ved kunstig intelligens og robotteknologi er lige store"

Virkelighed: Dette er en særlig almindelig fejl, der fastholdes af ukritiske medier og Hollywood film som "Terminator".

Hvis en kunstig superintelligens som Skynet virkelig ønskede at ødelægge menneskeheden, ville den ikke bruge androider med seksløbede maskingeværer. Det ville være meget mere effektivt at sende en biologisk pest eller nanoteknologisk grå goo. Eller blot ødelægge atmosfæren.

Kunstig intelligens er potentielt farlig, ikke fordi den kan påvirke udviklingen af ​​robotteknologi, men på grund af hvordan dens udseende vil påvirke verden generelt.

Myte #9: "Portrætteringen af ​​AI i science fiction er en nøjagtig gengivelse af fremtiden."

Mange slags sind. Billede: Eliezer Yudkowsky

Selvfølgelig har forfattere og fremtidsforskere brugt science fiction til at lave fantastiske forudsigelser, men begivenhedshorisonten, som ASI etablerer, er en helt anden historie. Desuden gør den ikke-menneskelige natur af AI det umuligt for os at kende og derfor forudsige dens natur og form.

For at underholde os dumme mennesker science fiction de fleste AI'er er afbildet som ligner os. "Der er et spektrum af alle mulige sind. Selv blandt mennesker er man ret anderledes end sin næste, men den variation er ingenting i forhold til alle de sind, der kan eksistere,” siger McIntyre.

Det meste science fiction behøver ikke at være videnskabeligt præcist for at fortælle en overbevisende historie. Konflikten udspiller sig normalt mellem helte af samme styrke. "Forestil dig, hvor kedelig en historie ville være, hvor en AI uden bevidsthed, glæde eller had afsluttede menneskeheden uden nogen modstand for at opnå et uinteressant mål," fortæller Armstrong og gaber.

Hundredvis af robotter arbejder på Tesla-fabrikken

Myte #10: "Det er forfærdeligt, at AI vil tage alle vores job."

Virkelighed: AIs evne til at automatisere meget af det, vi gør, og dets potentiale til at ødelægge menneskeheden er to vidt forskellige ting. Men ifølge Martin Ford, forfatter til The Dawn of the Robots: Technology and the Threat of a Jobless Future, ses de ofte som en helhed. Det er godt at tænke på AIs fjerne fremtid, så længe det ikke distraherer os fra de udfordringer, vi står over for i de kommende årtier. Den vigtigste blandt dem er masseautomatisering.

Ingen er i tvivl om, at kunstig intelligens vil erstatte mange eksisterende job, fra fabriksarbejdere til de øverste funktionærer. Nogle eksperter forudsiger, at halvdelen af ​​alle amerikanske job er i fare for automatisering i den nærmeste fremtid.

Men det betyder ikke, at vi ikke kan klare chokket. Generelt er det at komme af med det meste af vores arbejde, både fysisk og mentalt, et kvasi-utopisk mål for vores art.

"AI vil ødelægge en masse job inden for et par årtier, men det er ikke en dårlig ting," siger Miller. Selvkørende biler vil erstatte lastbilchauffører, hvilket vil reducere leveringsomkostningerne og som følge heraf gøre mange produkter billigere. »Hvis man er lastbilchauffør og lever, så taber man, men alle andre vil tværtimod kunne købe flere varer til samme løn. Og de penge, de sparer, vil blive brugt på andre varer og tjenester, som vil skabe nye job til folk,” siger Miller.

Med al sandsynlighed vil kunstig intelligens skabe nye muligheder for at producere varer og frigøre folk til at gøre andre ting. Fremskridt inden for kunstig intelligens vil blive ledsaget af fremskridt på andre områder, især fremstilling. I fremtiden bliver det nemmere, ikke sværere, for os at opfylde vores basale behov.