Root NationArtiklerteknologierHvad er neurale netværk, og hvordan fungerer de?

Hvad er neurale netværk, og hvordan fungerer de?

-

I dag vil vi forsøge at finde ud af, hvad neurale netværk er, hvordan de fungerer, og hvad deres rolle er i at skabe kunstig intelligens.

Neurale netværk. Vi hører denne sætning næsten overalt. Det kommer til det punkt, at du vil finde neurale netværk selv i køleskabe (dette er ikke en joke). Neurale netværk er meget brugt af maskinlæringsalgoritmer, som i dag ikke kun findes i computere og smartphones, men også i mange andre elektroniske enheder, for eksempel i husholdningsapparater. Og har du nogensinde spekuleret på, hvad disse neurale netværk er?

Bare rolig, dette bliver ikke en akademisk forelæsning. Der er mange publikationer, herunder på det ukrainske sprog, som meget professionelt og pålideligt forklarer dette problem inden for eksakte videnskaber. Sådanne publikationer er mere end et dusin år gamle. Hvordan er det muligt, at disse gamle publikationer stadig er relevante? Faktum er, at det grundlæggende i neurale netværk ikke har ændret sig, og selve konceptet - en matematisk model af en kunstig neuron - blev skabt under Anden Verdenskrig.

Hvad er neurale netværk, og hvordan fungerer de?

Det samme med internettet, nutidens internet er usammenligneligt mere avanceret, end da den første e-mail blev sendt. Grundlaget for internettet, de grundlæggende protokoller, eksisterede lige fra begyndelsen af ​​dets skabelse. Ethvert komplekst koncept er bygget på fundamentet af gamle strukturer. Det er det samme med vores hjerne, den yngste hjernebark er ikke i stand til at fungere uden det ældste evolutionære element: hjernestammen, som har været i vores hoveder siden gange langt ældre end eksistensen af ​​vores art på denne planet.

Forvirrede jeg dig lidt? Så lad os forstå mere detaljeret.

Også interessant: ChatGPT: Enkle instruktioner til brug

Hvad er neurale netværk?

Et netværk er en samling af bestemte elementer. Dette er den enkleste tilgang inden for matematik, fysik eller teknologi. Hvis et computernetværk er et sæt af indbyrdes forbundne computere, så er et neuralt netværk naturligvis et sæt neuroner.

neurale netværk

Disse elementer er dog ikke engang meget sammenlignelige i kompleksitet med nervecellerne i vores hjerne og nervesystem, men på et vist abstraktionsniveau er nogle træk ved en kunstig neuron og en biologisk neuron almindelige. Men det er nødvendigt at huske, at en kunstig neuron er et meget enklere koncept end dets biologiske modstykke, som vi stadig ikke ved alt om.

- Annonce -

Læs også: 7 sejeste anvendelser af ChatGPT

Først var der en kunstig neuron

Den første matematiske model af en kunstig neuron blev udviklet i 1943 (ja, det er ikke en fejl, under Anden Verdenskrig) af to amerikanske videnskabsmænd, Warren McCulloch og Walter Pitts. Det formåede de at gøre på baggrund af en tværfaglig tilgang, der kombinerede grundlæggende viden om hjernens fysiologi (husk dengang, hvor denne model blev skabt), matematik og den dengang unge IT-tilgang (de brugte bl.a. Alan Turings teori om beregningsevne). ). McCulloch-Pitts kunstige neuron-model er en meget simpel model, den har mange input, hvor inputinformationen passerer gennem vægte (parametre), hvis værdier bestemmer neurons adfærd. Det resulterende resultat sendes til et enkelt output (se diagram af McCulloch-Pitts neuron).

neurale netværk
Skema af en kunstig neuron 1. Neuroner, hvis udgangssignaler er input til input fra en given neuron 2. Adder af inputsignaler 3. Overførselsfunktions regnemaskine 4. Neuroner til hvis input signalet fra en given neuron påføres 5. ωi — vægten af ​​indgangssignaler

En sådan trælignende struktur er forbundet med en biologisk neuron, for når vi tænker på tegninger, der afbilder biologiske nerveceller, er det dendritters karakteristiske trælignende struktur, der kommer til at tænke på. Man skal dog ikke bukke under for illusionen om, at en kunstig neuron i det mindste er noget tæt på en rigtig nervecelle. Disse to forskere, forfatterne af den første kunstige neuron, formåede at demonstrere, at enhver beregnelig funktion kan beregnes ved hjælp af et netværk af indbyrdes forbundne neuroner. Men lad os huske, at disse første koncepter kun blev skabt som ideer, der kun eksisterede "på papiret" og ikke havde en reel fortolkning i form af driftsudstyr.

Læs også: Om kvantecomputere i simple ord

Fra model til innovative implementeringer

McCulloch og Pitts udviklede en teoretisk model, men skabelsen af ​​det første rigtige neurale netværk måtte vente mere end ti år. Dens skaber anses for at være en anden pioner inden for kunstig intelligensforskning, Frank Rosenblatt, som i 1957 skabte Mark I Perceptron-netværket, og du selv viste, at takket være denne struktur fik maskinen en evne, der tidligere kun var iboende for dyr og mennesker: den kan lære. Men vi ved nu, at der faktisk var andre videnskabsmænd, der kom med ideen om, at en maskine kunne lære, også før Rosenblatt.

Mark I Perceptron

Mange forskere og pionerer inden for datalogi i 1950'erne kom op med ideen om, hvordan man får en maskine til at gøre, hvad den ikke kunne gøre på egen hånd. For eksempel udviklede Arthur Samuel et program, der spillede dam med et menneske, Allen Newell og Herbert Simon lavede et program, der uafhængigt kunne bevise matematiske teoremer. Allerede før oprettelsen af ​​Rosenblatts første neurale netværk byggede to andre forskningspionerer inden for kunstig intelligens, Marvin Minsky og Dean Edmonds, i 1952, det vil sige selv før fremkomsten af ​​Rosenblatts perceptron, en maskine kaldet SNARC (Stochastic Neural). Analog Reinforcement Calculator) - stokastisk neural analog lommeregnerforstærkning, som af mange anses for at være den første stokastiske neurale netværkscomputer. Det skal bemærkes, at SNARC intet havde med moderne computere at gøre.

SNARC

Den kraftfulde maskine, der brugte mere end 3000 elektroniske rør og en ekstra autopilotmekanisme fra et B-24 bombefly, var i stand til at simulere driften af ​​40 neuroner, hvilket viste sig at være nok til matematisk at simulere en rottes søgen efter en udgang fra en labyrint . Selvfølgelig var der ingen rotte, det var bare en proces med fradrag og at finde den optimale løsning. Denne bil var en del af Marvin Minskys Ph.D.

adaline netværk

Et andet interessant projekt inden for neurale netværk var ADALINE-netværket, udviklet i 1960 af Bernard Withrow. Således kan man stille spørgsmålet: siden for mere end et halvt århundrede siden kendte forskere det teoretiske grundlag for neurale netværk og endda skabte de første fungerende implementeringer af sådanne beregningsrammer, hvorfor tog det så lang tid, indtil det 21. århundrede, at skabe rigtige løsninger baseret på neurale netværk? Svaret er ét: utilstrækkelig computerkraft, men det var ikke den eneste hindring.

neurale netværk

Selvom mange AI-pionerer i 1950'erne og 1960'erne var fascineret af mulighederne i neurale netværk, og nogle af dem forudsagde, at en maskinækvivalent til den menneskelige hjerne kun var ti år væk. Dette er endda sjovt at læse i dag, for vi er stadig ikke engang kommet i nærheden af ​​at skabe en maskine svarende til den menneskelige hjerne, og vi er stadig langt fra at løse denne opgave. Det blev hurtigt klart, at logikken i de første neurale netværk var både fascinerende og begrænset. De første implementeringer af kunstig intelligens ved hjælp af kunstige neuroner og maskinlæringsalgoritmer var i stand til at løse en vis snæver række af opgaver.

Men når det kom til bredere rum og at løse noget virkelig seriøst, såsom mønster- og billedgenkendelse, simultanoversættelse, tale- og håndskriftsgenkendelse osv., altså ting, som computere og AI allerede kan i dag, viste det sig, at første implementeringer af neurale netværk var simpelthen ude af stand til at gøre det. Hvorfor er det sådan? Svaret blev givet af forskning fra Marvin Minsky (ja, den samme fra SNARC) og Seymour Papert, som i 1969 beviste perceptronlogikkens begrænsninger og viste, at det ikke virker at øge mulighederne for simple neurale netværk udelukkende på grund af skalering. Der var endnu en, men meget vigtig, barriere - den tilgængelige computerkraft på det tidspunkt var for lille til, at neurale netværk kunne bruges efter hensigten.

Også interessant:

- Annonce -

Renæssance af neurale netværk

I 1970'erne og 1980'erne blev neurale netværk praktisk talt glemt. Det var først i slutningen af ​​forrige århundrede, at den tilgængelige computerkraft blev så stor, at folk begyndte at vende tilbage til den og udvikle deres evner på dette område. Det var dengang, at nye funktioner og algoritmer dukkede op, i stand til at overvinde begrænsningerne i de første simpleste neurale netværk. Det var dengang, at ideen om dyb maskinlæring af flerlags neurale netværk opstod. Hvad sker der egentlig med disse lag? I dag er næsten alle nyttige neurale netværk, der opererer i vores miljø, flerlags. Vi har et inputlag, hvis opgave er at modtage inputdata og parametre (vægte). Antallet af disse parametre varierer afhængigt af kompleksiteten af ​​det beregningsmæssige problem, der skal løses af netværket.

neurale netværk

Derudover har vi såkaldte "skjulte lag" - det er her al den "magi" der er forbundet med deep machine learning sker. Det er de skjulte lag, der er ansvarlige for dette neurale netværks evne til at lære og udføre de nødvendige beregninger. Endelig er det sidste element outputlaget, det vil sige laget af det neurale netværk, der giver det ønskede resultat, i dette tilfælde: genkendt håndskrift, ansigt, stemme, dannet billede baseret på tekstbeskrivelsen, resultatet af tomografisk analyse af det diagnostiske billede og meget mere.

Læs også: Jeg testede og interviewede Bings chatbot

Hvordan lærer neurale netværk?

Som vi allerede ved, behandler individuelle neuroner i neurale netværk information ved hjælp af parametre (vægte), som tildeles individuelle værdier og forbindelser. Disse vægte ændrer sig under læringsprocessen, hvilket giver dig mulighed for at justere strukturen af ​​dette netværk på en sådan måde, at det genererer det ønskede resultat. Hvordan lærer netværket præcist? Det er indlysende, det skal trænes konstant. Bliv ikke overrasket over dette ordsprog. Vi lærer også, og denne proces er ikke kaotisk, men velordnet, lad os sige. Vi kalder det uddannelse. Under alle omstændigheder kan neurale netværk også trænes, og dette gøres normalt ved hjælp af et passende udvalgt sæt input, som på en eller anden måde forbereder netværket til de opgaver, det skal udføre i fremtiden. Og alt dette gentages trin for trin, nogle gange minder læringsprocessen til en vis grad om selve træningsprocessen.

For eksempel, hvis opgaven for dette neurale netværk er at genkende ansigter, er det fortrænet på et stort antal billeder, der indeholder ansigter. I læringsprocessen ændres vægtene og parametrene for de skjulte lag. Eksperter bruger her udtrykket "minimering af omkostningsfunktionen". En omkostningsfunktion er en størrelse, der fortæller os, hvor meget et givet neuralt netværk begår fejl. Jo mere vi kan minimere omkostningsfunktionen som følge af træning, jo bedre vil dette neurale netværk præstere i den virkelige verden. Den vigtigste egenskab, der adskiller ethvert neuralt netværk fra en opgave, der er programmeret ved hjælp af en klassisk algoritme, er, at i tilfælde af klassiske algoritmer skal programmøren trin for trin designe, hvilke handlinger programmet skal udføre. I tilfælde af neurale netværk er netværket selv i stand til at lære at udføre opgaver korrekt på egen hånd. Og ingen ved præcis, hvordan et komplekst neuralt netværk udfører sine beregninger.

neurale netværk

I dag bruges neurale netværk bredt og måske overraskende meget ofte uden at forstå, hvordan beregningsprocessen i et givent netværk faktisk fungerer. Det er der ikke behov for. Programmører bruger færdige maskinlærte neurale netværk, der er forberedt til inputdata af en bestemt type, behandler dem på en måde, som kun er kendt af dem, og producerer det ønskede resultat. En programmør behøver ikke at vide, hvordan inferensprocessen fungerer i et neuralt netværk. Det vil sige, at en person forbliver væk fra en stor mængde beregninger, en metode til at opnå information og dens behandling af neurale netværk. Hvorfra visse frygt for menneskeheden vedrørende modeller for kunstig intelligens. Vi er simpelthen bange for, at det neurale netværk en dag vil stille sig en bestemt opgave og selvstændigt, uden hjælp fra en person, finde måder at løse det på. Dette bekymrer menneskeheden, forårsager frygt og mistillid til brugen af ​​maskinlæringsalgoritmer.

chat gpt

Denne utilitaristiske tilgang er almindelig i dag. Det er det samme med os: Vi ved, hvordan man træner nogen i en bestemt aktivitet, og vi ved, at træningsprocessen vil være effektiv, hvis den udføres korrekt. En person vil erhverve de ønskede færdigheder. Men forstår vi præcis, hvordan deduktionsprocessen foregår i hans hjerne, som forårsagede denne effekt? Vi aner ikke.

Forskernes opgave er at studere disse problemer så meget som muligt, så de tjener og hjælper os, hvor det er nødvendigt, og vigtigst af alt ikke bliver en trussel. Som mennesker er vi bange for det, vi ikke ved.

Også interessant: 

Yuri Svitlyk
Yuri Svitlyk
Søn af Karpaterne, uanerkendt geni af matematik, "advokat"Microsoft, praktisk altruist, venstre-højre
- Annonce -
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer