Root NationMga ArtikuloMga teknolohiyaAno ang mga neural network at paano ito gumagana?

Ano ang mga neural network at paano ito gumagana?

-

Ngayon ay susubukan naming malaman kung ano ang mga neural network, kung paano gumagana ang mga ito at kung ano ang kanilang papel sa paglikha ng artificial intelligence.

Mga neural network. Naririnig natin ang pariralang ito halos saanman. Dumarating sa punto na makakahanap ka ng mga neural network kahit sa mga refrigerator (hindi ito biro). Ang mga neural network ay malawakang ginagamit ng mga machine learning algorithm, na ngayon ay matatagpuan hindi lamang sa mga computer at smartphone, kundi pati na rin sa maraming iba pang mga elektronikong device, halimbawa, sa mga gamit sa bahay. At naisip mo na ba kung ano ang mga neural network na ito?

Huwag mag-alala, hindi ito magiging akademikong panayam. Mayroong maraming mga publikasyon, kabilang ang sa wikang Ukrainian, na napaka-propesyonal at mapagkakatiwalaan na nagpapaliwanag sa isyung ito sa larangan ng eksaktong mga agham. Ang nasabing mga publikasyon ay higit sa isang dosenang taong gulang. Paano posible na ang mga lumang publikasyong ito ay may kaugnayan pa rin? Ang katotohanan ay ang mga batayan ng mga neural network ay hindi nagbago, at ang konsepto mismo - isang modelo ng matematika ng isang artipisyal na neuron - ay nilikha noong Ikalawang Digmaang Pandaigdig.

Ano ang mga neural network at paano ito gumagana?

Katulad din sa Internet, ang Internet ngayon ay hindi maihahambing na mas advanced kaysa noong ipinadala ang unang email. Ang mga pundasyon ng Internet, ang pangunahing mga protocol, ay umiral mula pa sa simula ng paglikha nito. Ang bawat kumplikadong konsepto ay itinayo sa pundasyon ng mga lumang istruktura. Ito ay pareho sa ating utak, ang pinakabatang cerebral cortex ay hindi magagawang gumana nang wala ang pinakalumang elemento ng ebolusyon: ang brainstem, na nasa ating mga ulo mula noong mga panahong mas matanda kaysa sa pagkakaroon ng ating mga species sa planetang ito.

Medyo nalilito ba kita? Kaya unawain natin nang mas detalyado.

Kawili-wili din: ChatGPT: Mga simpleng tagubilin para sa paggamit

Ano ang mga neural network?

Ang network ay isang koleksyon ng ilang partikular na elemento. Ito ang pinakasimpleng diskarte sa matematika, pisika o teknolohiya. Kung ang isang network ng computer ay isang hanay ng mga magkakaugnay na mga computer, kung gayon ang isang neural network ay malinaw na isang hanay ng mga neuron.

neural network

Gayunpaman, ang mga elementong ito ay hindi kahit na malayong maihahambing sa pagiging kumplikado sa mga nerve cell ng ating utak at nervous system, ngunit sa isang tiyak na antas ng abstraction, ang ilang mga tampok ng isang artipisyal na neuron at isang biological neuron ay karaniwan. Ngunit kinakailangang tandaan na ang isang artipisyal na neuron ay isang mas simpleng konsepto kaysa sa biyolohikal na katapat nito, kung saan hindi pa rin natin alam ang lahat.

- Advertisement -

Basahin din: 7 Pinakaastig na Paggamit ng ChatGPT

Una ay mayroong isang artipisyal na neuron

Ang unang modelo ng matematika ng isang artipisyal na neuron ay binuo noong 1943 (oo, hindi iyon isang pagkakamali, noong World War II) ng dalawang Amerikanong siyentipiko, sina Warren McCulloch at Walter Pitts. Nagawa nila ito batay sa isang interdisciplinary na diskarte, pinagsasama ang pangunahing kaalaman sa pisyolohiya ng utak (tandaan ang oras kung kailan nilikha ang modelong ito), matematika at ang noo'y batang IT approach (ginamit nila, bukod sa iba pang mga bagay, ang teorya ng computability ni Alan Turing. ). Ang modelo ng artipisyal na neuron ng McCulloch-Pitts ay isang napaka-simpleng modelo, mayroon itong maraming mga input, kung saan ang impormasyon ng input ay dumadaan sa mga timbang (mga parameter), ang mga halaga kung saan tinutukoy ang pag-uugali ng neuron. Ang resultang resulta ay ipinadala sa isang solong output (tingnan ang diagram ng McCulloch-Pitts neuron).

neural network
Scheme ng isang artipisyal na neuron 1. Mga neuron na ang mga output signal ay input sa input ng isang naibigay na neuron 2. Adder ng input signal 3. Transfer function calculator 4. Mga neuron sa mga input kung saan ang signal ng isang naibigay na neuron ay inilapat 5. ωi — mga bigat ng input signal

Ang ganitong istraktura na tulad ng puno ay nauugnay sa isang biological neuron, dahil kapag iniisip natin ang mga guhit na naglalarawan ng mga biological nerve cells, ito ay ang katangiang tulad ng puno na istraktura ng mga dendrite ang naiisip. Gayunpaman, ang isa ay hindi dapat sumuko sa ilusyon na ang isang artipisyal na neuron ay hindi bababa sa medyo malapit sa isang tunay na selula ng nerbiyos. Ang dalawang mananaliksik na ito, ang mga may-akda ng unang artipisyal na neuron, ay pinamamahalaang upang ipakita na ang anumang computable function ay maaaring kalkulahin gamit ang isang network ng mga interconnected neuron. Gayunpaman, tandaan natin na ang mga unang konsepto na ito ay nilikha lamang bilang mga ideya na umiiral lamang "sa papel" at walang tunay na interpretasyon sa anyo ng mga kagamitan sa pagpapatakbo.

Basahin din: Tungkol sa mga quantum computer sa simpleng salita

Mula sa modelo hanggang sa mga makabagong pagpapatupad

Si McCulloch at Pitts ay bumuo ng isang teoretikal na modelo, ngunit ang paglikha ng unang tunay na neural network ay kailangang maghintay ng higit sa sampung taon. Ang lumikha nito ay itinuturing na isa pang pioneer ng artificial intelligence research, si Frank Rosenblatt, na noong 1957 ay lumikha ng Mark I Perceptron network, at ikaw mismo ang nagpakita na salamat sa istrukturang ito, ang makina ay nakakuha ng kakayahan na dati ay likas lamang sa mga hayop at tao: ito Kayang matutuhan. Gayunpaman, alam na natin ngayon na mayroong, sa katunayan, ang iba pang mga siyentipiko na nakaisip ng ideya na ang isang makina ay maaaring matuto, kabilang ang bago si Rosenblatt.

Mark I Perceptron

Maraming mga mananaliksik at mga pioneer ng computer science noong 1950s ang nagkaroon ng ideya kung paano gawin ang isang makina na gawin ang hindi nito kayang gawin sa sarili nitong. Halimbawa, si Arthur Samuel ay bumuo ng isang programa na naglaro ng mga pamato sa isang tao, sina Allen Newell at Herbert Simon ay lumikha ng isang programa na nakapag-iisa na makapagpapatunay ng mga teorema sa matematika. Bago pa man ang paglikha ng unang neural network ni Rosenblatt, dalawang iba pang mga pioneer ng pananaliksik sa larangan ng artificial intelligence, Marvin Minsky at Dean Edmonds, noong 1952, iyon ay, bago pa man lumitaw ang perceptron ni Rosenblatt, ay nagtayo ng isang makina na tinatawag na SNARC (Stochastic Neural). Analog Reinforcement Calculator) - stochastic neural analog calculator reinforcement, na itinuturing ng marami na ang unang stochastic neural network na computer. Dapat pansinin na ang SNARC ay walang kinalaman sa mga modernong kompyuter.

SNARC

Ang makapangyarihang makina, na gumagamit ng higit sa 3000 electronic tubes at isang ekstrang autopilot na mekanismo mula sa isang B-24 bomber, ay nagawang gayahin ang pagpapatakbo ng 40 neuron, na naging sapat na para mathematically gayahin ang paghahanap ng daga para sa labasan mula sa isang maze . Siyempre, walang daga, ito ay isang proseso lamang ng pagbabawas at paghahanap ng pinakamainam na solusyon. Ang kotseng ito ay bahagi ng Ph.D ni Marvin Minsky.

network ng adaline

Ang isa pang kawili-wiling proyekto sa larangan ng mga neural network ay ang ADALINE network, na binuo noong 1960 ni Bernard Withrow. Kaya, maaaring itanong ng isa: dahil higit sa kalahating siglo na ang nakalilipas ay alam ng mga mananaliksik ang mga teoretikal na pundasyon ng mga neural network at kahit na nilikha ang mga unang gumaganang pagpapatupad ng naturang computational frameworks, bakit ito tumagal ng ganoong katagal, hanggang sa ika-21 siglo, upang lumikha ng mga tunay na solusyon batay sa mga neural network? Ang sagot ay isa: hindi sapat na kapangyarihan sa pag-compute, ngunit hindi lamang ito ang hadlang.

neural network

Bagama't noong 1950s at 1960s, maraming mga AI pioneer ang nabighani sa mga posibilidad ng mga neural network, at ang ilan sa kanila ay hinulaan na ang isang makina na katumbas ng utak ng tao ay sampung taon na lang ang layo. Nakakatuwa pa nga itong basahin ngayon, dahil hindi pa tayo nakakalapit sa paggawa ng makina na katumbas ng utak ng tao, at malayo pa tayo sa paglutas ng gawaing ito. Mabilis na naging malinaw na ang lohika ng mga unang neural network ay parehong kaakit-akit at limitado. Ang mga unang pagpapatupad ng AI gamit ang mga artipisyal na neuron at machine learning algorithm ay nagawang lutasin ang isang partikular na makitid na hanay ng mga gawain.

Gayunpaman, pagdating sa mas malawak na espasyo at paglutas ng isang bagay na talagang seryoso, tulad ng pattern at pagkilala sa imahe, sabay-sabay na pagsasalin, pagkilala sa pagsasalita at sulat-kamay, atbp., iyon ay, mga bagay na magagawa na ng mga computer at AI ngayon, lumabas na ang Ang mga unang pagpapatupad ng mga neural network ay hindi lang nagawa ito. Bakit ganito? Ang sagot ay ibinigay ng pananaliksik ni Marvin Minsky (oo, ang parehong mula sa SNARC) at Seymour Papert, na noong 1969 ay pinatunayan ang mga limitasyon ng perceptron logic at ipinakita na ang pagtaas ng mga kakayahan ng mga simpleng neural network dahil lamang sa scaling ay hindi gumagana. May isa pa, ngunit napakahalaga, hadlang - ang magagamit na kapangyarihan sa pag-compute noong panahong iyon ay napakaliit para magamit ang mga neural network ayon sa layunin.

Kawili-wili din:

- Advertisement -

Renaissance ng mga neural network

Noong 1970s at 1980s, halos nakalimutan ang mga neural network. Ito ay hindi hanggang sa katapusan ng huling siglo na ang magagamit na kapangyarihan ng computing ay naging napakahusay na ang mga tao ay nagsimulang bumalik dito at bumuo ng kanilang mga kakayahan sa larangang ito. Noon ay lumitaw ang mga bagong function at algorithm, na nagtagumpay sa mga limitasyon ng unang pinakasimpleng neural network. Noon ay lumitaw ang ideya ng malalim na pag-aaral ng makina ng mga multilayer neural network. Ano ba talaga ang nangyayari sa mga layer na ito? Ngayon, halos lahat ng kapaki-pakinabang na neural network na tumatakbo sa ating kapaligiran ay multi-layered. Mayroon kaming input layer na ang gawain ay tumanggap ng input data at mga parameter (weights). Ang bilang ng mga parameter na ito ay nag-iiba-iba depende sa pagiging kumplikado ng computational problem na lulutasin ng network.

neural network

Bilang karagdagan, mayroon kaming tinatawag na "mga nakatagong layer" - dito nangyayari ang lahat ng "magic" na nauugnay sa malalim na machine learning. Ito ang mga nakatagong layer na responsable para sa kakayahan ng neural network na ito na matuto at magsagawa ng mga kinakailangang kalkulasyon. Sa wakas, ang huling elemento ay ang output layer, iyon ay, ang layer ng neural network na nagbibigay ng ninanais na resulta, sa kasong ito: kinikilalang sulat-kamay, mukha, boses, nabuong imahe batay sa tekstuwal na paglalarawan, ang resulta ng tomographic analysis ng ang diagnostic na imahe at marami pa.

Basahin din: Sinubukan ko at nainterbyu ang chatbot ni Bing

Paano natututo ang mga neural network?

Tulad ng alam na natin, ang mga indibidwal na neuron sa mga neural network ay nagpoproseso ng impormasyon sa tulong ng mga parameter (mga timbang), na itinalaga ng mga indibidwal na halaga at koneksyon. Ang mga timbang na ito ay nagbabago sa panahon ng proseso ng pag-aaral, na nagpapahintulot sa iyo na ayusin ang istraktura ng network na ito sa paraang ito ay bumubuo ng nais na resulta. Paano eksaktong natututo ang network? Ito ay malinaw, dapat itong patuloy na sinanay. Huwag magtaka sa kasabihang ito. Natututo din tayo, at ang prosesong ito ay hindi magulo, ngunit maayos, sabihin nating. Edukasyon ang tawag natin dito. Sa anumang kaso, ang mga neural network ay maaari ding sanayin, at ito ay karaniwang ginagawa gamit ang isang naaangkop na napiling hanay ng mga input, na kahit papaano ay naghahanda sa network para sa mga gawaing gagawin nito sa hinaharap. At ang lahat ng ito ay paulit-ulit na hakbang-hakbang, kung minsan ang proseso ng pag-aaral sa ilang mga lawak ay kahawig ng proseso ng pagsasanay mismo.

Halimbawa, kung ang gawain ng neural network na ito ay kilalanin ang mga mukha, ito ay paunang sinanay sa isang malaking bilang ng mga larawan na naglalaman ng mga mukha. Sa proseso ng pag-aaral, nagbabago ang mga timbang at parameter ng mga nakatagong layer. Ginagamit ng mga eksperto ang pariralang "pag-minimize ng function ng gastos" dito. Ang isang function ng gastos ay isang dami na nagsasabi sa amin kung gaano ang isang partikular na neural network ay nagkakamali. Kung mas mababawasan natin ang paggana ng gastos bilang resulta ng pagsasanay, mas mahusay na gaganap ang neural network na ito sa totoong mundo. Ang pinakamahalagang tampok na nagpapakilala sa anumang neural network mula sa isang gawain na na-program gamit ang isang klasikal na algorithm ay na, sa kaso ng mga klasikal na algorithm, ang programmer ay dapat na magdisenyo ng hakbang-hakbang kung anong mga aksyon ang gagawin ng programa. Sa kaso ng mga neural network, ang network mismo ay may kakayahang matutong magsagawa ng mga gawain nang tama nang mag-isa. At walang nakakaalam nang eksakto kung paano ginagawa ng isang kumplikadong neural network ang mga kalkulasyon nito.

neural network

Sa ngayon, malawak na ginagamit ang mga neural network at, marahil ay nakakagulat, napakadalas nang hindi nauunawaan kung paano gumagana ang proseso ng computational sa isang partikular na network. Walang kailangan para dito. Gumagamit ang mga programmer ng mga yari na machine-learned neural network na inihanda para sa pag-input ng data ng isang partikular na uri, pinoproseso ang mga ito sa paraang alam lamang nila at gumawa ng nais na resulta. Hindi kailangang malaman ng isang programmer kung paano gumagana ang proseso ng inference sa loob ng isang neural network. Iyon ay, ang isang tao ay nananatiling malayo mula sa isang malaking dami ng mga kalkulasyon, isang paraan ng pagkuha ng impormasyon at pagproseso nito sa pamamagitan ng mga neural network. Kung saan ang ilang mga takot ng sangkatauhan tungkol sa mga modelo ng artificial intelligence. Natatakot lang kami na isang araw ang neural network ay magtatakda ng isang tiyak na gawain at nang nakapag-iisa, nang walang tulong ng isang tao, maghanap ng mga paraan upang malutas ito. Nag-aalala ito sa sangkatauhan, nagdudulot ng takot at kawalan ng tiwala sa paggamit ng mga algorithm ng machine learning.

chat gpt

Ang utilitarian approach na ito ay karaniwan na ngayon. Ito ay pareho sa amin: alam namin kung paano sanayin ang isang tao sa isang partikular na aktibidad, at alam namin na ang proseso ng pagsasanay ay magiging epektibo kung ito ay gagawin nang tama. Ang isang tao ay makakakuha ng ninanais na mga kasanayan. Ngunit naiintindihan ba natin nang eksakto kung paano nagaganap ang proseso ng pagbabawas sa kanyang utak, na naging sanhi ng epektong ito? Wala kaming ideya.

Ang gawain ng mga siyentipiko ay pag-aralan ang mga problemang ito hangga't maaari, upang sila ay maglingkod at tumulong sa atin kung saan kinakailangan, at, higit sa lahat, huwag maging banta. Bilang tao, natatakot tayo sa hindi natin alam.

Interesante din: 

Yuri Svitlyk
Yuri Svitlyk
Anak ng Carpathian Mountains, hindi kinikilalang henyo ng matematika, "abogado"Microsoft, praktikal na altruist, kaliwa-kanan
- Advertisement -
Mag-sign up
Abisuhan ang tungkol sa
bisita

0 Comments
Naka-embed na Mga Review
Tingnan ang lahat ng komento