Root NationArtigosTecnologiasO que são redes neurais e como funcionam?

O que são redes neurais e como funcionam?

-

Hoje tentaremos descobrir o que são as redes neurais, como funcionam e qual o seu papel na criação da inteligência artificial.

Redes neurais. Ouvimos essa frase em quase todos os lugares. Chega ao ponto que você encontrará redes neurais até em geladeiras (isso não é brincadeira). As redes neurais são amplamente utilizadas por algoritmos de aprendizado de máquina, que hoje podem ser encontrados não apenas em computadores e smartphones, mas também em muitos outros dispositivos eletrônicos, por exemplo, em eletrodomésticos. E você já se perguntou o que são essas redes neurais?

Não se preocupe, esta não será uma palestra acadêmica. Existem muitas publicações, inclusive em língua ucraniana, que explicam esta questão de forma muito profissional e confiável no campo das ciências exatas. Essas publicações têm mais de doze anos. Como é possível que estas publicações antigas ainda sejam relevantes? O fato é que os fundamentos das redes neurais não mudaram, e o próprio conceito — um modelo matemático de um neurônio artificial — foi criado durante a Segunda Guerra Mundial.

O que são redes neurais e como funcionam?

O mesmo acontece com a Internet, a Internet de hoje é incomparavelmente mais avançada do que quando o primeiro e-mail foi enviado. Os fundamentos da Internet, os protocolos fundamentais, existiram desde o início da sua criação. Todo conceito complexo é construído sobre estruturas antigas. O mesmo acontece com o nosso cérebro, o córtex cerebral mais jovem é incapaz de funcionar sem o elemento evolutivo mais antigo: o tronco cerebral, que está nas nossas cabeças desde tempos muito mais antigos do que a existência da nossa espécie neste planeta.

Eu te confundi um pouco? Então vamos entender com mais detalhes.

Também interessante: ChatGPT: instruções simples de uso

O que são redes neurais?

Uma rede é uma coleção de certos elementos. Esta é a abordagem mais simples em matemática, física ou tecnologia. Se uma rede de computadores é um conjunto de computadores interconectados, então uma rede neural é obviamente um conjunto de neurônios.

rede neural

No entanto, estes elementos não são nem remotamente comparáveis ​​em complexidade às células nervosas do nosso cérebro e sistema nervoso, mas a um certo nível de abstracção, algumas características de um neurónio artificial e de um neurónio biológico são comuns. Mas é preciso lembrar que neurônio artificial é um conceito muito mais simples que seu equivalente biológico, sobre o qual ainda não sabemos tudo.

- Propaganda -

Leia também: 7 usos mais legais do ChatGPT

Primeiro houve um neurônio artificial

O primeiro modelo matemático de um neurônio artificial foi desenvolvido em 1943 (sim, não é um erro, durante a Segunda Guerra Mundial) por dois cientistas americanos, Warren McCulloch e Walter Pitts. Eles conseguiram fazer isso com base em uma abordagem interdisciplinar, combinando conhecimentos básicos de fisiologia cerebral (lembre-se da época em que esse modelo foi criado), matemática e a então jovem abordagem de TI (usaram, entre outras coisas, a teoria da computabilidade de Alan Turing ). O modelo de neurônio artificial McCulloch-Pitts é um modelo muito simples, possui muitas entradas, onde a informação de entrada passa por pesos (parâmetros), cujos valores determinam o comportamento do neurônio. O resultado resultante é enviado para uma única saída (ver diagrama do neurônio McCulloch-Pitts).

rede neural
Esquema de um neurônio artificial 1. Neurônios cujos sinais de saída são inseridos na entrada de um determinado neurônio 2. Somador de sinais de entrada 3. Calculadora da função de transferência 4. Neurônios às entradas das quais o sinal de um determinado neurônio é aplicado 5. ωi — pesos dos sinais de entrada

Essa estrutura semelhante a uma árvore está associada a um neurônio biológico, porque quando pensamos em desenhos que representam células nervosas biológicas, é a estrutura característica em forma de árvore dos dendritos que vem à mente. Contudo, não se deve sucumbir à ilusão de que um neurônio artificial esteja pelo menos um pouco próximo de uma célula nervosa real. Esses dois pesquisadores, autores do primeiro neurônio artificial, conseguiram demonstrar que qualquer função computável pode ser calculada usando uma rede de neurônios interligados. Porém, lembremos que esses primeiros conceitos foram criados apenas como ideias que existiam apenas “no papel” e não tinham uma interpretação real na forma de equipamentos operacionais.

Leia também: Sobre computadores quânticos em palavras simples

Do modelo às implementações inovadoras

McCulloch e Pitts desenvolveram um modelo teórico, mas a criação da primeira rede neural real teve que esperar mais de dez anos. Seu criador é considerado outro pioneiro na pesquisa de inteligência artificial, Frank Rosenblatt, que em 1957 criou a rede Mark I Perceptron, e você mesmo mostrou que graças a essa estrutura a máquina adquiriu uma habilidade antes inerente apenas a animais e humanos: ela pode aprender. No entanto, sabemos agora que houve, de facto, outros cientistas que tiveram a ideia de que uma máquina poderia aprender, inclusive antes de Rosenblatt.

Mark I Perceptron

Muitos pesquisadores e pioneiros da ciência da computação na década de 1950 tiveram a ideia de como fazer uma máquina fazer o que ela não poderia fazer sozinha. Por exemplo, Arthur Samuel desenvolveu um programa que jogava damas com um humano, Allen Newell e Herbert Simon criaram um programa que poderia provar teoremas matemáticos de forma independente. Antes mesmo da criação da primeira rede neural de Rosenblatt, outros dois pioneiros das pesquisas na área de inteligência artificial, Marvin Minsky e Dean Edmonds, em 1952, ou seja, antes mesmo do surgimento do perceptron de Rosenblatt, construíram uma máquina chamada SNARC (Stochastic Neural Calculadora de Reforço Analógico) - calculadora de reforço analógico neural estocástica, considerada por muitos como o primeiro computador de rede neural estocástica. Deve-se notar que o SNARC não teve nada a ver com computadores modernos.

SNARC

A poderosa máquina, usando mais de 3000 tubos eletrônicos e um mecanismo de piloto automático sobressalente de um bombardeiro B-24, foi capaz de simular a operação de 40 neurônios, o que acabou sendo suficiente para simular matematicamente a busca de um rato por uma saída de um labirinto . Claro, não existia rato, era apenas um processo de dedução e de encontrar a solução ideal. Este carro fez parte do doutorado de Marvin Minsky.

rede adalina

Outro projeto interessante na área de redes neurais foi a rede ADALINE, desenvolvida em 1960 por Bernard Withrow. Assim, pode-se perguntar: já que há mais de meio século os pesquisadores conheciam os fundamentos teóricos das redes neurais e até criaram as primeiras implementações funcionais de tais estruturas computacionais, por que demorou tanto tempo, até o século 21, para criar soluções reais baseadas em redes neurais? A resposta é uma só: poder computacional insuficiente, mas não foi o único obstáculo.

rede neural

Embora nas décadas de 1950 e 1960, muitos pioneiros da IA ​​​​ficassem fascinados pelas possibilidades das redes neurais, e alguns deles previram que uma máquina equivalente ao cérebro humano estava a apenas dez anos de distância. É até engraçado ler isso hoje, porque ainda não chegamos nem perto de criar uma máquina equivalente ao cérebro humano, e ainda estamos longe de resolver essa tarefa. Rapidamente ficou claro que a lógica das primeiras redes neurais era fascinante e limitada. As primeiras implementações de IA usando neurônios artificiais e algoritmos de aprendizado de máquina foram capazes de resolver uma certa gama restrita de tarefas.

Porém, quando se tratava de espaços mais amplos e de resolver algo realmente sério, como reconhecimento de padrões e imagens, tradução simultânea, reconhecimento de fala e escrita, etc., ou seja, coisas que os computadores e a IA já conseguem fazer hoje, descobriu-se que o as primeiras implementações de redes neurais simplesmente não conseguiram fazê-lo. Porque isto é assim? A resposta foi dada pela pesquisa de Marvin Minsky (sim, o mesmo do SNARC) e Seymour Papert, que em 1969 comprovou as limitações da lógica perceptron e mostrou que aumentar as capacidades de redes neurais simples apenas devido ao escalonamento não funciona. Havia mais uma barreira, mas muito importante – o poder de computação disponível naquela época era muito pequeno para que as redes neurais fossem usadas conforme pretendido.

Também interessante:

- Propaganda -

Renascimento das redes neurais

Nas décadas de 1970 e 1980, as redes neurais foram praticamente esquecidas. Foi só no final do século passado que o poder computacional disponível se tornou tão grande que as pessoas começaram a voltar a ele e a desenvolver as suas capacidades neste campo. Foi então que surgiram novas funções e algoritmos, capazes de superar as limitações das primeiras redes neurais mais simples. Foi então que surgiu a ideia de aprendizado de máquina profundo de redes neurais multicamadas. O que realmente acontece com essas camadas? Hoje, quase todas as redes neurais úteis que operam em nosso ambiente são multicamadas. Temos uma camada de entrada cuja tarefa é receber dados e parâmetros de entrada (pesos). O número desses parâmetros varia dependendo da complexidade do problema computacional a ser resolvido pela rede.

rede neural

Além disso, temos as chamadas “camadas ocultas” – é aqui que acontece toda a “mágica” associada ao aprendizado de máquina profundo. São as camadas ocultas as responsáveis ​​pela capacidade dessa rede neural de aprender e realizar os cálculos necessários. Por fim, o último elemento é a camada de saída, ou seja, a camada da rede neural que dá o resultado desejado, neste caso: caligrafia reconhecida, rosto, voz, imagem formada a partir da descrição textual, resultado da análise tomográfica de a imagem diagnóstica e muito mais.

Leia também: Testei e entrevistei o chatbot do Bing

Como as redes neurais aprendem?

Como já sabemos, neurônios individuais em redes neurais processam informações com a ajuda de parâmetros (pesos), aos quais são atribuídos valores e conexões individuais. Esses pesos mudam durante o processo de aprendizagem, o que permite ajustar a estrutura dessa rede de forma que ela gere o resultado desejado. Como exatamente a rede aprende? É óbvio que deve ser treinado constantemente. Não se surpreenda com este ditado. Também estamos aprendendo, e esse processo não é caótico, mas ordenado, digamos. Chamamos isso de educação. Em qualquer caso, as redes neurais também podem ser treinadas, e isso geralmente é feito usando um conjunto de entradas adequadamente selecionado, que de alguma forma prepara a rede para as tarefas que executará no futuro. E tudo isso se repete passo a passo, às vezes o processo de aprendizagem se assemelha até certo ponto ao próprio processo de treinamento.

Por exemplo, se a tarefa desta rede neural é reconhecer rostos, ela é pré-treinada em um grande número de imagens contendo rostos. No processo de aprendizagem, os pesos e parâmetros das camadas ocultas mudam. Os especialistas usam a frase “minimização da função de custo” aqui. Uma função de custo é uma quantidade que nos diz quanto uma determinada rede neural comete erros. Quanto mais pudermos minimizar a função de custo como resultado do treinamento, melhor será o desempenho dessa rede neural no mundo real. A característica mais importante que distingue qualquer rede neural de uma tarefa programada usando um algoritmo clássico é que, no caso de algoritmos clássicos, o programador deve projetar passo a passo quais ações o programa executará. No caso das redes neurais, a própria rede é capaz de aprender sozinha a executar tarefas corretamente. E ninguém sabe exatamente como uma rede neural complexa realiza seus cálculos.

rede neural

Hoje, as redes neurais são amplamente utilizadas e, talvez surpreendentemente, muitas vezes sem a compreensão de como realmente funciona o processo computacional em uma determinada rede. Não há necessidade disso. Os programadores usam redes neurais aprendidas por máquina prontas que são preparadas para dados de entrada de um determinado tipo, processam-nos de uma forma que só eles conhecem e produzem o resultado desejado. Um programador não precisa saber como funciona o processo de inferência dentro de uma rede neural. Ou seja, a pessoa fica distante de um grande volume de cálculos, método de obtenção de informações e seu processamento por redes neurais. Daí certos receios da humanidade em relação aos modelos de inteligência artificial. Simplesmente tememos que um dia a rede neural se estabeleça uma determinada tarefa e de forma independente, sem a ajuda de uma pessoa, encontre maneiras de resolvê-la. Isso preocupa a humanidade, causa medo e desconfiança no uso de algoritmos de aprendizado de máquina.

chat gpt

Essa abordagem utilitarista é comum hoje. É a mesma coisa conosco: sabemos treinar alguém em uma atividade específica e sabemos que o processo de treinamento será eficaz se for feito da maneira correta. Uma pessoa adquirirá as habilidades desejadas. Mas será que entendemos exatamente como ocorre o processo de dedução em seu cérebro, que causou esse efeito? Não temos ideia.

A tarefa dos cientistas é estudar esses problemas tanto quanto possível, para que eles nos sirvam e nos ajudem quando necessário e, o mais importante, não se tornem uma ameaça. Como humanos, temos medo daquilo que não conhecemos.

Também interessante: 

Yuri Svitlyk
Yuri Svitlyk
Filho das Montanhas dos Cárpatos, gênio não reconhecido da matemática, "advogado"Microsoft, altruísta prático, esquerda-direita
- Propaganda -
Inscrever-se
Notificar sobre
convidado

0 Comentários
Avaliações incorporadas
Ver todos os comentários