🚀 Oferta especial: 60% OFF no CrazyStack - Últimas vagas!Garantir vaga →
Inteligência Artificial

Redes Neurais Artificiais: Da Fuga de Walter Pitts à Retropropagação Moderna

A fascinante jornada de como um jovem autodidata fugindo de casa criou os fundamentos da IA moderna, conectando neurociência, astronomia e a descoberta de Ceres.

CrazyStack
25 min de leitura
Redes NeuraisHistória da IABackpropagationMcCulloch-Pitts

Por que isso é importante

Inteligências artificiais modernas não são programadas por regras fixas. Elas aprendem padrões que humanos não conseguiriam ensinar. No centro dessa revolução está uma ideia desenvolvida ao longo de séculos, conectando a fuga de um jovem autodidata, a descoberta de um planeta perdido e os mistérios do cérebro humano.

O Mistério do Aprendizado Artificial

Inteligências artificiais modernas não são programadas como um programa comum. Ninguém conta para elas como dirigir um carro, quando parar num sinal ou quando atravessar um cruzamento. Nem como tomar decisões estratégicas em xadrez, quando avançar um peão ou mover um cavalo.

Mesmo assim, elas são capazes de aprender coisas que seres humanos não poderiam ensinar e coisas que seres humanos nunca poderiam fazer.

ℹ️Insight Fundamental

No centro da explicação de como isso é possível, existe uma ideia que se formou ao longo de centenas de anos na mente de cientistas, matemáticos, psicólogos e filósofos. Uma ideia negligenciada por décadas, mas nunca totalmente esquecida.

Essa ideia se entrelaça com a história de um gênio rebelde fugindo de casa, a caça por um planeta desaparecido, e a incansável tentativa de entender o dispositivo mais complexo já encontrado: o cérebro humano.

Detroit, 1935: A Fuga que Mudou a História da IA

O ano é 1935, e um menino é perseguido pelas ruas da cidade de Detroit, nos Estados Unidos, por uma gangue da vizinhança. Naquele dia, ele decide não correr para casa - talvez para evitar seu pai, que podia ser tão violento quanto os meninos que o perseguiam.

Em vez disso, ele consegue correr o suficiente para se esconder numa biblioteca. O lugar era familiar - seu pai o havia obrigado a abandonar a escola para trabalhar, e os livros daquela biblioteca eram seus únicos professores.

ℹ️Momento Decisivo

Naquele dia, perambulando entre as prateleiras, ele encontra um volume do "Principia Mathematica" - uma tentativa de reconstruir a matemática dentro de uma linguagem lógica, descrita por Bertrand Russell e Alfred Whitehead. Ele ficou tão fascinado que só voltou para casa após ter terminado de ler todos os volumes massivos, três dias depois.

Em seguida, ele escreveu uma carta informando Russell com urgência dos erros lógicos que havia encontrado. No final, assinou seu nome: Walter Pitts. Russell, considerado um dos matemáticos mais importantes do século, ficou impressionado e convidou o autor para Cambridge. Walter respondeu que infelizmente não podia aceitar - ele só tinha 12 anos.

O Encontro que Criou os Neurônios Artificiais

Três anos depois, descobrindo que Russell faria uma visita à Universidade de Chicago, Walter Pitts fugiu de casa e viajou por quase 500 quilômetros para conhecê-lo. Nunca mais voltou para casa.

Sem moradia fixa e educação formal, Pitts viveu os próximos anos ao redor da Universidade de Chicago, entrando escondido em aulas e fazendo trabalhos manuais para se sustentar. Aos 18 anos, foi apresentado ao professor Warren McCulloch.

Parceria Histórica

Warren McCulloch, de 42 anos, era um respeitado e excêntrico professor de neuropsiquiatria. Os dois não pareciam ter nada em comum, exceto o amor à poesia e a admiração pelo trabalho do filósofo alemão Gottfried von Leibniz, que 300 anos antes já sonhava com inteligência artificial.

McCulloch contou a Pitts que sua pesquisa tinha objetivo parecido ao de Leibniz: modelar o funcionamento do sistema nervoso humano usando matemática e lógica. Pitts sugeriu as ferramentas matemáticas que poderiam dar vida às ideias de McCulloch.

Decifrando o Cérebro: A Arquitetura da Inteligência

Na década de 40, já se sabia que o neurônio era uma unidade básica de comunicação do sistema nervoso humano. Existem vários tipos diferentes, mas todos possuem a mesma estrutura básica: dendritos que recebem sinais, soma (corpo celular) e axônio que propaga o sinal.

Os dendritos de um neurônio podem receber informação de centenas ou milhares de neurônios, enquanto seus terminais enviam informação para ainda mais neurônios. Quando acumula sinais suficientes, o neurônio "dispara" - uma corrente elétrica se propaga pelo axônio, causando liberação de sinais químicos.

ℹ️Insight Revolucionário

McCulloch e Pitts acreditavam que da sinfonia dos 100 bilhões de neurônios do encéfalo nasce a inteligência humana. Por isso, queriam encontrar um modelo matemático capaz de capturar a essência de um neurônio.

1943: O Primeiro Neurônio Artificial

Com pouco mais de um ano de colaboração, McCulloch e Pitts publicaram "Um Cálculo Lógico de Ideias Imanentes na Atividade Nervosa" - definindo o primeiro neurônio artificial.

Esse neurônio recebia entradas binárias (0 ou 1) representando mensagens de outros neurônios. Os valores eram somados dentro do neurônio. Se o resultado superasse um número limiar, o neurônio retornava 1 na saída; caso contrário, retornava 0.

Demonstração Histórica

Eles demonstraram que esse modelo básico era suficiente para implementar operações lógicas como AND, OR e NOT. Para replicar o AND, bastava um neurônio com duas entradas e limiar igual a 2 - só ativaria quando ambas as entradas valessem 1.

As Limitações do Modelo Original

A ideia de McCulloch-Pitts era que a combinação de bilhões de operações lógicas explicaria a racionalidade humana. Foi um marco na neurociência, mas deixava de lado aspectos essenciais do sistema nervoso.

⚠️Descobertas Posteriores

Foi mostrado que apenas um dendrito de um neurônio real tem mais poder de computação que um neurônio artificial inteiro - mesmo considerando versões mais sofisticadas. Cada neurônio biológico é responsável por funções muito mais complexas que representar apenas 0 ou 1.

Mesmo não sendo um bom modelo para neurônios reais, o neurônio de McCulloch-Pitts foi o primeiro passo no desenvolvimento de inteligências capazes de escrever, dirigir, pintar e, talvez, até sonhar.

O Desafio do Aprendizado Contínuo

A facilidade com que humanos aprendem coisas completamente novas - jogar um jogo, falar palavras de idioma estrangeiro, dominar assuntos complexos - é impressionante. O aprendizado contínuo é uma das características mais importantes que nos tornam humanos.

Uma das falhas do modelo McCulloch-Pitts era não explicar satisfatoriamente essa capacidade de aprendizado - algo essencial se o objetivo é recriar inteligência humana usando neurônios artificiais.

ℹ️Visão de Turing

Alan Turing sugeriu que talvez a única forma de criar uma máquina que realmente sabe pensar como um adulto seja primeiro criar uma máquina que sabe pensar como um bebê e dar a ela capacidade de aprender.

Frank Rosenblatt e a Revolução do Perceptron

Levaria uma década após o neurônio de McCulloch-Pitts até que um psicólogo chamado Frank Rosenblatt reacendesse a tocha e tentasse desenvolver um neurônio artificial que conseguisse de fato aprender.

Como a dupla anterior, Rosenblatt estava interessado em descobrir as peças fundamentais que permitem ao cérebro humano fazer o que faz. Isso o levou a estudar o trabalho do psicólogo canadense Donald Hebb.

ℹ️Teoria Hebbiana

Em 1949, Hebb propôs que o aprendizado dependia do fortalecimento de conexões entre neurônios que se ativam juntos e enfraquecimento de outras conexões não utilizadas. A teoria hebbiana e o neurônio de McCulloch-Pitts ressoaram como notas de uma mesma música na imaginação de Rosenblatt.

Esse era o nascimento da área que hoje chamamos de Deep Learning.

1958: O Mark I - Primeiro Cérebro Elétrico

Em 1958, dois anos após terminar seu doutorado, Rosenblatt apresentou ao mundo o Perceptron Mark I. Ele não ficou satisfeito apenas com a teoria - como computadores da época eram lentos, construiu uma máquina própria.

Usando neurônios artificiais, o Mark I era capaz de aprender a reconhecer dígitos, rostos, animais e outras imagens. Jornais como o New York Times anunciaram o nascimento de um "cérebro elétrico".

Inovação Técnica

O segredo que permitia ao Mark I aprender era uma modificação do neurônio de McCulloch-Pitts. Agora cada entrada possuía um parâmetro representando força de conexão. Em vez de aceitar apenas 0 ou 1, as entradas podiam receber qualquer valor real.

Como o Perceptron Aprende: Matemática do Aprendizado

O valor de cada entrada é multiplicado por seu respectivo parâmetro e somado dentro do neurônio. Também é adicionado um valor constante B (bias), que codifica quão fácil é ativar o neurônio por padrão. Se o resultado passar do limiar, o neurônio ativa.

Cada parâmetro é como um botão - virando cada um, você regula a intensidade da conexão. É alterando essas intensidades que o neurônio de Rosenblatt consegue aprender.

1
Exemplo Prático: Treinar perceptron para diferenciar gatos e cachorros baseado em peso e altura.
2
Geometria: O limiar entre valores que ativam o perceptron define uma reta no plano peso-altura.
3
Ajuste: Cada erro move a reta na direção correta, encontrando separação ideal.
4
Convergência: Rosenblatt provou que o processo sempre encontra solução, desde que ela exista.

⚠️Limitações do Perceptron

Se encontrarmos cachorros muito pequenos e gatos muito pesados, pode ser impossível determinar uma reta que divida as categorias. Nesses casos, precisamos de algo mais sofisticado - uma rede de vários perceptrons.

O Primeiro Inverno da IA: Tragédias e Limitações

Rosenblatt sabia que a solução para problemas mais complexos era se inspirar novamente no encéfalo e criar uma rede de perceptrons - uma rede neural com várias camadas. O que ele não sabia era como treinar essas redes.

Seu algoritmo funcionava perfeitamente em um único perceptron, mas falhava quando novas camadas eram adicionadas. Além disso, redes neurais de várias camadas demandavam poder computacional impensável nos anos 60.

Declínio e Tragédia

Em 1969, Marvin Minsky publicou "Perceptrons", chamando atenção para as limitações dos neurônios de Rosenblatt. Os fundos para pesquisa congelaram - o "primeiro inverno da IA". No mesmo ano, McCulloch e Pitts faleceram. Em 1971, Rosenblatt sofreu acidente de barco fatal aos 41 anos.

Nenhum dos três sabia, mas a solução para treinar redes neurais já havia sido publicada por um engenheiro aeroespacial chamado Henry J. Kelly uma década antes - mas nunca alcançou a comunidade de IA.

1801: A Caça pelo Planeta Perdido

Para entender o que liberou o poder das redes neurais, precisamos viajar no tempo. No ano novo de 1801, Giuseppe Piazzi apontou seu telescópio para a noite siciliana e notou algo curioso: um ponto iluminado entre Marte e Júpiter que se movia.

Piazzi acreditou ter descoberto um novo planeta - Ceres. Anotou sua posição por 42 dias até que a órbita o levou a ser ocultado pelo Sol. Quando deveria reaparecer, ninguém conseguiu encontrar o planeta. Ceres havia desaparecido.

ℹ️Desafio Matemático

Matemáticos por toda Europa participaram da caça. O objetivo: desvendar a órbita usando apenas 19 observações de Piazzi. Meses se passaram sem solução, até que um jovem de 24 anos decidiu pensar sobre o problema.

Carl Friedrich Gauss e o Método dos Mínimos Quadrados

O jovem sabia que Ceres seguia uma elipse com foco no Sol, mas Piazzi fez suas medidas enquanto a Terra também estava em movimento. Além disso, observações astronômicas possuíam erros de equipamentos e humanos.

Por isso, não existia forma de desenhar uma elipse que incluísse exatamente os 19 pontos. A solução: para qualquer elipse candidata, medir a distância de cada ponto observado até o ponto mais próximo da elipse. Essa diferença é o "erro".

1
Função Erro: Recebe parâmetros da órbita, retorna erro total comparado às observações.
2
Minimização: A elipse que minimiza erros será próxima da órbita real de Ceres.
3
Gradiente: Ferramenta matemática que indica direção de maior crescimento/decrescimento.
4
Convergência: Seguindo direção oposta ao gradiente, encontra-se o mínimo erro.

Após mais de 100 horas de cálculo manual, Gauss sabia exatamente onde apontar os telescópios. Em 7 de dezembro de 1801, Ceres foi reencontrado. Essa façanha tornou Gauss uma celebridade científica instantânea.

A Conexão: De Ceres às Redes Neurais

Treinar uma rede neural também é questão de encontrar menor erro possível usando informações imprecisas, como as observações de Piazzi. Se estivéssemos treinando uma rede para identificar imagens ou diagnosticar doenças, poderíamos ajustar parâmetros até encontrar combinação que diminui erro ao máximo.

Então realizar o sonho de Rosenblatt seria apenas aplicar o método de Gauss? Infelizmente, não. Rosenblatt conhecia o método e havia confrontado esses pensamentos, mas não sabia como implementá-lo em algo complexo como rede neural.

⚠️Barreira Tecnológica

O sucesso da IA não é apenas sobre descobertas teóricas, mas avanços tecnológicos. Quando Rosenblatt começou, computadores faziam mil instruções por segundo. Foram necessários 50 anos da Lei de Moore até chegarmos onde máquinas conseguem parecer pensar.

A Revolução do Backpropagation

Para entender o que liberou todo poder das redes neurais, vamos juntar tudo aprendido até agora para ensinar uma IA a diferenciar gato e cachorro usando fotos.

Começamos com rede neural onde todos parâmetros são aleatórios. Nas entradas, a rede recebe uma imagem codificada em números - cada pixel vira um valor entre 0 e 255. Do outro lado, duas saídas: cachorro ou gato, com valores entre 0 e 1.

ℹ️Função de Erro

Como no problema de Ceres, montamos função de erro. Cada parâmetro da rede é entrada dessa função, a saída é o quanto a rede está longe da resposta certa. Para um gato, queremos saída 1 para gato e 0 para cachorro.

O Algoritmo que Mudou Tudo: Retropropagação

Fazer gradiente descendente numa rede neural é muito mais complicado. Para saber como um parâmetro afeta a rede, precisamos seguir como mudanças impactam neurônios conectados na próxima camada, depois na outra, e assim por diante.

A solução é o algoritmo Backpropagation (retropropagação), inventado por Henry J. Kelly em 1960, mas redescoberto pela comunidade de IA nos anos 80.

1
Propagação: Calcular erro salvando resultados intermediários de cada neurônio.
2
Retropropagação: Começar pelas saídas, calcular gradiente e viajar de volta pela rede.
3
Regra da Cadeia: Reutilizar cálculos anteriores para eficiência computacional.
4
Atualização: Ajustar parâmetros baseado na média de mudanças propostas.

Processo Completo

O aprendizado é o processo de repetir isso para grupos de imagens várias vezes, com esperança de cada vez ter erro menor. É um processo de repetidamente fazer cálculos para encontrar parâmetros melhores.

Redes Neurais Modernas: O Poder Atual

Redes neurais modernas podem ter arquiteturas mais sofisticadas. IAs que identificam imagens usam redes convolucionais. Existem formas de aprendizado que não dependem de exemplos, como aprendizado por reforço.

Mas tanto redes convolucionais quanto grandes modelos de linguagem (GPT, Gemini) e praticamente qualquer IA moderna dependem desses mesmos princípios explicados aqui.

ℹ️Poder Computacional Atual

Treinar um grande modelo de linguagem de ponta requer cerca de 100 mil placas de vídeo trabalhando juntas. Temos hoje velocidade de processamento equivalente à soma de todos computadores que existiam durante carreira de Rosenblatt.

TensorFlow

Framework open source para desenvolvimento de modelos de aprendizado profundo

Saiba mais →

PyTorch

Biblioteca para criação e treinamento de redes neurais

Saiba mais →

Scikit-learn

Ferramenta para machine learning e prototipagem rápida

Saiba mais →

A Verdadeira Lição da História

Hoje, redes neurais são fundamento de todas IAs transformando nosso mundo. Pode parecer que IA simbólica foi perda de tempo e redes neurais são certamente o futuro.

Mas a lição real é que não é óbvio para cientistas de uma época qual tópico de pesquisa será mais importante. Ideias revolucionárias são difíceis de notar.

Reflexão Final

McCulloch-Pitts e Rosenblatt foram rebeldes que desafiaram sabedoria da época e defenderam pesquisas vistas como motivo de riso. Talvez os criadores das ideias mais poderosas do nosso tempo, que transformarão o futuro, estejam recebendo reconhecimento. Ou talvez estejam na mente de jovens desconhecidos brigando para defender valor dessas ideias.

Talvez um deles esteja aqui no Brasil. Talvez esteja lendo este artigo. Talvez seja você.

Checklist: Compreendendo Redes Neurais

Checklist de Conhecimento

Compreendeu a história de Walter Pitts e Warren McCulloch
Entendeu o modelo McCulloch-Pitts e suas limitações
Estudou Frank Rosenblatt e o desenvolvimento do Perceptron
Conectou o método de Gauss com treinamento de redes neurais
Compreendeu o algoritmo de backpropagation
Identificou aplicações modernas de redes neurais

Domine React e Node com o CrazyStack

Aprenda técnicas avançadas de React com nosso curso completo