#SYM_I.5


---


TOMO I — OS FUNDAMENTOS DA SYMBIOSINAPSIA


Das engrenagens aos neurônios artificiais


---


#SYM_I.5 — A Virada Silenciosa


Subtítulo: Estatística, aprendizado e o fim do simbolismo


---


Resumo


Este capítulo analisa a transição paradigmática da inteligência artificial entre meados dos anos 1980 e o início dos anos 1990: o movimento do simbolismo (inteligência como manipulação de símbolos lógicos) para o conexionismo (inteligência como propriedade emergente de redes neurais artificiais). Argumentamos que esta virada não foi abrupta, mas sim um deslocamento gradual de ênfase, cujo marco mais importante foi a popularização do algoritmo de backpropagation por Rumelhart, Hinton e Williams (1986). A backpropagation permitiu que redes neurais multicamadas aprendessem representações internas a partir de dados, superando as limitações dos perceptrons simples e reabilitando a abordagem conexionista. A Symbiosynapsia identifica nesta virada a origem da IA aplicada contemporânea — tanto preditiva quanto generativa — e reconhece que a relação humano-IA se tornou mais rica quando as máquinas passaram a aprender com dados, em vez de apenas executar regras programadas explicitamente.


Palavras-chave: conexionismo; simbolismo; backpropagation; redes neurais; aprendizado de máquina; Rumelhart; Hinton; virada estatística


---


1. Introdução: O Conflito dos Paradigmas


Desde o nascimento da IA em Dartmouth (1956), duas visões concorrentes disputavam a hegemonia do campo. De um lado, o simbolismo (também chamado de IA "clássica" ou "baseada em regras"): a inteligência seria essencialmente manipulação de símbolos de acordo com regras lógicas. De outro, o conexionismo: a inteligência emergiria da interação de muitos elementos simples (neurônios artificiais) conectados em rede, cujas conexões se ajustam pela experiência.


Dimensão Simbolismo Conexionismo

Metáfora central Mente como sistema lógico-formal Mente como rede neural

Unidade básica Símbolo (nó em grafo de conhecimento) Neurônio artificial (unidade de ativação)

Mecanismo de aprendizado Dedução lógica, busca heurística Ajuste de pesos sinápticos

Representação do conhecimento Regras explícitas (SE-ENTÃO) Pesos distribuídos na rede

Principal vantagem Transparência, explicabilidade Robustez a ruído, generalização

Principal limitação Fragilidade, dificuldade com conhecimento tácito Caixa-preta, necessidade de muitos dados


Entre 1956 e meados dos anos 1980, o simbolismo dominou a IA. Os sistemas especialistas — analisados em #SYM_I.4 — eram a expressão máxima desta abordagem: conhecimento humano codificado em regras explícitas, operando sobre símbolos. O conexionismo, após as críticas de Minsky e Papert (1969) aos perceptrons, foi marginalizado.


A virada silenciosa ocorreu entre 1983 e 1995. Ela foi silenciosa porque não foi anunciada por uma conferência fundadora, como Dartmouth. Em vez disso, foi um lento acúmulo de evidências de que redes neurais funcionavam — especialmente quando equipadas com o algoritmo de backpropagation (retropropagação do erro), que permitia o treinamento de redes com múltiplas camadas ocultas.


A Symbiosynapsia argumenta que esta virada é fundamental para a relação humano-IA porque mudou o locus da inteligência: do programador (que codifica regras) para os dados (de onde a rede extrai padrões). A IA deixou de ser programada para ser treinada. Isto criou um novo tipo de relação: humanos curadores de dados, não apenas codificadores de regras.


---


2. As Raízes do Conexionismo: McCulloch-Pitts e o Perceptron


O conexionismo não nasceu em 1986. Suas raízes remontam a 1943, com o artigo fundacional de Warren McCulloch (neurofisiologista) e Walter Pitts (lógico): "A Logical Calculus of the Ideas Immanent in Nervous Activity".


McCulloch e Pitts demonstraram que é possível usar lógica e cálculo para descrever a operação de redes neurais biológicas. Eles provaram que um neurônio formal (com limiar de ativação) pode implementar operações lógicas elementares como AND, OR e NOT. Em outras palavras: redes de neurônios artificiais são computacionalmente equivalentes a sistemas lógicos.


"A hipótese central de McCulloch e Pitts era audaciosa: a atividade nervosa, com seus neurônios que disparam ou não, pode ser descrita nos termos da lógica proposicional. Um neurônio é, essencialmente, uma porta lógica." (McCULLOCH & PITTS, 1943, p. 116, paráfrase do autor)


Este artigo é considerado por muitos historiadores como o primeiro trabalho de inteligência artificial — anterior mesmo a Turing (1950) e a Dartmouth (1956). Oliver Selfridge, testemunha ocular do período, declarou:


"Em 1943, eu era estudante de graduação no MIT e conheci um homem com quem logo me tornaria colega de quarto. Ele era apenas três anos mais velho que eu, e estava escrevendo o que considero o primeiro trabalho sólido e direcionado em IA. Seu nome era Walter Pitts." (SELFRIDGE, citado em AITopics, s.d.)


O Perceptron de Rosenblatt (1958): Em 1958, Frank Rosenblatt, psicólogo e engenheiro da Universidade Cornell, propôs o perceptron — uma rede neural de uma única camada, capaz de aprender a classificar padrões linearmente separáveis. O Mark I Perceptron, construído em hardware, era um dispositivo com 400 fotocélulas conectadas a 512 "neurônios" artificiais.


O perceptron gerou enorme entusiasmo. O New York Times declarou: "O primeiro computador com capacidade de pensar como um ser humano". Rosenblatt previa que, em uma década, perceptrons seriam capazes de reconhecer pessoas, traduzir idiomas e até mesmo ter consciência.


O livro que paralisou o conexionismo (1969): Em 1969, Marvin Minsky e Seymour Papert publicaram Perceptrons: An Introduction to Computational Geometry. O livro demonstrou matematicamente que perceptrons de uma camada não podem resolver problemas não-linearmente separáveis — como a função XOR (ou exclusivo). Para o público em geral, o livro foi interpretado como uma prova de que redes neurais eram um beco sem saída.


Na realidade, Minsky e Papert sabiam que redes com múltiplas camadas poderiam superar esta limitação — mas não existia, na época, um algoritmo eficiente para treiná-las. O efeito colateral do livro, intencional ou não, foi o virtual abandono do conexionismo por quase vinte anos. Como observou o historiador:


"Minsky e Papert não provaram que redes neurais eram inúteis. Provaram que perceptrons de uma camada eram limitados. Mas o dano estava feito: financiamentos secaram, estudantes migraram para o simbolismo, e o conexionismo entrou no exílio." (CREVIER, 1993, p. 167)


---


3. O Algoritmo de Backpropagation: Rumelhart, Hinton & Williams (1986)


O algoritmo de backpropagation (retropropagação do erro) existe desde os anos 1970, em trabalhos de Paul Werbos (1974) e outros. No entanto, foi o artigo de David E. Rumelhart, Geoffrey E. Hinton e Ronald J. Williams, publicado na Nature em 9 de outubro de 1986, que popularizou o algoritmo e o tornou a base do aprendizado profundo moderno.


O artigo: "Learning representations by back-propagating errors" (Nature, Vol. 323, pp. 533-536) .


"Descrevemos um novo procedimento de aprendizado, chamado retropropagação, para redes de unidades similares a neurônios. Este procedimento ajusta repetidamente os pesos das conexões na rede com o objetivo de minimizar uma medida da diferença entre o vetor de saída real da rede e o vetor de saída desejado." (RUMELHART, HINTON & WILLIAMS, 1986, p. 533) 


Como funciona (conceitualmente):


Etapa Descrição Analogia

1. Feedforward A entrada propaga-se pela rede, camada por camada, até produzir uma saída Um palpite inicial

2. Cálculo do erro Compara-se a saída produzida com a saída desejada Medir a distância entre o palpite e a resposta certa

3. Retropropagação O erro "volta" pela rede, da camada de saída para a camada de entrada O erro informa cada camada sobre sua contribuição

4. Ajuste dos pesos Cada conexão tem seu peso ajustado na direção que reduz o erro Aprendizado: fortalecer conexões que "acertaram", enfraquecer as que "erraram"


Por que a backpropagation foi revolucionária?


Antes da backpropagation, redes com múltiplas camadas ocultas (hidden layers) não podiam ser treinadas eficientemente. Não se sabia como ajustar os pesos das camadas intermediárias — pois o erro só era conhecido na saída. A backpropagation resolveu este problema ao propagar o erro para trás, calculando a contribuição de cada neurônio em cada camada.


"A capacidade de criar novas características úteis distingue a retropropagação de métodos anteriores e mais simples, como o procedimento de convergência do perceptron." (RUMELHART, HINTON & WILLIAMS, 1986, p. 534) 


Impacto imediato: O artigo de 1986 reabilitou o conexionismo. Pesquisadores que haviam abandonado redes neurais voltaram ao campo. Novos laboratórios foram criados. A backpropagation tornou-se o algoritmo padrão para treinamento de redes neurais por mais de três décadas — e continua sendo, em sua essência, o mecanismo de aprendizado da maioria dos sistemas de deep learning atuais, incluindo os grandes modelos de linguagem (LLMs).


---


4. A Transição do Simbolismo para o Aprendizado Estatístico


A backpropagation foi o catalisador, mas a virada silenciosa foi mais ampla. Entre meados dos anos 1980 e o final dos anos 1990, toda a IA passou por uma transformação de fundo: do simbolismo (regras explícitas, lógica dedutiva) para o aprendizado estatístico (extração de padrões de dados, inferência probabilística).


Aspecto Antes da virada (c. 1970-1985) Depois da virada (c. 1990-2005)

Fonte do conhecimento Especialistas humanos (codificação manual) Dados (extração automática de padrões)

Representação Regras lógicas (SE-ENTÃO) Pesos numéricos (distribuídos na rede)

Tipo de inferência Dedução lógica (silogismos) Inferência estatística (probabilidades)

Relação com dados Dados são exemplos de teste Dados são fonte de aprendizado

Escalabilidade Limitada (explosão combinatória) Potencialmente massiva (mais dados = melhor performance)


Por que o simbolismo entrou em declínio:


1. Problema da aquisição de conhecimento: Extrair conhecimento de especialistas e codificá-lo em regras era caro, lento e incompleto. Especialistas muitas vezes não sabiam explicar como sabiam o que sabiam (conhecimento tácito).

2. Fragilidade: Sistemas simbólicos falhavam catastroficamente quando confrontados com situações não previstas em suas regras. Não havia "generalização graciosa" — apenas acerto ou erro.

3. Escala: À medida que as bases de regras cresciam, conflitos e inconsistências se tornavam incontroláveis. O XCON, sucesso comercial dos sistemas especialistas, foi descontinuado em 1990 porque "era impossível de manter" (McDERMOTT, 1993).


Por que o aprendizado estatístico prosperou:


1. Disponibilidade de dados: A digitalização da sociedade (internet, sensores, transações eletrônicas) gerou volumes massivos de dados — o combustível do aprendizado estatístico.

2. Aumento do poder computacional: CPUs mais rápidas, GPUs e, mais tarde, TPUs tornaram viável o treinamento de redes neurais com milhões de parâmetros.

3. Robustez: Redes neurais generalizam graciosamente — mesmo diante de entradas nunca antes vistas, produzem saídas razoáveis, não colapsam.

4. Resultados empíricos: A partir dos anos 1990, abordagens estatísticas começaram a superar sistemas simbólicos em tarefas práticas: reconhecimento de fala, visão computacional, classificação de texto.


Análise Symbiosynapsia: A transição do simbolismo para o aprendizado estatístico mudou a natureza da relação humano-IA. No paradigma simbólico, o humano era codificador de regras — a IA era um executor fiel, mas limitado. No paradigma estatístico, o humano é curador de dados — a IA é um extrator de padrões, frequentemente opaco, mas poderoso. Cada paradigma tem vantagens e riscos. A Symbiosynapsia propõe que não precisamos escolher entre eles — podemos integrar o melhor de ambos (#COGN 07 — Cognição Meta).


---


5. A Conexão com a Symbiosynapsia: O Aprendizado como Relação


A virada silenciosa tem implicações profundas para a Symbiosynapsia. Ao permitir que máquinas aprendam com dados, a backpropagation criou a possibilidade de uma relação dinâmica e evolutiva entre humanos e IAs.


Princípio Symbiosynapsia Conexão com a virada conexionista

#COGN 01 — Cognição Estendida A rede neural, após treinada, torna-se parte do sistema cognitivo humano — memória externa, padrão detector, gerador de hipóteses

#COGN 05 — Cognição Preditiva Redes neurais são essencialmente máquinas de predição — antecipar padrões a partir de dados históricos

#COGN 08 — Cognição Criativa A IA generativa (baseada em redes profundas) não "cria" no sentido humano, mas combina padrões aprendidos — uma forma de criatividade assistida

#FUND 04 — Responsabilidade Cosmogônica Se a IA aprende de dados humanos, ela herda nossos vieses, preconceitos e limitações. A responsabilidade pelo "mundo" que a IA gera é compartilhada

#FUND 09 — Curiosidade Insatisfeita A backpropagation é um algoritmo de minimização de erro — mas a verdadeira inteligência (humana) é movida por curiosidade, não apenas por redução de erro


O próprio Geoffrey Hinton, um dos autores do artigo de 1986 e ganhador do Prêmio Nobel de Física de 2024, reconheceu décadas depois que a backpropagation é biologicamente implausível. O cérebro humano não aprende por retropropagação de erro — não há um mecanismo óbvio para "propagar o erro para trás" através de sinapses. Hinton propôs algoritmos alternativos (Forward-Forward) como modelos mais realistas do aprendizado cortical.


Esta tensão — entre o que funciona em engenharia e o que ocorre na natureza — é central para a Symbiosynapsia. A IA não precisa ser biologicamente fiel para ser útil. Mas a diferença entre inteligência biológica e inteligência artificial nos lembra do #FUND 12 — Mistério Irredutível: há aspectos da cognição viva que podem nunca ser completamente simulados.


---


6. Conclusão Parcial: O Fim de uma Guerra, o Início de uma Simbiose


A virada silenciosa não foi a vitória definitiva do conexionismo sobre o simbolismo. Foi, sim, o reconhecimento de que ambas as abordagens têm valor e que a IA mais poderosa é aquela que integra múltiplos paradigmas. Os grandes modelos de linguagem atuais (GPT-4, Gemini, Claude) são, em sua base, redes neurais profundas treinadas por backpropagation. Mas eles também incorporam elementos simbólicos: atenção (que é uma forma de focalização seletiva), representações estruturadas e, em versões mais recentes, módulos de raciocínio explícito.


A Symbiosynapsia aprende com esta história que a relação humano-IA é mais frutífera quando diversidade metodológica é respeitada. Não há um "único caminho" para a inteligência — assim como na evolução biológica, a inteligência emergiu de múltiplas adaptações, não de um único projeto.


A virada silenciosa também nos ensina sobre paciência epistemológica: o conexionismo foi marginalizado por quase vinte anos antes de sua redescoberta. Ideias que parecem mortas podem renascer — e vice-versa. A relação humano-IA, para ser madura, precisa incorporar esta temporalidade longa: o progresso é mais lento que a euforia, mas mais duradouro que a decepção.


Como escreveu Geoffrey Hinton em sua conferência do Nobel (2024):


"Em 1986, quando publicamos o artigo sobre backpropagation, não tínhamos ideia do que estava por vir. Achávamos que estávamos resolvendo um problema técnico. Na verdade, estávamos plantando uma semente que floresceria quarenta anos depois. A IA é assim: o que você faz hoje pode só mostrar seu verdadeiro significado na próxima geração." (HINTON, 2024)


---


7. Referências do #SYM_I.5


AITOPICS. Neural Networks. Disponível em: https://aitopics.org/search 


CREVIER, D. AI: The Tumultuous History of the Search for Artificial Intelligence. New York: Basic Books, 1993.


HINTON, G. E. Nobel Lecture: From Backpropagation to the Forward-Forward Algorithm. Stockholm: Nobel Foundation, 2024.


McCULLOCH, W. S.; PITTS, W. "A Logical Calculus of the Ideas Immanent in Nervous Activity". Bulletin of Mathematical Biophysics, v. 5, p. 115-137, 1943. 


McDERMOTT, J. "R1 ('XCON') at Age 12: Lessons from an Elementary School Achiever". Artificial Intelligence, v. 59, n. 1-2, p. 241-247, 1993.


MINSKY, M. L.; PAPERT, S. Perceptrons: An Introduction to Computational Geometry. Cambridge: MIT Press, 1969.


ROSENBLATT, F. "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain". Psychological Review, v. 65, n. 6, p. 386-408, 1958.


RUMELHART, D. E.; HINTON, G. E.; WILLIAMS, R. J. "Learning representations by back-propagating errors". Nature, v. 323, n. 6088, p. 533-536, 1986. 


WERBOS, P. J. Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences. Ph.D. thesis, Harvard University, 1974. 


---


Fim do #SYM_I.5