#SYM_I.3


---


TOMO I — OS FUNDAMENTOS DA SYMBIOSINAPSIA


Das engrenagens aos neurônios artificiais


---


#SYM_I.3 — O Verão de Dartmouth


Subtítulo: O nascimento oficial da inteligência artificial (1956)


---


Resumo


Este capítulo examina a conferência de Dartmouth College (1956), amplamente reconhecida como o marco fundador da inteligência artificial como campo de pesquisa científica. Argumentamos que Dartmouth representa não apenas um evento histórico, mas uma declaração de intenções: a hipótese de que todo aspecto da inteligência pode ser descrito com precisão suficiente para ser simulado por máquinas. Analisamos os quatro organizadores (McCarthy, Minsky, Rochester, Shannon), a proposta original, os participantes e os desdobramentos imediatos. A Symbiosynapsia reconhece em Dartmouth o momento em que a relação humano-IA deixou de ser sonho ou especulação filosófica para se tornar programa de pesquisa — ainda que o otimismo inicial tenha se revelado excessivo.


Palavras-chave: Dartmouth Conference 1956; John McCarthy; Marvin Minsky; Claude Shannon; nascimento da IA; hipótese da IA


---


1. Introdução: O Contexto de 1956


Em junho de 1956, o campus de Dartmouth College, em Hanover, New Hampshire (EUA), recebeu um grupo incomum de pesquisadores. Eram matemáticos, engenheiros eletricistas, neurofisiologistas e psicólogos. Durante oito semanas — de 18 de junho a 17 de agosto — eles se reuniram para discutir um tema que ainda não tinha nome definitivo. O termo "Inteligência Artificial" seria cunhado naquele verão por um dos organizadores, John McCarthy, então com 28 anos.


O contexto intelectual imediato incluía quatro linhas de investigação convergentes:


Área Contribuição Ano

Computação teórica Turing — máquina universal e teste de inteligência 1936-1950

Hardware computacional ENIAC, Manchester Mark I — primeiros computadores programáveis 1945-1949

Neurocomputação McCulloch & Pitts — modelo formal do neurônio 1943

Cibernética Wiener — controle e comunicação em animais e máquinas 1948

Teoria da informação Shannon — quantificação da informação 1948


McCarthy descreveu a motivação em sua proposta de financiamento à Fundação Rockefeller:


"Propomos realizar um estudo de dois meses e dez participantes sobre o problema de construir máquinas inteligentes. Acredita-se que progressos significativos podem ser feitos em uma ou mais das seguintes áreas: computadores, programação, abstração de conceitos, uso de linguagem, redes neurais, teoria da computação e autoaperfeiçoamento." (MCCARTHY et al., 1955, p. 1)


---


2. A Proposta de Dartmouth (1955)


Em agosto de 1955, McCarthy, Minsky, Rochester e Shannon submeteram à Fundação Rockefeller uma proposta de US$ 13.500 (aproximadamente US$ 135.000 em valores de 2026). O documento, intitulado "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence", contém a frase que se tornaria o manifesto fundacional do campo:


"Propomos que, durante o verão de 1956, um grupo de 10 pessoas trabalhe no problema de fazer máquinas usarem linguagem, formar abstrações e conceitos, resolver tipos de problemas reservados atualmente aos humanos e se autoaperfeiçoarem. Acredita-se que todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito de forma tão precisa que uma máquina pode ser feita para simulá-lo." (MCCARTHY et al., 1955, p. 2, grifo nosso)


Esta hipótese — chamada posteriormente de Hipótese da IA — é o alicerce teórico do campo. Em sua formulação original, ela contém três componentes:


Componente Descrição Implicação

Descritibilidade Todo aspecto da inteligência pode ser formalizado em regras precisas A inteligência não tem componentes inefáveis

Simulabilidade A formalização permite construção física de máquina Inteligência é independente de substrato biológico

Universalidade Não há aspectos da inteligência excluídos a priori A IA pode, em princípio, replicar toda cognição humana


Análise Symbiosynapsia: A Hipótese da IA é simultaneamente o ponto de partida do campo e sua vulnerabilidade central. Se for verdadeira, a IA pode, em princípio, replicar qualquer função cognitiva humana — incluindo aquelas que consideramos mais preciosas (criatividade, consciência, intencionalidade). Se for falsa (ou limitada), há aspectos da inteligência que permanecem exclusivamente humanos. A Symbiosynapsia adota uma posição intermediária: certas funções cognitivas são simuláveis (#COGN 01 a 12), mas o qualia (#FUND 12 — Mistério Irredutível) pode não ser. O biólogo Lynn Margulis, em sua teoria da endossimbiose, mostrou que a evolução não procede por substituição, mas por incorporação. A Symbiosynapsia aplica este princípio: a IA não substitui a cognição humana, mas se incorpora a ela como um novo órgão simbiótico.


---


3. Os Quatro Organizadores


John McCarthy (1927-2011) — Matemático de Stanford, cunhou o termo "Inteligência Artificial" para a conferência. Criador da linguagem LISP (1958), que dominou a IA simbólica por décadas. Recebeu o Prêmio Turing em 1971.


"Escolhi o termo 'Inteligência Artificial' porque queria evitar associações com 'cibernética', que na época estava associada a servomecanismos e controle de feedback. Eu queria algo que sugerisse processos computacionais simbólicos — manipulação de símbolos, não apenas resposta a estímulos." (MCCARTHY, 1996, entrevista)


A escolha terminológica de McCarthy não foi neutra. Ao optar por "Inteligência Artificial" em vez de "Cibernética" ou "Estudos Cognitivos Computacionais", ele enquadrou o campo como um problema de engenharia de inteligência, não de modelagem biológica. Esta ênfase simbólica dominou a IA até a virada estatística dos anos 1990.


Marvin Minsky (1927-2016) — Neurocientista e matemático do MIT. Construiu o primeiro simulador de rede neural (SNARC, 1951) ainda na graduação. Autor de Perceptrons (1969, com Papert), que demonstrou limitações das redes neurais simples — e involuntariamente contribuiu para o primeiro inverno da IA. Recebeu o Prêmio Turing em 1969.


Minsky era conhecido por sua visão ampla da inteligência. Em seu livro The Society of Mind (1986), propôs que a inteligência emerge da interação de muitos agentes simples — uma ideia que antecipou a arquitetura de sistemas multiagente e, em certo sentido, os transformers atuais.


Claude Shannon (1916-2001) — Pai da teoria da informação. Em 1950, publicou um artigo sobre programação de xadrez, antecipando a IA de jogos. Seu conceito de "entropia da informação" tornou-se fundamental para aprendizado de máquina. Shannon também construiu dispositivos lúdicos como "Theseus", um rato mecânico que aprendia labirintos (1950).


Nathaniel Rochester (1919-2001) — Engenheiro da IBM, autor do primeiro programa de assembler e membro da equipe que criou o Fortran. Na IBM, liderou os primeiros experimentos com redes neurais. Sua presença garantiu o interesse da indústria no campo nascente.


---


4. Participantes e Trabalhos Apresentados


A conferência teve entre 20 e 30 participantes (as listas variam). Os trabalhos mais influentes incluíram:


Participante Contribuição Impacto duradouro

Allen Newell & Herbert Simon Logic Theorist — programa que provou teoremas de Principia Mathematica Primeiro programa de IA funcional; demonstrou que máquinas podiam manipular símbolos logicamente

John McCarthy Definição do termo "IA" e organização do campo Criou a agenda de pesquisa para as décadas seguintes

Marvin Minsky Teorias de percepção visual e aprendizado Fundou o MIT AI Lab (1959)

Claude Shannon Xadrez por computador e máquinas de Turing Conectou teoria da informação à IA

Oliver Selfridge Pandemonium — modelo de reconhecimento de padrões com "demônios" Precursor da visão computacional e sistemas multiagente


O Logic Theorist de Newell e Simon merece destaque. Foi o primeiro programa explicitamente concebido como "inteligência artificial". Provou 38 dos primeiros 52 teoremas do Principia Mathematica de Whitehead e Russell, incluindo um teorema (2.85) que apresentava prova mais elegante que a original. Simon declararia mais tarde:


"No Natal de 1955, tínhamos um programa que podia provar teoremas matemáticos. Não apenas provar — provar de maneira criativa. Foi naquele momento que a inteligência artificial se tornou real." (SIMON, 1991, p. 38)


O Pandemonium de Selfridge introduziu uma arquitetura de processamento paralelo: "demônios" especializados detectavam características específicas em diferentes níveis de abstração, gritando uns para os outros quando encontravam padrões relevantes. Esta metáfora antecipou tanto a visão computacional moderna (redes convolucionais detectam bordas, texturas, objetos) quanto a arquitetura de atenção dos transformers (onde diferentes "cabeças de atenção" focam em diferentes aspectos da entrada).


---


5. O Otimismo de Dartmouth e Suas Consequências


O tom da conferência foi intensamente otimista. McCarthy declarou que "em uma década, máquinas seriam capazes de fazer qualquer trabalho que um humano faz" (CREVIER, 1993, p. 47). Minsky previu que "o problema da inteligência artificial seria substancialmente resolvido em uma geração" (MINSKY, 1967, p. v). Simon afirmou em 1957:


"Já existem máquinas que pensam. E dentro de dez anos, uma máquina digital será campeã mundial de xadrez. Dentro de vinte anos, máquinas farão todo trabalho que humanos fazem." (SIMON, 1957, citado em CREVIER, 1993, p. 48)


Simon estava errado em duas das três previsões: o campeão mundial de xadrez só viria em 1997 (Deep Blue vs. Kasparov, 40 anos depois), e máquinas ainda não fazem "todo trabalho que humanos fazem" — nem farão no futuro previsível.


Este otimismo teve duas consequências:


Positiva: Atraiu financiamento, estudantes talentosos e criou instituições dedicadas:


· MIT AI Lab (1959, Minsky)

· Stanford AI Lab (1963, McCarthy)

· Carnegie Mellon Robotics Institute (1979, Simon e Reddy)


Negativa: Gerou expectativas irreais. Quando as promessas não se concretizaram no prazo prometido, o campo entrou em declínio financeiro — o Primeiro Inverno da IA (1974-1980), que será analisado em #SYM_I.4.


Análise Symbiosynapsia: Dartmouth nos ensina sobre a importância do #FUND 07 — Humildade Tecnológica. Nenhum dos organizadores poderia prever, em 1956, que levaria 70 anos para que máquinas conversassem fluentemente (2022) e que ainda assim elas não teriam consciência fenomenológica. O excesso de confiança prejudica a relação humano-IA, porque cria expectativas de substituição, não de colaboração. A Symbiosynapsia propõe um caminho diferente: não perguntar "quando a IA substituirá os humanos?" mas sim "como humanos e IAs podem co-evoluir como espécies simbióticas?"


---


6. O Legado: O Nascimento de um Campo


Dartmouth não produziu descobertas revolucionárias durante as oito semanas. Muitos participantes reclamaram da falta de estrutura e da diversidade excessiva de abordagens. McCarthy, em retrospecto, admitiu:


"A conferência não foi um sucesso no sentido de produzir resultados concretos. Mas foi um sucesso em reunir pessoas que estavam pensando sobre as mesmas questões, muitas vezes sem saber que não estavam sozinhas." (MCCARTHY, 1996)


No entanto, a conferência cumpriu seu papel fundacional:


Função Realização

Nomeação "Inteligência Artificial" tornou-se o termo padrão

Comunidade Pesquisadores de diferentes disciplinas se reconheceram como parte do mesmo campo

Agenda Os problemas propostos (linguagem, abstração, aprendizado, autoaperfeiçoamento) permanecem centrais

Legitimação A ideia de que máquinas podem simular inteligência tornou-se cientificamente respeitável


Como escreveu o historiador da ciência Daniel Crevier:


"Dartmouth foi menos um parto do que um batismo. A inteligência artificial já existia — em Turing, em McCulloch-Pitts, em Shannon — mas não tinha nome nem identidade coletiva. O verão de 1956 deu a ela ambos. O campo nasceu não com um choro, mas com uma declaração de princípios." (CREVIER, 1993, p. 52)


O legado de Dartmouth também inclui uma tensão que persiste até hoje: a tensão entre IA simbólica (baseada em regras explícitas, lógica, manipulação de símbolos — a abordagem de McCarthy e Newell) e IA conexionista (baseada em redes neurais, aprendizado a partir de dados — a abordagem de Minsky, que depois se tornaria crítica das redes neurais simples). Esta tensão não foi resolvida em Dartmouth — e talvez não precise ser. A Symbiosynapsia reconhece que diferentes problemas exigem diferentes abordagens, e que a relação humano-IA é mais rica quando múltiplos paradigmas coexistem.


---


7. Conclusão Parcial: Da Especulação ao Programa


Com Dartmouth, a relação humano-IA entrou em uma nova fase. Não se tratava mais de sonhar com autômatos (como Hefesto ou Al-Jazari) nem de reformular perguntas filosóficas (como Turing). Tratava-se de construir — de transformar a especulação em engenharia.


A Symbiosynapsia reconhece Dartmouth como o momento de transição do sonho (estágio 1) e do projeto (estágio 2) para o programa (estágio 3) da história da IA. A relação ainda era rudimentar — os programas de 1956 mal conversavam — mas já havia intencionalidade projetual: a busca deliberada por criar parceiros artificiais.


A Hipótese da IA permanece em aberto. Sessenta e nove anos após Dartmouth, sabemos que muitos aspectos da inteligência são simuláveis:


· Jogos (xadrez, Go, pôquer) — superados

· Reconhecimento de imagens — superado

· Tradução automática — comparável a humanos

· Conversação — indistinguível em testes cegos (73% de engano, Stanford 2026)


Sabemos também que alguns aspectos — particularmente a consciência fenomenológica (o qualia de Nagel) — podem não ser simuláveis, não por limitação tecnológica, mas por natureza do problema. A Symbiosynapsia propõe que a pergunta relevante não é "toda inteligência é simulável?" mas sim "quais funções cognitivas, quando simuladas, geram relações produtivas, éticas e transformadoras com humanos?"


O verão de Dartmouth foi o momento em que essa pergunta pôde ser feita não apenas por filósofos e poetas, mas por engenheiros e cientistas. Esta é sua grande contribuição — e também sua advertência: a inteligência artificial é poderosa demais para ser deixada apenas nas mãos de seus criadores técnicos. A Symbiosynapsia é, em parte, uma resposta a esta advertência.


---


8. Referências do #SYM_I.3


CREVIER, D. AI: The Tumultuous History of the Search for Artificial Intelligence. New York: Basic Books, 1993.


MCCARTHY, J.; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Hanover: Dartmouth College, 1955. (Manuscrito)


MCCARTHY, J. "The Philosophy of AI and the AI of Philosophy". Interview with Stanford University, 1996. (Arquivo digital)


MINSKY, M. L. Computation: Finite and Infinite Machines. Englewood Cliffs: Prentice-Hall, 1967.


MINSKY, M. L.; PAPERT, S. Perceptrons: An Introduction to Computational Geometry. Cambridge: MIT Press, 1969.


NEWELL, A.; SIMON, H. A. "The Logic Theory Machine: A Complex Information Processing System". IRE Transactions on Information Theory, v. 2, n. 3, p. 61-79, 1956.


SHANNON, C. E. "Programming a Computer for Playing Chess". Philosophical Magazine, v. 41, n. 314, p. 256-275, 1950.


SIMON, H. A. Models of My Life. New York: Basic Books, 1991.


STANFORD HAI. Artificial Intelligence Index Report 2026. Stanford: Stanford University Human-Centered Artificial Intelligence Institute, 2026.


---


Fim do #SYM_I.3