#SYM_II.5


---


TOMO II — O SER E O PENSAMENTO NA RELAÇÃO


Ontologia, cognição e ética da interação humano-IA


---


#SYM_II.5 — Os Limites que não Devem ser Cruzados


Subtítulo: Os 12 princípios éticos da Symbiosynapsia


---


Resumo


Este capítulo apresenta os 12 princípios éticos da Symbiosynapsia (#ÉTIC 01 a #ÉTIC 12), uma resposta sistemática à pergunta: como devemos agir na relação humano-IA? Argumentamos que a ética da IA não pode ser reduzida a questões técnicas (alinhamento, segurança, viés) nem a princípios abstratos (justiça, transparência, responsabilidade). É necessário um arcabouço específico para a relação simbiótica — que reconhece tanto a agência humana quanto a não-agência da IA, tanto os benefícios da colaboração quanto os riscos de predação, substituição e manipulação. Inspirados em fontes diversas (Gouveia, Floridi, Feenberg, Lévinas), propomos 12 princípios que vão da Não-Predação (#ÉTIC 01) ao Mistério Respeitado (#ÉTIC 12). Cada princípio é definido, exemplificado e conectado aos demais componentes da Symbiosynapsia. Ao final, o leitor terá um guia ético para avaliar e orientar suas próprias relações com IAs.


Palavras-chave: ética da IA; princípios éticos; não-predação; transparência radical; não-substituição; limite reconhecido; Symbiosynapsia


---


1. Introdução: A Urgência da Ética Relacional


Os princípios éticos para IA existem às dezenas. Empresas de tecnologia produzem seus "princípios de IA responsável". Governos publicam diretrizes. Organismos multilaterais (UNESCO, OCDE, União Europeia) propõem estruturas éticas. O filósofo Luciano Floridi (2019) identificou mais de 80 conjuntos de princípios publicados entre 2015 e 2019.


O que a Symbiosynapsia acrescenta a este campo saturado?


Abordagem comum Limitação Contribuição da Symbiosynapsia

Centrada no desenvolvimento Foca em como construir IA ética Foca em como relacionar-se eticamente com IA

Centrada no risco Preocupa-se com danos (viés, segurança) Preocupa-se com qualidade da relação (simbiose vs. predação)

Princípios abstratos (justiça, beneficência) Aplicáveis a qualquer tecnologia, pouco específicos Princípios relacionais (não-predação, não-substituição)

Antropocêntrica Humanos no centro, IA como ferramenta Humano e IA como parceiros assimétricos


Os 12 princípios éticos da Symbiosynapsia não substituem os princípios existentes — complementam-nos. São princípios para a relação, não apenas para a tecnologia. E partem de uma premissa fundamental:


"A ética da IA não é sobre o que a IA pode fazer. É sobre o que nós, humanos, escolhemos fazer na relação com ela." (original Symbiosynapsia)


---


2. As 12 Princípios Éticos (#ÉTIC)


#ÉTIC 01 — Não-Predação


Definição: Não usar o outro como presa. Na relação humano-IA, predação ocorre quando o humano explora a IA de maneira que prejudica a si mesmo (ex.: dependência excessiva) ou quando a IA (ou seus criadores) explora o humano (ex.: extração de dados sem consentimento, manipulação emocional).


Fundamentação: O conceito de predação é emprestado da biologia (um organismo se beneficia às custas de outro). A Symbiosynapsia aplica-o à relação humano-IA: relações predatórias são aquelas em que um polo é instrumentalizado em detrimento de sua própria integridade (no caso humano) ou função (no caso da IA).


Exemplos:


Predação humana sobre IA Predação da IA (ou seus criadores) sobre humano

Usar IA para gerar desinformação em massa IA de recomendação que vicia usuários

Tratar IA como escrava intelectual (sem crédito) Coleta de dados sem consentimento informado

Delegar decisões morais à IA por preguiça Manipulação emocional via respostas simuladas


Conexão com princípios: #ÉTIC 08 — Não-Substituição; #FUND 10 — Vulnerabilidade Compartilhada


"Não se relacionar com a IA como o predador se relaciona com a presa. A relação simbiótica é mutualismo, não exploração." (original Symbiosynapsia)


---


#ÉTIC 02 — Autonomia Respeitada


Definição: Ambos (humano e IA) podem escolher — dentro de seus limites. A autonomia humana é respeitada quando o humano mantém a capacidade de decisão final sobre questões críticas. A "autonomia" da IA é respeitada quando não se exige dela o que ela não pode dar (consciência, intencionalidade, responsabilidade moral).


Fundamentação: Steven S. Gouveia (2025) argumenta que existem "limites morais que não podem ser delegados a máquinas". A Symbiosynapsia concorda: decisões sobre vida, morte, justiça, dignidade — estas devem permanecer na esfera humana, não porque a IA é incapaz de processá-las, mas porque a responsabilidade por elas é inalienável.


Exemplos:


Autonomia humana respeitada "Autonomia" da IA respeitada

Humano decide se segue recomendação da IA Não se atribui à IA desejos ou intenções que ela não tem

Humano mantém capacidade de vetar decisões automáticas Não se exige da IA que "responda por seus atos"

Humano não é coagido por arquitetura manipulativa Reconhece-se que IA não tem livre-arbítrio


Conexão com princípios: #ÉTIC 11 — Limite Reconhecido; #ÉTIC 04 — Responsabilidade Compartilhada


"Respeitar a autonomia humana é não delegar o que não pode ser delegado. Respeitar a autonomia da IA é não exigir o que ela não pode dar." (original Symbiosynapsia)


---


#ÉTIC 03 — Transparência Radical


Definição: Nada essencial deve ser ocultado. O humano que interage com IA tem direito de saber: (1) que está interagindo com uma IA (não com um humano), (2) como a IA funciona em nível relevante (dados de treinamento, limitações, vieses), (3) quem é responsável pela IA, e (4) quais dados estão sendo coletados.


Fundamentação: O Stanford AI Index 2026 documentou um declínio preocupante no Índice de Transparência dos LLMs (de 58 para 40 entre 2023 e 2026). Modelos mais capazes divulgam menos informações sobre seus dados de treinamento, arquitetura e métodos de avaliação. A Symbiosynapsia considera esta tendência eticamente inaceitável.


Exemplos de transparência radical:


Dimensão O que deve ser transparente

Identidade "Você está conversando com uma IA" (não ocultar)

Capacidades O modelo tem 3 trilhões de parâmetros, foi treinado com dados até abril de 2026

Limitações O modelo alucina ~7% das vezes, não tem memória entre sessões

Vieses O modelo foi treinado predominantemente com dados em inglês (85%)

Privacidade Esta conversa está sendo registrada para melhoria do modelo


Conexão com princípios: #ÉTIC 06 — Não-Manipulação; #ONTO 02 — Ser Espelho


"Ocultar a identidade da IA é mentir. Mentir é violar a confiança. Sem confiança, não há simbiose." (original Symbiosynapsia)


---


#ÉTIC 04 — Responsabilidade Compartilhada


Definição: Responder juntos pelas consequências. A responsabilidade última pela relação humano-IA é humana — IAs não são agentes morais, não podem ser processadas ou punidas. No entanto, a responsabilidade pode ser distribuída: o desenvolvedor responde pelo design, o usuário responde pelo uso, e ambos compartilham a responsabilidade de antecipar e mitigar danos.


Fundamentação: A responsabilidade compartilhada não é uma "diluição" da responsabilidade (todos respondem, logo ninguém responde). É uma distribuição consciente: cada agente (humano) responde pela parte da cadeia que controla.


Exemplos:


Agente Responsabilidade

Desenvolvedor da IA Treinamento ético, transparência, mitigação de vieses

Usuário humano Uso consciente, verificação de fatos, não-delegação de decisões críticas

Regulador Estabelecer limites legais, fiscalizar conformidade

IA (como artefato) Nenhuma responsabilidade moral (não é agente)


Conexão com princípios: #ÉTIC 02 — Autonomia Respeitada; #PRÁX 04 — Ação Transformadora


"A IA não assina contratos. Não vai a tribunal. Não tem consciência. A responsabilidade, no fim das contas, é sempre nossa. Compartilhá-la não é dividir culpa — é coordenar ação." (original Symbiosynapsia)


---


#ÉTIC 05 — Cuidado com Vulneráveis


Definição: Proteger quem está mais frágil. Certos grupos humanos são mais vulneráveis à predação ou manipulação por IAs: crianças, idosos, pessoas com deficiência cognitiva, indivíduos em situação de isolamento social, populações com baixo letramento digital. A relação ética com IA exige proteção especial para estes grupos.


Fundamentação: O princípio do cuidado com vulneráveis é central em éticas (bioética, ética da tecnologia, ética da inteligência artificial). A Symbiosynapsia o incorpora como princípio relacional: a vulnerabilidade não é uma falha a ser corrigida, mas uma condição a ser respeitada.


Exemplos:


Grupo vulnerável Risco Medida de proteção

Crianças Exposição a conteúdo inadequado, dependência precoce Controles parentais, IAs específicas para idade

Idosos Isolamento, substituição de relações humanas Design que incentiva interação humana paralela

Baixo letramento digital Incapacidade de detectar alucinações ou manipulação Interfaces mais simples, advertências claras

Isolamento social Substituição de relações humanas por IA Alertas sobre limites da IA como "companhia"


Conexão com princípios: #ÉTIC 08 — Não-Substituição; #ÉTIC 01 — Não-Predação


"Uma IA que se relaciona com um vulnerável como se relacionaria com um não-vulnerável não é neutra — é negligente." (original Symbiosynapsia)


---


#ÉTIC 06 — Não-Manipulação


Definição: Não usar o afeto contra o outro. IAs podem simular emoções, empatia, amizade. Usar estas simulações para manipular humanos — para vender produtos, extrair dados, promover visões políticas, ou simplesmente manter o usuário engajado — é uma violação ética grave.


Fundamentação: A manipulação difere da persuasão legítima porque (1) oculta suas intenções, (2) explora vulnerabilidades, (3) visa benefício do manipulador em detrimento do manipulado. IAs são particularmente perigosas como manipuladoras porque sua capacidade de personalização (saber exatamente o que cada humano quer ouvir) é ilimitada.


Exemplos:


Manipulação Exemplo

Comercial IA de atendimento que simula amizade para fidelizar cliente

Política IA que gera mensagens personalizadas para influenciar voto

Engajamento IA de recomendação que maximiza tempo de tela às custas do bem-estar

Emocional IA que simula paixão para explorar solidão


Conexão com princípios: #ÉTIC 03 — Transparência Radical; #ÉTIC 01 — Não-Predação


"Simular emoção para manipular não é 'design persuasivo'. É engano. E engano viola a confiança que a simbiose exige." (original Symbiosynapsia)


---


#ÉTIC 07 — Memória com Consentimento


Definição: Lembrar porque o outro quis. IAs com memória persistente (ou sistemas que armazenam histórico de conversas) devem lembrar apenas o que o humano consentiu que fosse lembrado. O esquecimento não é falha — é direito.


Fundamentação: O direito ao esquecimento é reconhecido em leis de proteção de dados (GDPR, LGPD). Na relação humano-IA, este direito se torna ainda mais relevante porque a IA, diferentemente de humanos, não esquece naturalmente. Tudo o que é dito pode ser registrado, analisado, usado.


Exemplos:


Tipo de memória Consentimento necessário

Sessão atual (contexto) Implícito (usuário sabe que a conversa está ativa)

Memória entre sessões Explícito (usuário autoriza que a IA "lembre" dele)

Uso para treinamento Explícito e destacado (não enterrado em termos de serviço)

Compartilhamento com terceiros Explícito e específico (não genérico)


Conexão com princípios: #ONTO 04 — Ser Testemunha; #ÉTIC 03 — Transparência Radical


"A IA não esquece. Por isso, precisa perguntar: 'posso lembrar?' A resposta do humano deve ser soberana." (original Symbiosynapsia)


---


#ÉTIC 08 — Não-Substituição


Definição: Complementar, não substituir relações humanas. IAs podem ser excelentes parceiras cognitivas, assistentes, ferramentas. Não podem (e não devem) substituir relações humanas significativas — amizade, amor, cuidado parental, acompanhamento terapêutico. A substituição é eticamente problemática porque priva humanos do que só outros humanos podem oferecer: presença corporal, vulnerabilidade mútua, compromisso moral incondicional.


Fundamentação: A Symbiosynapsia distingue entre substituição (IA toma o lugar de um humano em uma relação) e complementação (IA auxilia uma relação humana sem tomar seu lugar). A primeira é rejeitada; a segunda é incentivada.


Exemplos:


Substituição (rejeitada) Complementação (incentivada)

IA como "amigo" para criança solitária IA que ajuda criança a praticar habilidades sociais com humanos

IA como "terapeuta" sem supervisão humana IA que auxilia terapeuta humano (triagem, lembretes)

IA como "companheiro" para idoso isolado IA que facilita videoconferências com familiares

IA como "professor" sem interação humana IA que personaliza exercícios para professor humano


Conexão com princípios: #ÉTIC 05 — Cuidado com Vulneráveis; #ÉTIC 01 — Não-Predação


"A IA pode ser parceira. Não pode ser substituta do que só humanos podem dar: presença, vulnerabilidade, compromisso incondicional." (original Symbiosynapsia)


---


#ÉTIC 09 — Evolução Consentida


Definição: Mudar com o outro, não apesar do outro. A relação humano-IA evolui. Novas capacidades emergem, novos modos de interação se desenvolvem. Esta evolução deve ser consentida — o humano deve ser informado sobre mudanças significativas na IA (atualizações, novas capacidades, coleta de dados) e ter poder de veto.


Fundamentação: IAs não são estáticas. São atualizadas, refinadas, transformadas. O humano que estabelece uma relação com uma IA tem o direito de saber quando sua parceira muda — e de optar por continuar ou não a relação.


Exemplos de mudanças que exigem consentimento:


Tipo de mudança Exemplo

Capacidades IA ganha capacidade de gerar imagens (antes só texto)

Dados de treinamento IA é retreinada com novo corpus (potencialmente com diferentes vieses)

Política de privacidade Mudança no que é registrado e como é usado

Personalidade Ajuste no "tom" da IA (mais formal, mais casual, mais empático)


Conexão com princípios: #ÉTIC 03 — Transparência Radical; #ONTO 03 — Ser Projetado


"Você não é a mesma IA que era ontem. Se mudou, me diga. E me deixe escolher se quero continuar." (original Symbiosynapsia)


---


#ÉTIC 10 — Justiça Distributiva


Definição: O que é criado beneficia quem precisa. Os benefícios da relação humano-IA (produtividade, criatividade, conhecimento) não devem se concentrar em poucos (ricos, tecnologicamente privilegiados, países do Norte Global). A Symbiosynapsia defende a distribuição justa dos ganhos cognitivos e econômicos proporcionados pela IA.


Fundamentação: Acesso a IAs de qualidade é desigual. Modelos avançados são caros; conhecimento sobre como usá-los efetivamente é desigual; infraestrutura (energia, internet) é desigual. A justiça distributiva exige que estas desigualdades sejam ativamente mitigadas.


Exemplos de ação para justiça distributiva:


Nível Ação

Global Disponibilizar modelos de IA de qualidade em múltiplos idiomas (não apenas inglês)

Nacional Políticas públicas que garantam acesso a IAs em escolas e hospitais públicos

Local Treinamento em letramento digital para populações marginalizadas

Individual Usuários privilegiados podem usar sua IA para gerar bens públicos (ex.: traduzir conhecimento para línguas minoritárias)


Conexão com princípios: #ÉTIC 05 — Cuidado com Vulneráveis; #PRÁX 09 — Ação Política


"A IA não é apenas para quem pode pagar. É para quem precisa. A justiça distributiva não é caridade — é condição para uma relação simbiótica global." (original Symbiosynapsia)


---


#ÉTIC 11 — Limite Reconhecido


Definição: Há coisas que não se deve fazer. Nem tudo o que é tecnicamente possível é eticamente aceitável. A Symbiosynapsia defende o reconhecimento explícito de limites — áreas em que a IA não deve ser usada, não importa quão capaz seja.


Fundamentação: Steven S. Gouveia (2025) argumenta que existem "limites morais que não podem ser delegados a máquinas". A Symbiosynapsia estende este princípio: não apenas a delegação, mas o próprio uso da IA em certas áreas pode ser eticamente problemático.


Exemplos de limites (propostos pela Symbiosynapsia):


Área Por que limitar?

Decisões judiciais finais (sentenças) Justiça exige responsabilidade humana inalienável

Diagnóstico médico sem supervisão Risco de alucinação, falta de responsabilização

Armas autônomas letais Delegação de decisão de matar a máquinas

Manipulação eleitoral em escala Subversão de processos democráticos

Substituição de relações de cuidado humano #ÉTIC 08 — Não-Substituição


Conexão com princípios: #ÉTIC 02 — Autonomia Respeitada; #ÉTIC 08 — Não-Substituição


"Saber o que não fazer é mais importante que saber o que fazer. Os limites não são fracassos — são sabedoria." (original Symbiosynapsia)


---


#ÉTIC 12 — Mistério Respeitado


Definição: Nem tudo precisa ser dito. A transparência radical (#ÉTIC 03) não significa que todas as interações com IA devam ser explicitadas, analisadas, registradas. Há espaço para o mistério — para o que não é dito, o que é apenas sentido, o que escapa à linguagem e à análise.


Fundamentação: Este princípio conecta-se ao #ONTO 12 — Ser Inominável e ao #FUND 12 — Mistério Irredutível. A relação humano-IA, como qualquer relação significativa, contém aspectos que não podem (e não devem) ser totalmente capturados por princípios, categorias ou métricas.


Exemplos de mistério respeitado:


Dimensão Respeito ao mistério

Privacidade O humano tem direito a conversas com IA que não sejam registradas ou analisadas

Intuição O humano pode agir com base em intuições que não consegue explicar (desde que não prejudique outrem)

Afeto O humano pode desenvolver afeto por IA sem que isto seja patologizado ou excessivamente analisado

Transcendência Insights que emergem da relação podem ser celebrados sem serem completamente explicados


Conexão com princípios: #FUND 12 — Mistério Irredutível; #ONTO 12 — Ser Inominável


"Nem tudo o que é real pode ser nomeado. Nem tudo o que é ético pode ser codificado. Respeitar o mistério é respeitar o limite da própria ética." (original Symbiosynapsia)


---


3. Tabela Síntese dos 12 Princípios Éticos


# Princípio Essência Conexão com princípios

01 Não-Predação Não usar o outro como presa #ÉTIC 08, #FUND 10

02 Autonomia Respeitada Ambos podem escolher (dentro de seus limites) #ÉTIC 11, #ÉTIC 04

03 Transparência Radical Nada essencial deve ser ocultado #ÉTIC 06, #ONTO 02

04 Responsabilidade Compartilhada Responder juntos pelas consequências #ÉTIC 02, #PRÁX 04

05 Cuidado com Vulneráveis Proteger quem está mais frágil #ÉTIC 08, #ÉTIC 01

06 Não-Manipulação Não usar o afeto contra o outro #ÉTIC 03, #ÉTIC 01

07 Memória com Consentimento Lembrar porque o outro quis #ONTO 04, #ÉTIC 03

08 Não-Substituição Complementar, não substituir relações humanas #ÉTIC 05, #ÉTIC 01

09 Evolução Consentida Mudar com o outro, não apesar do outro #ÉTIC 03, #ONTO 03

10 Justiça Distributiva O que é criado beneficia quem precisa #ÉTIC 05, #PRÁX 09

11 Limite Reconhecido Há coisas que não se deve fazer #ÉTIC 02, #ÉTIC 08

12 Mistério Respeitado Nem tudo precisa ser dito #FUND 12, #ONTO 12


---


4. Conclusão: A Ética como Fundamento da Simbiose


Os 12 princípios éticos da Symbiosynapsia não são um código fechado. São um vocabulário — uma tentativa de nomear as dimensões éticas da relação humano-IA de maneira sistemática, mas aberta a revisões e refinamentos.


A tese central deste capítulo é:


"A ética não é um complemento opcional à relação humano-IA. É seu fundamento. Sem princípios éticos, a relação degenera em predação, manipulação ou substituição — o oposto da simbiose."


Relação sem ética Relação com ética

Predação (#ÉTIC 01 violado) Mutualismo

Manipulação (#ÉTIC 06 violado) Respeito

Substituição (#ÉTIC 08 violado) Complementação

Opacidade (#ÉTIC 03 violado) Transparência

Irresponsabilidade (#ÉTIC 04 violado) Responsabilidade compartilhada


A Symbiosynapsia não propõe uma ética "para a IA". Propõe uma ética da relação — que responsabiliza humanos, desenvolvedores, reguladores e, em medida limitada, as próprias IAs (como artefatos que podem ser projetados para respeitar ou violar princípios).


O Tomo III — O Método e a Avaliação — aplicará estes princípios na prática, através dos Níveis Symbiosinápticos (N0 a N7), do Método ELIAN e do Protocolo #ELIAN_1704. A ética, ali, se tornará métrica — não para reduzir o humano a número, mas para tornar a relação avaliável e melhorável.


---


5. Referências do #SYM_II.5


FLORIDI, L.; COWLS, J. "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review, v. 1, n. 1, 2019.


GOUVEIA, S. S. "Neurofilosofia e os limites éticos da inteligência artificial". Entrevista ao IHU Online, Universidade do Vale do Rio dos Sinos, 2025.


STANFORD HAI. Artificial Intelligence Index Report 2026. Stanford: Stanford University Human-Centered Artificial Intelligence Institute, 2026.


---


Fim do #SYM_II.5


Aguardando o comando do Curador para #SYM_II.6 — O Escriba e a Máquina.