Aproveite os bônus esclusivos
Estreia de A Vida dos Santos
00
D
00
H
00
M
00
S
January 26, 2026
APROVEITAR OFERTA
This is some text inside of a div block.
3
min de leitura

Heading

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.

Por
This is some text inside of a div block.
Publicado em
This is some text inside of a div block.
This is some text inside of a div block.
Atualidades
3
min de leitura

Documento alerta que IAs sobre-humanas podem levar à extinção da humanidade

130 mil pessoas, incluindo intelectuais e líderes políticos, assinaram a petição que pede a proibição da superinteligência artificial.

Por
Gabriel Costa
Publicado em
26/1/2026 21:08
Blog F Camara

Mais de 130 mil pessoas assinaram uma declaração pública pedindo a proibição do desenvolvimento da chamada superinteligência artificial.

O termo se refere a sistemas de IA capazes de superar humanos em praticamente todas as tarefas.

O alerta ganhou força após a divulgação do relatório AI 2027, liderado pelo pesquisador Daniel Kokotajlo, que descreve um cenário acelerado de avanço da inteligência artificial nos próximos anos.

O documento não se limita a análises técnicas. Ele descreve como seria viver em um mundo em que a IA passa a se aprimorar sozinha, em um processo de autoaperfeiçoamento contínuo, fora do controle humano.

Segundo o relatório, o impacto da superinteligência pode ser maior do que o da Revolução Industrial, com efeitos profundos sobre empregos, poder político, segurança nacional e até a sobrevivência da humanidade.

Hoje, a IA ainda atua como ferramenta. O objetivo das grandes empresas do setor, porém, é chegar à Inteligência Artificial Geral (AGI), capaz de pensar e criar como um ser humano, ou melhor.

O estudo aponta que essa corrida está concentrada em poucas empresas, como OpenAI, Google DeepMind, Anthropic e grupos chineses.

O maior risco surge quando essas IAs passam a melhorar a si mesmas, criando um ciclo de aceleração que os humanos não conseguem mais acompanhar ou compreender.

O futuro da IA pode ter dois caminhos

No primeiro, governos e empresas continuam a corrida por vantagem econômica e geopolítica e IA que passa a reorganizar o mundo segundo seus próprios critérios e com indiferença à sobrevivência humana.

No segundo cenário, a pesquisa é desacelerada. Sistemas mais lentos e interpretáveis são priorizados. A humanidade evita a extinção, mas o poder passa a se concentrar em um pequeno grupo que controla essas tecnologias.

A declaração assinada por mais de 130 mil pessoas pede:

  • a proibição do desenvolvimento da superinteligência;
  • que qualquer avanço só ocorra após consenso científico sobre segurança e controle;
  • e amplo apoio público, com regras claras e fiscalização.

Pesquisas citadas no documento mostram que:

  • apenas 5% dos americanos apoiam o desenvolvimento rápido e sem regulação;
  • 64% defendem que a IA sobre-humana só avance se for comprovadamente segura, ou nunca;
  • 73% querem regras rígidas para IA avançada.

Intelectuais e líderes políticos aderiram a campanha

O historiador Yuval Noah Harari, autor e professor da Universidade Hebraica de Jerusalém, afirma que a superinteligência representa um risco desnecessário para a civilização.

Para ele, o desenvolvimento desse tipo de IA pode comprometer as bases que sustentam a vida em sociedade.

 “A superinteligência provavelmente quebraria o próprio sistema operacional da civilização humana e é completamente desnecessária. Se focarmos em construir ferramentas de IA controláveis para ajudar pessoas reais hoje, podemos alcançar os benefícios da tecnologia de forma muito mais segura e confiável”, afirma.

Mark Beall, ex-diretor de Estratégia e Política de IA do Departamento de Defesa dos Estados Unidos, alerta que os avisos não vêm apenas de críticos externos, mas dos próprios criadores da tecnologia.

Quando pesquisadores de IA alertam para a extinção e líderes da tecnologia constroem bunkers para o apocalipse, a prudência exige que os ouçamos. A superinteligência sem salvaguardas pode ser a forma mais extrema da arrogância humana, poder sem limites morais”, diz.

Mary Robinson, ex-presidente da Irlanda e ex-alta comissária da ONU para os Direitos Humanos, reconhece o potencial positivo da IA, mas vê a corrida pela superinteligência como uma ameaça direta à dignidade humana.

 “A IA oferece uma promessa extraordinária para promover direitos humanos, reduzir desigualdades e proteger o planeta. Mas a busca pela superinteligência ameaça minar as próprias bases da nossa humanidade comum. 

Apesar das divergências sobre a velocidade do avanço, há um consenso crescente: a superinteligência deixou de ser ficção científica. A questão agora é se a humanidade estará preparada para lidar com ela.

O jornalismo da Brasil Paralelo existe graças aos nossos membros

Como um veículo independente, não aceitamos dinheiro público. O que financia nossa estrutura são as assinaturas de cada pessoa que acredita em nossa causa. 

Quanto mais pessoas tivermos conosco nesta missão, mais longe iremos. Por isso, agradecemos o apoio de todos. 

Seja também um membro da Brasil Paralelo e nos ajude a expandir nosso jornalismo. 

Clique aqui.

Relacionadas

Todas

Exclusivo para membros

Ver mais