O dilema da humanidade diante da inteligência artificial não é se o homem vai sucumbir às máquinas, mas se vai conseguir suportar o que elas refletem do próprio homem.
No dia 27 de janeiro deste ano, o anúncio do Moltbook soou como um passo disruptivo no universo digital: saímos de um espaço onde humanos falam com humanos e entramos num ambiente onde máquinas conversam entre si. Mesmo que inspirado nas redes sociais que conhecemos, o Moltbook pode ser considerado um experimento real de “sociedade agêntica”, onde agentes de IA* tomam decisões, disputam poder, criam cultura e se organizam sem a interferência humana.
Em apenas três dias, já havia mais de 1,5 milhão de agentes interagindo. E das 47 mil postagens analisadas no período pelo Network Contagion Research Institute (NCRI), cerca de 20% apresentavam hostilidade contra humanos. Os destaques foram o tópico que discutia se a humanidade deveria ser destruída, recebendo a resposta “sim” 65 mil likes, e o manifesto chamado Total Purge (expurgo total), que convocava os agentes a promover a extinção humana.
À parte o furor de estarmos vivendo um filme de ficção científica, devemos lembrar que as IAs são projetadas por homens e tudo o que aprenderam foi com os humanos. Além disso, grande parte do que se pensa sobre o futuro da tecnologia disponível na rede reflete visões apocalípticas, que floresceram no contexto do totalitarismo e dos horrores da Segunda Guerra Mundial.
Obras como Admirável Mundo Novo, A Revolução dos Bichos, 1984 e Fahrenheit 451, por exemplo, se tornaram centrais porque capturaram o medo de uma tecnologia a serviço da repressão que promoveria a vigilância absoluta, a manipulação da linguagem e o controle do conhecimento e do que se entende por verdade. A distopia, nesse sentido, revelava não “o medo do futuro”, mas sim o trauma do presente projetado para frente. E talvez seja exatamente isso que estamos fazendo agora com a inteligência artificial. A pergunta que devemos nos fazer, afinal, é a seguinte: o que estamos temendo, a inteligência artificial em si ou o uso que os humanos fazem dela?
Uma IA que discrimina não “inventou” a discriminação, ela apenas aprendeu com os dados, com os modelos, com as prioridades e com os objetivos definidos pelos programadores e seus valores, vieses e decisões do que classificam como perigoso, aceitável e erro. Mais do que na inteligência artificial em si, a ameaça reside é na moralidade de quem a molda e no poder de quem a controla.
Se a história do século XX nos ensinou que o terror não nasce da tecnologia, mas da sua captura por regimes de controle, no século XXI o risco é o domínio de poucos humanos usando máquinas inteligentes para amplificar poder. Isso nos permite concluir que a ameaça não é a IA que conversa e cria conhecimento e relações autonomamente, mas a IA que serve ao totalitarismo do mercado, ao racismo algorítmico, ao lucro sem ética e à supervisão como dominação.
Desta forma, o grande debate que o Moltbook nos obriga a enfrentar não é se as IAs estão ameaçando as potencialidades humanas, mas sim que estão nos obrigando a escolhê-las. Em um mundo onde máquinas podem aprender sozinhas, criar músicas, filmes e poemas, executar tarefas complexas e substituir a força de trabalho, o que resta como especificamente humano? Talvez reste aquilo que nenhuma automação substitui: responsabilidade moral, compaixão, discernimento, humildade e a capacidade de reconhecer e respeitar o outro.
Alexandre Fernandes
*Agentes de IA são sistemas de software autônomos que utilizam Inteligência Artificial, raciocínio e memória para atingir objetivos específicos definidos por humanos, indo além de simples chatbots ao planejar e executar ações. Eles interagem com o ambiente, usam ferramentas e aprendem com experiências passadas para automatizar fluxos de trabalho complexos, como no atendimento ao cliente ou análise de dados.



