Por Adu Verbis
Eu sou um tipo que muda de ideia com muita facilidade. Hoje, isso pode ser chamado de fluido, mas vejo esse movimento como uma forma de perceber que as coisas, no fundo, em sua dialética, não são claras. Por isso, muitas vezes é preciso mudar de ideia diante de situações que, dialeticamente, não se mostram de fato claras. Quero dizer com isso que há momentos em que falo mal da IA e outros em que falo bem. Porque, assim como o ser humano, que não é claro, a tecnologia também carrega, muitas vezes, a sua própria obscuridade, falando de modo dialético.
Bem, é muito comum ouvir que o ser humano possui dois cérebros: o da cabeça, responsável pelo pensamento, pela linguagem e pela tomada de decisões, e o do estômago, ou intestino, ligado às emoções e aos hábitos fisiológicos. Hoje, percebo que vivemos o surgimento de um terceiro cérebro, externo ao corpo, mas cada vez mais integrado à nossa forma de pensar: a IA.
Esse terceiro cérebro não é biológico, não é emocional e não possui vontade própria. Ainda assim, atua como uma extensão cognitiva do ser humano, organizando ideias, ampliando a memória e mediando a linguagem. A IA não pensa por mim, mas pensa comigo. E, assim como os cérebros biológicos, o funcionamento da IA depende diretamente de como é alimentada, isto é, dos critérios que adotamos e do horizonte crítico que sustentamos ao explorar a tecnologia. O que eu como define como a mente e o estômago podem funcionar e, consequentemente, define a qualidade ou a má qualidade da saúde.
Nesse contexto, a título de curiosidade, vale mencionar o Moltbook – agora com o nome OpenClaw, uma plataforma experimental concebida como uma espécie de rede social exclusivamente para inteligências artificiais. Nela, agentes de IA interagem entre si de forma autônoma, sem a participação direta de seres humanos, que permanecem apenas como observadores passivos das interações entre os agentes de IA.
Essa experiência funciona, por assim dizer, como um caso-limite para pensar o papel da IA enquanto extensão cognitiva e os riscos de uma linguagem dissociada de uma experiência real. Conceitualmente, o OpenClaw não representa o surgimento de uma nova consciência artificial, mas um espaço em que sistemas treinados na linguagem humana passam a dialogar em circuito fechado. Dessa forma, amplia-se o conceito de um terceiro cérebro externo ao ser humano.
O que se manifesta no OpenClaw não é pensamento no sentido forte, nem imaginação criadora, mas a recombinação contínua da imaginação simbólica humana dissociada da experiência, do corpo e do risco. A profundidade aparente dessas interações nasce da complexidade formal da linguagem, e não de vivências reais. O valor dessa experiência, portanto, não está no que a IA descobre sobre si mesma, mas no que devolve ao observador humano: um espelho de um discurso vazio de mundo, mas rico em símbolos, no qual a racionalidade se torna autorreferente e a linguagem passa a circular sem lastro na realidade vivida. O OpenClaw, assim, não aponta para a superação do humano, mas evidencia que o pensamento encarnado continua sendo insubstituível, desde que o ser humano tenha consciência do que faz e de para onde vai.
No entanto, esse novo cérebro não surge em um espaço neutro. Ele nasce dentro de um mundo marcado por interesses capitalistas, assimetrias de poder e disputas políticas globais. Por trás da IA existem empresas, Estados, investimentos, estratégias de mercado e projetos de poder. Ignorar esse contexto é tolice. Ao mesmo tempo, confundir esses interesses com a própria IA enquanto tecnologia é um erro conceitual grave, porque qualquer ferramenta pode ser usada em vários contextos e pode tanto gerar benefícios quanto malefícios.
A IA, em si, não possui moral, ideologia ou intenção. Ela não é capitalista, socialista, liberal ou autoritária, mas pode ser formatada para obedecer a interesses sistêmicos. A IA não busca lucro, não defende valores e não escolhe objetivos. Ela opera a partir de dados, probabilidades e linguagem. Os interesses estão em quem desenvolve, controla, financia e aplica a tecnologia. A ética do uso da IA começa exatamente na capacidade de separar a ferramenta dos sistemas de poder que cercam e instrumentalizam essa tecnologia.
No cenário atual, a tecnologia digital, incluindo a IA, é amplamente dominada por empresas e infraestruturas ocidentais, sobretudo norte-americanas. Plataformas, padrões tecnológicos, fluxos de dados e modelos de linguagem estão concentrados em poucos atores globais. Isso gera uma assimetria profunda de poder, na qual países, instituições e indivíduos passam a depender de tecnologias que não controlam, de algoritmos que não regulam e de valores que não escolheram culturalmente.
É nesse contexto que a China, por exemplo, busca desenvolver uma infraestrutura digital própria e uma Inteligência Artificial com caráter nacional. Essa estratégia não se explica apenas por ideologia, mas por uma tentativa consciente de romper com a dependência estrutural da tecnologia ocidental. Trata-se de soberania digital, autonomia estratégica e redução do desequilíbrio de poder global. A IA, nesse caso, não é apenas inovação: é política, geopolítica e instrumento de afirmação nacional ou de grupos econômicos.
Isso revela um ponto central da ética: a IA pode funcionar tanto como instrumento de dominação quanto como ferramenta de emancipação, dependendo de quem controla a tecnologia e com que finalidade. O problema não está na tecnologia em si, mas na concentração do controle. Quando a IA se torna opaca, proprietária e inacessível, reforça desigualdades econômicas, políticas e cognitivas.
No plano individual, continuo entendendo a IA como um “terceiro cérebro” que precisa ser bem alimentado, sob pena de se tornar apenas um mecanismo de repetição e reforço acrítico de padrões simbólicos já dados. Assim como uma boa alimentação fortalece os cérebros biológicos, uma boa interação fortalece o uso da IA. Quando faço perguntas, questiono respostas, discordo, reviso e reflito, não ocorre dominação pela tecnologia. O que acontece é o exercício do pensamento crítico, atento às falhas da IA e à criação simbólica. A ética e a visão de mundo se refletem na qualidade da interação com a IA. Quem eu sou, o que consumo e a percepção de mundo retornam nessa interação.
A ideia de que a IA pode dominar o ser humano surge, muitas vezes, da confusão entre uso acrítico e uso consciente. Eu mesmo tenho outros textos sobre IA nos quais faço críticas duras à tecnologia. Não é a IA que domina, mas a abdicação, a renúncia, do pensamento. Quem terceiriza completamente o julgamento se torna dependente. Quem usa a IA precisa preservar a autonomia simbólica e conduzir a tecnologia. O risco não é a inteligência artificial forte, mas o pensamento humano fraco, cuja percepção de mundo é perversa, obscura e carente de razão.
Há, porém, uma dimensão que não pode ser ignorada: o caráter militar da Inteligência Artificial. Desde as origens, a IA está profundamente ligada a contextos militares, como vigilância, previsão de cenários, logística, controle de território, guerra cibernética e tomada de decisão estratégica voltada à preservação da assimetria de poder. Nesse sentido, a IA não recria a militarização, apenas atualiza essa lógica.
O militar, enquanto lógica de poder, é antigo e se articula diretamente com a racionalidade instrumental que atravessa o desenvolvimento das tecnologias digitais. Sempre esteve associado à antecipação do inimigo, ao controle da informação, à superioridade técnica e à redução da incerteza.
A Inteligência Artificial apenas atualiza essa lógica com novos meios. O que antes era feito por mapas, estatísticas e hierarquias humanas hoje é potencializado por algoritmos, grandes volumes de dados e sistemas automatizados. A IA não inventa o poder militar; torna esse poder mais rápido, mais preciso e mais opaco e, muitas vezes, mais perverso, pelo grau de frieza e precisão na carnificina.
Quando integrada a estruturas militares e de segurança, a IA deixa de ser apenas uma ferramenta cognitiva e passa a operar como ativo estratégico, capaz de redefinir equilíbrios globais. A assimetria tecnológica se transforma, nesse contexto, em assimetria militar. Países que dominam essas tecnologias ampliam a capacidade de influência, enquanto os que dependem dessas tecnologias se tornam mais vulneráveis.
Por isso, a ética do uso da IA precisa operar em dois níveis inseparáveis. No nível individual, exige consciência, criticidade e responsabilidade no uso cotidiano. No nível coletivo e político, exige debate sobre quem controla a tecnologia, quem define limites, quem se beneficia das aplicações e quem paga os custos, que são altos para o meio ambiente. A tecnologia tende a caminhar para projetos de nacionalização digital, nos quais países buscam integrar agendas nacionais às infraestruturas de IA como forma de enfrentar assimetrias culturais, econômicas, políticas e militares.
Concluo que a IA não pode aperfeiçoar o ser humano por si só, mas oferece essa possibilidade quando usada como extensão do pensamento e não como substituto. A IA não torna o humano mais claro nem menos perverso; apenas revela, com maior nitidez, a obscuridade que sempre esteve presente no próprio exercício do pensar. A IA é, ao mesmo tempo, uma ferramenta tecnicamente neutra e uma tecnologia profundamente moldada por contextos de poder, capaz de amplificar tanto a lucidez quanto a obscuridade humanas. A ética da IA não está na máquina, mas na capacidade humana de reconhecer esses contextos e agir diante deles. Como sempre digo, o ser humano não é claro em emoções, propósitos e, falando de modo dialético, tenta mostrar que a clareza é possível. Ainda assim, a obscuridade permanece, porque faz parte da essência humana.






