top of page

Quando a violência vira algoritmo

  • Foto do escritor: Rey Aragon
    Rey Aragon
  • há 5 minutos
  • 22 min de leitura

A inteligência artificial como forma superior de administração da violência, da guerra e da repressão política.


A inteligência artificial não está apenas mudando a forma de lutar guerras, mas redefinindo quem decide, quando decide e quem paga o preço da violência. Do campo de batalha à vigilância interna, este artigo mostra como Estados hegemônicos estão automatizando o poder de matar, vigiar e controlar com menor custo político e moral.

O fato que abre a caixa-preta do poder



No final de janeiro de 2026, tornou-se público um impasse incomum entre o aparato de defesa dos Estados Unidos e empresas responsáveis por modelos avançados de inteligência artificial. O desacordo não girava em torno de orçamento, cronograma ou desempenho técnico. O ponto de fricção era mais profundo e mais revelador: até que ponto limites éticos e operacionais impostos por empresas privadas poderiam restringir o uso da inteligência artificial em atividades de segurança nacional, incluindo vigilância interna e aplicações militares sensíveis.


À primeira vista, o episódio foi tratado como mais um debate sobre “governança da IA” ou “responsabilidade corporativa”. Essa leitura é superficial. O que se revelou ali foi algo estrutural: a emergência de um conflito direto entre o poder estatal de decidir sobre a violência e os mecanismos técnicos que passam a organizar essa decisão. Não se discutia se a tecnologia seria usada, mas quem controlaria sua finalidade última quando integrada às engrenagens do Estado.


O argumento do aparelho de defesa era claro e brutal em sua simplicidade. Se uma prática é considerada legal dentro do ordenamento jurídico doméstico, nenhuma política corporativa deveria limitar seu emprego em nome da segurança nacional. A tecnologia, uma vez contratada e integrada, deveria subordinar-se integralmente à autoridade do Estado. Do outro lado, as empresas tentavam preservar salvaguardas mínimas para evitar que seus sistemas fossem empregados em cenários que ampliariam riscos políticos, jurídicos e reputacionais, especialmente em usos de vigilância massiva e operações de alta letalidade decisória.


Esse choque expõe uma transformação histórica decisiva. Pela primeira vez de forma explícita, modelos de inteligência artificial deixam de ser tratados como ferramentas auxiliares e passam a ser reconhecidos como infraestruturas centrais da decisão violenta. A tensão não surge porque a tecnologia é nova, mas porque ela desloca o centro de gravidade da violência: da decisão política visível para processos técnicos opacos, difíceis de auditar e rápidos demais para o debate público.


O mais importante nesse episódio não é quem cedeu ou quem venceu a rodada específica da negociação. O que importa é o precedente simbólico e material que ele estabelece. Ao exigir liberdade irrestrita de uso, o Estado sinaliza que a inteligência artificial deve ser incorporada como extensão natural do monopólio da força, ainda que isso signifique enfraquecer limites éticos formulados fora da esfera estatal. Ao tentar impor guardrails, as empresas reconhecem, ainda que de forma indireta, que seus sistemas já operam no limiar da violência política organizada.


Esse momento marca o colapso definitivo da narrativa da neutralidade. A inteligência artificial deixa de ser apresentada como tecnologia “de duplo uso” e passa a ser reconhecida como componente estrutural da segurança, da vigilância e da guerra. O debate não é mais sobre riscos hipotéticos do futuro, mas sobre práticas concretas do presente histórico.


Há algo ainda mais profundo nesse fato. A disputa revela que a violência contemporânea não precisa mais se anunciar como exceção. Ela pode ser administrada de forma contínua, silenciosa e tecnicamente mediada. Quando a decisão de vigiar, classificar, priorizar ou neutralizar passa por sistemas automatizados, a violência deixa de aparecer como escolha política e passa a se apresentar como resultado técnico inevitável. O conflito entre Estado e empresas apenas torna visível uma mudança que já estava em curso.


Esse episódio, portanto, não é um desvio nem uma anedota do setor tecnológico. Ele funciona como janela privilegiada para compreender a reconfiguração do poder no século XXI. A partir dele, torna-se possível enxergar com nitidez o processo mais amplo: a conversão da inteligência artificial em forma superior de administração da violência, capaz de reduzir custos políticos, acelerar decisões e diluir responsabilidades sem abolir o controle humano, mas reorganizando-o de maneira profundamente assimétrica.


É essa transformação que precisa ser analisada. Não para prever cenários distantes, mas para compreender como a violência já está sendo reorganizada no presente, sob a aparência de eficiência, legalidade e racionalidade técnica.

Da violência excepcional à violência administrada



Durante grande parte da modernidade, a violência de Estado precisou se apresentar como exceção. Guerras exigiam declarações formais, inimigos identificáveis e narrativas públicas capazes de justificar o uso da força. A repressão interna, quando ocorria, era enquadrada como resposta extraordinária a crises específicas. Mesmo quando brutal, a violência precisava ser politicamente explicável, visível o suficiente para ser legitimada e, ao mesmo tempo, delimitada no tempo e no espaço.


Esse modelo começa a se esgotar à medida que o poder passa a operar em ambientes marcados por instabilidade permanente, circulação contínua de informação e conflitos assimétricos. A exceção deixa de ser episódica e passa a ser estrutural. O que a inteligência artificial introduz nesse processo não é uma ruptura súbita, mas uma forma superior de administração da violência, capaz de torná-la constante sem que ela precise se declarar como tal.


A transição ocorre quando a violência deixa de ser pensada como decisão pontual e passa a ser organizada como fluxo operacional. Sistemas de inteligência artificial permitem que vigilância, análise de risco, classificação de ameaças e definição de prioridades funcionem de maneira integrada, contínua e quase automática. A força não é acionada apenas quando algo acontece; ela se mantém em estado de prontidão permanente, ajustando-se em tempo real às variações do ambiente social e político.


Nesse novo regime, a violência não precisa se manifestar de forma espetacular para ser eficaz. O simples fato de que comportamentos são monitorados, avaliados e classificados já produz efeitos disciplinadores profundos. A coerção se antecipa ao conflito, e o conflito é neutralizado antes de adquirir forma política reconhecível. A inteligência artificial opera como mecanismo de pré-violência, organizando o campo social de modo a reduzir a necessidade de intervenções explícitas.


O elemento decisivo dessa transformação é a redução da fricção política. Cada etapa tradicional da decisão violenta — debate, autorização, responsabilização, contestação — tende a ser comprimida ou deslocada quando mediada por sistemas técnicos. A decisão aparece como resultado de análises, métricas e probabilidades, não como escolha política. O custo simbólico da violência diminui à medida que ela se apresenta como consequência lógica de um processo racionalizado.


Essa lógica não elimina o papel humano, mas o reposiciona. Em vez de decidir diretamente sobre o uso da força, agentes humanos passam a supervisionar sistemas que produzem recomendações, alertas e priorizações. A violência deixa de ser atribuída a um ato específico e passa a ser distribuída ao longo de uma cadeia técnica difícil de reconstruir. A responsabilidade se dilui sem desaparecer, criando um ambiente em que ninguém decide sozinho, mas o sistema decide como um todo.


Sob a ótica do materialismo histórico-dialético, essa passagem representa um momento avançado da racionalização da dominação. A violência, antes dependente de gestos políticos visíveis, é incorporada à administração cotidiana do poder. Ela se torna parte do funcionamento normal das instituições, assim como a tributação, o policiamento ou a regulação econômica. A técnica não substitui a coerção; ela a estabiliza e a torna previsível.


Do ponto de vista do realismo político, essa transformação oferece vantagens estratégicas evidentes. Estados que conseguem administrar a violência de forma contínua reduzem riscos de escalada abrupta, minimizam custos políticos internos e ampliam sua capacidade de controle em múltiplos níveis. A inteligência artificial funciona, nesse sentido, como multiplicador de poder: não cria a força, mas otimiza sua aplicação.


O resultado é uma inversão silenciosa. A violência deixa de ser o último recurso e passa a ser um parâmetro permanente de gestão. Ela não se anuncia, não se explica e não se encerra; apenas se ajusta. Essa é a base material sobre a qual a inteligência artificial se consolida como tecnologia central do poder contemporâneo.


Compreender essa transição é essencial para entender o passo seguinte: o momento em que a violência deixa de ser apenas administrada por sistemas técnicos e passa a ser formalmente organizada como algoritmo, com implicações profundas para a política, a guerra e a vida social.

Quando a violência vira algoritmo



A passagem da violência administrada para a violência algorítmica marca um ponto de inflexão qualitativo no exercício do poder. Aqui, não se trata mais apenas de usar sistemas técnicos para apoiar decisões humanas, mas de estruturar a própria decisão violenta como um processo computacional. A violência deixa de ser um ato político que recorre à técnica e passa a ser um resultado operacional produzido por arquiteturas algorítmicas.


Violência algorítmica não significa ausência de agentes humanos, nem delegação total às máquinas. Significa algo mais preciso: a formalização da coerção em cadeias lógicas automatizadas, nas quais dados são convertidos em classificações, classificações em prioridades e prioridades em ações. O ponto decisivo não é o disparo final, mas o encadeamento anterior que torna esse disparo previsível, justificado e, sobretudo, recorrente.


O funcionamento dessa arquitetura é relativamente simples em sua lógica, embora complexo em sua implementação. Grandes volumes de dados são continuamente coletados, filtrados e correlacionados. A partir daí, sistemas de inteligência artificial produzem avaliações de risco, perfis comportamentais e hierarquias de atenção. O mundo social é traduzido em variáveis quantificáveis, e a violência passa a operar sobre essas abstrações, não mais sobre sujeitos concretos visíveis.


Nesse regime, o poder não pergunta mais “o que aconteceu?”, mas “o que tende a acontecer?”. A coerção se desloca do passado para o futuro, do fato consumado para a probabilidade. A inteligência artificial permite que o Estado intervenha não apenas para responder a conflitos, mas para modelar preventivamente o campo no qual eles poderiam emergir. A violência, assim, não é apenas aplicada; ela é incorporada como expectativa permanente.


A presença humana no processo não desaparece, mas assume uma forma nova e ambígua. Operadores, analistas e comandantes continuam existindo, porém sua função se transforma. Eles passam a validar sistemas que já produziram diagnósticos e recomendações, muitas vezes em velocidades e escalas que tornam a contestação prática inviável. O “humano no controle” torna-se, em grande parte, humano na ratificação, não na decisão originária.


Essa reorganização tem efeitos políticos profundos. Ao se apresentar como resultado técnico, a violência algorítmica perde seu caráter deliberativo explícito. Não há mais um momento claro de decisão que possa ser contestado publicamente. A coerção aparece como consequência inevitável de dados, modelos e métricas. O conflito deixa de ser politizado e passa a ser gerenciado.


Do ponto de vista histórico, essa transformação representa uma etapa avançada da racionalização da violência. Se a burocracia clássica organizava a coerção por meio de normas e hierarquias, a inteligência artificial a organiza por meio de cálculo e predição. A lógica não é mais apenas a obediência à regra, mas a otimização do resultado. A violência se torna eficiente, contínua e silenciosa.


No plano do realismo político, a violência algorítmica oferece uma vantagem estratégica decisiva: ela permite exercer poder de forma persistente sem a necessidade de mobilizações espetaculares. Estados que dominam essas arquiteturas conseguem atuar em múltiplos teatros simultaneamente, ajustando níveis de coerção conforme indicadores técnicos, e não conforme crises políticas abertas. A guerra, nesse contexto, deixa de ser um evento e passa a ser um modo de funcionamento.


O aspecto mais perigoso dessa forma de violência não é sua letalidade imediata, mas sua capacidade de naturalização. Quando decisões violentas são apresentadas como outputs técnicos, o espaço para questionamento moral e político se estreita drasticamente. A violência deixa de ser percebida como escolha e passa a ser aceita como procedimento.


É nesse ponto que a inteligência artificial se consolida como tecnologia central da dominação contemporânea. Não porque substitui a força bruta, mas porque a reorganiza de maneira a torná-la mais previsível, menos visível e mais difícil de interromper. A violência algorítmica não elimina o conflito; ela o administra de tal forma que o conflito perde sua forma política reconhecível.


Compreender essa dinâmica é indispensável para analisar o próximo movimento: a dissolução das fronteiras entre guerra externa e controle interno, e a incorporação dessas arquiteturas algorítmicas à vida cotidiana das sociedades contemporâneas.

Do campo de batalha à vida cotidiana



Uma das consequências mais profundas da violência algorítmica é a dissolução progressiva da fronteira entre guerra externa e gestão interna da ordem. O que antes era tratado como exceção bélica, restrita a teatros de operação distantes, passa a infiltrar-se no cotidiano das sociedades como método regular de administração do risco. A inteligência artificial funciona como vetor dessa transposição, permitindo que lógicas militares sejam internalizadas sem declaração formal de conflito.


Historicamente, a guerra exigia separações claras: frente e retaguarda, combatente e civil, exterior e interior. A expansão das arquiteturas algorítmicas corrói essas distinções. Sistemas concebidos para identificar ameaças em ambientes hostis são progressivamente adaptados para monitorar populações, mapear comportamentos e antecipar instabilidades políticas. A técnica permanece a mesma; muda apenas o enquadramento jurídico e discursivo que a legitima.


Nesse processo, manifestações, greves e mobilizações sociais deixam de ser compreendidas prioritariamente como fenômenos políticos e passam a ser tratadas como variáveis de risco operacional. A linguagem da segurança substitui a linguagem da política. Em vez de reivindicações, há padrões; em vez de conflitos sociais, há anomalias; em vez de adversários políticos, há perfis de ameaça. A inteligência artificial permite que essa tradução seja feita em escala e em tempo real.


A internalização da lógica de guerra não depende de repressão aberta para produzir efeitos. A simples presença de sistemas capazes de vigiar, classificar e prever comportamentos já exerce um poder disciplinador significativo. A coerção torna-se difusa e antecipatória. Não é necessário reprimir todos; basta que todos saibam que estão potencialmente sob avaliação. A violência, nesse contexto, opera antes do confronto, moldando condutas e reduzindo a disposição ao dissenso.


Esse deslocamento altera profundamente a relação entre Estado e sociedade. A cidadania deixa de ser pensada apenas como conjunto de direitos e deveres e passa a ser mediada por indicadores algorítmicos de confiabilidade e risco. A inteligência artificial introduz uma camada técnica entre o indivíduo e o poder, na qual decisões são tomadas com base em correlações estatísticas, não em processos deliberativos transparentes. A política é substituída pela gestão.


Sob a lente do materialismo histórico-dialético, essa transformação não é acidental. Em sociedades marcadas por desigualdades estruturais e por crises recorrentes de legitimidade, a capacidade de antecipar e neutralizar conflitos torna-se central para a reprodução da ordem. A inteligência artificial oferece exatamente isso: um meio de administrar a instabilidade sem enfrentar suas causas materiais. A violência não resolve o conflito; ela o mantém sob controle.


No plano do realismo político, a militarização do cotidiano aparece como resposta racional a um ambiente percebido como permanentemente instável. Estados que operam sob pressão geopolítica constante tendem a tratar qualquer forma de mobilização interna como potencial vetor de fragilidade. A IA permite integrar vigilância, policiamento e inteligência em uma única arquitetura operacional, reduzindo o tempo de reação e ampliando o alcance do controle.


O resultado é um cenário no qual a guerra deixa de ser evento extraordinário e passa a funcionar como princípio organizador da vida social. Não uma guerra declarada, mas uma guerra difusa, preventiva e administrada. A violência algorítmica torna possível exercer coerção sem mobilizar tropas, sem decretar estados de emergência e sem enfrentar resistência política organizada.


Essa internalização da lógica bélica produz um efeito duradouro: a normalização da exceção. Práticas que antes exigiam justificativas explícitas passam a ser tratadas como procedimentos técnicos de rotina. A inteligência artificial, ao operar como mediadora desse processo, não apenas amplia a capacidade de controle, mas redefine o que é considerado normal, aceitável e legítimo na relação entre poder e sociedade.


É a partir desse ponto que a violência algorítmica deixa de ser apenas um instrumento de segurança e se transforma em elemento central da governabilidade contemporânea. Para compreender plenamente essa transformação, é necessário avançar para outra dimensão igualmente decisiva: o controle da informação, da percepção e do sentido como campo privilegiado da violência moderna.

A guerra sem fronteiras: informação, percepção e controle



A violência algorítmica não se limita à administração do corpo e do território. Ela se projeta, com igual intensidade, sobre o campo da percepção, da linguagem e da formação do sentido. No estágio atual do poder, controlar a informação não é apenas complementar ao uso da força; é uma forma central de coerção, capaz de antecipar conflitos, desorganizar resistências e reduzir a necessidade de intervenções materiais explícitas.


A inteligência artificial ocupa um papel decisivo nessa transição. Sistemas capazes de processar volumes massivos de dados informacionais permitem mapear fluxos discursivos, identificar padrões de engajamento e prever dinâmicas de mobilização simbólica. A guerra deixa de ser travada apenas contra corpos organizados e passa a ser conduzida contra processos cognitivos coletivos, como confiança, expectativa e adesão.


Nesse contexto, a informação deixa de ser tratada como conteúdo e passa a ser tratada como ambiente operacional. Não se busca apenas convencer ou persuadir, mas moldar o espaço no qual determinadas narrativas se tornam visíveis, plausíveis ou marginalizadas. A inteligência artificial permite operar esse ambiente em escala industrial, ajustando mensagens, ritmos e enquadramentos de acordo com métricas de impacto e resposta emocional.


A violência, aqui, assume uma forma particularmente sofisticada. Ela não se manifesta como imposição direta, mas como saturação, confusão e desgaste. Ao inundar o espaço público com estímulos contraditórios, ruído informacional e micro-narrativas direcionadas, torna-se possível enfraquecer a capacidade coletiva de interpretação e ação coordenada. O conflito não é eliminado; ele é desorganizado.


Esse tipo de coerção cognitiva reduz drasticamente o custo político da repressão. Sociedades fragmentadas, exaustas e incapazes de construir consensos mínimos tornam-se menos propensas à mobilização efetiva. A inteligência artificial funciona como multiplicador dessa dinâmica ao automatizar a produção, a circulação e a modulação de conteúdos, dissolvendo a distinção entre informação espontânea e intervenção estratégica.


Do ponto de vista do materialismo histórico-dialético, esse processo pode ser entendido como a extensão da luta de classes para o plano da subjetividade mediada. A disputa não se dá apenas pelo controle dos meios de produção materiais, mas pelo controle das condições cognitivas que permitem reconhecer interesses comuns, identificar adversários e formular projetos coletivos. A técnica torna-se instrumento direto da reprodução da dominação.


Sob a ótica do realismo político, o controle informacional aparece como resposta racional a um cenário de competição permanente. Estados que disputam hegemonia compreendem que a força militar tradicional é insuficiente para garantir estabilidade e influência duradouras. A capacidade de moldar percepções, narrativas e expectativas torna-se tão estratégica quanto o controle de rotas, recursos ou armamentos.


A inteligência artificial permite integrar essa dimensão cognitiva às demais formas de poder. Dados coletados em ambientes digitais alimentam sistemas de análise que, por sua vez, orientam decisões de vigilância, policiamento e ação política. A violência algorítmica se torna, assim, multidimensional: atua simultaneamente sobre o corpo, o comportamento e a mente.


O aspecto mais perturbador dessa forma de guerra é sua invisibilidade. Ao contrário da violência física, que produz rupturas visíveis e frequentemente gera reação, a violência cognitiva opera de modo gradual e difuso. Seus efeitos acumulam-se ao longo do tempo, corroendo vínculos sociais, enfraquecendo a confiança em instituições e dificultando a construção de resistências organizadas. Quando seus resultados se tornam evidentes, o processo já se encontra profundamente enraizado.


A guerra informacional mediada por inteligência artificial, portanto, não é um complemento da violência algorítmica; ela é uma de suas expressões mais eficazes. Ao transformar percepção em campo de batalha, o poder contemporâneo amplia sua capacidade de controle sem recorrer continuamente à força direta. A coerção se torna preventiva, distribuída e autossustentada.


Para compreender plenamente a lógica desse sistema, é necessário observar como ele se materializa em experiências concretas. Alguns Estados não apenas adotaram essas tecnologias, mas as transformaram em doutrina operacional, exportável e replicável em diferentes contextos. É sobre esse modelo que o próximo tópico se debruça.

EUA e Israel: o modelo operacional da violência algorítmica



A violência algorítmica não se desenvolve de forma homogênea no sistema internacional. Ela emerge com mais clareza em Estados que ocupam posições centrais na hierarquia do poder global e que operam há décadas sob lógica de conflito permanente. Nesse sentido, Estados Unidos e Israel não devem ser observados como casos excepcionais, mas como laboratórios avançados de uma forma específica de governar por meio da tecnologia.


Ambos compartilham uma característica estrutural decisiva: a fusão profunda entre aparato militar, inteligência, indústria tecnológica e formulação de política externa. Essa integração não é contingente; ela resulta de trajetórias históricas marcadas por guerras assimétricas, disputas regionais prolongadas e necessidade constante de administrar populações percebidas como hostis. A inteligência artificial surge, nesses contextos, como solução técnica para problemas políticos crônicos.


Nos Estados Unidos, a incorporação da IA às cadeias de segurança ocorre em escala sistêmica. Não se trata apenas de desenvolver armas mais precisas ou sistemas de apoio logístico, mas de reorganizar o processo decisório do Estado. A inteligência artificial passa a operar como camada transversal, conectando vigilância, inteligência, planejamento e ação. O objetivo não é apenas vencer conflitos específicos, mas reduzir incertezas estruturais em um cenário de competição global permanente.


Israel, por sua vez, oferece um exemplo ainda mais concentrado dessa lógica. Em um território reduzido, sob tensão constante e com fronteiras politicamente instáveis, a necessidade de antecipar ameaças tornou-se princípio organizador do Estado. A inteligência artificial é integrada desde cedo à vigilância populacional, à análise preditiva e à priorização de alvos. O resultado é um modelo no qual a violência não responde apenas a eventos, mas a classificações contínuas de risco.


O ponto central não é comparar graus de intensidade, mas identificar um padrão comum: em ambos os casos, a IA é utilizada para converter conflito político em problema técnico. Ao traduzir disputas sociais, territoriais e geopolíticas em dados e probabilidades, esses Estados conseguem deslocar o debate do campo da legitimidade para o campo da eficiência. A violência deixa de ser discutida em termos de justiça ou ilegalidade e passa a ser avaliada em termos de desempenho operacional.


Esse modelo possui uma dimensão externa igualmente relevante. As tecnologias e doutrinas desenvolvidas nesses contextos não permanecem restritas ao uso doméstico. Elas são exportadas como soluções de segurança, frequentemente apresentadas como neutras e universais. Sistemas de vigilância, plataformas de análise preditiva e metodologias de controle informacional tornam-se ativos estratégicos, integrados a alianças militares, acordos de cooperação e relações de dependência tecnológica.


Para Estados periféricos ou em situação de instabilidade política, a adoção dessas tecnologias costuma ocorrer sob a promessa de modernização e eficiência. O que raramente se explicita é que, junto com a técnica, importa-se também uma lógica de governo: gestão preventiva do dissenso, normalização da exceção e centralização da decisão violenta. A inteligência artificial funciona, assim, como vetor de homogeneização autoritária em escala global.


Sob a lente do materialismo histórico-dialético, esse processo revela a forma como forças produtivas avançadas são apropriadas para a reprodução da dominação em nível internacional. A tecnologia não apenas reforça o poder dos Estados centrais, mas contribui para a subordinação estrutural de outros, ao criar dependências técnicas difíceis de romper. A soberania passa a ser condicionada pelo acesso — ou pela falta dele — a infraestruturas algorítmicas críticas.


No plano do realismo político, o comportamento de Estados Unidos e Israel aparece como racional dentro de seus objetivos estratégicos. Ambos compreendem que a capacidade de exercer violência de forma contínua, seletiva e tecnicamente mediada oferece vantagens decisivas em um ambiente internacional instável. A inteligência artificial amplia essa capacidade ao reduzir custos, acelerar decisões e minimizar exposição política.


O problema não está na racionalidade interna do modelo, mas em suas consequências sistêmicas. Ao se consolidar como referência operacional, a violência algorítmica tende a se difundir como padrão, pressionando outros Estados a adotarem práticas semelhantes para não ficarem em desvantagem. O resultado é uma corrida silenciosa, não por armas mais destrutivas, mas por arquiteturas mais eficientes de controle e coerção.


Esse movimento prepara o terreno para uma nova forma de legitimação do poder. À medida que a violência se apresenta como produto técnico e não como escolha política, surge a necessidade de discursos capazes de torná-la aceitável. É nesse ponto que a ética, longe de funcionar como limite, passa a operar como tecnologia de gestão do próprio poder.

A ética como tecnologia de gestão do poder



À medida que a violência algorítmica se consolida como prática recorrente, torna-se necessário um dispositivo capaz de torná-la aceitável, administrável e politicamente sustentável. Esse dispositivo não é apenas jurídico nem exclusivamente retórico. Ele assume a forma de ética operacional, incorporada a protocolos, políticas internas, comitês de governança e discursos de responsabilidade tecnológica. A ética deixa de ser instância de limitação e passa a funcionar como mecanismo de organização do poder.


No campo da inteligência artificial, a ética surge frequentemente como promessa de contenção. Fala-se em transparência, responsabilidade, supervisão humana e mitigação de riscos. No entanto, quando observada de perto, essa ética não opera como freio estrutural, mas como camada de racionalização. Ela não questiona a finalidade da tecnologia, apenas regula suas condições de uso. O que está em jogo não é se a violência deve existir, mas como ela pode ser aplicada de maneira socialmente tolerável.


Esse deslocamento é fundamental. A ética contemporânea da IA raramente interroga o núcleo da decisão violenta. Ela se concentra em parâmetros procedimentais: quem valida o sistema, como se documenta o processo, quais salvaguardas mínimas são adotadas. Esses elementos produzem a sensação de controle sem alterar a lógica central da coerção. A violência permanece intacta; o que muda é sua forma de apresentação.


Sob o prisma do materialismo histórico-dialético, essa ética deve ser entendida como parte da superestrutura que acompanha o avanço das forças produtivas. À medida que a técnica se torna mais poderosa e mais intrusiva, cresce a necessidade de mecanismos simbólicos capazes de legitimar sua aplicação. A ética cumpre essa função ao traduzir relações de dominação em linguagem normativa aceitável, sem confrontar as bases materiais que as sustentam.


No plano do realismo político, essa dinâmica é ainda mais clara. Estados e empresas não adotam códigos éticos para abdicar de poder, mas para gerenciar riscos. A ética funciona como instrumento de governança: reduz incertezas jurídicas, protege reputações e facilita a continuidade de projetos estratégicos. Ela organiza o campo de disputa, estabelecendo o que pode ser debatido e o que permanece fora de questão.


A tensão entre Estados e empresas em torno de “guardrails” ilustra esse processo com precisão. O conflito não ocorre porque uma parte rejeita a ética e a outra a defende em termos absolutos. Ele ocorre porque a ética se transforma em objeto de negociação política. Limites são aceitos ou rejeitados não com base em princípios universais, mas em cálculos de interesse, segurança e custo estratégico.


Outro aspecto decisivo dessa ética operacional é sua ancoragem na legalidade doméstica. Ao subordinar a avaliação moral ao que é permitido por ordenamentos nacionais específicos, cria-se uma dissociação entre legalidade e legitimidade. Práticas que seriam amplamente contestadas em termos de direitos universais tornam-se aceitáveis quando enquadradas como legais dentro de determinados Estados. A ética deixa de ser universal e passa a ser territorializada.


Esse processo produz um efeito profundo: a naturalização da exceção. Quando a violência algorítmica é acompanhada por protocolos éticos e pareceres técnicos, ela perde o caráter de ruptura e passa a ser percebida como rotina institucional. A crítica política é deslocada para o plano da conformidade procedimental. Questiona-se se o sistema seguiu as regras, não se as regras deveriam existir.


A ética, nesse contexto, não desaparece; ela se transforma. Deixa de ser linguagem de contestação e passa a ser linguagem de estabilização. Em vez de interromper a máquina, ela a torna mais eficiente, previsível e defensável. A violência não é ocultada, mas revestida de racionalidade técnica e justificativa normativa.


O perigo maior dessa transformação não reside na hipocrisia ou na má-fé, mas em sua eficácia. Ao operar como tecnologia de gestão do poder, a ética contribui para a despolitização da violência. Ela desloca o debate do campo da decisão coletiva para o campo da conformidade técnica. O que antes exigia mobilização política passa a ser tratado como questão de compliance.


Com isso, fecha-se um ciclo. A inteligência artificial organiza a violência; a ética a legitima; a legalidade a autoriza. O poder se exerce de forma contínua, eficiente e cada vez menos visível. Para compreender o alcance dessa configuração, resta examinar suas consequências históricas mais amplas, especialmente para Estados periféricos, soberania e democracia no sistema internacional.

Consequências históricas para o sistema internacional



A consolidação da violência algorítmica não produz apenas mudanças operacionais; ela reorganiza, de maneira profunda, o próprio funcionamento do sistema internacional. Quando a inteligência artificial passa a estruturar decisões de vigilância, coerção e guerra, alteram-se as bases materiais da soberania, da autonomia política e da correlação de forças entre Estados. O impacto não é uniforme. Ele se distribui de forma assimétrica, reforçando hierarquias já existentes.


Estados que controlam infraestruturas avançadas de dados, capacidade computacional e cadeias completas de desenvolvimento tecnológico passam a exercer uma forma ampliada de poder. Não se trata apenas de superioridade militar clássica, mas da capacidade de definir padrões, impor protocolos e condicionar comportamentos de outros Estados por meio da dependência técnica. A violência algorítmica, nesse sentido, funciona como instrumento de ordenação internacional, não apenas de segurança interna.


Para Estados periféricos ou semiperiféricos, essa dinâmica impõe um dilema estrutural. A adoção de sistemas avançados de inteligência artificial é frequentemente apresentada como requisito para modernização, segurança e inserção competitiva. No entanto, essa adoção raramente ocorre de forma soberana. Ela vem acompanhada de dependências tecnológicas, transferências assimétricas de dados e incorporação de lógicas operacionais definidas externamente. A autonomia formal permanece; a autonomia real se estreita.


Nesse cenário, a soberania deixa de ser apenas questão territorial ou jurídica e passa a ser também questão infraestrutural. Quem não controla seus próprios sistemas de análise, classificação e decisão opera sob parâmetros alheios, mesmo quando exerce autoridade formal. A violência algorítmica permite que centros hegemônicos influenciem políticas de segurança, estratégias econômicas e dinâmicas sociais de outros países sem necessidade de intervenção direta. O controle se exerce por meio da arquitetura.


Sob a lente do materialismo histórico-dialético, esse processo representa uma nova etapa da dependência estrutural. Se, em momentos anteriores, a subordinação se dava pelo controle de recursos naturais, finanças ou mercados, agora ela se dá também pelo controle de meios cognitivos de governo. A inteligência artificial torna-se parte das forças produtivas globais apropriadas de forma desigual, aprofundando a divisão internacional do poder.


No plano do realismo político, essa transformação tende a gerar instabilidade. À medida que a violência algorítmica se difunde como padrão, Estados que não dominam essas tecnologias enfrentam pressão para adotá-las rapidamente, muitas vezes sem debate público ou capacidade regulatória adequada. O resultado é uma corrida silenciosa, na qual o medo de vulnerabilidade supera considerações democráticas ou sociais. A lógica da segurança se impõe à lógica da política.


Esse movimento tem implicações diretas para a democracia. Sistemas que operam com base em classificação contínua de riscos, monitoramento permanente e decisão acelerada reduzem o espaço para deliberação coletiva. A política passa a ser administrada sob critérios técnicos, e conflitos sociais são tratados como problemas de gestão. A violência algorítmica não elimina a democracia de forma abrupta; ela a esvazia progressivamente, transformando participação em variável controlada.


No plano internacional, a normalização dessa forma de poder enfraquece ainda mais os regimes multilaterais e os princípios universais de direitos. Quando a legalidade doméstica e a eficiência técnica se tornam critérios dominantes, normas comuns perdem força. Cada Estado justifica suas práticas com base em necessidades específicas, enquanto a arquitetura global de poder se reorganiza em torno de capacidades tecnológicas concentradas.


A consequência histórica mais profunda desse processo é a transformação da guerra em condição permanente, ainda que de baixa intensidade visível. A violência algorítmica permite manter pressão constante, controlar fluxos, disciplinar populações e influenciar decisões políticas sem recorrer continuamente a conflitos armados declarados. O sistema internacional entra em um estado de tensão crônica, no qual a exceção se torna regra operacional.


Diante desse quadro, torna-se evidente que a inteligência artificial não é apenas um novo instrumento no arsenal dos Estados, mas um fator de reconfiguração estrutural da ordem global. Ela redefine o que significa poder, segurança e soberania no século XXI. Compreender essas consequências não é exercício acadêmico abstrato; é condição para qualquer estratégia política que pretenda preservar autonomia, democracia e capacidade de decisão coletiva em um mundo cada vez mais governado por arquiteturas técnicas.


É a partir desse horizonte que se impõe a reflexão final: quando a violência se torna técnica, contínua e silenciosa, o que resta da política como espaço de escolha e responsabilidade?

O silêncio como forma final da violência



Toda forma histórica de violência produz também uma forma histórica de silêncio. No estágio atual do poder, esse silêncio não é imposto apenas pelo medo direto, mas pela naturalização técnica da coerção. Quando a violência se torna algoritmo, ela deixa de se apresentar como escolha política e passa a operar como procedimento. O conflito não desaparece; ele é absorvido pela rotina do sistema.


O silêncio contemporâneo não é ausência de informação, mas excesso controlado. Ele emerge quando decisões fundamentais são deslocadas para arquiteturas técnicas inacessíveis ao debate público. Não se discute mais se determinadas práticas devem existir, apenas se funcionam conforme os parâmetros estabelecidos. A política é substituída por dashboards, métricas e relatórios. A violência continua operando, mas fora do campo da palavra.


Esse é o ponto mais avançado da violência algorítmica: sua capacidade de se tornar invisível sem deixar de ser eficaz. Ao operar em velocidades superiores às do debate humano, a coerção se antecipa a qualquer possibilidade de contestação organizada. Quando seus efeitos se tornam perceptíveis, o processo já está consolidado. A decisão não pode mais ser revertida; no máximo, ajustada.


O deslocamento do conflito para o interior da técnica produz uma inversão profunda da responsabilidade. Não há mais um agente claramente identificável que possa ser interpelado politicamente. A violência aparece como resultado sistêmico, distribuído ao longo de cadeias decisórias fragmentadas. O poder se exerce sem rosto, sem discurso e, muitas vezes, sem necessidade de justificativa explícita. O silêncio torna-se funcional.


Sob a lente do materialismo histórico-dialético, esse silêncio não é neutro. Ele expressa uma etapa avançada da dominação, na qual as relações de poder são incorporadas às próprias condições materiais de funcionamento da sociedade. A técnica deixa de ser meio e passa a ser ambiente. Questioná-la exige mais do que indignação; exige capacidade de compreender sua lógica interna e suas determinações históricas.


No plano do realismo político, esse cenário revela uma escolha estratégica clara. Estados que dominam infraestruturas algorítmicas de violência optam por formas de poder que minimizam desgaste reconhecível e maximizam controle contínuo. Não se trata de eliminar a política, mas de restringi-la a espaços compatíveis com a estabilidade do sistema. O dissenso não é proibido; ele é neutralizado antes de ganhar densidade.


O risco histórico desse modelo não reside apenas em seus abusos pontuais, mas em sua eficiência estrutural. Uma violência que não precisa se explicar tende a se expandir. Um poder que opera em silêncio tende a se autonomizar. À medida que decisões vitais são tecnicamente mediadas, a capacidade coletiva de intervir nelas se enfraquece. A democracia não colapsa; ela se esvazia.


Este artigo não propõe respostas fáceis nem soluções técnicas. Seu objetivo é mais elementar e mais urgente: repolitizar a violência. Tornar visível aquilo que foi convertido em procedimento. Reconhecer que a inteligência artificial, quando integrada às cadeias de segurança, vigilância e guerra, não é apenas inovação tecnológica, mas transformação histórica do poder.


O século XXI não será definido apenas por novas armas ou novos conflitos, mas pela forma como a violência é administrada no cotidiano das sociedades. Se ela permanecer encapsulada na técnica, o silêncio prevalecerá. Se for trazida de volta ao campo da decisão política, ainda haverá espaço para escolha, responsabilidade e disputa.


A questão central, portanto, não é se a inteligência artificial pode ser usada para a violência. Ela já está sendo. A questão decisiva é quem decide, como decide e em nome de quê. Enquanto essas perguntas permanecerem confinadas aos sistemas e fora do debate público, a violência seguirá seu curso mais eficiente: invisível, contínua e profundamente política — mesmo quando parece não ser.


Comentários


pin-COMENTE.png
mantenha-se atualizado

Obrigado pelo envio!

  • linktree logo icon
  • Ícone do Instagram Branco
  • x logo
  • bluesky logo icon
  • Spotify
  • Ícone do Youtube Branco
bottom of page