AR NEWS 24h

AR News Notícias. Preenchendo a necessidade de informações confiáveis.

Maceió AL - -

Grok, ChatGPT, Gemini e a "mentira perfeita": quando a IA decide o que é verdade e o que é notícia no Brasil

Na era da inteligência artificial, a desconfiança saudável é o primeiro antídoto contra a mentira perfeita.

Por Redação do AR NEWS 24h

A inteligência artificial já escreve, manipula e verifica notícias em escala global. O problema: ela também comete erros, e não existem regras claras para conter seu impacto na democracia brasileira. Este é o cenário que preocupa autoridades e especialistas a menos de sete meses das eleições de 2026, marcadas para 4 de outubro, quando mais de 155 milhões de brasileiros escolherão representantes para os cargos de presidente, governadores, senadores e deputados.

Democracia sob fogo cruzado: como a inteligência artificial e a seletividade institucional ameaçam o voto consciente do brasileiro
Democracia sob fogo cruzado: como a inteligência artificial e a seletividade institucional ameaçam o voto consciente do brasileiro



O temor é de que as campanhas se transformem em uma guerra suja digital, na qual seja quase impossível distinguir a informação falsa da verdadeira. Ferramentas com IA são capazes de produzir imagens que parecem fotos reais, vídeos com costuras digitais imperceptíveis e áudios que atribuem a políticos declarações que nunca fizeram. E, agravando o cenário, qualquer pessoa tem acesso a essas tecnologias, já que redes sociais as integraram em suas plataformas: Grok no X, Meta IA no Instagram e Facebook, Gemini no Google, e assistentes similares em outras aplicações.

TSE aprova regras emergenciais: avanço ou cerceamento?

Diante da urgência do tema, o Tribunal Superior Eleitoral (TSE) aprovou em março de 2026 novas regras que endurecem as restrições para o uso de conteúdo artificial na internet durante as eleições. A resolução proíbe a disseminação de conteúdo novo feito por IA nas 72 horas anteriores à votação e determina que ferramentas de inteligência artificial não podem sugerir candidatos ao eleitor.
No entanto, críticos questionam a imparcialidade na aplicação dessas normas. Para setores da oposição, há um padrão recorrente de decisões do Supremo Tribunal Federal (STF) e do TSE que beneficiariam narrativas alinhadas à esquerda política, enquanto vozes conservadoras ou de direita seriam alvo de censura seletiva, mesmo quando expõem fatos verificáveis. A percepção de dois pesos e duas medidas, segundo analistas independentes, enfraquece a credibilidade das instituições e alimenta a desconfiança popular.

A falha na verificação automatizada e o viés algorítmico

Diante da enxurrada de conteúdos duvidosos, muitos usuários passaram a confiar na própria IA para checar a veracidade das informações. No entanto, estudos apontam que essa estratégia pode agravar, e não resolver, o problema da desinformação. Pesquisa conjunta das universidades de Oxford, Cornell e Paris-Saclay revelou que o Grok acerta na verificação de informações apenas 54% das vezes nos Estados Unidos, e não há dados específicos sobre sua precisão no contexto brasileiro.
O mesmo estudo indica que eleitores de espectros políticos diferentes tendem a recorrer à ferramenta de formas distintas, sugerindo que os algoritmos podem estar alimentando vieses ideológicos. No Brasil, onde a polarização é intensa, esse risco é amplificado: se os dados de treinamento das IAs priorizarem fontes de um determinado espectro político, as respostas tenderão a reforçar essa perspectiva, excluindo ou desqualificando outras.

Explosão de conteúdo falso com IA no Brasil

Os números alarmam: o conteúdo falso criado por IA no Brasil mais que triplicou de 2024 para 2025. Os deepfakes e outras peças de desinformação geradas por inteligência artificial saltaram de 39 casos em 2024, representando 4,6% do total de verificações, para números muito superiores em 2025.

Análise crítica: democracia sob tensão institucional

Para além dos desafios tecnológicos, o Brasil vive um momento de tensão institucional que alimenta o ceticismo de parte da população. Críticos apontam que o país já não operaria sob os parâmetros de uma democracia plena, citando uma série de episódios que, segundo eles, indicariam seletividade na aplicação da lei e assimetria no tratamento de diferentes atores políticos.

Entre os pontos frequentemente levantados por opositores e analistas independentes estão:

  • Acusações de irregularidades no INSS: Denúncias sobre supostos desvios e fraudes no Instituto Nacional do Seguro Social, que movimentariam bilhões de reais, teriam recebido tratamento investigativo considerado lento ou insuficiente por setores da sociedade civil e da imprensa alternativa.
  • Envolvimento de ministros em escândalos: Nomes como o do ministro Dias Toffoli são citados em reportagens e investigações sobre suposto envolvimento com esquemas de influência, como o caso conhecido como "Master", que teria conexões com empresas de hotelaria e contratos públicos. Críticos cobram maior transparência e apuração isenta.
  • Patrimônio de autoridades: A declaração de patrimônio de ministros do STF, incluindo a esposa do ministro Alexandre de Moraes, que teria registrado movimentações financeiras expressivas (como os mencionados "129 milhões"), gera questionamentos sobre a origem dos recursos e a fiscalização adequada por órgãos de controle.
  • Ligações telefônicas e proximidade com empresários: Gravações ou relatos de conversas entre autoridades do Judiciário e figuras como "Vorcaro" (referência a empresários ou lobistas) alimentam suspeitas sobre influência indevida em decisões judiciais e eleitorais.
  • Narrativas oficiais e manipulação: Declarações de líderes políticos, incluindo o presidente Lula, são alvo de contestação por setores que acusam o governo de manipular informações, omitir dados ou usar a máquina pública para favorecer narrativas eleitorais.
Essas acusações, ainda que não tenham sido todas judicialmente comprovadas, circulam amplamente em redes sociais, veículos de imprensa alternativos e grupos de oposição. Para analistas, o fato de tais questionamentos não serem devidamente investigados ou respondidos com transparência contribui para um clima de desconfiança generalizada nas instituições.

O risco da IA como instrumento de controle narrativo

Nesse contexto, a inteligência artificial pode se tornar não apenas uma ferramenta de desinformação, mas também de controle narrativo. Se algoritmos forem treinados com base em fontes que privilegiam determinadas visões políticas, ou se plataformas digitais aplicarem moderação de conteúdo de forma seletiva, a IA pode acabar silenciando vozes dissidentes sob o pretexto de "combate à desinformação".
Especialistas alertam que a definição do que é "verdade" ou "mentira" não pode ficar a cargo exclusivo de corporações tecnológicas ou de um grupo restrito de magistrados. Em uma democracia saudável, o debate público deve permitir o contraditório, a apuração independente e a responsabilização de todos os atores — inclusive aqueles que detêm poder institucional.

O papel das agências de fact-checking brasileiras

Diante desse cenário, agências de verificação de fatos brasileiras como Agência Lupa, Aos Fatos, Fato ou Fake (do Grupo Globo) e Comprova trabalham em ritmo intensivo. No entanto, verificadores alertam que a desinformação se espalha mais rápido do que conseguem verificar.
Especialistas distinguem dois conceitos-chave: disinformation (desinformação intencional, quando quem propaga sabe que a informação é falsa) e misinformation (informação incorreta compartilhada sem má-fé). Enquanto o primeiro caso envolve estratégias deliberadas para manipular opinião pública, o segundo muitas vezes decorre de ignorância ou da confiança excessiva em fontes não verificadas — incluindo, paradoxalmente, as próprias IAs.

A "alucinação" da inteligência artificial

Do ponto de vista técnico, os erros das IAs ocorrem porque esses sistemas operam com base em padrões estatísticos e no "contexto" de dados ao qual têm acesso. Quando uma ferramenta como o Grok analisa uma imagem, ela a converte em uma cadeia numérica e busca correspondências em seu banco de dados. Se o contexto disponível for limitado ou enviesado, a resposta pode ser incorreta — fenômeno que especialistas chamam de "alucinação" da IA.
Pesquisadores brasileiros alertam que a discussão central não é apenas técnica, mas política: quem define o contexto desses modelos, como e por quê? Algumas empresas estão desenvolvendo "constituições" para reger o funcionamento de seus algoritmos, mas permanece a questão sobre se tais diretrizes devem ser estabelecidas por corporações privadas ou por marcos regulatórios democráticos.

Contexto político polarizado amplia riscos

O cenário político brasileiro adiciona camadas de complexidade ao desafio. O presidente Lula confirmou em outubro de 2025 que concorrerá à reeleição em 2026. Pesquisas de intenção de voto mostram diferentes cenários, com Lula mantendo vantagem em diversas simulações contra possíveis candidatos da oposição.
Essa polarização cria terreno fértil para a desinformação. Pesquisa do Instituto DataSenado revelou que 81% dos brasileiros acreditam que fake news ou desinformação podem afetar significativamente o resultado eleitoral. O temor é que a IA seja usada para amplificar narrativas falsas que explorem divisões políticas já existentes.

Sem regras claras, a democracia já golpeada, está em risco

Apesar das resoluções do TSE, especialistas apontam que a legislação atual ainda é insuficiente para enfrentar a desinformação digital em toda sua complexidade. Os mecanismos de fiscalização eleitoral foram desenhados para rádio e televisão, não para redes sociais, onde o anonimato dificulta o rastreamento de quem paga por impulsionamento de conteúdos falsos.
Além disso, há um dilema ético: quem decidirá quais conteúdos devem ser removidos e com base em quais critérios? A tentativa de regular pode abrir espaço para censura ou limitação indevida da liberdade de expressão, especialmente em contextos políticos polarizados.

O papel do jornalismo e da educação midiática

Em meio a esse cenário, verificadores e especialistas reforçam que a verificação profissional e a educação midiática seguem sendo ferramentas essenciais. Fact-checkers comparam a desinformação a um incêndio em terra árida: avança rapidamente, e os verificadores são como bombeiros que nem sempre conseguem conter as chamas a tempo, mas cujo esforço é fundamental.
Especialistas defendem que não se deve "renunciar a toda a fricção" no consumo de informação. Em um mundo programado para eficiência e velocidade, às vezes vale a pena desacelerar, checar fontes e exercer o ceticismo saudável.

O grande perigo:TSE aposta em parcerias e tecnologia

Desde 2022, o Tribunal Superior Eleitoral vem ampliando seus mecanismos de enfrentamento à desinformação, com parcerias com plataformas digitais e investimento em tecnologia para detecção de conteúdos falsos. O Programa Permanente de Enfrentamento à Desinformação da Justiça Eleitoral (PPED) foi instituído para coordenar essas ações de forma estruturada.
A resolução aprovada em 2024 (nº 23.732) já proibia deepfakes em eleições e determinava a identificação de conteúdo gerado por IA. Agora, em 2026, as novas regras buscam fechar brechas e responder a ameaças emergentes.

A pergunta que fica

A ausência de um marco regulatório robusto para o uso da inteligência artificial na comunicação pública representa um risco sistêmico para a democracia brasileira. Enquanto legisladores debatem reformas, especialistas alertam para os perigos da manipulação algorítmica e o TSE tenta estabelecer regras em tempo recorde, a tecnologia avança sem freios, redefinindo os limites entre verdade, opinião e ficção.
A pergunta que fica não é mais se a IA vai influenciar o que os brasileiros acreditam nas eleições de 2026, mas como a sociedade pode construir mecanismos de controle democrático, transparência e responsabilização que garantam que a tecnologia sirva à informação, e não à desinformação.
Enquanto isso, restam aos eleitores brasileiros desenvolver um olhar crítico, checar fontes antes de compartilhar e lembrar: na era da inteligência artificial, a desconfiança saudável é o primeiro antídoto contra a mentira perfeita — seja ela produzida por humanos, por máquinas ou pela combinação de ambos.

 PALAVRAS-CHAVE:
📙 GLOSSÁRIO:
🖥️ FONTES:

NOTA:
O AR NEWS publica artigos de várias fontes externas que expressam uma ampla gama de pontos de vista. As posições tomadas nestes artigos não são necessariamente as do AR NEWS NOTÍCIAS.
🔴 Reportar uma correção ou erro: Contato ✉️ © AR NEWS 24h - Todos os direitos reservados.

Gostou desta matéria? Compartilhe:

Twitter / X Facebook WhatsApp

Postar um comentário

0Comentários
* Por favor, não faça spam aqui. Todos os comentários são revisados ​​pelo administrador.