Tecnologia e Ativismo LGBTQIA+: entre Proteção e Vigilância

Tecnologia e Ativismo LGBTQIA+: entre Proteção e Vigilância

Quando a proteção vira vigilância: o dilema das IAs contra o ódio




Por Sergio Viula


No dia 24 de outubro de 2025, foi divulgada a notícia de que o governo brasileiro implementou uma plataforma de inteligência artificial chamada “Aletheia” (em grego: verdade ou desvelamento da verdade), criada para monitorar redes sociais, blogs e sites em busca de discurso de ódio e desinformação contra pessoas LGBTQIA+.

Link para o portal: https://aletheiaverifica.com/home

A iniciativa, segundo o governo, está alinhada à legislação que criminaliza a homofobia e a transfobia desde 2019, buscando proteger a comunidade de ataques digitais cada vez mais sofisticados. À primeira vista, é uma medida que soa positiva — afinal, o combate ao ódio online é urgente.


Caso Aletheia: Proteção digital ou vigilância estatal?

Recentemente, a ONG Aliança Nacional LGBTI+ relatou que, em apenas nove dias de testes com a nova plataforma de monitoramento digital do governo, foram identificadas 497 postagens com potencial discurso de ódio e 61 notícias falsas. A ferramenta analisa redes sociais, artigos opinativos e padrões de desinformação, com foco em proteger a comunidade LGBTQIA+.

O jurista Giuliano Miotto alerta para o risco de autocensura e controle de narrativas. Segundo ele, a simples existência de um sistema estatal de monitoramento pode inibir o debate público. Além disso, há perigo de silenciamento seletivo, especialmente de vozes críticas à ideologia de gênero. Para Miotto, a atuação do Estado só é legítima quando há comprovação de crime, como incitação à violência ou desinformação coordenada.

O governo pretende expandir a ferramenta para monitorar outras “ameaças”, sob supervisão de Symmy Larrat, ativista trans e chefe da Secretaria Nacional dos Direitos das Pessoas LGBTQIA+. A proposta é transformar o projeto em política pública permanente, mas a falta de chamamento público para outras entidades e o monitoramento de 1.500 perfis públicos, incluindo autoridades e influenciadores, levantam preocupações sobre transparência, critérios de seleção e responsabilização.

Este caso ilustra o paradoxo entre proteção e vigilância:

Por um lado, existe a necessidade legítima de combater o ódio online e proteger minorias vulneráveis.

Por outro, sem salvaguardas democráticas — como auditoria independente, controle civil e transparência — uma ferramenta de proteção pode se tornar instrumento de repressão.

A questão central não é apenas o que a tecnologia faz, mas quem a controla, com que critérios e com que garantias. Sem isso, o risco de abuso é real — e histórico.


O outro lado da moeda

Apesar do objetivo nobre, especialistas em ética digital e direitos humanos alertam para riscos sérios de uso indevido. Ferramentas de monitoramento, especialmente as baseadas em inteligência artificial, podem ser facilmente reconfiguradas para vigiar, censurar ou perseguir as mesmas pessoas que deveriam proteger — tudo depende de quem controla o sistema.

Imagine um cenário em que um governo autoritário ou de extrema direita redefine o conceito de “discurso de ódio” para incluir críticas legítimas a políticas públicas ou a líderes políticos. O que hoje serve para proteger a comunidade LGBTQIA+ poderia, amanhã, ser usado para mapear ativistas, coletivos, jornalistas e influenciadores, rotulando-os como “subversivos” ou “imorais”.

Não seria a primeira vez: tecnologias de vigilância e ferramentas digitais já foram instrumentalizadas por regimes para reprimir dissenso e atentar contra direitos civis. 


O dilema ético

Estamos diante de um paradoxo:

De um lado, a necessidade urgente de combater o ódio online e proteger minorias.

De outro, o perigo de que essa “proteção” sirva de pretexto para a vigilância e repressão digital.

Organizações de direitos digitais e ONGs têm sido explícitas: governos devem adotar princípios de direitos humanos ao projetar, adquirir e usar sistemas de IA governamental — incluindo avaliações de impacto, auditorias independentes e mecanismos de recurso para os afetados.

Sem mecanismos de transparência, auditoria pública e controle civil, qualquer tecnologia estatal de monitoramento pode se tornar um instrumento de autoritarismo.

Relatórios e declarações de organizações de diretos humanos também ressaltam que a implantação de sistemas automáticos de vigilância sem salvaguardas cria um accountability gap — uma lacuna de responsabilização para decisões que afetam vidas.

A luta contra o ódio e a desinformação é fundamental — mas deve ser travada com responsabilidade democrática e garantias de direitos humanos. Do contrário, a mesma IA criada para proteger poderá, no futuro, ser usada para silenciar.

Em tempos de avanços tecnológicos acelerados, é preciso lembrar: não basta confiar na máquina — é preciso questionar quem a programa e com que intenção.


*****************


#ForaDoArmario
#LGBTQIA
#DireitosHumanos
#InteligenciaArtificial
#TecnologiaResponsavel
#DiscursoDeOdio
#SegurancaDigital
#AtivismoDigital
#DemocraciaDigital
#ProtecaoOuVigilancia
#IAeSociedade
#InclusaoDigital
#LiberdadeDeExpressao
#JusticaSocial

Comentários

Postagens mais visitadas