Brasil,

Controle e riscos: quais são os limites da IA na moderação das redes sociais?

  • Crédito de Imagens:Divulgação - Escrito ou enviado por  Daniella Pimenta
  • SEGS.com.br - Categoria: Info & Ti
  • Imprimir

Imagem: Freepik Imagem: Freepik

Enquanto assistentes de IA bloqueiam conteúdos ilegais de forma rígida, redes sociais que somam 5,24 bilhões de usuários ativos ainda enfrentam falhas em moderação, permitindo a circulação de violência, bullying e material sensível

Imagine que um usuário tenta fazer o ChatGPT escrever sobre um crime e a IA se recusa. Porém, em outra aba, o mesmo internauta tem acesso a posts com violência, bullying e assédio nas redes sociais. Por que a mesma tecnologia, a inteligência artificial, tem resultados tão diferentes na moderação de conteúdo?

O contraste é evidente: enquanto assistentes como ChatGPT, Claude e Gemini negam categoricamente qualquer solicitação relacionada a conteúdos ilegais, de pirataria a material explícito, as mesmas tecnologias que operam por trás das redes sociais frequentemente falham em identificar e remover automaticamente tais conteúdos quando circulam entre bilhões de usuários.

Segundo dados da Meta, o Facebook registou um aumento no conteúdo violento, bem como nos casos de bullying e assédio, revelando as limitações crescentes dos sistemas automatizados de moderação. A situação se agravou após mudanças recentes nas políticas de moderação da empresa, que reconheceu que está removendo excessivamente conteúdos nas suas plataformas, como Facebook e Instagram.

Em 2025, o número de usuários ativos em redes sociais no mundo atingiu cerca de 5,24 bilhões, o que corresponde a 60,6% da população global. Esse número representa um crescimento de 4,1% em relação ao ano anterior, de acordo com dados do relatório "Digital 2025: Global Overview Report" da Data Reportal.

O Brasil, com mais de 165 milhões de usuários de redes sociais conforme o estudo “Digital 2024 Brazil”, da We Are Social, tornou-se um laboratório privilegiado para observar essas contradições tecnológicas. Enquanto o país avança em discussões regulatórias sobre moderação de conteúdo digital, as plataformas enfrentam desafios técnicos e éticos cada vez mais complexos.

O paradoxo dos filtros: rigidez versus permissividade

Essa diferença se dá, segundo Eduardo Augusto, CEO da IDK, consultoria de marketing, comunicação e tecnologia, porque “a diferença entre a moderação de IAs conversacionais e redes sociais reside fundamentalmente em seus objetivos de negócio. Enquanto assistentes virtuais priorizam a segurança e conformidade legal, as redes sociais operam sob a lógica do engajamento e tempo de permanência na plataforma”.

"As IAs trabalham com filtros preventivos extremamente rígidos porque cada interação é direcionada e controlável. Já nas redes sociais, a moderação precisa processar volumes astronômicos de conteúdo em tempo real, criando lacunas inevitáveis", ressalta Eduardo Augusto.

De acordo com o primeiro relatório de transparência do Digital Services Act (DSA), em plataformas como Facebook e Instagram, a moderação automatizada representa entre 93% e 98% das decisões de remoção de conteúdo, enquanto a moderação humana fica entre 1,5% e 6% dessas ações. Na prática, isso significa que quase todo o processo de filtragem e exclusão de publicações depende de sistemas de inteligência artificial que, embora rápidos e escaláveis, ainda enfrentam dificuldade para compreender contextos, detectar linguagem disfarçada e interpretar nuances culturais.

"Os algoritmos de recomendação são otimizados para maximizar engajamento, não para minimizar riscos. Isso cria um conflito estrutural entre segurança e lucratividade", analisa Eduardo Augusto.

Desafios técnicos em escala global

A moderação automatizada enfrenta obstáculos técnicos significativos quando aplicada em escala. Linguagem codificada — conhecida como algospeak — símbolos ou GIFs disfarçados, conteúdo contextual e variações regionais de expressão tornam a detecção automática extremamente complexa. Algospeak é o uso de expressões cifradas em redes sociais com o objetivo de escapar da moderação algorítmica, seja para driblar penalizações ou para preservar a monetização do conteúdo.

Além disso, podem ocorrer distorções causadas por políticas pouco claras: no Brasil, novas diretrizes da Meta passaram a permitir publicações que reforçam estereótipos ou preconceitos raciais, étnicos, religiosos e contra pessoas com deficiência, condutas consideradas criminosas pela legislação local, conforme revelou a organização Aos Fatos. Este exemplo evidencia como mudanças nas políticas podem agravar os desafios técnicos ao enviar sinais contraditórios aos moderadores e aos sistemas automáticos.

“A IA atual ainda não consegue compreender nuances contextuais como ironia, sarcasmo ou referências culturais específicas. Um meme pode ser inofensivo em uma cultura e extremamente ofensivo em outra”, pontua o especialista e palestrante em tecnologia, negócios e carreira, Antonio Muniz.

O impacto em públicos vulneráveis e a conscientização dos pais

No Brasil, desde junho de 2025, o Ministério da Justiça reclassificou o Instagram como não recomendado para menores de 16 anos (anteriormente era 14), justificando a mudança com base em temas sensíveis como sexo explícito, violência extrema e uso de drogas. O Facebook já era classificado há tempos como impróprio para menores de 16 anos; outras plataformas seguem diferentes faixas indicativas, como: TikTok, 14 anos; X (antigo Twitter), 18 anos.

Além dos aspectos regulatórios, emitir alertas e orientações é essencial: em março de 2025, o governo federal lançou o Guia “Crianças, Adolescentes e Telas: Guia sobre Uso de Dispositivos Digitais”. Produzido por uma rede interministerial, com contribuições do Conselho Federal de Psicologia, o documento recomenda, por exemplo, que crianças menores de 2 anos evitem o uso de telas (exceto para videochamadas com familiares) e que menores de 12 anos não tenham smartphones próprios.

Pesquisas também reforçam a urgência dessa proteção: segundo o TIC Kids Online Brasil 2024, 93% das crianças e adolescentes entre 9 e 17 anos são usuários de internet, cerca de 25 milhões de jovens, e 23% deles acessaram a internet antes dos 6 anos (versus 11% em 2015).

Eduardo Augusto, da IDK, reforça o alerta: “Quando falamos de proteção infantil online, não podemos aceitar uma margem de erro de 5% ou 10%. Cada criança exposta a conteúdo prejudicial representa um fracasso sistêmico com consequências duradouras.”

A regulação e a conscientização são reforçadas pelo especialista em Inteligência Artificial e seu impacto nas organizações, professor de MBA da Fundação Getúlio Vargas (FGV) e palestrante internacional, Kenneth Corrêa. “Muito mais que definir uma idade mínima, precisamos garantir que as classificações e ferramentas de proteção digital sejam compreendidas e efetivas. A legislação brasileira avançou, mas ainda falta uma articulação clara com as práticas tecnológicas das plataformas, especialmente quando o design algorítmico prioriza engajamento em vez de segurança”.

Iniciativas corporativas e limitações

As grandes tecnológicas têm investido bilhões em moderação de conteúdo, mas os resultados permanecem aquém das necessidades. A Meta, por exemplo, emprega milhares de moderadores humanos globalmente, complementados por sistemas de IA, mas ainda enfrenta críticas constantes sobre a eficácia de seus controles.

"As empresas estão presas entre reguladores que exigem mais controle, usuários que querem mais liberdade, e algoritmos que ainda não são suficientemente sofisticados para navegar essas tensões", analisa Antonio Muniz.

Perspectivas e soluções emergentes

Especialistas apontam para abordagens híbridas como caminho mais promissor: combinação de IA avançada, moderação humana especializada e participação da comunidade de usuários. O modelo de "notas da comunidade", similar ao adotado pelo X (antigo Twitter), representa uma dessas tentativas de democratizar a moderação.

Eduardo Augusto vislumbra um futuro em que "a moderação será cada vez mais personalizada e contextual, com IAs capazes de entender não apenas o conteúdo, mas também o impacto específico em diferentes audiências e culturas".

Os limites atuais da inteligência artificial na moderação de conteúdos revelam a complexidade de regular o ambiente digital em escala global. Enquanto assistentes conversacionais demonstram que controles rígidos são tecnicamente possíveis, a aplicação desses mesmos padrões às redes sociais esbarra em desafios de escala, contexto cultural e objetivos comerciais.

Kenneth Corrêa resume o desafio: "Estamos diante de uma questão que transcende a tecnologia. É preciso repensar fundamentalmente como equilibramos inovação, liberdade e proteção no ambiente digital, independente da cultura e da localização. A resposta não virá apenas de algoritmos mais sofisticados, mas de uma nova filosofia sobre responsabilidade corporativa, governança digital e cuidado com o social". Nesse sentido, iniciativas como o documento Responsible AI da Microsoft servem de referência ao propor diretrizes claras para que a inovação tecnológica caminhe lado a lado com princípios éticos e impactos sociais positivos.

O futuro da moderação digital provavelmente dependerá menos de soluções tecnológicas isoladas e mais de frameworks integrados que combinem inteligência artificial, supervisão humana, participação comunitária e marcos regulatórios adaptativos às realidades locais e globais.

IDK é uma renomada consultoria no Brasil, que oferece soluções que unem tecnologia, design e comunicação. A junção dessas três áreas na IDK é o que resulta na qualidade das entregas, na inovação e na alta performance de seus clientes. O objetivo é ajudar empresas que desejam transformar suas aspirações em realidade, construindo conexões reais e aprendizados por meio da análise de dados e personalização do atendimento. A IDK auxilia grandes empresas nas frentes de branding, mídia, dados, gaming content, produção de vídeo, digital development, service release, experiência do cliente, UI, UX/CX research e CRM). A tecnologia não é o fim, é apenas o meio, essa é a IDK, seja muito bem-vindo!

Antonio Muniz é uma das vozes influentes do ecossistema de tecnologia e negócios no Brasil. CEO Advisor e presidente da Editora Brasport, Muniz atua oferecendo consultoria estratégica com foco em inovação e impacto. Ele também preside comitês de tecnologia em duas academias relevantes do setor, onde promove conexões profissionais e estimula o desenvolvimento técnico por meio do networking qualificado. À frente da Jornada Colaborativa, movimento que reúne especialistas em torno da produção de conteúdo acessível e colaborativo, Muniz se consolidou como referência nacional em temas como Agilidade, DevOps, Lean, Qualidade de Software (QA), OKR e Transformação Digital. Autor, editor e professor de MBA Executivo em Agilidade, Tecnologia e Negócios na Anhanguera Educacional, ele também é presença frequente em eventos, como palestrante e mentor. Sua trajetória é marcada pela capacidade de unir pessoas, ideias e propósitos, sempre com o objetivo de gerar valor coletivo e acelerar o avanço do setor. Para mais informações, acesse: LinkedIn.

Kenneth Corrêa

Kenneth Corrêa é um renomado especialista em Dados, Inteligência Artificial e Metaverso. Professor de MBA na Fundação Getúlio Vargas (FGV), o profissional tem ajudado a moldar a próxima geração de líderes. Além disso, Kenneth é palestrante internacional TEDx e atua como Diretor de Estratégia da Agência 80 20 Marketing, onde lidera uma equipe de 90 profissionais. Com 15 anos de experiência em marketing e tecnologia, ele desenvolve projetos inovadores para grandes empresas como AEGEA, JBS e Suzano. Recentemente, lançou no MIT (MIT - Massachusetts Institute of Technology) seu primeiro livro internacional, "Organizações Cognitivas - Alavancando o Poder da IA Generativa e dos Agentes Inteligentes", que explora o impacto da IA nas organizações.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 
https://www.facebook.com/groups/portalnacional/

<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. -  Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

voltar ao topo

Adicionar comentário

Aja com responsabilidade aos SEUS COMENTÁRIOS, em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: COMENTÁRIOS com LINK são bloqueados automaticamente (COMMENTS with LINKS are automatically blocked.)...Sucesso!

Security code Atualizar

Enviar