Uso de IA treinada por IA levanta riscos estruturais para empresas e governos
Pesquisas indicam queda de desempenho e desafios de governança em sistemas baseados em dados sintéticos
O avanço acelerado da inteligência artificial trouxe um novo desafio para empresas, governos e desenvolvedores: o que acontece quando modelos passam a ser treinados majoritariamente com conteúdos gerados por outras IAs. O fenômeno, já mapeado por pesquisas acadêmicas e centros de tecnologia, acende um alerta sobre qualidade, confiabilidade e sustentabilidade dos sistemas de IA em escala global.
Segundo Abner Crivellari, engenheiro de software, especialista em arquitetura de sistemas e inteligência artificial e fundador da DIOTI, a preocupação não está apenas na eficiência dos algoritmos, mas na origem dos dados. “Quando a IA começa a aprender predominantemente com conteúdo produzido por outras IAs, ela passa a operar em um ciclo fechado, com menos contato com a realidade. Isso compromete a capacidade de adaptação e aumenta a chance de erros sistêmicos”, afirma.
Estudos recentes indicam que a reutilização contínua de dados sintéticos pode levar à perda progressiva de diversidade e precisão dos modelos, afetando desde motores de busca até sistemas de recomendação e análise de risco.
Pesquisadores da Universidade de Oxford e da Universidade de Cambridge demonstraram que esse processo pode desencadear o chamado model collapse, em que cada nova geração do modelo apresenta desempenho inferior à anterior, mesmo mantendo a mesma arquitetura.
Na prática, essa degradação compromete a capacidade de generalização da IA e reduz o reconhecimento de padrões raros, justamente os mais relevantes em contextos críticos. “O problema é silencioso. O modelo continua funcionando, mas passa a responder de forma mais rasa e previsível”, explica Crivellari.
O impacto já começa a preocupar o mercado corporativo. De acordo com relatório da Gartner, até 2026 mais de 60% dos dados usados no treinamento de sistemas de IA nas empresas serão sintéticos.
O mesmo levantamento alerta que organizações sem políticas claras de governança de dados podem enfrentar decisões enviesadas e perdas operacionais, especialmente em áreas como crédito, saúde, jurídico e recursos humanos.
Outro efeito observado é a amplificação de vieses. Um estudo do Stanford Institute for Human-Centered AI aponta que modelos treinados com grandes volumes de dados sintéticos tendem a reforçar padrões já existentes, reduzindo gradualmente a diversidade de respostas. “Sem dados humanos atualizados, a IA deixa de corrigir distorções e passa a repeti-las em escala”, destaca Crivellari.
Para Abner, o caminho mais seguro envolve combinar dados sintéticos com bases reais, supervisão humana e auditorias frequentes. Relatórios da OECD indicam que modelos híbridos, submetidos a ciclos contínuos de validação, apresentam desempenho até 25% superior em tarefas complexas, quando comparados àqueles treinados apenas com dados artificiais. “Treinar IA com IA pode acelerar processos no curto prazo, mas não sustenta decisões críticas no longo prazo”, conclui Crivellari.
Sobre Abner Crivellari
Abner Crivellari é técnico em Informática e Desenvolvimento de Software formado pela ETEC Raphael Brandão, com mais de dez anos de experiência conduzindo projetos de tecnologia desde a concepção até a entrega de soluções robustas e escaláveis. Ao longo da carreira, atuou em setores como saúde, manufatura, tecnologia automotiva, legal tech e consultoria, com foco em arquitetura de sistemas, otimização de performance e liderança de equipes multidisciplinares.
Com passagens por empresas como FigLabs, Pentair, Stefanini, CooperSystem, Ilia Digital e LexisNexis, Abner liderou iniciativas de modernização de sistemas, refatoração de código legado, adoção de práticas ágeis e fortalecimento de ambientes DevOps, gerando ganhos mensuráveis em confiabilidade, produtividade e eficiência operacional. É fundador da DIOTI, onde definiu a visão técnica da empresa, estruturou times e processos e apoiou o crescimento de receita e desempenho, atuando hoje como referência em arquitetura de software, governança tecnológica e uso estratégico da inteligência artificial.
Fontes de pesquisas
Nature
https://www.nature.com/articles/s41586-023-06004-6
Gartner
https://www.gartner.com/en/articles/synthetic-data-ai
Stanford Institute for Human-Centered AI
https://hai.stanford.edu/research
Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
https://www.facebook.com/groups/portalnacional/
<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte... www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. - Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

Adicionar comentário