Regulação da IA no Brasil exige foco ético além do aspecto técnico
Por Alexandre Pierro
Você confia, totalmente, nas informações que qualquer inteligência artificial te fornecer? Muitos acreditam 100%, o que não deveria acontecer. Por mais que esses sistemas, capazes de processar e gerar insights a partir de enormes bases de dados, já façam parte das nossas rotinas, notícias falsas, vieses algorítmicos e violações de privacidade também são constantemente presentes, justamente, em decorrência do uso irresponsável e não ético dessa tecnologia no dia a dia. Não basta desenvolver uma IA robusta, é preciso responsabilizá-la.
Há uma urgência em nos questionarmos, criticamente, no quanto podemos crer, como verdade absoluta, em tudo que é passado por essas soluções, o que vem aquecendo a aprovação do Projeto de Lei 2338/2023 que visa, justamente, regulamentar o desenvolvimento e uso da inteligência artificial no Brasil. Desde o final de 2025, inclusive, o Ministério da Ciência, Tecnologia e Inovação (MCTI) e o Senado Federal vêm fortalecendo sua cooperação nesse sentido, compreendendo a necessidade de uma regulação ética, segura e alinhada ao desenvolvimento tecnológico nacional para a inteligência artificial.
O texto prevê mais de R$ 23 bilhões em investimentos em pesquisa, soberania digital e inclusão, consolidando a IA como eixo do desenvolvimento tecnológico e econômico do país - além de propor uma abordagem baseada em riscos, classificando suas aplicações conforme seu potencial de dano, similar ao que já é visto em muitos países europeus. Por lá, todas as soluções desenvolvidas a partir da inteligência artificial deverão estar em conformidade com o regulamento, sob risco da aplicação de sanções.
Muitos ainda acreditam que a IA é uma espécie de inteligência autônoma, capaz de pensar e decidir por conta própria. Na prática, contudo, trata-se de sistemas que operam sobre dados históricos, identificando padrões e projetando comportamentos. Logo, se esses dados estiverem enviesados, incompletos ou incorretos, o resultado também será. Regulamentar a IA não significa engessá-la, mas estabelecer princípios básicos de funcionamento com ética e responsabilidade.
Sem regulamentação, não há critérios mínimos de validação, transparência ou credibilidade das informações que são transmitidas por essas ferramentas. Um estudo internacional recente liderado pela BBC e coordenado pela União Europeia de Radiodifusão (EBU), como prova disso, revelou que os principais assistentes de inteligência artificial distorcem conteúdos jornalísticos em cerca de 45% das respostas. O número fala por si só, deixando claro que o problema é sistêmico, não pontual.
Temos a oportunidade de nos inspirar nessas práticas e adequá-las à realidade nacional, ainda mais considerando outras leis brasileiras também importantes na garantia da proteção de ativos sensíveis, como o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que precisarão ser harmonizados com a possível aprovação final deste projeto.
A construção de um marco regulatório inteligente pode nos posicionar como referência em inovação ética, impulsionando o poder econômico do nosso mercado e destravando o potencial que temos em aprimorar, com responsabilidade, soluções cada vez mais avançadas e seguras de IA. Mais do que seguir tendências globais, trata-se de reconhecer que nenhuma tecnologia é neutra, e que devemos, acima de tudo, saber como extrair seu potencial com segurança e eficiência, criando as bases para um futuro mais justo, seguro e inovador.
Alexandre Pierro é mestre em gestão e engenharia da inovação, engenheiro mecânico, bacharel em física e especialista de gestão da PALAS, consultoria pioneira na implementação da ISO de inovação na América Latina.
Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
<::::::::::::::::::::>