Governança e educação na criação de prompts vão definir o futuro da IA nas empresas
Por Dennys Cabrerizo*
A Inteligência Artificial Generativa (GenAI) é uma realidade que redefine a produtividade e a inovação em empresas de todos os portes. Dados recentes da McKinsey no estudo The state of AI in early 2024: Gen AI adoption spikes and starts to generate value, revelam que a utilização de IA em pelo menos uma função de negócio saltou de 55% em 2023, para 78%, em 2024, com a GenAI especificamente crescendo de 33% para 71% no mesmo período. Essa aceleração, embora promissora, traz consigo um conjunto complexo de desafios, especialmente no que tange ao uso não supervisionado e à falta de preparo dos colaboradores. A questão central para CIOs e CTOs não é mais "se" adotar a IA, mas "como" fazê-lo de forma segura, eficaz e estratégica.
A principal preocupação para os líderes de tecnologia é o risco iminente de exposição e vazamento de dados confidenciais e proprietários. Muitas vezes sem plena consciência das implicações, os colaboradores podem inserir informações sensíveis (como código-fonte, detalhes de clientes ou estratégias de produtos) em plataformas públicas de IA Generativa. Esse material, uma vez fora do perímetro de segurança da empresa, pode ser absorvido pelos modelos dos provedores de IA ou registrado em logs de terceiros, violando políticas internas e acordos de confidencialidade.
Além do vazamento de dados, o uso não governado da GenAI expõe as empresas a uma série de riscos em quesitos como segurança, operacional e conformidade. Do ponto de vista da segurança, o alerta é sobre o Prompt Injection, em que prompts maliciosos induzem a IA a revelar dados ou realizar ações inseguras, e a possível geração de código tóxico ou com vulnerabilidades. Para se ter ideia, dois terços das organizações brasileiras atribuem seus eventos mais significativos de perda de dados a funcionários descuidados ou prestadores de serviços terceirizados, segundo o relatório anual Data Security Landscape 2025 da Proofpoint.
Já no âmbito operacional, a alucinação da IA, que consiste na geração de informações factualmente incorretas, mas apresentadas com alta confiança, pode levar a erros graves em decisões de negócios. Por último, na frente de conformidade, a ausência de controle sobre a movimentação e o processamento de dados fora do ambiente corporativo pode levar à violação de regulamentações de privacidade, como a LGPD (Lei Geral de Proteção de Dados) e a GDPR (Regulamento Geral de Proteção de Dados), especialmente se dados pessoais forem submetidos à IA.
Lacuna de habilidades e a importância do prompt adequado
Uma das principais dores nos negócios hoje é a educação dos funcionários sobre como usar a IA, especialmente as ferramentas de usuário final, como o ChatGPT. Muitos ainda não compreendem os limites da confidencialidade ou como criar um prompt apropriado. A pesquisa U.S. Workers Are More Worried Than Hopeful About Future AI Use in the Workplace, do Pew Research Center, de fevereiro de 2025, revelou que apenas 12,2% dos funcionários receberam treinamento sobre ferramentas de IA no último ano, apesar de mais de um terço considerar as habilidades em IA extremamente importantes. Essa lacuna é corroborada pelo relatório AWS Generative AI Adoption Index, publicado em maio deste ano, que aponta que os empregadores não compreendem as necessidades de treinamento em GenAI de seus trabalhadores, e 41% dos tomadores de decisão de TI citam orçamentos limitados para treinamento como um obstáculo.
É aqui que a elaboração de prompt se torna crucial. A diferença entre um prompt simples e um eficiente reside na especificidade da instrução, na riqueza de contexto e nas restrições fornecidas. Um prompt eficiente define o papel da IA, especifica o formato de saída e estabelece restrições claras, minimizando a ambiguidade. Dominar essa habilidade é a "linguagem de programação da IA", transformando a ferramenta de um assistente genérico em um especialista de alta performance.
Embora o treinamento de criação de prompt seja vital para aprimorar a produtividade e reduzir as alucinações, ele não oferece proteção contra os riscos fundamentais de segurança e conformidade. Um prompt perfeitamente formulado ainda pode expor dados confidenciais. A mitigação desses riscos exige soluções técnicas e de governança mais robustas.
Dilema da proibição e a Shadow AI
Diante desses riscos, algumas empresas optam por proibir totalmente o uso da IA Generativa. Contudo, essa medida, embora pareça protetiva, é contraproducente. Empresas que a proíbem correm o sério risco de ficar para trás em inovação e produtividade, perdendo a oportunidade de otimizar processos em pesquisa, desenvolvimento e atendimento ao cliente. Além disso, uma postura restritiva pode afastar talentos e, ainda, fomentar a Shadow AI, em que os colaboradores utilizam ferramentas de IA sem o conhecimento e a autorização corporativa, aumentando os riscos.
Solução estratégica: assistentes de IA privados
Acredito que a solução reside no desenvolvimento de assistentes de IA privados, hospedados dentro da própria infraestrutura de nuvem da empresa. Isso garante segurança e privacidade de dados, pois as interações e os prompts nunca saem do ambiente controlado da organização. Além disso, esses assistentes podem ser ajustados (fine-tuned ou via RAG — método que permite que modelos de IA, como chatbots e assistentes virtuais, acessem e usem informações de uma base de conhecimento externa e confiável em tempo real) com o conhecimento interno e proprietário da empresa, tornando-se especialistas no negócio e fornecendo respostas significativamente mais precisas e contextualizadas.
Nesse cenário, o papel de um parceiro tecnológico especializado é integral. Ele não apenas fornece a sustentação do ambiente de nuvem e arquitetura da solução de forma segura e escalável, mas também é crucial na implementação de uma governança de dados de ponta a ponta, incluindo controles de acesso e logs de auditoria. Além disso, o parceiro atua na conscientização e cultura corporativa, oferecendo treinamentos contextualizados e apoiando a empresa na definição de políticas de uso ético e aceitável.
Somente assim, com um método bem definido e uma governança proativa, as empresas poderão transformar a IA Generativa de um potencial risco em um diferencial competitivo sustentável, garantindo um futuro produtivo e seguro na era digital.
*Dennys Cabrerizo é Gerente Técnico de Arquitetura na Dedalus.
Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
https://www.facebook.com/groups/portalnacional/
<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte... www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. - Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

Adicionar comentário