Brasil,

TOKIO MARINE SEGURADORA

Rela​tório Capgemini: IA e o enigma ético

Um número crescente de empresas reconhece a necessidade de sistemas baseados em IA éticos e confiáveis, mas o progresso ainda é irregular. O relatório da Capgemini descobriu que 70% dos clientes esperam que as organizações forneçam interações de IA que sejam transparentes e justas

A Inteligência Artificial (IA) tem o poder de transformar positivamente a sociedade e o meio ambiente, e para aproveitar esse poder em todo o seu potencial, as organizações precisam se concentrar em enfrentar os desafios éticos. De acordo com o novo relatório do Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” (em tradução livre, "IA e o enigma ético: como as organizações podem construir sistemas de IA eticamente robustos e ganhar confiança"), que descobriu que a parcela de clientes que acreditam que as organizações estão sendo totalmente transparentes sobre como é feito o uso de seus dados pessoais caiu de 76% em 2019 para 62% hoje. O relatório também descobriu que apenas 53% das organizações têm um líder responsável pela ética dos sistemas de IA, e que a governança e a responsabilidade pela IA e a implementação de ferramentas e estruturas pragmáticas para os sistemas de IA a serem desenvolvidos e usados ​​têm um alto custo para as organizações.

O relatório observa que, embora as organizações estejam mais conscientes do ponto de vista ético, o progresso na implementação de IA ética tem sido inconsistente. Por exemplo, quase a mesma proporção de executivos em 2019 disse que tomou medidas para construir "equidade" (65% em 2020 vs. 66% em 2019) e "auditabilidade" (45% em 2020 vs. 46% em 2019) dimensões de seus sistemas de IA; além disso, a transparência caiu de 73% para 59%, apesar do fato de 58% das empresas afirmarem que estão conscientizando os funcionários sobre os problemas que podem resultar do uso de IA. A pesquisa também revela que 70% dos clientes desejam uma explicação clara dos resultados e esperam que as organizações forneçam interações de IA transparentes e justas.

Viés discriminatório de sistemas de IA e experiências negativas de clientes de IA têm um alto custo para as organizações

Como as organizações públicas e privadas continuam a implementar cada vez mais uma variedade de tecnologias de IA, é fundamental para elas manter a confiança do cliente promovendo relacionamentos positivos entre a IA e os consumidores. No entanto, os relatórios mostram que os conjuntos de dados coletados para a saúde e o setor público estão sujeitos a preconceitos sociais e culturais [1].

Isso não se limita apenas ao setor público. A pesquisa da Capgemini descobriu que 65% dos executivos disseram estar cientes da questão do viés discriminatório com os sistemas de IA. Além disso, cerca de 60% das organizações atraíram o escrutínio jurídico e 22% enfrentaram uma reação negativa do cliente nos últimos 2 a 3 anos devido a decisões tomadas por sistemas de IA. Na verdade, 45% dos clientes notaram que compartilharão suas experiências negativas com a família e amigos e podem exortar que eles não se envolvam com uma organização, 39% exporão suas preocupações à organização e exigirão uma explicação e 39% deixarão a IA como canal para uma interação humana de custo mais alto. Mais de um quarto dos consumidores (27%) afirmam que deixariam de lidar com a organização por completo.

Estabeleça a propriedade das questões éticas - os líderes devem ser responsáveis

Apenas 53% das organizações têm um líder que é responsável pela ética dos sistemas de IA em sua organização, como um Diretor de Ética. É crucial estabelecer a liderança no topo para garantir que essas questões recebam a devida prioridade da alta administração e para criar sistemas de IA eticamente robustos.

Além disso, os líderes nas funções de negócios e tecnologia devem ser totalmente responsáveis ​​pelos resultados éticos das aplicações de IA. Nossa pesquisa mostra que apenas metade disse ter uma linha direta confidencial ou ombudsman para permitir que clientes e funcionários levantassem questões éticas com sistemas de IA.

A governança ética tornou-se um pré-requisito

A necessidade de as organizações implementarem uma carta ética também é impulsionada por estruturas regulatórias cada vez maiores. Por exemplo, a Comissão Europeia emitiu orientações sobre os princípios éticos fundamentais que devem ser usados ​​para conceber aplicações de IA [2]. Enquanto isso, as diretrizes emitidas pela Comissão Federal de Comércio dos Estados Unidos (FTC) no início de 2020 exigem IA transparente [3], afirmando que quando um sistema habilitado para IA toma uma decisão adversa (como recusar crédito para um cliente), a organização deve mostrar ao consumidor afetado os principais pontos de dados usados ​​para chegar à decisão e dar-lhe o direito de alterar qualquer informação incorreta. No entanto, embora 73% das organizações globalmente tenham informado os usuários sobre as maneiras pelas quais as decisões de IA podem afetá-los em 2019, hoje, esse número caiu para 59%.

De acordo com o relatório, isso é um indicativo das circunstâncias atuais trazidas pelo COVID-19, bem como das necessidades sociais e ambientais, da crescente complexidade dos modelos de IA e de uma mudança no comportamento do consumidor, que afetaram as funcionalidades dos modelos de IA existentes. Novos fatores, incluindo preferência por segurança, compra em massa e falta de dados de treinamento para situações semelhantes do passado, significa que as organizações estão redesenhando seus sistemas para se adequarem a um novo padrão; no entanto, isso levou a menos transparência.

O relatório destaca sete ações-chave para as organizações construírem um sistema de IA eticamente robusto, com cada uma sendo sustentada por uma base sólida de liderança, governança e práticas internas [4]:
-Descreva claramente a finalidade pretendida dos sistemas de IA e avalie seu impacto potencial geral;
-Implemente IA de maneira proativa para o benefício da sociedade e do meio ambiente;
-Incorpore princípios de diversidade e inclusão de forma proativa ao longo do ciclo de vida dos sistemas de IA;
-Aumente a transparência com a ajuda de ferramentas de tecnologia;
-Humanize a experiência de IA e garantir a supervisão humana dos sistemas de IA;
-Garanta a robustez tecnológica dos sistemas de IA;
-Proteja a privacidade individual das pessoas, capacitando-as e colocando-as no comando das interações de IA.

“Dado seu potencial, o uso ético da IA ​​deve, é claro, garantir aos humanos que eles não tenham danos e a total responsabilidade humana e responsabilidade quando as coisas derem errado. Mas, além disso, há uma oportunidade muito real para uma busca proativa pelo bem-estar ambiental e social”, comenta Anne-Laure Thieullent, Líder da Oferta do Grupo de Inteligência Artificial e Analytics da Capgemini. “AI é uma tecnologia transformacional com o poder de gerar desenvolvimentos de longo alcance em toda a empresa, bem como na sociedade e no meio ambiente. Em vez de temer os impactos da IA ​​nos humanos e na sociedade, é absolutamente possível direcionar a IA no sentido de lutar ativamente contra o preconceito contra as minorias, corrigindo até mesmo o preconceito humano existente em nossas sociedades hoje. Isso significa que as organizações governamentais e não governamentais que possuem os recursos de IA, riqueza de dados e um propósito de trabalhar para o bem-estar da sociedade e do meio ambiente devem assumir maior responsabilidade em lidar com essas questões para beneficiar as sociedades agora e no futuro, tudo ao mesmo tempo respeitando transparência e sua própria responsabilidade no processo”.

Para ler a íntegra do relatório e suas recomendações, clique aqui.

Metodologia de Pesquisa

Para os pontos de dados do relatório de 2020, a Capgemini conduziu uma pesquisa global com consumidores e executivos de abril a maio de 2020. A pesquisa com consumidores entrevistou 2,9 mil consumidores em seis países, enquanto a pesquisa com executivos entrevistou 884 executivos (cujas funções incluem: Tecnologia da Informação, desenvolvedores de IA, cientistas de dados, vendas, marketing e atendimento ao cliente) em dez países. Esses resultados foram ainda comparados com pesquisas de 2019 realizadas durante abril de 2019 e junho de 2019, envolvendo 5 mil consumidores e 722 executivos, incluindo desenvolvedores de IA, cientistas de dados, vendas e equipes de marketing. A Capgemini também conduziu entrevistas aprofundadas com vários executivos da indústria, acadêmicos e especialistas no assunto na área de ética em IA, durante agosto-setembro de 2020.

Sobre o Capgemini Research Institute

O Capgemini Research Institute é o centro de estudos interno da Capgemini em todos os temas digitais. O Instituto publica pesquisas sobre o impacto das tecnologias digitais em grandes empresas tradicionais. A equipe conta com a rede mundial de especialistas da Capgemini e trabalha em estreita colaboração com parceiros acadêmicos e de tecnologia. O Instituto tem centros de pesquisa dedicados na Índia, Cingapura, Reino Unido e Estados Unidos. Recentemente, o Institute foi classificado como o #1 no mundo pela qualidade de suas pesquisas por analistas independentes.

Visite-nos em https://www.capgemini.com/researchinstitute/

[1] SSIR, "The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them", junho de 2020.

[2] Comissão Europeia, "Diretrizes de ética para IA confiável", abril de 2019.

[3] FTC.Gov, "Using Artificial Intelligence and Algorithms", abril de 2020.

[4] As sete dimensões-chave da IA ​​ética derivam dos sete princípios da IA ​​ética definidos pela Comissão Europeia.

Sobre a Capgemini

A Capgemini é líder global em serviços de consultoria, transformação digital, tecnologia e engenharia. O Grupo está na vanguarda da inovação para abordar toda a gama de oportunidades dos clientes no mundo em evolução de nuvem, digital e plataformas. Com base em nosso sólido patrimônio de mais de 50 anos e profundo conhecimento específico do setor, a Capgemini permite que as organizações realizem suas ambições de negócios por meio de uma variedade de serviços e de sua estratégia às operações. A Capgemini é motivada pela convicção de que o valor comercial da tecnologia vem de e através das pessoas. Somos uma empresa multicultural de 270 mil profissionais em quase 50 países. Com a Altran, o Grupo reportou receitas combinadas em 2019 de € 17 bilhões.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 
https://www.facebook.com/groups/portalnacional/

<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. -  Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

Adicionar comentário

Aja com responsabilidade, aos SEUS COMENTÁRIOS em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: COMENTÁRIOS com LINK são bloqueados automaticamente (COMMENTS with LINKS are automatically blocked.)...Sucesso!


voltar ao topo