SEGS Portal Nacional

Info&Ti

Inteligência Artificial: IBM prega equilíbrio entre regulação e autorregulação

  • Segunda, 03 Fevereiro 2020 12:23
  • Crédito de Imagens:Divulgação - Escrito ou enviado por  Luciana Peixoto Beretta
  • SEGS.com.br - Categoria: Info & Ti
  • Imprimir

A confiança é o principal elo que une as empresas que desenvolvem Inteligência Artificial (IA) a seus consumidores. Enquanto as primeiras precisam garantir que seus sistemas de IA cheguem a determinadas conclusões de forma ética, transparente e em conformidade com as leis e regulamentos, os consumidores estão mais atentos à forma como a tecnologia é usada e, principalmente, como afeta suas vidas.

Há tempos a IBM defende que os sistemas de IA precisam ser transparentes e explicáveis, o que reforça o nosso endosso aos princípios que vêm sendo construídos por organizações internacionais como a OCDE (Organização para a Cooperação e o Desenvolvimento Econômico), o G-20 e o Fórum Econômico Mundial. A existência de princípios é essencial e ajuda a delinear os compromissos que devem ser assumidos junto aos cidadãos, consumidores e governos.

Entretanto, já passou da hora de partirmos de princípios para políticas. A transparência algorítmica -- a habilidade dos sistemas explicarem o racional por trás das suas recomendações -, deve ser a base da construção de qualquer sistema de IA e o esperado de qualquer empresa que os desenvolva, distribua ou comercialize.

Recentemente, nos posicionamos a respeito das tecnologias de reconhecimento facial e reforçamos o nosso compromisso com algoritmos transparentes e explicáveis. Com a Inteligência Artificial é a mesma coisa: os resultados da busca, sejam eles determinísticos ou probabilísticos, devem vir acompanhados da possibilidade de o usuário verificar a origem e as fontes da informação apresentada.

Ao considerarmos que estamos falando de tecnologias cada vez mais difundidas e determinantes de comportamentos e decisões que podem impactar a vida em sociedade, é fundamental que os governos priorizem o debate de maneira técnica e pontual. Neste sentido, recomendamos que os debates públicos e Legislativos para a definição das melhores políticas e estruturas de governança em IA sejam norteados por três pilares:

•Imparcialidade e segurança validadas por sistemas de verificação de viés, especialmente nas aplicações que oferecerem decisões automatizadas e/ou de alto risco;
•Responsabilização proporcional ao perfil de risco da aplicação e à capacidade da organização fornecer, desenvolver ou operar um sistema de IA, bem como controlar e mitigar resultados não intencionais ou prejudiciais para os consumidores; e
•Transparência sobre onde a tecnologia é empregada, como é utilizada e qual o racional por trás do processo de tomada de decisões.

Com isso, será possível identificar e coibir eventuais práticas de organizações descompromissadas com a proteção dos direitos e da privacidade dos seus usuários, sejam eles indivíduos, empresas ou governos.

Acreditamos que abordagens regulatórias baseadas em riscos são os meios ideais para proteger os consumidores, criar confiança do público na Inteligência Artificial e, principalmente, fornecer aos inovadores a flexibilidade necessária para a criação de sistemas cada vez mais precisos e impulsionadores de desenvolvimento social e econômico.

Para além disso, é importante que as empresas se unam na construção de boas práticas no desenvolvimento e na governança desses sistemas, e que essas práticas possam variar de acordo com o potencial de dano de uma determinada solução. E com base nesse exercício de harmonização, recomendamos quatro práticas que, ao serem incorporadas e aceitas pelo mercado, diferenciarão as empresas verdadeiramente comprometidas com a Inteligência Artificial confiável:

1. Designar um responsável por Ética na IA: essa pessoa seria responsável pelas validações internas e criação de mecanismos de conformidade, como um Conselho de Ética para a IA, supervisionando riscos e desenvolvendo estratégias de mitigação de danos. Um ambiente de mercado que priorize a incorporação de profissionais responsáveis por ética na IA tende a melhorar a aceitação e a confiança do público nestes sistemas, além de reforçar o compromisso das empresas com o desenvolvimento, a implantação e a administração responsável dessa importante tecnologia.

2. Regras distintas para riscos diferentes: todas as organizações que fornecem ou possuem um sistema de IA devem conduzir dois tipos de avaliação, ambas extremamente criteriosas: uma inicial sobre o potencial de dano da tecnologia, que leve em conta o uso específico da aplicação, os impactos para o usuário final e o nível de automação empregado; e outra, ainda mais aprofundada, focada nas aplicações de alto risco, que devem ser documentadas, auditáveis ​​e armazenadas por um período determinado.

3. Explique sua IA: qualquer sistema de IA que esteja tomando decisões ou que forneça recomendações com implicações potencialmente significativas para os indivíduos deve ser capaz de explicar e contextualizar como e por qual motivo chegou a uma determinada conclusão. Para isso, é necessário que as organizações mantenham processos de auditoria dos dados que alimentam o sistema, assim como dos seus parâmetros de treinamento.

4. Teste sua IA. Todas as organizações envolvidas no ciclo de vida da IA necessitam de algum nível de responsabilidade compartilhada para garantir que os sistemas sejam imparciais e seguros. E como em qualquer software de uso comercial, é fundamental a realização de testes contínuos dos mais variados (proteção de dados, compliance, antidiscriminação, proteção do consumidor, segurança, etc.), a fim de identificar e reduzir as chances de que o aprendizado de máquina apresente resultados indesejados.

Tudo isso pode ser feito sem a criação de novos requisitos regulatórios específicos. Pode-se delegar ao mercado a responsabilidade de aprovar ou punir as práticas organizacionais que não estiverem de acordo com as melhores referências para o desenvolvimento e uso da Inteligência Artificial.

De modo complementar, o papel dos governos para apoiar a inovação e a adoção da IA em larga escala e de forma transversal é fundamental. Especialmente para isso, destacamos três pontos a serem considerados por autoridades do Poder Executivo:

•Reconhecer e se aproximar de mecanismos de autorregulação já existentes (como exemplo, o CENELEC na Europa ou o NIST nos EUA), de modo a estimular a colaboração na definição de referências, estruturas e padrões para os sistemas de IA;
•Apoiar o financiamento e a criação de laboratórios multidisciplinares de IA por meio de um trabalho conjunto. Distintos atores desse ecossistema têm melhores condições de recomendar a adoção de critérios de imparcialidade, explicabilidade, transparência, ética, privacidade e segurança em IA.
•Incentivar a adoção de padrões globais, assim como de certificações e regimes de validação internacionalmente reconhecidos.

Por fim, qualquer ação discriminatória, seja ela em um ambiente virtual, automatizado ou físico, deve ser coibida indistintamente. Recomendações ou decisões tendenciosas de qualquer natureza não devem nunca serem consideradas como aceitáveis. Principalmente em sistemas que podem ser aprimorados, testados e corrigidos em modelos estatísticos antes de se tornarem acessíveis.

Uma Inteligência Artificial confiável já está ao alcance de todos. Seu aprimoramento e adoção em larga escala, de forma ética e transparente, está nas mãos das organizações e dos governos, que devem trabalhar juntos para encontrar o equilíbrio entre a autorregulação e uma regulação pontual, precisa e que contribua para que os impactos negativos desta tecnologia não ofusquem o seu potencial transformador e positivo.

Acesse o PDF do documento aqui: https://urldefense.proofpoint.com/v2/url?u=https-3A__yatawintitexexe.i-2Dmpr.com_link.php-3Fcode-3DbDpodHRwJTNBJTJGJTJGd3d3LmlibS5jb20lMkZibG9ncyUyRnBvbGljeSUyRmxhdGluLWFtZXJpY2ElMkZ3cC1jb250ZW50JTJGdXBsb2FkcyUyRnNpdGVzJTJGNiUyRjIwMjAlMkYwMSUyRklCTS1Qb2xpY3ktTGFiLUFJLVBvVl9Qb3J0LnBkZjoyNjg0OTY1Nzg1OnRzYWJhdGluaUB3ZWJlcnNoYW5kd2ljay5jb206MjUyNzcw&d=DwMDaQ&c=Ftw_YSVcGmqQBvrGwAZugGylNRkk-uER0-5bY94tjsc&r=8fGQNS3CuVpAsIjJT6bvKaxTR-bb9ilGBD05H53zoQE&m=0KBq_NE-pyv2ATZsPj5mMpuBRM_EH0PbS7LRpN_wbMQ&s=EcBk7zjmNGwLL6nAp3XTIn0qrpIeMASiuUy4f9Cre_8&e=


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 

<::::::::::::::::::::>

 

 

+INFO-TI ::

Dez 05, 2025 Info & Ti

Arte e lifestyle: 5 motivos para ter uma TV The Frame,…

Dez 05, 2025 Info & Ti

Como será o futuro do trabalho na era da Inteligência…

Dez 05, 2025 Info & Ti

Como as plataformas jurídicas podem apoiar o setor a…

Dez 05, 2025 Info & Ti

É possível criar um bom site utilizando uma…

Dez 04, 2025 Info & Ti

Samsung celebra 15 anos de inovações em tablets no…

Dez 04, 2025 Info & Ti

Óculos de Realidade Aumentada se consolidam em 2025…

Dez 04, 2025 Info & Ti

XPG lança nova série de memórias para jogos ARMAX DDR5

Dez 04, 2025 Info & Ti

Agentificação: tornando o artificial visível

Dez 03, 2025 Info & Ti

Como a tecnologia impulsiona pequenos negócios no fim…

Dez 03, 2025 Info & Ti

Fechar a tampa do notebook sem desligá-lo pode causar…

Dez 03, 2025 Info & Ti

Lockers inteligentes transformam a experiência em…

Dez 03, 2025 Info & Ti

WatchGuard antecipa as principais tendências de…

Dez 02, 2025 Info & Ti

IA em movimento: os cinco avanços que estão redefinindo…

Dez 02, 2025 Info & Ti

Brasileiros priorizam resistência na hora da escolha de…

Dez 02, 2025 Info & Ti

Apresentando o Galaxy Z TriFold: o formato do futuro da…

Dez 02, 2025 Info & Ti

[Guia do Usuário] Galaxy Watch8: recurso Treinador de…

Mais INFO-TI>>

Copyright ©2025 SEGS Portal Nacional de Seguros, Saúde, Info, Ti, Educação


main version