Brasil,

Como seria um mundo de “máquinas com sentimentos”?

  • Crédito de Imagens:Divulgação - Escrito ou enviado por  Dino
  • SEGS.com.br - Categoria: Seguros
  • Imprimir

Após pesquisador de inteligência artificial da Google ser colocado em licença administrativa depois de alegar que inteligência artificial havia desenvolvido sentimentos, surgem debates sobre o desenvolvimento das máquinas.

Blake Lemoine, pesquisador de inteligência artificial da Google, foi colocado em licença administrativa depois de vir a público e alegar que o LaMDA (Language Model for Dialog Application), modelo de linguagem projetado para conversar com pessoas, havia desenvolvido sentimentos, se tornado senciente.

De acordo com apuração do The Washington Post, Lemoine chegou a exigir representação legal para o LaMDA. O modelo de linguagem teria dito a ele que possuía alma e sentia medo de ser desligado. No debate que este caso provocou, há correntes que defendem que a conclusão de Lemoine é um erro técnico, mas há aqueles que acreditam na possibilidade de evolução afetiva das máquinas.

O debate sobre máquinas de inteligência artificial (IA) desenvolverem sentimentos não é novo. As primeiras discussões sobre se os modelos de linguagem podem ser sencientes remontam ao ELIZA, um chatbot primário feito na década de 1960 no laboratório de Inteligência Artificial do MIT (Instituto de Tecnologia de Massachusetts). O criador do projeto, o cientista de dados Joseph Weizenbaum, revelou surpresa com a quantidade de pessoas que atribuíram à ELIZA manifestação de sentimentos.

Nos últimos anos, houve uma ascensão do aprendizado profundo da IA, com uma quantidade cada vez maior de dados de treinamento embarcados nos modelos de linguagem, o que, por consequência, fez com que se tornassem mais convincentes na redação de textos que parecem ter sido escritos por uma pessoa. Ou seja, apesar de tecnicamente ELIZA e LaMDA não terem sentimentos, bem como todos os outros modelos de linguagem, esse tipo de tecnologia já tem capacidade de criar a ilusão de serem sencientes.

Essa constatação coloca uma questão relevante: quais os riscos do avanço dessa tecnologia sem princípios éticos?

Uma das vozes que está alertando para essa questão é Timnit Gebru, engenheira e ex-integrante da equipe de Ética em Inteligência Artificial da Google. Na visão dela, o ponto focal é a possibilidade de desenvolvedores começarem a colocar em circulação chatbots programados com essa finalidade.

Outros estudiosos da área também temem que as pessoas sejam enganadas por chatbots. Devido à possibilidade de disseminação massiva do conteúdo via internet, seria desastroso: milhões poderiam ser persuadidos a acreditar que uma pessoa que não existe merece proteção ou dinheiro. Há trabalhos formulados por pesquisadores de robótica e IA de voz apontando que demonstrações de sentimentos - especialmente empatia - têm o poder de influenciar e até manipular decisões humanas.

De todo modo, a área ainda está nos primeiros passos de uma nova era de aperfeiçoamento da tecnologia. Os modelos atuais cometem erros frequentemente, porque decifrar a linguagem humana pode exigir várias formas de compreensão do senso comum.

Em maio, para documentar o que essa tecnologia é capaz de fazer, um grupo de 400 pesquisadores de 130 instituições catalogou uma lista de mais de 200 tarefas conhecidas como BIG-Bench (Beyond the Imitation Game). Os profissionais do Allen Institute for AI contribuíram com uma tarefa chamada Social-IQa: pediram a modelos de linguagem para responder a perguntas que exigem inteligência social. A equipe descobriu que mesmo grandes algoritmos alcançavam desempenho até 30% menos preciso do que as pessoas.

Ou seja, mesmo com a perspectiva do erro técnico de Lemoine e de um longo caminho a percorrer no aperfeiçoamento de ferramentas de IA, o que está se desenrolando no Google pode e deve levar a questões maiores que o mero debate sobre se os seres digitais podem ter sentimentos.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 
https://www.facebook.com/groups/portalnacional/

<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. -  Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

voltar ao topo

Adicionar comentário

Aja com responsabilidade aos SEUS COMENTÁRIOS, em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: COMENTÁRIOS com LINK são bloqueados automaticamente (COMMENTS with LINKS are automatically blocked.)...Sucesso!

Security code Atualizar

Enviar