Brasil, 18 de Outubro de 2017
A- A A+

TOKIO MARINE SEGURADORA

A ascensão dos robôs assassinos

  • Escrito por  Daniel Smith
  • Adicionar novo comentario
  • Publicado em Info & Ti
  • Imprimir
  • Compartilhar::

Inicialmente, você saberia dizer o que é um robô? Pergunte a três roboticistas diferentes e você terá três respostas diferentes. Entretanto, como exemplo, podemos citar desde o aspirador de pó Roomba em sua casa até os carros autônomos. Hoje em dia, podemos classificar muitas coisas como robô, e este é apenas o início de sua proliferação.

"Eu diria que um robô é um agente artificialmente incorporado que pode tomar decisões que tem efeitos no mundo real”, diz a roboticista Anca Dragan, da Universidade Berkeley.

A inteligência, então, é o componente central que torna o robô uma máquina pensante e não apenas um brinquedo. Essa nuance é importante porque "robô" é uma palavra poderosa.

E aí começam as preocupações. Há dois lados inconfundíveis no debate sobre o futuro da inteligência artificial e da robótica. De um lado, empresas como o Google, Facebook, Amazon e Microsoft investem agressivamente em tecnologia para tornar seus sistemas cada vez mais inteligentes, e, do outro lado, estão pensadores proeminentes como Elon Musk e Stephen Hawking, que alertam para a necessidade de uma regulação pró-ativa da inteligência artificial, chamando-a de maior ameaça existencial da humanidade.

Recentemente, o Google decidiu tomar precauções adicionais para que as máquinas não se rebelem contra nós. A DeepMind, adquirida pela companhia em 2014 e que se tornou seu braço de inteligência artificial, criou medidas de segurança para que operadores humanos possam, em caso de necessidade, “tomar o controle de um robô que não esteja se comportando adequadamente e que possa causar consequências irreversíveis”.

O documento publicado foi um esforço conjunto entre a DeepMind do Google e o Instituto do Futuro da Humanidade da Universidade de Oxford, que, como o nome sugere, deseja que haja um futuro para a humanidade. O diretor-fundador, Nick Bostrom, falou sobre os possíveis perigos do desenvolvimento da inteligência artificial por décadas e escreveu livros inteiros sobre as implicações dos robôs superinteligentes.

Esse artigo em particular, intitulado "Safely Interruptible Agents", investiga como desativar a inteligência artificial caso ela comece a se comportar de maneira indesejada. O artigo é extremamente científico, mas resumidamente descreve métodos para construir o equivalente a um "grande botão vermelho de pânico “.

“Assim que a inteligência artificial atingir um nível humano, será possível criar um ciclo de realimentação positivo que irá aumentar o ritmo de desenvolvimento. As IAs ajudariam a construir IAs melhores, que então ajudariam a criar IAs melhores, e assim sucessivamente”.

Os especialistas em tecnologia preveem que a inteligência artificial será usada em breve para fazer drones, veículos blindados e submarinos que possam encontrar e reconhecer alvos, tomar decisões sobre a abertura de fogo e aprender com as missões.

Preocupados, alguns dos principais pioneiros em robótica e inteligência artificial do mundo estão convocando as Nações Unidas a proibir o desenvolvimento e o uso de robôs assassinos. Mustafa Suleyman, da Alphabet, e Elon Musk, da Tesla, lideram um grupo de 116 especialistas de 26 países que estão pedindo a proibição de armas autônomas, comumente chamadas de 'robôs assassinos'.

Segundo os signatários, "armas autônomas letais ameaçam se tornar a terceira revolução da guerra. Uma vez criadas, elas permitirão que o conflito armado se faça numa escala nunca visto antes, e em uma velocidade maior do que humanos podem entender".

Eles reforçam ainda que "nós não tempos muito tempo para agir", já que "uma vez que essa caixa de Pandora for aberta, será difícil fechá-la". Por esses motivos, os especialistas dizem: "imploramos às partes envolvidas que encontrem um meio de proteger a todos nós desses perigos".

A urgência que os especialistas pedem em sua carta não é infundada. Ryan Gariepy, o fundador da Clearpath Robotics, disse: "Ao contrário de outras manifestações sobre IA que ainda permanecem no domínio da ficção científica, os sistemas de armas autônomas estão em desenvolvimento no momento e têm um potencial destrutivo muito real para causar danos significativos a pessoas inocentes, além de instabilidade global”.

Enquanto a sugestão de robôs assassinos evoca imagens de ficção científica, como no filme Exterminador do Futuro, armas autônomas letais já estão em uso. A Coreia do Sul, por exemplo, já usa drones armados desenvolvidos pela empresa Dodaam Systems para patrulhar sua fronteira com a Coreia do Norte - embora, por enquanto, ações letais ainda exijam a autorização de um ser humano.

Outro exemplo é o sentinela SGR-A1 da Samsung, que, segundo informações, é tecnicamente capaz de disparar de forma autônoma, e está em uso ao longo da fronteira sul-coreana na zona desmilitarizada de 2,5m de largura. A arma de segurança, desenvolvida em nome do governo sul-coreano, foi a primeira de seu tipo com um sistema autônomo capaz de realizar vigilância, reconhecimento de voz, rastreamento e disparos com metralhadora ou lançador de granadas.

O fabricante de armas russo Kalashnikov anunciou no mês passado um "módulo de combate totalmente automatizado" equipado com múltiplas armas de fogo que pode identificar alvos e tomar decisões por conta própria.

Isso, no entanto, gera uma situação na qual outros países também se sentem pressionados a criar armas desse tipo, por medo de serem deixados para trás. Em uma recente matéria do Financial Times, um relatório do Departamento de Defesa dos EUA sugeria o investimento em armas autônomas letais para que os EUA pudessem "se manter à frente de seus adversários que também se aproveitarão dos benefícios dessa tecnologia". Ou seja, estamos em rota de colisão com um futuro bastante perturbador.

“O surgimento de robôs assassinos militares é quase inevitável e qualquer tentativa de proibição internacional terá dificuldade em parar essa nova corrida armamentista”, conclui Renato Andalik, especialista em Tecnologia e Cibersegurança e cofundador da Ertech Systems.

 

Compartilhar::

Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...: https://www.facebook.com/groups/portalnacional/

Separador
IIMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...
 
www.segs.com.br
Separador
No Segs, sempre todos tem seu direito de resposta, basta nos contatar que voce sera atendido. - Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta totalmente automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
Separador

Adicionar comentário

Aja com responsabilidade, aos SEUS COMENTÁRIOS em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Esta ferramenta é automatizada...Sucesso!


Código de segurança
Atualizar

voltar ao topo

Sobre nós::

Siga-nos::

Notícias::

Mais Itens::