Brasil, 6 de Dezembro de 2019

TOKIO MARINE SEGURADORA

Yuval Noah Harari: o futuro é perigoso?

Por Marília Cardoso

Autor dos best-sellers Sapiens, HomoDeus e 21 lições para o século XXI, Yuval Noah Harari, um dos maiores historiadores do momento, está no Brasil e tive o privilégio de assistir sua palestra. Segundo ele, a humanidade tem grandes desafios, como a possibilidade de uma guerra nuclear, o colapso ecológico e principalmente sobre os riscos da disrupção tecnológica.

Para ele, os avanços tecnológicos podem ser muito bons para a humanidade, mas eles também podem significar o “pesadelo” de muitas pessoas. As duas faces dessa mesma moeda são, por exemplo, as mais de 1 milhão de vidas preservadas por carros autônomos - já que mais de 90% dos acidentes decorrem de falhas humanas - de um lado, e os grandes desafios sociais e econômicos advindos da revolução das máquinas, de outro.

Tantas mudanças trazem reflexões sobre os riscos que o futuro pode nos apresentar. Não sabemos como o mercado de trabalho será em 2050, mas será totalmente diferente de hoje. Novos trabalhos irão emergir, mas será necessário retreinar as pessoas. E isso não será uma solução de longo prazo, visto que as pessoas precisarão ser retreinadas pelo menos uma vez a cada dez anos.

Segundo ele, esse será um grande desafio, em especial para os países mais pobres. E a dificuldade só aumenta quando pensamos no envelhecimento da população. Para ele, no mundo pós revolução industrial, tivemos que lutar contra a exploração. Agora, teremos que lutar contra a irrelevância. A riqueza ficará centrada em hubs, criando desigualdades sem precedentes entre pessoas e países. Ao que tudo indica, teremos uma geração de inúteis, pessoas sem valor produtivo para a sociedade.

O escritor apresentou uma perigosa fórmula que parece guiar o futuro: B (biologia) x C (computação) x D (dados) = AHH (habilidade de hackear humanos). De posse dessa equação, empresas e governos serão capazes de mapear, prever e manipular sentimentos e principalmente as decisões das pessoas. Com os avanços da inteligência artificial, seu temor é que as marcas saibam mais sobre nós do que nós mesmos.

Parece uma realidade distante? Certamente não é. Amazon e Netflix lançam mão do uso de algoritmos para nos agradar. E nós amamos isso! No futuro, Harari diz que os algoritmos vão decidir quem vamos namorar, onde vamos trabalhar. O problema é que nosso cérebro ainda não tem capacidade de entender e processar os algoritmos. O risco alertado para por ele é se vamos perder o controle das nossas vidas. Empresas e governos tendem a criar sistemas de vigilância constante, criando regimes muito mais perigosos que a história já nos mostrou.

A mudança é tão abrupta que estamos prestes a ver a reengenharia da vida. Foram mais de 4 bilhões de anos para moldar a nossa espécie, em um sistema de transformação natural. A essência da vida sempre esteve em torno do drama de tomar decisões. Se não tivermos mais esse dilema, o que será de nós? Nos tornaremos super-humanos? Estaremos cada vez mais inteligentes, mas menos sensíveis, espiritualizados e teremos menos compaixão? Se isso acontecer, segundo ele, teremos um downgrade da raça humana.

Se o futuro será tão terrível quanto ele aponta, é impossível prever. O que sabemos é que, qualquer que sejam os desafios que nos serão impostos, teremos que estar preparados para eles. Lamentar ou lutar contra simplesmente não é uma opção. Como seres humanos, precisamos manter o foco na evolução da nossa espécie, buscando sempre mais conhecimento e novas formas de encarar antigos problemas. Independentemente do que o futuro te apresentar, esteja preparado. Ele só será perigoso se você ignorá-lo no presente.

Marília Cardoso é jornalista, com pós-graduação em Comunicação Empresarial, MBA em Marketing e pós-MBA em Inovação. É empreendedora, além de coach, facilitadora em processos de Design Thinking, consultora e professora de inovação. É fundadora da InformaMídia, agência de comunicação, e sócia-fundadora da PALAS, consultoria de inovação e gestão.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...: https://www.facebook.com/groups/portalnacional/

Separador
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
Separador
No Segs, sempre todos tem seu direito de resposta, basta nos contatar que voce sera atendido. - Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta totalmente automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
Separador

Adicionar comentário

Aja com responsabilidade, aos SEUS COMENTÁRIOS em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: Comentários com Link são bloqueados automaticamente (Comments with Links are automatically blocked.)...Sucesso!


voltar ao topo

Notícias ::

Mais Itens ::

NEWSLETTER SEGS