Black Friday: Assine a partir de 1,49/semana

5 premonições apocalípticas feitas pelo físico Stephen Hawking

O físico já anunciou algumas vezes que inteligências artificiais e alienígenas podem ser o fim da raça humana

Por Marina Demartini, de Exame.com
Atualizado em 18 jul 2018, 16h55 - Publicado em 21 nov 2016, 19h32

Stephen Hawking fez uma premonição dramática sobre o futuro da humanidade na semana passada. O físico afirmou durante uma palestra na Oxford Union Society, na Inglaterra, que os seres humanos não irão sobreviver outros mil anos caso continuem na Terra.

Essa não é a primeira vez que Hawking faz comentários apocalípticos desse tipo. Ele já fez muitas premonições relacionadas ao fim da humanidade. Veja abaixo cinco vezes que Hawking fez uma previsão desse tipo.

Inteligência artificial

Em 2014, o físico disse à BBC que o empenho da comunidade científica para criar inteligências artificiais representa uma ameaça à nossa existência. “O desenvolvimento da plena inteligência artificial poderia significar o fim da raça humana”, afirmou.

Hawking falou que esse tipo de tecnologia é útil para o progresso científico, mas que teme a criação de um robô que se iguale ou supere seres humanos. “Isso [a inteligência artificial] se desenvolveria por conta própria e cresceria em ritmo cada vez mais veloz”, profetizou. “Os seres humanos, que são limitados pela evolução biológica lenta, não poderiam competir e seriam substituídos.”

Armas autônomas

Hawking assinou uma carta aberta alertando que a inteligência artificial pode levar seres humanos a uma terceira guerra mundial. O documento foi assinado por mais de mil pesquisadores, incluindo também Elon Musk, CEO e fundador da Tesla, e Steve Wozniak, cofundador da Apple.

Para esses especialistas, esse tipo de tecnologia tem grande potencial de beneficiar a humanidade. Contudo, utiliza-la para a criação de armas autônomas de uso militar é um grande erro.

Continua após a publicidade

“Se isso acontecer, uma guerra armada global será inevitável e o fim da trajetória é óbvio: armas autônomas se tornarão os Kalashnikovs (AK-47) de amanhã”, afirmam os cientistas no documento. “A pergunta chave para a humanidade hoje é se devemos dar início a uma corrida de armas feitas com inteligência artificial ou se devemos prevenir que ela sequer comece.”

Mudança de planeta

Em junho desse ano, o físico fez uma afirmação bem similar à que fez em Oxford. Ele disse durante o Festival Starmus, na Espanha, que o futuro da humanidade depende da exploração espacial. Isso porque, segundo Hawking, a Terra não irá durar mais mil anos.

Alienígenas

No documentário “Stephen Hawking’s Favorite Places”, o cientista diz que está cada vez mais convencido de que a humanidade não está sozinha no universo. Segundo o jornal The Guardian, ele diz estar ajudando na busca por vida alienígena com o Breakthrough Listen, um projeto internacional que vasculha o cosmo por sinais extraterrestres.

Hawking aponta que sabe por onde começar sua pesquisa: pelo planeta Gliese 832c. No entanto, ele alerta que o dia que a Terra receber um sinal desse astro, os seres humanos deverão ter cuidado ao responder. O primeiro contato dos seres humanos com alienígenas poderia ser equivalente ao encontro dos nativos americanos com o explorador Cristóvão Colombo – ou seja, não seria nada bom.

Continua após a publicidade

Quando apresentou o Breakthrough Listen no ano passado, Hawking já havia sugerido que qualquer civilização que esteja lendo nossas mensagens poderia estar bilhões de anos à frente dos humanos. “Se assim for, eles serão muito mais poderosos e nos verão como nós vemos as bactérias”, disse o cientista.

Inteligência artificial, o retorno

O físico advertiu recentemente que a criação de uma inteligência artificial poderá ser “a melhor ou a pior coisa para humanidade”. “Talvez com as ferramentas desta nova revolução tecnológica, poderemos desfazer alguns danos causados ao mundo natural”, previu o cientista em outubro desse ano.

Contudo, de acordo com Hawking, os seres humanos podem estar arquitetando sua própria destruição ao criar uma superinteligência que tenha vontade própria. Por isso, ele elogiou a criação do Centro Leverhulme para o Futuro da Inteligência (LCFI), na Universidade de Cambridge. “Ele [o instituto] é crucial para o futuro da nossa civilização e da nossa espécie.”

Esse conteúdo foi originalmente publicado em Exame.com

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.