Black Friday: Assine a partir de 1,49/semana
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.

Cientistas querem impedir o uso de IA na criação de armas biológicas

Mais de 90 pesquisadores dos EUA, do Reino Unido, da Suécia e de outros países assinam manifesto advertindo sobre o risco; entenda por que 

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
11 mar 2024, 15h53

Mais de 90 pesquisadores dos EUA, do Reino Unido, da Suécia e de outros países assinam manifesto advertindo sobre o risco; entenda por que 

Em abril de 2023, um grupo de cientistas do MIT publicou um estudo mostrando que é possível usar uma inteligência artificial para sintetizar novas proteínas, que não existem na natureza – e, eis o ponto crucial, selecionar as características desejadas para elas. Isso significa que, no futuro, essa IA e outras similares poderão revolucionar a biologia e a química, permitindo a criação de “supermateriais” com propriedades inéditas (como um substituto menos poluente para o petróleo, por exemplo) e também medicamentos biológicos capazes de curar doenças. 

A criação de proteínas artificiais é um processo lento e difícil – mas com a IA, que é capaz de analisar muitas possibilidades ao mesmo tempo, ela se torna bem mais viável. 

O problema é que essa tecnologia tem um outro lado: também pode ser usada no desenvolvimento de armas biológicas, levando à criação de compostos extremamente letais. E, ao mesmo tempo, ampliar o acesso a eles – se um grupo terrorista colocasse as mãos num algoritmo do tipo, poderia ser capaz de sintetizar novas armas biológicas. Governos também poderiam tentar fazer isso: embora as armas biológicas tenham sido banidas em 1972, o trabalho de laboratório nunca parou

Por isso, um grupo com mais de 90 biólogos dos EUA, do Reino Unido, da Suécia, da França e de outros países assinou um manifesto pedindo que o uso dessa tecnologia seja regulado, com a criação de leis e normas internacionais que disciplinem a criação de material genético. 

Continua após a publicidade

A tecnologia ainda não está madura (a demonstração do MIT e outras similares são experimentais), mas isso é considerado uma questão de tempo. No ano passado Dario Amodei, o CEO da Anthropic (empresa de inteligência artificial fundada por ex-membros da OpenAI), disse ao Congresso dos EUA que a rápida evolução das IAs poderá permitir que elas sejam usadas no desenvolvimento de armas biológicas já a partir de 2026 ou 2027. Por isso os cientistas da área entendem ser urgente criar regras. 

Segundo o manifesto, cujos signatários incluem Frances Arnold, vencedora do Nobel de Química de 2018 por suas pesquisas com enzimas, esse controle deve ser feito não nos algoritmos de IA em si, que têm “o potencial de gerar conhecimento e ajudar a resolver alguns dos maiores problemas do mundo”, mas na síntese de DNA – a fabricação das proteínas com base em código gerado pelo computador.

Compartilhe essa matéria via:
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.