TECNOLOGIA

Cientistas assinam pacto contra armas biológicas alimentadas com IA

Acordo foi assinado após CEO da Anthropic ter afirmado ao Congresso que a IA poderá ajudar pessoas más a criarem ataques biológicos em larga escala

Mais de 90 biologistas e cientistas de outras áreas, especialistas em tecnologias de inteligência artificial (IA) utilizadas para desenvolver novas proteínas – mecanismos microscópicos que impulsionam criações na biologia – assinaram acordo para garantir que suas investigações alimentadas pela IA não avançarão expondo o mundo a graves danos.

O acordo foi assinado após o CEO da Anthropic, dona do Claude, Dario Amodei, ter afirmado ao Congresso no ano passado que a IA poderá ajudar pessoas não-qualificadas, mas más, a criarem ataques biológicos em larga escala, como o lançamento de vírus ou substâncias tóxicas que causam doenças generalizadas e até a morte.

Acordo contra a IA do mal

  • Esse acordo é um dos vários esforços para tentar mitigar os riscos da IA ante seus benefícios;
  • A “briga” está boa: alguns especialistas alertam sobre o risco de a tecnologia espalhar desinformação, substituir empregos a rodo e talvez até nos destruir;
  • Por isso, laboratórios acadêmicos, reguladores e legisladores tentar compreender os riscos e encontrar formas de enfrentá-los;
  • Apesar de afirmar que a IA poderá ajudar malfeitores, Amodei reconheceu que isso não seria possível hoje, aponta o The New York Times;
  • A Anthropic conduziu, recentemente, um estudo que apontou que, caso alguém estivesse tentando adquirir ou projetar armas biológicas, as LLMs (Grande Modelo de Linguagem, em tradução livre) eram um pouco mais úteis do que um mecanismo de busca comum na internet;
  • Amodei e outros receiam que, à medida que as empresas melhorem os LLMs e os combinem com outras tecnologias, pode haver séria ameaça;
  • O executivo afirmou ao Congresso que restavam entre dois e três anos para isso acontecer.

Por sua vez, a OpenAI, do ChatGPT, fez outro estudo que mostrou que as LLMs não eram tão mais perigosos quanto os motores de busca.

Aleksander Madry, professor de ciência da computação no Instituto de Tecnologia de Massachusetts e chefe de preparação da OpenAI, afirmou esperar que os pesquisadores continuem a melhorar tais sistemas, mas que ainda não havia visto evidências de que seriam capazes de criar novas armas biológicas.

LLMs

As LLMs atuais são criadas após análise de enormes quantidades de texto digital obtidos via internet, significando que elas liberam ou recombinam o que existe online, incluindo informações sobre ataques biológicos.

Contudo, em esforço para acelerar o desenvolvimento de medicamentos, vacinas, entre outros importantes materiais biológicos, os pesquisadores começaram a construir sistemas de IA similares.

Biólogos afirmam que tal tecnologia pode, ainda, ajudar malfeitores a conceber armas biológicas, porém, pontuam que a construção efetiva das armas precisaria de multimilionário laboratório, incluindo equipamento de produção de DNA.

“Existem alguns riscos que não exigem milhões de dólares em infraestrutura, mas esses riscos já existem há algum tempo e não estão relacionados à IA”, disse Andrew White, cofundador da organização sem fins lucrativos Future House e um dos biólogos que assinou o acordo.

Os biólogos apelaram ao desenvolvimento de medidas de segurança que impediram equipamentos de produção de DNA fossem usados com materiais nocivos, apesar de que não está claro como tais medidas funcionariam.

Também pediram revisões de segurança dos novos modelos de sistemas de IA antes de lançá-los.

Essas tecnologias não deveriam ser mantidas apenas por um pequeno número de pessoas ou organizações. A comunidade de cientistas deve ser capaz de explorá-los livremente e contribuir para eles.Rama Ranganathan, professor de bioquímica e biologia molecular na Universidade de Chicago, que também assinou o acordo

Deixe uma resposta

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.