A OpenAI revelou os seus planos para combater os perigos que acredita estarem associados à tecnologia que desenvolve, tais como a possibilidade de permitir que indivíduos mal-intencionados aprendam a construir armas químicas e biológicas.

A equipe de “Preparação” da OpenAI, liderada pelo professor de inteligência artificial (IA) do MIT, Aleksander Madry, contratará pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de políticas para monitorar e testar constantemente a tecnologia, a fim de alertar a empresa caso acreditem que alguma de suas capacidades de IA esteja se tornando perigosa.

O debate sobre o quão perigosa a IA pode se tornar tem aumentado, especialmente com a popularidade do ChatGPT e o avanço da IA generativa. Líderes de destaque em IA, incluindo OpenAI, Google e Microsoft, alertaram este ano que a tecnologia pode representar perigo existencial para a humanidade, em pé de igualdade com pandemias ou armas nucleares.

Alguns pesquisadores de IA argumentam que o foco nesses riscos maiores e assustadores permite que empresas se distanciem dos efeitos prejudiciais que a tecnologia já está causando. Por outro lado, um grupo crescente de líderes empresariais em IA afirma que os riscos são exagerados e que as empresas devem seguir em frente no desenvolvimento da tecnologia para ajudar a melhorar a sociedade – e ganhar dinheiro com isso, reflete o The Washington Post.

A OpenAI tem adotado posição intermediária nesse debate. Seu CEO, Sam Altman, reconhece que existem riscos sérios a longo prazo inerentes à tecnologia, mas também enfatiza a importância de resolver problemas já existentes. Altman argumenta que a regulamentação para tentar prevenir impactos nocivos da IA não deve dificultar a competição para empresas menores. Ao mesmo tempo, ele impulsiona a empresa para comercializar sua tecnologia e arrecadar fundos para promover crescimento mais rápido.

Preocupação com a segurança da IA

  • Aleksander Madry, pesquisador experiente em IA que dirige o Center for Deployable Machine Learning do MIT e co-lidera o MIT AI Policy Forum, juntou-se à OpenAI este ano;
  • Ele foi um dos poucos líderes da OpenAI que renunciaram quando Altman foi demitido pelo conselho diretor da empresa em novembro, mas voltou quando ele foi reintegrado cinco dias depois;
  • A equipe de preparação está contratando especialistas em segurança nacional fora do mundo da IA para ajudar a OpenAI a entender como lidar com grandes riscos;
  • A empresa está iniciando discussões com organizações, incluindo a National Nuclear Security Administration, que supervisiona tecnologia nuclear nos Estados Unidos, para garantir que a empresa possa estudar adequadamente os riscos da IA.

Monitoramento constante e validação externa

A equipe monitorará como e quando a tecnologia da OpenAI pode instruir as pessoas a hackear computadores ou construir armas químicas, biológicas e nucleares perigosas, além do que as pessoas podem encontrar online por meio de pesquisas regulares. A empresa também permitirá que terceiros independentes qualificados de fora da OpenAI testem sua tecnologia.

Madry não concorda com o debate entre os que temem que a IA já tenha ultrapassado a inteligência humana e os que querem eliminar todas as barreiras para o desenvolvimento da IA. Segundo ele, essa dicotomia é extremamente simplista e é necessário fazer um trabalho para garantir que os benefícios da IA sejam realmente alcançados e os aspectos negativos minimizados.