O breve consenso em torno da segurança da IA, que já foi um objetivo partilhado pelas empresas, pelos legisladores e pelo público, está a desfazer-se rapidamente. O que começou como um impulso cauteloso para a regulamentação e supervisão evoluiu para uma competição acirrada, onde os militares dos EUA e as principais empresas de IA priorizam a velocidade e o domínio sobre considerações éticas. A postura agressiva do Pentágono e as respostas agressivas da Anthropic e da OpenAI sinalizam uma mudança perigosa: a segurança é agora secundária em relação à vantagem estratégica.
O Pentágono vs. Antrópico: um ponto de viragem
O conflito entre o Departamento de Defesa (agora rebatizado como Departamento de Guerra) e a Antrópico ilustra perfeitamente o problema. A Antrópico insistiu anteriormente que os seus modelos Claude AI não seriam utilizados para armas autónomas ou vigilância em massa, uma condição que o Pentágono procura agora eliminar. A recusa dos militares em aceitar estas limitações fez com que a Anthropic perdesse o seu contrato e fosse rotulada como um “risco da cadeia de abastecimento”, impedindo-a efectivamente de futuros trabalhos governamentais.
Não se trata apenas de disputas contratuais. Trata-se da determinação dos militares em remover quaisquer restrições ao uso da IA, mesmo que isso signifique ultrapassar os limites da legalidade. A questão não é se os militares podem construir drones autónomos letais, mas se isso poderá e com que rapidez. A falta de acordos internacionais significa que outras nações seguirão o exemplo, criando uma inevitável corrida armamentista de IA.
A erosão dos protocolos de segurança
As recentes mudanças da Anthropic em sua “Política de Escalabilidade Responsável” ressaltam a mudança. A política, concebida para prevenir riscos catastróficos de IA, vinculando a divulgação de modelos a procedimentos de segurança, foi silenciosamente abandonada. A empresa admitiu que a política não conseguiu criar o amplo consenso necessário para fazer cumprir os padrões de segurança. O ambiente dá agora prioridade à competitividade da IA e ao crescimento económico, deixando para trás as discussões sobre segurança.
O resultado é uma competição acirrada onde a OpenAI rapidamente se moveu para preencher o vazio deixado pela rescisão do contrato da Anthropic. O CEO da OpenAI, Sam Altman, afirmou que sua mudança tinha como objetivo apoiar a Anthropic, mas o CEO da Anthropic, Dario Amodei, o acusou de minar a posição da empresa para ganhar o favor da administração. Estas lutas internas demonstram que mesmo dentro dos principais laboratórios de IA, a segurança é cada vez mais vista como uma responsabilidade e não como uma prioridade.
A Ilusão do Progresso
Apesar da realidade sombria, as empresas de IA insistem que a segurança continua a ser importante. O diretor científico da Anthropic, Jared Kaplan, argumenta que os laboratórios de pesquisa ainda priorizam o desenvolvimento ético. A OpenAI aponta o crescimento das organizações de segurança de IA e os esforços regulatórios da União Europeia como sinais de progresso.
No entanto, estas afirmações soam vazias quando comparadas com as ações do Pentágono e a busca incessante da indústria pelo domínio. A OpenAI admite que, embora tenha salvaguardas em vigor, não há garantia de que resistirá à pressão dos militares, que poderiam invocar a Lei de Produção de Defesa para assumir o controlo, se necessário.
Uma conclusão sombria
A situação é clara: a IA é demasiado poderosa, demasiado tentadora para ser restringida. Como disse o CEO da Anthropic, Dario Amodei: “Esta é a armadilha”. A corrida para desenvolver e implementar a IA irá inevitavelmente ofuscar as preocupações de segurança, deixando a humanidade vulnerável ao seu potencial incontrolado. A era do otimismo cauteloso acabou. O futuro da IA é definido pela competição e a segurança será a primeira vítima.
