Por Felipe Bernardi Capistrano Diniz.
Uma nova lei na Califórnia está propondo a implementação de um “botão de desligar” para modelos avançados de inteligência artificial, o que gerou oposição das empresas de tecnologia. Esse projeto de lei exige que as empresas de tecnologia adotem um rigoroso conjunto de medidas de segurança, incluindo a capacidade de desativar rapidamente modelos de IA considerados perigosos, como aqueles que poderiam criar armas biológicas ou nucleares, ou facilitar ataques cibernéticos.
A legislação, aprovada no âmbito estadual mês passado e prevista para votação na Assembleia Geral em agosto, exige que as principais startups de IA, como OpenAI, Anthropic e Cohere, além de grandes empresas como a Meta, garantam a um novo órgão estadual que seus modelos de IA não terão “capacidades perigosas”. Essas empresas também seriam obrigadas a reportar seus testes de segurança e a incluir um “botão de desligar” conforme estipulado na Lei de Inovação Segura e Protegida para Sistemas de Inteligência Artificial de Fronteira.
No entanto, a lei tem enfrentado resistência significativa no Vale do Silício. Críticos argumentam que isso pode levar as startups de IA a deixar o estado e impedir que plataformas como a Meta operem modelos de código aberto. Andrew Ng, um renomado cientista da computação, comentou: “Se alguém quisesse criar regulamentos para sufocar a inovação, dificilmente faria melhor.”
O rápido crescimento e o grande potencial da IA levantaram preocupações sobre a segurança, com figuras como Elon Musk, um dos primeiros investidores na OpenAI, chamando-a de “ameaça existencial” para a humanidade. Recentemente, um grupo de funcionários atuais e ex-funcionários da OpenAI publicou uma carta aberta alertando sobre a falta de supervisão governamental nas “empresas de IA de fronteira”, apontando “riscos sérios” para a humanidade.
O projeto de lei da Califórnia foi patrocinado pelo Center for AI Safety (CAIS), uma organização sem fins lucrativos com sede em São Francisco, liderada pelo cientista da computação Dan Hendrycks. Hendrycks, que também é conselheiro de segurança da startup xAI de Musk, descreveu o projeto como “realista e razoável”, afirmando que a maioria das pessoas deseja “alguma supervisão básica”.
O governo dos Estados Unidos também está tomando medidas para regulamentar a IA, com o presidente Joe Biden introduzindo uma ordem executiva em outubro para estabelecer novos padrões de segurança nacional para a IA, proteger os cidadãos contra riscos de privacidade e combater a discriminação algorítmica. O governo do Reino Unido anunciou planos em abril para desenvolver uma nova legislação para regulamentar a IA.
As críticas ao projeto de lei californiano se concentram na velocidade com que foi apresentado e aprovado no Senado, conduzido pelo CAIS, que recebeu financiamento significativo da Open Philanthropy, uma instituição de caridade associada ao movimento do altruísmo eficaz. Este movimento, popular entre bilionários do Vale do Silício, vê na IA uma solução para muitos problemas da humanidade.