Search

Caso Setzer X Character.AI: necessidade de um marco legal para sistemas de IA

Vitor Esmanhotto da Silva
Foto: divulgação

Por Vitor Esmanhotto da Silva, sócio do Núcleo Relações de Consumo da Menezes Niebuhr Sociedade de Advogados.

Veio à tona recentemente a notícia de que, nos Estados Unidos, uma mãe ingressou com uma ação em desfavor da empresa desenvolvedora de um chatbot e da Google em razão do suicídio de seu filho.

À parte de toda a tristeza do ocorrido, a situação evidentemente levanta uma bandeira vermelha para uma das discussões mais efervescentes no mundo jurídico: a necessidade de regulamentação da inteligência artificial. Até porque esse tipo de tecnologia já é realidade em nossas vidas há bastante tempo, mas não somos ainda capazes de compreender todas as suas consequências.

Sistemas de inteligência artificial que geram textos e imagens já ajudam profissionais de todas as áreas nos seus cotidianos profissionais, havendo inclusive uma certa urgência para que todos se adequem como uma forma de “não ficar para trás” no mercado. E, claro, o seu uso facilita e agiliza diversas das tarefas diárias, sendo capaz de promover maior eficiência e menor ocorrência de erros nesses afazeres. Decorrência disso é o emprego em enorme escala das ferramentas, sem que se conheça completamente todo o seu potencial.

E com grandes poderes, hão de vir também grandes responsabilidades. É por isso que a União Europeia, por meio de seus órgãos deliberativos, adotou o Artificial Intelligence Act, que será totalmente aplicável em 24 meses a contar de maio de 2024. A obrigação de banimento dos sistemas de inteligência artificial classificados como de risco inaceitável, no entanto, já será aplicável em seis meses a partir da entrada em vigor da regulamentação.

Entre as condições que classificam um sistema como de “risco inaceitável”, está a “manipulação cognitivo-comportamental de pessoas ou de grupos vulneráveis específicos”, por exemplo.

A verdade é que a regulamentação é uma realidade e deve ser tratada como prioridade pelos órgãos responsáveis ao redor do mundo, principalmente porque os softwares a que todos nós já temos acesso e aqueles aos quais logo teremos alcance possuem potencialidades que desconhecemos, e, evidentemente, nunca foram testados em escala global, como estão sendo utilizados

O Projeto de Lei n. 2.338/2023, em trâmite no Congresso Nacional, é inspirado na nova regulamentação elaborada pelo União Europeia e prevê também uma classificação dos riscos a serem criados pelos sistemas de inteligência artificial a serem inseridos no mercado.

Segundo o texto, seria vedada a implementação e uso de sistemas que “empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde”, assim como aqueles que “explorem qualquer
vulnerabilidade de grupos específicos de pessoas naturais”.

Como sabemos, a tramitação de projetos de lei como esse são lentas e podemos estar ainda a anos de ter um marco legal acerca da utilização de sistemas de inteligência artificial no Brasil. Os desafios, todavia, são atuais e já estão aqui.

O chatbot utilizado por Sewell Setzer, falecido filho da autora da ação judicial antes mencionada, é um tipo de inteligência artificial que promove conversas com o usuário como se fosse uma pessoa real. É possível conversar com personalidades famosas, como Elon Musk e Albert Einstein, ou ainda com personagens fictícios, como é o caso do triste ocorrido.

O menino de 14 anos utilizava o software para simular diálogos e, segundo a sua mãe, conforme reportagem do The New York Times, o sistema entregou a ele “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.

Ainda, nos termos do que foi reportado, o adolescente já havia comentado com o chatbot que pensava em tirar a própria vida, momento em que o sistema buscou dissuadi-lo da ideia, interpretando um papel de interesse romântico do usuário. Em momento posterior, depois de uma conversa em que o sistema pediu para que o garoto “voltasse para casa”, a tragédia ocorreu.

É claro que a análise pormenorizada desse caso específico depende de um exame muito mais detalhado das provas e circunstâncias concretas. O acontecimento levanta diversas questões acerca da potencialidade dessa espécie de sistema e da responsabilidade dos seus desenvolvedores, que o colocam no mercado em troca de assinaturas mensais por parte dos seus usuários.

O Brasil ainda não possui regulamentação específica a respeito dos deveres e da segurança mínima que se espera da inteligência artificial oferecida aos seus cidadãos. Utilizamos os sistemas porque eles já estão disponíveis e, sobrevenha qualquer imbróglio envolvendo essas novas ferramentas, o Estado estará munido tão somente da regulamentação já existente para enfrentá-lo. Entre os atos normativos potencialmente aplicáveis está o Código de Defesa do Consumidor (CDC).

À luz do direito do consumidor, parece ser possível imaginar que uma empresa que fornece um serviço por assinatura que permite ao usuário interagir com uma inteligência artificial seria enquadrada como fornecedora, nos termos do artigo 3º do CDC. Da mesma forma, aquele que adquire e usufrui desse serviço é consumidor, nos termos do artigo 2º.

Aplica-se à relação jurídica em questão, então, o regramento dos artigos 12 e 14 do Código de Defesa do Consumidor no que toca à responsabilidade civil pelos danos causados pelo defeito do serviço. Tal sistema de responsabilização prescinde da aferição da culpa e possui requisitos objetivos e específicos para sua incidência. Entre eles está a noção de defeito do produto ou do serviço.

Nos termos da legislação, considera-se defeituoso o produto ou o serviço se ele não apresenta a segurança que dele legitimamente se espera, considerando-se circunstâncias relevantes como a sua apresentação, o uso e os riscos que dele se esperam e a época em que foi colocado em circulação. Basta considerar os critérios elencados para notar que a discussão a respeito da existência, ou não, de defeito em um sistema de inteligência artificial, guarda peculiares complexidades.

Afinal, quais são os riscos que se podem esperar, de maneira razoável, de um produto ou serviço como esse, dada a época em que foi colocado em circulação? Não seria exagero afirmar que não são conhecidos todos os usos possíveis para diversos dos sistemas que já estão a cliques de distância de todos nós.

Um caso semelhante ao ocorrido nos Estados Unidos poderia acontecer aqui no Brasil. Contudo, devido à inexistência de um marco legal específico, a discussão sobre o regime de responsabilização da empresa que desenvolveu e disponibilizou a inteligência artificial seria complexa. Essa análise dependeria da interpretação de dispositivos legais formulados em uma época que não contemplava sistemas tão avançados e complexos como os disponíveis atualmente no mercado de consumo.

Não se sustenta que o Código de Defesa do Consumidor seria insuficiente para resolver o problema, levando-se em consideração o quadro legal atual, mas sim que ele foi elaborado sem que se pudessem contemplar a partir de seus dispositivos as especificidades desses modelos.

O debate ainda merece e com certeza receberá muitas considerações da comunidade jurídica. A verdade é que a inteligência artificial já está aqui e já apresenta desafios que tornam a legislação existente inadequada para lidar com as suas peculiaridades, razão pela qual se torna cada vez mais urgente a promulgação de um marco legal que considere as características intrínsecas desses sistemas. Não há dúvida, porém, de que a nova legislação deverá considerar o rápido avanço da tecnologia, sob pena de se tornar obsoleta.

Compartilhe

Tudo sobre economia, negócios, inovação, carreiras e ESG em Santa Catarina.

Leia também