Responsabilidade na Inteligência Artificial: Desafios e Soluções

Responsabilidade na Inteligência Artificial: Desafios e Soluções

As cobranças em torno de mais segurança e confiabilidade sobre as  tecnologias de Inteligência  Artificial estão vindo de todos os lados por ter ampla abrangência e atingir praticamente todos os setores, seja do G-7, que concentra as maiores economias do mundo; seja do Congresso brasileiro  que tem em tramitação o PL 2338/2023 ou da União Europeia, que possui o debate mais avançado sobre regulamentação da IA e que convocou, recentemente,  uma cúpula global para encontrar meios para refrear os sistemas avançados dessa tecnologia.

Há quem compare a tecnologia de IA a um cavalo selvagem, que galopa velozmente, mas de forma desgovernada. Por isso, as rédeas e o adestramento são vistos como benéficos, ou seja, como forma de garantir direitos, não comprometer a inovação, mas responsabilizar os desenvolvedores, até porque o próprio Parlamento Europeu reconhece que a IA, embora vista como “ameaça imprevisível”, pode ser uma ferramenta poderosa e fator de mudanças relevantes, oferecendo produtos e serviços inovadores, que trarão benefício à sociedade , especialmente nas áreas da saúde, sustentabilidade, segurança e competitividade.

O Artificial Intelligence Index Report 2023, da Universidade de Stanford, registra que cresceram os casos legais envolvendo a tecnologia de IA em 2022, nos EUA.  Totalizam 23 ações na Califórnia, 17 em Illinois, 11 em Nova York e números menores  em outros Estados. O levantamento ressalta que já está em vigor uma série de regulamentos, como de Illinois (Biometric Information Privacy Act) sobre   a coleta e armazenamento de informações biométricas que precisam ser seguidos por todas as empresas que fazem negócios naquele estado norte-americano e acabam levando ao incremento do conflito e disputa legal.1

O projeto brasileiro sobre regulação da IA (PL 2338/2023) é de autoria do presidente do Senado Federal e Congresso Nacional, Rodrigo Pacheco. Segue, em boa parte, as linhas do projeto europeu. Visa a estabelecer o uso responsável dos sistemas de IA, centralizados na pessoa humana, respeito aos direitos humanos, valores democráticos, proteção ambiental, entre outros requisitos. O projeto de lei também traz uma categorização de riscos, sendo considerados excessivos aqueles que utilizam técnicas subliminares, exploram vulnerabilidade de grupos específicos de pessoas naturais ou leve o poder público a avaliar, classificar ou ranquear pessoas naturais. O texto trata também da identificação biométrica à distância em casos de persecução de crimes passíveis de reclusão acima de 2 anos, busca de vítimas de crimes ou pessoas desaparecidas ou crimes em flagrante.2

LEIA TAMBÉM:

Independente do ritmo em que a regulação da IA caminha em todo o mundo, a tecnologia amplia sua tessitura no mundo dos negócios.  O conjunto de regramentos da UE (AI Act e AI Liability Directive) oferece um ponto inicial para entender como será o conjunto dessa legislação, que deve ter reflexos em outros países, assim como aconteceu com sua Lei de proteção de dados, a GDPR (Regulamento Geral de Proteção de Dados), que serviu de referência para leis similares em muitos países, inclusive no Brasil, com a Lei Geral de Proteção de Dados (LGPD).

O grande passo da União Europeia, que entra neste ano na fase final de avaliação do conjunto de regramentos a ser aplicado às tecnologias de IA , é o entendimento do Parlamento Europeu na Resolução de 3 de maio deste ano, que afirma que a “classificação deve ser acompanhada de orientações e do fomento do intercâmbio de boas práticas em prol dos criadores de IA”, assim como o  direito à privacidade  ser sempre respeitado, devendo os” criadores de IA devem garantir o pleno cumprimento das regras em matéria de proteção de dados”.3

A proposta da UE de regular a IA começou  em abril de 2021 (AI Act) e possui uma estrutura regulatória que, de um lado, assegura seu desenvolvimento e, de outro, protege os direitos fundamentais dos europeus, tornando-se sistemas confiáveis. Essa estrutura de regulamentação tem uma categoria de riscos – sendo os sistêmicos aqueles que envolvem os direitos fundamentais – e uma forte estrutura de governança e segurança jurídica. Suas penalidades são onerosas, podendo chegar a 30 milhões de euros e, no caso de empresa, a 6% do seu volume mundial de negócios mundiais do ano relativo ao total do exercício anterior.4

Dentro da proposta de regulação europeia, os riscos são categorizados. São considerados  riscos inaceitáveis os sistemas subliminares, manipuladores ou exploratórios, que possam causar danos, caso de identificação biométrica remota em tempo real em espaços públicos. Recentemente, a Prefeitura de São Paulo suspendeu o pregão eletrônico para contratar sistema de câmeras de monitoramento e reconhecimento facial, visando políticas de segurança pública preventiva, sendo que inúmeras entidades de defesa do consumidor e da sociedade civil acionaram o Ministério Público do Estado contra o projeto, que foi cancelado pela Prefeitura.

Na Europa, o uso de sistema de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei somente é autorizado em algumas exceções. No caso do uso privado da biometria é apenas para  identificação biométrica retrospectiva. Também se discute na lei europeia o uso de tecnologias biométricas como expressão facial, sendo que não há ainda base científica sobre a aferição de estados emocionais e traços da personalidade mensurados pela biometria.

Para assegurar o futuro, a lei europeia prevê a necessidade de adotar um mecanismo para adicionar subcategorias às existentes à medida que novos usos da tecnologia são incorporados. A exemplo da GDPR, a regulamentação europeia da IA prevê que os implantadores (qualquer pessoa, grupo ou autoridade pública que implemente um sistema de IA) tenha acesso a canais que lhes permitam apresentar queixas, buscar uma ação coletiva, ter o direito à informação e uma agência de fiscalização com padrões e recursos suficientes para desempenhar suas responsabilidades previstas em Lei.

No AI Act, a questão da finalidade, a exemplo da GDPR, é um ponto importante. Os fornecedores devem explicitar a finalidade pretendida da tecnologia criada para tornar mais transparente o uso potencial; assim como seus limites, deixando igualmente claras as suas responsabilidades. É o caso do uso da biometria remota em tempo real por parte de autoridades em uma manifestação com confrontos, por exemplo. Deve atender aos objetivos de uso e teste de proporcionalidade,para que não ameace o Estado de Direito.

Em paralelo a Lei AI Act, a União Europeia criou no ano passado a AI Liability Directive, um regramento voltado à responsabilidade civil aplicável à tecnologia de inteligência artificial, uma vez que há superposição de responsabilidades no caso de gerar prejuízos, seja do fabricante, proprietário ou operador, assegurando o direito de reparação das vítimas. A própria Diretiva traz a justificativa de sua criação: “As condições para a implantação e desenvolvimento de tecnologias de IA no mercado interno pode ser significativamente melhorado por prevenir a fragmentação e aumentar a segurança jurídica através de medidas harmonizadas na UE, em comparação com possíveis adaptações de regras de responsabilidade em nível nacional”.5

A Universidade de Stanford, que possui um observatório sobre regulação da IA, apontou no ano passado a aprovação de  37 projetos de lei para regular essa tecnologia. As abordagens são muito diferentes e incluem todo tipo de preocupação. Este ano, a  Cúpula de Crescimento do Fórum Econômico Mundial, que aconteceu em maio, colocou mais um elemento no debate: a IA levará a uma necessária requalificação da força de trabalho e dos sistemas educacionais. O Fórum estima que 1,1 bilhão de empregos serão transformados pela tecnologia, tornando necessário que os programas de aprendizado sejam atualizados neste sentido.

A preocupação com os sistemas de IA não se restringem ao universo jurídico ou educacional, mas são tão abrangentes que o Fórum Econômico Mundial está reunindo as melhores cabeças da academia, da indústria e dos governos para refletir sobre a IA generativa, defendendo que todos os stakeholders (partes interessadas que podem impactar determinado negócio, sejam clientes, investidores, profissionais, agências reguladoras, comunidades, mídias etc.)  trabalhem juntos para mitigar as externalidades negativas, ou seja, os custos sociais e econômicos para sociedade das tecnologias de IA. Assim, talvez, surja a  resposta de como teremos uma IA mais responsável.

__________

1 Disponível aqui.

2 Disponível aqui.

3 Disponível aqui.

4 Disponível aqui.

5 Disponível aqui.

________________________________________________________________________________

Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA); Master in Business Administration pelo Insper; Mestrando em Direito – núcleo de Direitos Humanos pela PUC-SP; Pesquisador (estudante) registrado no CNPQ pela PUC-SP no grupo Capitalismo Humanista na área de direito econômico; Especialista em Gestão de Contencioso de Volume pela GVLaw, ranqueado pela Leaders League – 2021 como Contencioso Trabalhista de Volume, na categoria “Altamente Recomendado”. É Presidente da Comissão de Gestão, Inovação e Tecnologia, DPO e Coordenador adjunto do núcleo de estudo em decisões automatizadas da Comissão de Gestão, Inovação e Tecnologia da OAB- Guarulhos; Coordenador adjunto em bioética e governança corporativa da comissão de privacidade de dados da OAB/SP.

Ricardo Freitas Silveira Sócio-head da Lee, Brock, Camargo Advogados. Doutorando no IDP (Instituto Brasileiro de Ensino). Mestre em Direito, Justiça e Desenvolvimento pelo IDP e especialista em Negócios Sustentáveis pela Cambridge University.