Regulamentação da IA torna seu uso mais seguro

Regulamentação da IA torna seu uso mais seguro

É muito difícil colocar a inteligência artificial de volta na garrafa”, disse Bill Gates, um dos homens que comandam uma das maiores big techs do mundo e que expressa nesta frase as suas dúvidas sobre o potencial de crescimento disruptivo da IA. Seria como comparar seu uso em carros autônomos ou em um sistema de armas autônomas, que pode ou não valorar a vida humana. Que impactos teria em uma guerra como da Ucrânia?

Embora, seja comum ouvirmos falar que o gênio só atende 3 pedidos de Aladim, na verdade, segundo a história original de “As Mil e Uma Noites”1, o gênio pode satisfazer pedidos infinitos para quem detém a garrafa mágica, similar à tecnologia de IA, porque não tem limites e detém a capacidade de aprender por si mesma (machine learning).

O aprendizado das máquinas nos processos de negócios em todos os campos é praticamente ilimitado. Daí, as preocupações com os riscos que cercam o crescimento da IA em ritmo exponencial, com investimentos que devem chegar a US$ 203 bilhões até 2025, segundo a Fortune Business Insights.

Embora a IA ainda esteja na seara de tarefas específicas, como pilotar um avião, controlar um marcapasso, sistemas de busca na internet, fazer um reconhecimento fácil, trabalhos com chatbots, evitar ataques cibernéticos, criar criptografias, aumentar benefícios econômicos com o incremento da eficiência em diferentes setores.

A IA tem um potencial difícil de mensurar quando atingirmos a fase das máquinas superinteligentes, capazes de executar qualquer tarefa cognitiva acima da capacidade humana, promovendo autoaperfeiçoamentos.

Como mitigar esses riscos? Certamente, a regulamentação é um caminho, porque permite que todos os atores interessados participem do debate.

No Brasil, o Marco Legal da IA2, aprovado pela Câmara dos Deputados, está estruturado em princípios gerais que regulam a matéria, fundamentos, direitos e deveres das partes e diretrizes para o Poder Público. O Marco Legal é sem dúvida um grande passo para a definição de aplicação ética do uso adequado da IA, tendência que vem sendo seguida pela União Europeia.

Uma definição assertiva do que representa esse marco é a de que “as normas sociais, embora não necessariamente gerem sanções jurídicas, regulam o comportamento do indivíduo e dos grandes agentes econômicos, pois sua inobservância pode gerar represálias”.3 .

No projeto nacional, a IA é definida como “sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais”.

Já a União Europeia adota uma definição de IA com base em sistema, portanto, seria um software desenvolvido para um conjunto de objetivos visando gerar conteúdo, previsões, recomendações etc. No final das contas, estamos em busca da busca de um padrão ético.

O Marco Legal brasileiro assegura em seu artigo 4º que não pretende retardar ou impedir o desenvolvimento tecnológico, inovação, livre iniciativa e livre concorrência, embora esteja previsto no texto que o poder público tem a prerrogativa de promover intervenção subsidiária, quando for necessário criar regras específicas; atuação setorial voltada a cada segmento e gestão baseada em risco, que devem levar em conta a probabilidade de riscos e potenciais benefícios.

Temia-se que a lei tivesse a capacidade de se tornar um cipoal burocrático, servindo de obstáculo ao desenvolvimento da IA, o que não aconteceu.

Para avaliações de conformidade, o Marco Legal brasileiro criou os agentes de IA, “pessoas físicas ou jurídica, de direito público ou privado, e entes sem personalidade jurídica”. Os agentes de desenvolvimento participam do planejamento e design, coleta e processamento de dados e construção de modelos, verificação e validação.

Destaque para o termo design, que toma forma como privacy by design; privacy by default; privacy by security e assim por diante, trazendo conceitos de segurança na concepção e execução dos projetos. Já os agentes de operação são todos aqueles que integram a fase de monitoramento e operação do sistema de IA.

O novo Marco Legal também propõe dialogar com Leis correlatas, como a Lei Geral de Proteção de Dados (LGPD), Marco Civil da Internet, Código de Defesa do Consumidor e a Lei de Acesso à Informação (LAI) para criar uma nova cultura voltada a entender as tecnologias disruptivas e mitigar seus impactos sobre o bem-estar dos indivíduos.

A exemplo do modelo europeu em desenvolvimento, o Marco Legal brasileiro guarda preocupações com os direitos humanos, aliás, seu principal objetivo, valores democráticos, não discriminação, preservação de direitos individuais e coletivos. Os requisitos regulatórios buscam estabelecer controle, até porque algumas decisões da IA, não são interpretáveis e podem ser opacas até mesmo para seus criadores.

Nesse sentido, a UE propõe alguns requisitos para os sistemas de IA, como utilizar os valores da União Europeia no treinamento de algoritmos; manter registros usados para treinar sistemas de IA; informar os cidadãos quando estão interagindo com um sistema de IA; adotar medidas para minimizar danos; utilizar identificação biométrica com salvaguardas e manter a supervisão humana para o sistema de IA.

A indústria de IA inclui uma gama vasta de segmentos de interesses globais. Por isso mesmo, já estamos vendo o início de conflito regulatório entre a União Europeia e os Estados Unidos. Os europeus4 estão propondo regras para uso de sistemas e algoritmos de IA, com um arcabouço legal que cria o chamado “ecossistema de confiança” que irá estruturar a confiabilidade da IA.

O argumento da UE é que a regulamentação suprirá as “lacunas” deixadas pelo mercado, que envolveriam risco à segurança e danos aos usuários, como fins maliciosos do uso da IA.

No projeto europeu, há quatro tipos de riscos: “mínimos” (videogames), “limitados” (chatbots ou assistente de voz) “altos” (identificação biométrica, gestão de infraestrutura, educação, emprego, controle de fronteiras, administração da justiça etc.) e “inaceitáveis” (sistemas de identificação biométrica em tempo real, pontuação social, técnicas subliminares).

Ao contrário da União Europeia, os Estados Unidos têm adotado um regulamento fragmentado da IA cabendo às agências reguladoras fazer o seu monitoramento. Embora esteja vivo o sonho da Comissão Europeia de construir com o governo do presidente americano Joe Biden um acordo sobre IA, dificilmente os Estados Unidos adotarão uma regulamentação abrangente como a dos europeus. Essa estrutura regulatória, caso venha a se concretizar, teria um peso e influências globais.

A complexidade da IA estar no fato de que é uma tecnologia emergente em todas as frentes do conhecimento humano. Ao deixar o gênio sair da garrafa, corremos o risco de ir além do previsível, talvez explorando o potencial e possíveis impactos adversos da IA; sendo que o senso comum nos adverte que não devemos desejar à toa, nem deixar de sonhar.

Assim, na pior das hipóteses, a Lei para regrar a IA pode ser o argumento certo para desafiar o gênio a se controlar e até voltar para a garrafa, se necessário.

1 GALAND, Antoine (versão). As Mil e uma Noites. São Paulo: Ediouro, 2001

2 Disponível em https://www.camara.leg.br/propostas-legislativas/2236340

3 Direito e Inteligência Artificial: Fundamentos: vol.1 / Willis Santiago Guerra Filho… [et al] organizadores – Rio de Janeiro: Lumen Juris, 2021. Artigo “A proteção de dados como fator ético intrínseco aos modelos de negócios baseados em IA”, Dora Kayfman e Priscila do Amaral S. Reis.

4 Disponível em White Paper – “On Artificial Intelligence: A European Approach to Exclence and Trust”. Disponível em https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=nui,sc