Como garantir que os modelos de IA reflitam os seus valores culturais e éticos enquanto se mantêm à frente da concorrência?

Hoje, a inteligência artificial (IA) conduz praticamente tudo o que fazemos online. Algoritmos preditivos recomendam produtos e serviços, diagnosticam nossa saúde, traduzem nossas palavras e fazem cálculos com base em nosso comportamento anterior. Eles até determinam quais notícias vemos e que conteúdo aparece em nossos feeds de mídia social (para melhor ou para pior).

A diferença da IA para outras tecnologias de decisão é que ela ‘aprende’. E conforme a IA se torna ainda mais incorporada em nossas vidas, continuará a se tornar mais autônoma, agindo até sem supervisão humana.

À medida que aumenta a necessidade de tecnologias baseadas em IA, cresce também a pressão sobre as organizações para se manterem competitivas. A ‘corrida de armas da IA’ nunca foi tão intensa – não apenas para saber quem pode construir os algoritmos mais sofisticados, mas também para o controle da atenção. Como diz o ditado, “um grande poder traz grandes responsabilidades”.

A questão para muitas organizações é “como garantir que os modelos de IA reflitam os seus valores culturais e éticos enquanto se mantêm à frente da concorrência?” Com as empresas sendo forçadas a migrar para IA rapidamente – e talvez até mais rápido do que deveriam – essa velocidade tem um custo.

IA responsável

A luta por justiça social está na vanguarda do noticiário. Com os holofotes voltados para situações de preconceito e discriminação, as organizações que desenvolvem e utilizam a IA ​​devem fazer o possível para eliminar o preconceito (viés), explicando quais as decisões tomadas por sua tecnologia e assumir a responsabilidade se/quando a IA se tornar desonesta.

Se queremos cumprir o compromisso de estarmos centrados no cliente – e não apenas usar uma palavra da moda – precisamos nos comprometer a desenvolver essa IA de forma responsável, e não apenas rápida. Saiba quais os quatro pilares para uma IA responsável:

1. Justiça

As organizações precisam ser proativas e vigilantes no policiamento de sua IA, para garantir que seja justa para todos. Isso significa criar modelos de dados para IA verdadeiramente imparciais, monitorá-los proativamente e analisar seus resultados. A IA trata todos os gêneros, etnias e faixas etárias, códigos postais, faixa salarial, grupos religiosos, etc. da mesma maneira?

A IA responsável geralmente não é a prioridade até que a empresa cometa um erro – só que, então, os resultados podem ser prejudiciais. No que se refere a preconceito, em alguns casos, a IA precisa ser “melhor” do que a sociedade em que vivemos.

Por exemplo, descobriu-se que a ferramenta de inteligência artificial da Northpointe Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) discriminava infratores afro-americanos – declarando que eles tinham duas vezes mais probabilidade de ser reincidentes do que criminosos brancos. A raiz do problema era que as decisões eram baseadas em dados distorcidos do sistema de justiça, inerentemente tendenciosos e perpetuavam um estereótipo injusto.

2. Transparência

As empresas precisam demonstrar como a IA chegou a uma certa decisão, especialmente quando se trata de setores altamente regulamentados, como serviços financeiros e seguros.

No final de 2019, uma empresa de alto perfil estava sendo atacada em função de suas ofertas de cartão de crédito, porque supostamente ofereceu limites de crédito mais altos para homens em comparação a mulheres com históricos e situação financeiras semelhantes.

Como o modelo de IA escolhido não era transparente sobre a tomada de decisões – uma condição conhecida como ‘caixa preta’ ou IA ‘opaca’ – a empresa pareceu agir preconceituosamente.

As empresas devem ser proativas na certificação de seus algoritmos, comunicar claramente suas políticas de viés (de aprendizado) e fornecer uma explicação clara do porque as decisões foram tomadas, especialmente quando há um problema.

Sempre considerar o uso de algoritmos transparentes e explicáveis ​​para casos de uso regulamentado/de alto risco, como aprovações de crédito para tornar mais fácil para os funcionários na linha de frente compreender e explicar as decisões aos clientes.

3. Empatia

Existe uma necessidade de que as empresas demonstrem empatia pelos clientes. No que diz respeito a IA, significa que as decisões tomadas pelo mundo corporativo são relevantes, úteis e colocam as necessidades dos clientes em primeiro lugar.

Significa olhar para o contexto completo de cada cliente com intuito de entender exatamente o que eles precisam no momento. É saber quando vender – mas tão importante é saber quando servir, reter e apenas permanecer quieto.

A empatia pode ser boa para os negócios. De acordo com um recente estudo sobre impacto econômico total da Forrester, utilizar IA para desenvolver um melhor programa de engajamento 1: 1, pode gerar aumento significativo de receita – quase 700 milhões de dólares em três anos – enquanto minimizava mais de 500 milhões de dólares em perdas com a rotatividade de clientes.

4. Robustez

Lembra do Tay? O opaco bot do Twitter que saiu dos trilhos alguns anos atrás? As pessoas foram encorajadas a interagir com ele e, em 24 horas, o modelo se tornou misógino e racista por causa dos dados que estava ingerindo das conversas do Twitter.

Tornou-se uma grande piada para alguns, mas foi um momento de mudança (inflexão) para o mercado – especialmente para aquelas organizações que podiam estar agindo rápido demais.

Eles perceberam que precisavam de uma IA mais robusta ou com proteções integradas, para que não pudesse ser influenciada de forma tão fácil. E precisavam ainda dedicar algum tempo para estabelecer regras de IA e proteções que governassem os tipos de ações ‘adequadas’ em determinadas situações.

A maioria de nós não pensa em algoritmos até cometer erros – mas as organizações precisam prevenir a discriminação de forma proativa, policiando a si mesmas e tomando decisões com base no que é mais adequado para o cliente.

Justiça, transparência, empatia e robustez devem ser os quatro pilares principais da política de IA responsável para todas as empresas. Embora as organizações não possam desacelerar, é preciso união em torno de um conjunto de princípios fundamentais de respeito ao cliente e que tragam uma visão sustentável (e, provavelmente, lucrativa) para o sucesso a longo prazo. Isso irá beneficiar a todos.

Além de ser a coisa certa a fazer, também irá proteger e fortalecer o relacionamento com os clientes, as marcas e os resultados financeiros, independentemente de qual seja a próxima crise.

Conheça a Diana, solução em Inteligência Artificial

A Inteligência Artificial já está transformando o Direito, automatizando tarefas e proporcionando inovação para trazer maior previsibilidade. DIANA surgiu nesse contexto: revolucionar o mercado jurídico. Conheça nossos serviços envolvendo inteligência artificial.

 

Confira as últimas atualizações jurídicas sobre o impacto do Coronavírus no Brasil e no mundo/a></a