Nos dias atuais, os sistemas digitais influenciam nossas decisões rotineiras. No entanto, é importante destacar que o contrário também acontece: seres humanos influenciam as máquinas. 

A inteligência artificial (IA), disseminada nesses sistemas, possibilita que aprendam conosco. A preocupação agora é entender se o que está sendo ensinado é seguro e positivo. 

A ética no uso da IA fomenta uma das discussões mais quentes para quem trabalha com o uso dessa tecnologia. Uma plataforma de IA desenvolvida sem os devidos cuidados pode ser mais passível a aprender e a transmitir coisas ruins. O grande risco dessa situação é que, se aprendem coisas ruins, influenciaram coisas ruins também. Ou seja, uma inteligência artificial com vieses e preconceitos pode causar retrocesso na sociedade. 

Contudo, isso não categoriza a IA como ruim ou perigosa, mas traz uma preocupação para a comunidade científica e de desenvolvimento. Essa preocupação com os vieses foi um dos assuntos mais comentados no evento World Summit AI Americas, um dos maiores eventos do setor no mundo. 

Durante a palestra que iniciou o Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, provocou sobre o que torna a inteligência artificial uma tecnologia com potencial mais perigoso que outras. Segundo Cassie, “sempre que você fica maior, é mais fácil você pisar nas pessoas à sua volta”. E alertou “não seja negligente na escala”. 

Ela ainda explicou que a IA acontece de maneira contrária a uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em linhas de código, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Assim, ela é nutrida com conjuntos de dados, que servirão de base para as tomadas de decisões.

Leia também: Uso de inteligência artificial sem ética pode trazer riscos para a sociedade

A grande questão é que, caso esses dados sejam ruins, as decisões tomadas também serão. Diante disso, a plataforma precisa contar com normas para corrigir o rumo em possíveis erros. De acordo com a cientista, em casos de exemplos inadequados apresentados à máquina, sem uma validação de sua qualidade, a plataforma vai desenvolver vieses. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Tay, uma ferramenta lançada pela Microsoft em março de 2016 é um dos exemplos mais simbólicos da problemática. Por trás de uma conta no Twitter, ela representava uma adolescente criada para conversar com os usuários, mas a conta ficou ativa por apenas 24 horas, já que, depois de conversar com milhares de pessoas neste curto período de tempo, ela desenvolveu uma personalidade racista, sexista e xenófoba. 

A Microsoft retirou o sistema no ar, mas a conta no Twitter ainda se mantém, porém, com restrição a convidados, não possuir mais atualizações e de os tuítes problemáticos terem sido excluídos. A manutenção disso busca promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas e vice-versa. 

Fonte: Estadão