Ética na IA para revolucionar o processamento de linguagem natural

Especialista em inteligência artificial do SAS explica como a eliminação de vieses na programação dos algoritmos pode contribuir para tornar diversos setores mais assertivos

Para além de ser um recurso futurista ou “coisa de cinema”, a inteligência artificial já é uma tecnologia utilizada na sociedade, que impacta a forma como seres humanos interagem com o seu redor. Com isso, a necessidade de discutir os impactos éticos no desenvolvimento das IAs se torna uma questão do presente. Dentro desse contexto há ainda uma subárea: o processamento de linguagem natural (PLN).

De maneira geral, PLN é um recurso criado para que os computadores possam desenvolver a interpretação e manipulação de linguagem humana. Seu uso mais comum são os famosos chatbots ou assistentes virtuais, que conseguem responder e acionar mecanismos ao comando humano. Assim como outras áreas da IA, o PLN também precisa de um profissional que cria sua programação inicial e carrega o aprendizado de máquina para que possa evoluir.

Mas o que acontece quando um algoritmo de processamento de linguagem natural carrega vieses sociais negativos como preconceitos? É nesse ponto que a ética se faz necessária. Segundo a customer advisor para o setor público do SAS, Aline Riquetti, a programação de uma IA pode ser um reflexo da comunidade que a construiu. “A decisão de uma pessoa passa para o dado e o algoritmo aprende a partir daquela determinada informação. Não existe nenhum desvio no meio do caminho”, aponta.

A executiva cita como exemplo o uso de PLN no âmbito jurídico, em que é possível ter modelos que vão predizer a sentença de um evento entre condenação, pena e inocência. Se o algoritmo que interpretar os documentos levar em consideração atributos físicos dos envolvidos, pode ser que impacte de forma negativa o resultado final. O mesmo é válido para análises de perfis de concessão de crédito no setor financeiro.

“A responsabilidade começa com quem desenvolve esses sistemas ou contrata equipes especializadas. O próprio banco de dados carrega alguns vieses que podem ser prejudiciais ou não. Depois que a IA começa a trabalhar e gerar resultados, é necessário um acompanhamento minucioso para melhor acurácia do desempenho”, explica.

Por isso, Riquetti alerta para a importância do monitoramento do PLN, cuja companhia criadora não pode tirar a sua responsabilidade sobre o andamento do projeto, mesmo que tenha criado um algoritmo puro para interação. As seguradoras, por sua vez, podem auditar os algoritmos e responsabilizar quem os colocou no ar.

Se ética e moral são conceitos regionais, como dar escalabilidade para algoritmos aprenderem esses valores antes de começar a operar?

Mesmo em um cenário mais complexo em que há variações entre as regras e valores, é possível trabalhar com segmentação de usuários conforme perfis geográficos e culturais, alimentando com dados específicos para que o algoritmo aprenda nessa base segmentada e carregue o conceito regional.

“O primeiro desafio é implementar de forma automática uma autoavaliação do modelo. Por exemplo, se você tiver um PLN que minera textos para identificar discursos de ódio de terceiros, o mesmo poderia fazer uma autoanálise e verificar se ali dentro próprio sistema há algum conteúdo inadequado.”

Como empresa fornecedora de inteligências analíticas, o SAS disponibilizou um guia de “boas práticas” para os desenvolvedores avaliarem a consistência e a ética dos algoritmos. “Além desses recursos, é preciso não só o modelo performático, mas também que seja ético; quanto mais houver debates, maior será a força dos recursos, passando a avaliação pelos desenvolvedores, fabricantes e reguladores”, conclui. 

Sobre o SAS

O SAS é líder em analytics. Por meio de software e serviços inovadores, o SAS capacita e inspira clientes em todo o mundo a transformar dados em inteligência. SAS te dá "THE POWER TO KNOW®️". Confira o site:www.sas.com/br

Informações à imprensa - SAS 
RPMA Comunicação

sas@rpmacomunicacao.com.br
Tamires Rodrigues - tamires.rodrigues@rpmacomunicacao.com.br - (11)99154-5937
Maria Fernanda Espinosa - mariafernanda.espinosa@rpmacomunicacao.com.br - (11) 94916-0423
Leticia Moreira - leticia.moreira@rpmacomunicacao.com.br