
Ética na IA
O que é e por que é importante?
A ética na IA conecta a inteligência artificial (IA) à prática da ética – os princípios do certo e do errado que definem o que os seres humanos devem fazer.m Por que isso é tão importante? Porque a tecnologia de IA permite que máquinas imitem a tomada de decisões humanas e automatizem tarefas de forma inteligente. Para fazer isso com segurança, precisamos de diretrizes que assegurem que os sistemas de IA sejam projetados e implantados em conformidade com valores humanos fundamentais, como privacidade, inclusão, justiça e proteção dos direitos individuais.
História da ética na IA: “As máquinas podem pensar?”
A inteligência artificial tem dominado as manchetes e capturado a imaginação do público nos últimos anos, mas suas raízes estão presentes há décadas. A pesquisa em IA começou na década de 1950, com os primeiros pioneiros desenvolvendo conceitos e algoritmos fundamentais.
Os recentes avanços em poder de computação, big data e técnicas de aprendizado de máquina impulsionaram a IA para o uso comum, tornando seu impacto mais visível e tangível em nosso dia a dia. Considere a rápida adoção da IA generativa (GenAI) – um tipo de tecnologia de IA que vai além da previsão e tem como principal resultado a geração de novos dados.
Com todo o entusiasmo em torno da GenAI, é fácil supor que nossa geração é a primeira a refletir sobre questões complexas, como dados enviesados, responsabilidade, justiça algorítmica e os impactos sociais das máquinas inteligentes. Mas as principais preocupações com os impactos na IA e das máquinas inteligentes já existem desde o início da era da computação digital.
Tudo começou com visionários como Alan Turing, que refletiam sobre as implicações filosóficas e éticas da inteligência artificial. As questões que tiravam o sono de Turing – a natureza da consciência e o potencial das máquinas para pensar e aprender – continuam a ressoar e evoluir nos debates atuais sobre ética na IA.
Uma linha do tempo da história da ética na IA
Clique nas datas para conhecer alguns marcos importantes na evolução da ética na IA.
Como desenvolver uma IA confiável?
Do conceito à entrega, é preciso que as pessoas trabalhem juntas em prol de um objetivo comum para desenvolver um software de IA confiável, centrado nos valores humanos. Isso inclui gerentes de produto, cientistas de dados, desenvolvedores de software, designers de UX e testadores de software. Todos consideram três perguntas essenciais ao trabalhar em um produto: “Para que serve, qual é o objetivo e para quem ele pode falhar?” Assista ao vídeo para saber mais sobre como incluímos uma perspectiva ética em nossos sistemas de IA desde a fase de projeto.
A ética na IA no mundo atual
A adesão à ética na IA promove a transparência, a responsabilidade e a confiança. Mas lidar com a ética da inteligência artificial exige enfrentar as complexas implicações morais, legais e sociais dos dados e na IA. Descubra como os especialistas abordam esses desafios críticos no desenvolvimento e na implantação responsável na IA.
O NIH (National Institutes of Health) está superando obstáculos na pesquisa em saúde com conjuntos de dados diversificados.
Uma abordagem de “tamanho único” para a pesquisa médica é limitada. Nossos corpos são todos diferentes– com variações dependendo do local onde você vive, do que você come, da sua composição genética, das exposições ao longo da vida e muito mais. No National Institutes of Health (NIH), o Programa de Pesquisa All of Us tem como objetivo mudar os tipos de dados coletados e a forma como eles são compartilhados para a pesquisa biomédica. Ao criar conjuntos de dados abrangentes que refletem a rica diversidade da população dos Estados Unidos, os conjuntos de dados de pesquisa agora incluem muitas pessoas que antes eram sub-representadas. Tudo se resume a tornar a pesquisa mais confiável e a manter a IA e a análise de dados transparentes e éticas.
Quais setores estão adotando a ética em IA?
De veículos autônomos a chatbots e agora agentes de IA, as decisões tomadas por essa tecnologia afetam os seres humanos em diferentes graus. Por isso, a ética em IA é uma consideração essencial em diversos setores, incluindo as grandes empresas de tecnologia. Atualmente, muitas organizações reconhecem a importância de adotar estruturas éticas para orientar suas aplicações e iniciativas de IA, mitigar riscos potenciais e construir confiança com as partes interessadas.
Como funciona a ética na IA?
A ética para inteligência artificial atua na interseção entre tecnologia, filosofia e ciências sociais. Para usar essa poderosa tecnologia com sucesso, é necessário incorporar considerações éticas em todas as etapas do ciclo de vida da IA – desde a coleta de dados e o desenvolvimento de algoritmos até a implementação e o monitoramento. Vamos nos aprofundar em alguns dos princípios fundamentais.
Centralidade humana
Os sistemas de IA que priorizam as necessidades e os valores humanos têm mais chances de serem adotados, confiáveis e usados de forma eficaz. Ao incorporar a centralidade humana no desenvolvimento e na implementação da IA, as organizações podem criar sistemas mais responsáveis, eficazes e socialmente benéficos, que complementam a inteligência e a criatividade humanas.
As técnicas e abordagens para implementar a centralidade humana incluem:
- Human-in-the-loop (integração do julgamento humano em pontos cruciais dos processos de IA, especialmente em decisões de alto risco).
- Design participativo.
- Avaliações de impacto ético.
- IA adaptativa (sistemas que ajustam seu comportamento com base no feedback humano e em contextos em mudança).
À medida que a IA evolui, manter uma abordagem centrada no ser humano será crucial para criar sistemas de IA que beneficiem a sociedade, respeitando os direitos e a dignidade individuais.
Justiça e responsabilidade
Um aspecto fundamental da ética na IA é garantir resultados justos e imparciais. Considere este exemplo: se seu algoritmo está identificando animais como humanos, é necessário fornecer mais dados sobre um conjunto mais diverso de seres humanos. Se o seu algoritmo estiver tomando decisões imprecisas ou antiéticas, isso pode significar que não havia dados suficientes para treinar o modelo ou que o reforço de aprendizagem não era adequado para o resultado desejado.
Os seres humanos, às vezes sem intenção, têm inserido valores antiéticos nos sistemas de IA devido à seleção tendenciosa de dados ou à atribuição inadequada de valores de reforço. Um dos primeiros passos técnicos para garantir a ética na IA é desenvolver métricas de justiça e técnicas de redução de viés. Paridade demográfica e probabilidades equalizadas medem a justiça algorítmica. Reponderar os dados de treinamento e aplicar técnicas de desenviesamento adversarial pode ajudar a reduzir vieses aprendidos.
No entanto, uma única ação não é o suficiente. Auditorias regulares, combinadas com uma representação diversificada nas equipes de desenvolvimento de IA, ajudarão a manter a equidade e a responsabilidade ao longo do ciclo de vida do sistema de IA. Não basta ter conversas pontuais sobre essas questões; devemos torná-las parte contínua e integrante do nosso discurso.
Transparência e explicabilidade
A transparência e a explicabilidade são fundamentais para construir confiança, cumprir as regulamentações de IA e obter validação ética. Uma IA transparente e explicável possibilita que os desenvolvedores detectem e corrijam vieses ou falhas no processo de decisão, ao mesmo tempo em que permite que os usuários finais façam escolhas informadas com base nos fatores que impactam os resultados da IA.
Rótulos nutricionais para modelos de IA
Os rótulos nutricionais nas embalagens dos alimentos proporcionam transparência quanto aos ingredientes, valor nutricional e preparação dos seus lanches favoritos. Da mesma forma, as model cards são como “rótulos nutricionais” transparentes para modelos de IA. Elas fornecem visibilidade sobre o propósito, o desempenho, as limitações e as considerações éticas de um modelo, utilizando um formato padronizado e acessível para comunicar aspectos essenciais dos modelos de IA às partes interessadas.
Técnicas para explicar modelos complexos
Os modeladores podem usar várias técnicas para explicar as previsões de modelos complexos de aprendizado de máquina, ajudando a desmistificar o processo de tomada de decisão do modelo. Exemplos dessas técnicas incluem:
- LIME (abreviação de Local Interpretable Model-Agnostic Explanations).
- SHAP (abreviação de SHapley Additive exPlanations).
- Gráficos ICE (abreviação de Individual Conditional Expectation).
Os desenvolvedores de modelos também podem usar o processamento de linguagem natural (PLN) para gerar explicações legíveis por humanos sobre as decisões do modelo. O PLN pode traduzir saídas estatísticas complexas em narrativas claras e contextuais, acessíveis e fáceis de interpretar para desenvolvedores e usuários. Leia sobre cinco perguntas importantes a serem feitas durante o desenvolvimento de modelos de IA confiáveis.
Privacidade e segurança
Os pilares interligados da privacidade e da segurança garantem que os dados confidenciais sejam protegidos ao longo de todo o ciclo de vida da IA. As técnicas de IA que preservam a privacidade permitem que as organizações aproveitem grandes conjuntos de dados, ao mesmo tempo que protegem as informações individuais. As medidas de segurança protegem contra ataques maliciosos e acesso não autorizado.
À medida que as empresas avançam para um modelo de dados descentralizado, as técnicas de aprendizado federado oferecem escalabilidade e flexibilidade, ao mesmo tempo em que resolvem diversos problemas de privacidade e segurança. Por exemplo, as técnicas de aprendizagem federada permitem que as organizações treinem modelos sem compartilhar dados brutos, reduzindo a movimentação de dados (e, portanto, o risco de exposição).
Outras técnicas úteis para privacidade e segurança incluem:
- Criptografia homomórfica (permite o cálculo em dados criptografados sem descriptografar o original).
- Privacidade diferencial (oculta dados individuais adicionando ruído controlado).
- Treinamento adversarial e sanitização de entradas.
- Protocolos robustos de controle de acesso e autenticação.
Robustez
Sistemas de IA robustos têm um desempenho consistente e preciso em várias condições, incluindo entradas inesperadas ou mudanças ambientais. A robustez é crucial para manter a credibilidade e a confiança em aplicações do mundo real.
As técnicas para aumentar a robustez incluem:
- O treinamento adversarial envolve expor os modelos a entradas maliciosas durante o treinamento para aumentar sua resistência.
- Os métodos de conjunto envolvem a combinação de vários algoritmos de aprendizagem para melhorar a estabilidade e o desempenho.
- As técnicas de regularização ajudam a evitar o sobreajuste e o subajuste, melhoram a generalização e equilibram a complexidade do modelo com o desempenho. O monitoramento contínuo do desempenho e as atualizações do modelo ajudam a manter a precisão.
Um software de IA confiável deve incorporar vários métodos para gerenciar algoritmos e monitorar sua depreciação ao longo do tempo. Em última análise, a ética em IA cria um quadro de governança, soluções técnicas e práticas organizacionais que alinham o desenvolvimento e a implementação da IA com os valores humanos e os melhores interesses da sociedade
Enfrentando seis desafios éticos únicos da IA generativa
A inteligência artificial sempre levantou questões éticas, mas a GenAI – com sua capacidade de gerar novos dados – intensificou essas preocupações. As questões éticas resultantes e os potenciais riscos apresentam desafios e perigos sem precedentes que as organizações e a sociedade precisam enfrentar com urgência.
Considere estes exemplos de como a GenAI pode:
- Elevar as deepfakes a um novo patamar (como em publicações nas redes sociais).
- Violar os direitos de propriedade intelectual.
- Destruir a confiança na informação digital.
- Exacerbar vieses e discriminação.
- Gerar impactos negativos na psique e no convívio social.
- Criar complexidade em responsabilidade e governança.
O papel da governança na IA ética
Uma estrutura de governança forma a base para a implementação ética na IA. Essas estruturas estabelecem linhas claras de responsabilidade e prestação de contas ao longo do ciclo de vida da IA.
Uma estratégia abrangente de governança deve definir os processos de tomada de decisão incluindo supervisão humana e atribuir funções específicas para a gestão de projetos de IA.
Em algum momento, isso pode incluir a atribuição de funções para responsáveis ou comitês de ética em IA, encarregados do desenvolvimento de políticas, monitoramento de conformidade e auditorias éticas. Avaliações regulares de algoritmos e verificações de viés são componentes cruciais desses sistemas de governança, garantindo que os modelos de IA permaneçam alinhados com os padrões éticos e os valores organizacionais.
À medida que as capacidades da IA se expandem, o papel da governança torna-se ainda mais crítico. O potencial dos sistemas para formular perguntas e gerar respostas de forma independente ressalta a necessidade de mecanismos de supervisão robustos. Considere, por exemplo, as implicações das alucinações de IA.
Ao implementar protocolos de governança rigorosos, sua organização pode aproveitar o poder da IA enquanto mitiga riscos e mantém a integridade ética em um cenário tecnológico cada vez mais autônomo.
O futuro da ética na IA
À medida que a IA evolui, o mesmo ocorre com o campo da ética na IA. Tecnologias emergentes, como computação quântica e IA neuromórfica, apresentarão novos desafios e oportunidades éticas. Os reguladores, líderes industriais e pesquisadores devem colaborar para desenvolver estruturas éticas adaptáveis que possam acompanhar os rápidos avanços tecnológicos.
As questões fundamentais que as ferramentas e a tecnologia de IA levantam sobre nossa relação com os computadores continuarão a evoluir. Os debates sobre como a IA afetará o futuro do trabalho – e se (ou quando) a singularidade tecnológica poderá ocorrer – continuam em andamento.
A educação e a conscientização também desempenharão um papel vital na definição do futuro da ética na IA. Ao promover uma cultura de consciência ética entre desenvolvedores de IA, líderes empresariais e o público em geral, podemos garantir que seus benefícios sejam aproveitados de forma responsável e equitativa
Visto que estamos diante de um futuro impulsionado pela IA, adotar a ética nesse campo é, antes de tudo, um imperativo moral. Também é uma necessidade estratégica para empresas que desejam construir um ecossistema de IA sustentável, confiável e benéfico para as gerações futuras.
Potenciando a inovação em ética na IA
O SAS® Viya® é uma plataforma abrangente para o desenvolvimento e a implantação de soluções éticas de IA. Com recursos integrados de explicabilidade de modelos, detecção de vieses e governança, ela permite aproveitar o poder da IA mantendo os mais altos padrões éticos.
Leitura recomendada
- Artigo What are AI hallucinations?Separating fact from AI-generated fiction can be hard. Learn how large language models can fail and lead to AI hallucinations – and discover how to use GenAI responsibly.
- Artigo Shut the front door on insurance application fraud!Fraudsters love the ease of plying their trade over digital channels. Smart insurance companies are using data from those channels (device fingerprint, IP address, geolocation, etc.) coupled with analytics and machine learning to detect insurance application fraud perpetrated by agents, customers and fraud rings.
- Artigo Shut the front door on insurance application fraud!Fraudsters love the ease of plying their trade over digital channels. Smart insurance companies are using data from those channels (device fingerprint, IP address, geolocation, etc.) coupled with analytics and machine learning to detect insurance application fraud perpetrated by agents, customers and fraud rings.
