Grupo de colegas de trabalho revisando um projeto em um monitor de computador

Ética na IA

O que é e por que é importante?

A ética na IA conecta a inteligência artificial (IA) à prática da ética – os princípios do certo e do errado que definem o que os seres humanos devem fazer.m Por que isso é tão importante? Porque a tecnologia de IA permite que máquinas imitem a tomada de decisões humanas e automatizem tarefas de forma inteligente. Para fazer isso com segurança, precisamos de diretrizes que assegurem que os sistemas de IA sejam projetados e implantados em conformidade com valores humanos fundamentais, como privacidade, inclusão, justiça e proteção dos direitos individuais.

História da ética na IA: “As máquinas podem pensar?”

A inteligência artificial tem dominado as manchetes e capturado a imaginação do público nos últimos anos, mas suas raízes estão presentes há décadas. A pesquisa em IA começou na década de 1950, com os primeiros pioneiros desenvolvendo conceitos e algoritmos fundamentais.

Os recentes avanços em poder de computação, big data e técnicas de aprendizado de máquina impulsionaram a IA para o uso comum, tornando seu impacto mais visível e tangível em nosso dia a dia. Considere a rápida adoção da IA generativa (GenAI) – um tipo de tecnologia de IA que vai além da previsão e tem como principal resultado a geração de novos dados.

Com todo o entusiasmo em torno da GenAI, é fácil supor que nossa geração é a primeira a refletir sobre questões complexas, como dados enviesados, responsabilidade, justiça algorítmica e os impactos sociais das máquinas inteligentes. Mas as principais preocupações com os impactos na IA e das máquinas inteligentes já existem desde o início da era da computação digital.

Tudo começou com visionários como Alan Turing, que refletiam sobre as implicações filosóficas e éticas da inteligência artificial. As questões que tiravam o sono de Turing – a natureza da consciência e o potencial das máquinas para pensar e aprender – continuam a ressoar e evoluir nos debates atuais sobre ética na IA.

Uma linha do tempo da história da ética na IA

Clique nas datas para conhecer alguns marcos importantes na evolução da ética na IA.

Como desenvolver uma IA confiável?

Do conceito à entrega, é preciso que as pessoas trabalhem juntas em prol de um objetivo comum para desenvolver um software de IA confiável, centrado nos valores humanos. Isso inclui gerentes de produto, cientistas de dados, desenvolvedores de software, designers de UX e testadores de software. Todos consideram três perguntas essenciais ao trabalhar em um produto: “Para que serve, qual é o objetivo e para quem ele pode falhar?” Assista ao vídeo para saber mais sobre como incluímos uma perspectiva ética em nossos sistemas de IA desde a fase de projeto.

A ética na IA no mundo atual

A adesão à ética na IA promove a transparência, a responsabilidade e a confiança. Mas lidar com a ética da inteligência artificial exige enfrentar as complexas implicações morais, legais e sociais dos dados e na IA. Descubra como os especialistas abordam esses desafios críticos no desenvolvimento e na implantação responsável na IA.

A ética na implantação de dados e IA

Tecnologia e ética se encontram quando modelos de IA são implementados. Saiba quais perguntas fazer durante o desenvolvimento e descubra como considerar a transparência, a confiabilidade e o impacto social à medida que você avança do desenvolvimento para o uso no mundo real.

Governança confiável de dados e IA

À medida que a IA revoluciona o nosso mundo, cresce a necessidade de práticas éticas. Neste e-book, você pode explorar os riscos na IA, aprender estratégias para criar sistemas confiáveis e descobrir como integrar efetivamente os princípios éticos na IA ao seu negócio.

O que são dados sintéticos?

Apesar da ampla disponibilidade, dados de boa qualidade podem ser difíceis (e caros) de obter, difíceis de proteger e escassos em variedade. Mas o treinamento de modelos de IA depende de conjunto de dados amplos, diversos e autênticos. Veja como os dados sintéticos ajudam a resolver o problema da "adequação" dos dados.

Ansiedade em relação à IA: mantenha a calma diante das mudanças

A IA está tirando seu sono? Você não está sozinho. Aprenda a identificar as causas da sua ansiedade em relação à IA — desde preocupações com o emprego até dilemas éticos — e descubra estratégias práticas para enfrentar a revolução da IA com confiança.

O NIH (National Institutes of Health) está superando obstáculos na pesquisa em saúde com conjuntos de dados diversificados.

Uma abordagem de “tamanho único” para a pesquisa médica é limitada. Nossos corpos são todos diferentes– com variações dependendo do local onde você vive, do que você come, da sua composição genética, das exposições ao longo da vida e muito mais. No National Institutes of Health (NIH), o Programa de Pesquisa All of Us tem como objetivo mudar os tipos de dados coletados e a forma como eles são compartilhados para a pesquisa biomédica. Ao criar conjuntos de dados abrangentes que refletem a rica diversidade da população dos Estados Unidos, os conjuntos de dados de pesquisa agora incluem muitas pessoas que antes eram sub-representadas. Tudo se resume a tornar a pesquisa mais confiável e a manter a IA e a análise de dados transparentes e éticas.

Quais setores estão adotando a ética em IA?

De veículos autônomos a chatbots e agora agentes de IA, as decisões tomadas por essa tecnologia afetam os seres humanos em diferentes graus. Por isso, a ética em IA é uma consideração essencial em diversos setores, incluindo as grandes empresas de tecnologia. Atualmente, muitas organizações reconhecem a importância de adotar estruturas éticas para orientar suas aplicações e iniciativas de IA, mitigar riscos potenciais e construir confiança com as partes interessadas.

Serviços bancários

A IA é parte integrante dos serviços financeiros. Os sistemas de pontuação de crédito utilizam algoritmos para analisar dados e avaliar a capacidade de crédito. A detecção de fraudes utiliza algoritmos avançados de aprendizado de máquina para analisar transações e se adaptar a novos padrões de fraude em tempo real. Mas a IA pode amplificar vieses se não for controlada. Por exemplo, modelos de IA treinados com dados financeiros históricos podem perpetuar desigualdades existentes, resultando em tratamento injusto na aprovação de empréstimos, pontuação de crédito, solicitações de moradia, emprego e precificação de seguros. Recursos de explicabilidade e métricas de imparcialidade e equidade podem ser úteis, juntamente com orientações regulatórias e supervisão humana. Por sua vez, os bancos podem ser catalisadores de prosperidade e de acesso equitativo.

Cuidados com a Saúde

À medida que a IA revoluciona os cuidados da saúde – desde testes genéticos a tratamentos personalizados para o câncer e diagnósticos por chatbot, – ela traz consigo uma série de questões éticas. Os dados dos pacientes, necessários para o treinamento da IA, exigem proteção rigorosa. Mas uma segurança robusta não consegue impedir que algoritmos enviesados ampliem as desigualdades nos cuidados de saúde. A tomada de decisões em "caixa preta" levanta outras preocupações. O que acontece se as máquinas tomarem decisões que mudam vidas sem transparência? Se a IA cometer um erro, quem é responsável? Inovadores tecnológicos, profissionais de saúde, pacientes e formuladores de políticas devem trabalhar juntos para criar diretrizes que protejam os pacientes sem impedir o progresso. É assim que podemos desbloquear de forma responsável e ética todo o potencial da IA na saúde.

Seguros

As empresas de seguros coletam uma ampla variedade de dados – desde informações de clientes em formulários e apólices até dados transmitidos por sensores em veículos autônomos. A coleta de informações quase em tempo real permite que as seguradoras compreendam melhor as necessidades individuais e ofereçam uma experiência personalizada mais completa. Porém, proteger e gerenciar os dados pessoais enquanto são usados para tomar decisões é essencial para manter a confiança. Para evitar problemas relacionados à privacidade ou à falta de dados suficientes, algumas seguradoras estão utilizando dados sintéticos em suas tarefas de precificação, provisão e modelagem atuarial. Qualquer que seja a abordagem adotada, as seguradoras devem estabelecer e seguir uma estrutura de ética em IA para garantir que os modelos alimentados por seus dados produzam decisões justas e imparciais.

Setor público

Os funcionários públicos dedicam-se a proteger e melhorar a vida das pessoas que servem. Ao atender às necessidades dos cidadãos, muitos estão usando a IA para se tornar mais produtivos e eficazes. Por exemplo, técnicas de GenAI podem analisar dados históricos, percepções do público e outros indicadores, gerando recomendações para diminuir o congestionamento ou otimizar a distribuição de recursos. Mas o uso da IA não é isento de riscos. É fundamental desenvolver e implementar modelos de IA com justiça e transparência, incorporar as regulamentações governamentais em todas as iniciativas e combater a rápida disseminação de desinformação nos dias de hoje. Ser capaz de desenvolver sistemas de IA éticos que protejam e reforcem os direitos individuais é essencial para ajudar o setor público a cumprir sua missão.

Curioso sobre a ética na IA em outros setores?

Explore uma ampla gama de considerações sobre a ética na IA na indústria e na agricultura.

Como funciona a ética na IA?

A ética para inteligência artificial atua na interseção entre tecnologia, filosofia e ciências sociais. Para usar essa poderosa tecnologia com sucesso, é necessário incorporar considerações éticas em todas as etapas do ciclo de vida da IA – desde a coleta de dados e o desenvolvimento de algoritmos até a implementação e o monitoramento. Vamos nos aprofundar em alguns dos princípios fundamentais.

Centralidade humana

Os sistemas de IA que priorizam as necessidades e os valores humanos têm mais chances de serem adotados, confiáveis e usados de forma eficaz. Ao incorporar a centralidade humana no desenvolvimento e na implementação da IA, as organizações podem criar sistemas mais responsáveis, eficazes e socialmente benéficos, que complementam a inteligência e a criatividade humanas.

As técnicas e abordagens para implementar a centralidade humana incluem:

  • Human-in-the-loop (integração do julgamento humano em pontos cruciais dos processos de IA, especialmente em decisões de alto risco).
  • Design participativo.
  • Avaliações de impacto ético.
  • IA adaptativa (sistemas que ajustam seu comportamento com base no feedback humano e em contextos em mudança).

À medida que a IA evolui, manter uma abordagem centrada no ser humano será crucial para criar sistemas de IA que beneficiem a sociedade, respeitando os direitos e a dignidade individuais.

Justiça e responsabilidade

Um aspecto fundamental da ética na IA é garantir resultados justos e imparciais. Considere este exemplo: se seu algoritmo está identificando animais como humanos, é necessário fornecer mais dados sobre um conjunto mais diverso de seres humanos. Se o seu algoritmo estiver tomando decisões imprecisas ou antiéticas, isso pode significar que não havia dados suficientes para treinar o modelo ou que o reforço de aprendizagem não era adequado para o resultado desejado.

Os seres humanos, às vezes sem intenção, têm inserido valores antiéticos nos sistemas de IA devido à seleção tendenciosa de dados ou à atribuição inadequada de valores de reforço. Um dos primeiros passos técnicos para garantir a ética na IA é desenvolver métricas de justiça e técnicas de redução de viés. Paridade demográfica e probabilidades equalizadas medem a justiça algorítmica. Reponderar os dados de treinamento e aplicar técnicas de desenviesamento adversarial pode ajudar a reduzir vieses aprendidos.

No entanto, uma única ação não é o suficiente. Auditorias regulares, combinadas com uma representação diversificada nas equipes de desenvolvimento de IA, ajudarão a manter a equidade e a responsabilidade ao longo do ciclo de vida do sistema de IA. Não basta ter conversas pontuais sobre essas questões; devemos torná-las parte contínua e integrante do nosso discurso.

Transparência e explicabilidade

A transparência e a explicabilidade são fundamentais para construir confiança, cumprir as regulamentações de IA e obter validação ética. Uma IA transparente e explicável possibilita que os desenvolvedores detectem e corrijam vieses ou falhas no processo de decisão, ao mesmo tempo em que permite que os usuários finais façam escolhas informadas com base nos fatores que impactam os resultados da IA.

Rótulos nutricionais para modelos de IA

Os rótulos nutricionais nas embalagens dos alimentos proporcionam transparência quanto aos ingredientes, valor nutricional e preparação dos seus lanches favoritos. Da mesma forma, as model cards são como “rótulos nutricionais” transparentes para modelos de IA. Elas fornecem visibilidade sobre o propósito, o desempenho, as limitações e as considerações éticas de um modelo, utilizando um formato padronizado e acessível para comunicar aspectos essenciais dos modelos de IA às partes interessadas.

Técnicas para explicar modelos complexos

Os modeladores podem usar várias técnicas para explicar as previsões de modelos complexos de aprendizado de máquina, ajudando a desmistificar o processo de tomada de decisão do modelo. Exemplos dessas técnicas incluem:

  • LIME (abreviação de Local Interpretable Model-Agnostic Explanations).
  • SHAP (abreviação de SHapley Additive exPlanations).
  • Gráficos ICE (abreviação de Individual Conditional Expectation).

Os desenvolvedores de modelos também podem usar o processamento de linguagem natural (PLN) para gerar explicações legíveis por humanos sobre as decisões do modelo. O PLN pode traduzir saídas estatísticas complexas em narrativas claras e contextuais, acessíveis e fáceis de interpretar para desenvolvedores e usuários. Leia sobre cinco perguntas importantes a serem feitas durante o desenvolvimento de modelos de IA confiáveis.

Privacidade e segurança

Os pilares interligados da privacidade e da segurança garantem que os dados confidenciais sejam protegidos ao longo de todo o ciclo de vida da IA. As técnicas de IA que preservam a privacidade permitem que as organizações aproveitem grandes conjuntos de dados, ao mesmo tempo que protegem as informações individuais. As medidas de segurança protegem contra ataques maliciosos e acesso não autorizado.

À medida que as empresas avançam para um modelo de dados descentralizado, as técnicas de aprendizado federado oferecem escalabilidade e flexibilidade, ao mesmo tempo em que resolvem diversos problemas de privacidade e segurança. Por exemplo, as técnicas de aprendizagem federada permitem que as organizações treinem modelos sem compartilhar dados brutos, reduzindo a movimentação de dados (e, portanto, o risco de exposição).

Outras técnicas úteis para privacidade e segurança incluem:

  • Criptografia homomórfica (permite o cálculo em dados criptografados sem descriptografar o original).
  • Privacidade diferencial (oculta dados individuais adicionando ruído controlado).
  • Treinamento adversarial e sanitização de entradas.
  • Protocolos robustos de controle de acesso e autenticação.

Robustez

Sistemas de IA robustos têm um desempenho consistente e preciso em várias condições, incluindo entradas inesperadas ou mudanças ambientais. A robustez é crucial para manter a credibilidade e a confiança em aplicações do mundo real.

As técnicas para aumentar a robustez incluem:

  • O treinamento adversarial envolve expor os modelos a entradas maliciosas durante o treinamento para aumentar sua resistência.
  • Os métodos de conjunto envolvem a combinação de vários algoritmos de aprendizagem para melhorar a estabilidade e o desempenho.
  • As técnicas de regularização ajudam a evitar o sobreajuste e o subajuste, melhoram a generalização e equilibram a complexidade do modelo com o desempenho. O monitoramento contínuo do desempenho e as atualizações do modelo ajudam a manter a precisão.

Um software de IA confiável deve incorporar vários métodos para gerenciar algoritmos e monitorar sua depreciação ao longo do tempo. Em última análise, a ética em IA cria um quadro de governança, soluções técnicas e práticas organizacionais que alinham o desenvolvimento e a implementação da IA com os valores humanos e os melhores interesses da sociedade

Enfrentando seis desafios éticos únicos da IA generativa

A inteligência artificial sempre levantou questões éticas, mas a GenAI – com sua capacidade de gerar novos dados – intensificou essas preocupações. As questões éticas resultantes e os potenciais riscos apresentam desafios e perigos sem precedentes que as organizações e a sociedade precisam enfrentar com urgência.

Considere estes exemplos de como a GenAI pode:

  • Elevar as deepfakes a um novo patamar (como em publicações nas redes sociais).
  • Violar os direitos de propriedade intelectual.
  • Destruir a confiança na informação digital.
  • Exacerbar vieses e discriminação.
  • Gerar impactos negativos na psique e no convívio social.
  • Criar complexidade em responsabilidade e governança.

O papel da governança na IA ética

Uma estrutura de governança forma a base para a implementação ética na IA. Essas estruturas estabelecem linhas claras de responsabilidade e prestação de contas ao longo do ciclo de vida da IA.

Uma estratégia abrangente de governança deve definir os processos de tomada de decisão incluindo supervisão humana e atribuir funções específicas para a gestão de projetos de IA.

Em algum momento, isso pode incluir a atribuição de funções para responsáveis ou comitês de ética em IA, encarregados do desenvolvimento de políticas, monitoramento de conformidade e auditorias éticas. Avaliações regulares de algoritmos e verificações de viés são componentes cruciais desses sistemas de governança, garantindo que os modelos de IA permaneçam alinhados com os padrões éticos e os valores organizacionais.

À medida que as capacidades da IA se expandem, o papel da governança torna-se ainda mais crítico. O potencial dos sistemas para formular perguntas e gerar respostas de forma independente ressalta a necessidade de mecanismos de supervisão robustos. Considere, por exemplo, as implicações das alucinações de IA.

Ao implementar protocolos de governança rigorosos, sua organização pode aproveitar o poder da IA enquanto mitiga riscos e mantém a integridade ética em um cenário tecnológico cada vez mais autônomo.

Uma IA confiável e responsável vai além de diminuir os aspectos negativos; trata-se também de destacar seu grande potencial para promover sociedades mais produtivas e equitativas. Reggie Townsend Reggie Townsend Vice President SAS Data Ethics Practice

O futuro da ética na IA

À medida que a IA evolui, o mesmo ocorre com o campo da ética na IA. Tecnologias emergentes, como computação quântica e IA neuromórfica, apresentarão novos desafios e oportunidades éticas. Os reguladores, líderes industriais e pesquisadores devem colaborar para desenvolver estruturas éticas adaptáveis que possam acompanhar os rápidos avanços tecnológicos.

As questões fundamentais que as ferramentas e a tecnologia de IA levantam sobre nossa relação com os computadores continuarão a evoluir. Os debates sobre como a IA afetará o futuro do trabalho – e se (ou quando) a singularidade tecnológica poderá ocorrer – continuam em andamento.

A educação e a conscientização também desempenharão um papel vital na definição do futuro da ética na IA. Ao promover uma cultura de consciência ética entre desenvolvedores de IA, líderes empresariais e o público em geral, podemos garantir que seus benefícios sejam aproveitados de forma responsável e equitativa

Visto que estamos diante de um futuro impulsionado pela IA, adotar a ética nesse campo é, antes de tudo, um imperativo moral. Também é uma necessidade estratégica para empresas que desejam construir um ecossistema de IA sustentável, confiável e benéfico para as gerações futuras.

PRÓXIMOS PASSOS

Veja como desenvolver uma IA responsável, consistente e confiável.

Potenciando a inovação em ética na IA

O SAS® Viya® é uma plataforma abrangente para o desenvolvimento e a implantação de soluções éticas de IA. Com recursos integrados de explicabilidade de modelos, detecção de vieses e governança, ela permite aproveitar o poder da IA mantendo os mais altos padrões éticos.