Grupo de compañeros de trabajo revisando el trabajo en un monitor de computadora

Ética de IA

Qué es y por qué es importante

La ética de IA conecta la inteligencia artificial (IA) con la práctica de la ética: los principios del bien y del mal que definen lo que los humanos deben hacer. ¿Por que es tan importante? Porque la tecnología IA permite que las máquinas imiten la toma de decisiones humanas y automaticen tareas de forma inteligente. Para hacer esto de forma segura, necesitamos directrices que garanticen que los sistemas de IA se diseñen e implementen en consonancia con valores humanos fundamentales como la privacidad, la inclusión, la equidad y la protección de los derechos individuales.

Historia de la ética de IA: «¿Pueden pensar las máquinas?»

La inteligencia artificial ha dominado los titulares y capturado la imaginación del público en los últimos años, pero sus raíces se remontan a décadas atrás. La investigación sobre IA comenzó en la década de 1950, cuando los primeros pioneros desarrollaron conceptos y algoritmos fundamentales.

Los recientes avances en el potencial de cómputo, big data y técnicas de machine learning impulsaron la IA hacia la primera línea, haciendo que su impacto sea más visible y tangible en nuestra vida diaria. Consideremos la rápida adopción de la IA generativa (GenAI), un tipo de tecnología de IA que va más allá de la predicción para generar nuevos datos como su resultado principal.

Con todo el revuelo en torno a GenAI, es fácil suponer que nuestra generación es la primera en reflexionar sobre cuestiones importantes acerca de los datos sesgados, la responsabilidad, la equidad algorítmica y los impactos sociales de las máquinas inteligentes. Sin embargo las principales preocupaciones en torno a los efectos resultantes de la IA y las máquinas inteligentes se remontan a los albores del cómputo digital.

Todo comenzó con visionarios como Alan Turing, que se enfrentaron a las implicaciones filosóficas y éticas de la inteligencia artificial. Las preguntas que mantuvieron despierto a Turing (la naturaleza de la conciencia y el potencial de las máquinas para pensar y aprender) siguen resonando y evolucionando en el discurso moderno sobre la ética de IA.

Una cronología de la historia de la ética de IA

Haga clic en las fechas para leer sobre algunos hitos importantes en la evolución de la ética de IA.

Asesoramiento confiable sobre IA de un experto

«La confianza en la IA debe comenzar antes de escribir la primera línea de código». Este es solo un pequeño consejo sobre ética de IA de Reggie Townsend, vicepresidente de Prácticas de ética de datos de SAS. Vea este breve video para escuchar otros excelentes consejos que Townsend ha compartido con audiencias de todo el mundo.

La ética de IA en el mundo actual

Adherirse a la ética de IA fomenta la transparencia, la responsabilidad y la confianza. Sin embargo, abordar la ética de la inteligencia artificial requiere lidiar con complejas implicaciones morales, legales y sociales de los datos y la IA. Descubra la forma en la que los expertos abordan estos desafíos críticos en el desarrollo y la implementación de IA responsable.

La ética de los datos y la implementación de la IA

La tecnología se une a la ética cuando se implementan modelos de IA. Aprenda qué preguntas hacer durante el desarrollo y vea cómo tener en cuenta la transparencia, la confiabilidad y el impacto social a medida que pasa del desarrollo al uso en el mundo real.

Datos confiables y gobierno de IA

A medida que la IA revoluciona nuestro mundo aumenta la necesidad de prácticas de IA éticas. En este libro electrónico, puede explorar los riesgos de la IA, aprender estrategias para construir sistemas de IA confiables y descubrir cómo integrar eficazmente los principios éticos de la IA en su negocio.

¿Qué son los datos sintéticos?

A pesar de su amplia disponibilidad, obtener datos de buena calidad puede ser difícil (y costoso), puede ser complicado protegerlos y su variedad puede ser escasa. Pero el entrenamiento de modelos de IA depende de conjuntos de datos grandes, diversos y auténticos. Vea cómo los datos sintéticos ayudan a resolver el problema de la «idoneidad» de los datos.

Ansiedad frente a la IA: mantener la calma ante el cambio

¿La IA le quita el sueño? No es el único. Aprenda a identificar las causas fundamentales de su ansiedad relacionada con la IA (desde preocupaciones laborales hasta dilemas éticos) y encuentre estrategias prácticas para navegar la revolución de la IA con confianza.

El NIH está rompiendo barreras en la investigación sanitaria con diversos conjuntos de datos

Un enfoque único para la investigación médica es limitado. Todos nuestros cuerpos son diferentes: varían según el lugar donde vivimos, lo que comemos, nuestra composición genética, las exposiciones a lo largo de nuestra vida y más. En los Institutos Nacionales de Salud (NIH) de Estados Unidos, el Programa de Investigación All of Us busca cambiar qué tipos de datos se recopilan y cómo se comparten para la investigación biomédica. Al crear conjuntos de datos amplios que reflejan la rica diversidad de personas en todo Estados Unidos, los conjuntos de datos de investigación ahora incluyen a muchos que antes estaban subrepresentados. Se trata de hacer que la investigación sea más confiable y mantener la IA y el análisis transparentes y éticos.

¿Qué industrias están utilizando la ética de IA?

Desde los vehículos autónomos hasta los chatbots de IA y ahora los agentes de IA, las decisiones que toma la IA afectan a los humanos en distintos grados. Como tal, la ética de IA es una consideración fundamental en múltiples industrias, incluidas las grandes empresas tecnológicas. Hoy en día, muchas organizaciones reconocen la importancia de contar con marcos éticos para guiar sus aplicaciones e iniciativas de IA, mitigar riesgos potenciales y generar confianza con las partes interesadas.

Banca

La IA es fundamental para los servicios financieros. Los sistemas de puntuación crediticia utilizan algoritmos para analizar datos y evaluar la solvencia. La detección de fraude utiliza algoritmos avanzados de machine learning para escanear transacciones y adaptarse a nuevos patrones de fraude a tiempo real. Pero la IA puede amplificar los sesgos si no se controla. Por ejemplo, los modelos de IA entrenados con datos financieros históricos pueden perpetuar las desigualdades existentes, lo que lleva a un trato injusto en la aprobación de préstamos, la calificación crediticia, las solicitudes de vivienda, el empleo y los precios de los seguros. Las características de explicabilidad y las métricas de sesgo y equidad pueden ayudar, junto con la orientación regulatoria y la supervisión humana. A su vez, los bancos pueden ser catalizadores de la prosperidad y el acceso equitativo.

Atención sanitaria

A medida que la IA revoluciona la atención médica (desde las pruebas genéticas hasta los tratamientos personalizados contra el cáncer y los diagnósticos mediante chatbots), surgen una serie de cuestiones éticas. Los datos de los pacientes, necesarios para el entrenamiento de la IA, exigen una protección similar a la de una fortaleza. Pero una seguridad robusta no puede proteger contra algoritmos sesgados que pueden amplificar las disparidades en la atención médica. La toma de decisiones de «caja negra» plantea otras preocupaciones. ¿Qué sucede si las máquinas toman decisiones sin transparencia capaces de alterar la vida? Si la IA comete un error, ¿quién es responsable? Los innovadores tecnológicos, los profesionales de la salud, los pacientes y los responsables de las políticas deben trabajar juntos para crear pautas que protejan a los pacientes sin sofocar el progreso. Así es como podemos liberar de manera responsable y ética todo el potencial de la IA en la atención médica.

Seguros

Las compañías de seguros recopilan una amplia gama de datos: desde información de clientes en aplicaciones y pólizas hasta transmisión de datos desde sensores en automóviles autónomos. La recopilación de información casi a tiempo real permite a las aseguradoras comprender mejor las necesidades de cada persona y brindarle una experiencia personalizada superior. Sin embargo, proteger y gobernar los datos personales tal como se utilizan para tomar decisiones resulta esencial para mantener la confianza. Para evitar preocupaciones sobre la privacidad o la falta de datos suficientes, algunas aseguradoras están utilizando datos sintéticos en sus tareas de fijación de precios, reservas y modelos actuariales. Cualquiera que sea su enfoque, las aseguradoras deben establecer y adherirse a un marco ético de IA para garantizar que los modelos alimentados por sus datos brinden decisiones justas e imparciales.

Administración pública

Los trabajadores del sector público se dedican a proteger y mejorar las vidas de las personas a las que sirven. A medida que responden a las necesidades de los ciudadanos, muchos están utilizando IA para ser más productivos y efectivos. Por ejemplo, las técnicas GenAI pueden analizar datos históricos, el sentimiento público y otros indicadores y luego generar recomendaciones para reducir la congestión o ajustar la asignación de recursos. Pero el uso de IA no está exento de riesgos. Es vital desarrollar e implementar modelos de IA con equidad y transparencia, incorporar regulaciones gubernamentales en todas las iniciativas y superar la rápida propagación de desinformación actual. Ser capaz de construir sistemas de IA éticos que protejan y fortalezcan los derechos de las personas es vital para ayudar al sector público a cumplir su misión.

¿Tiene curiosidad sobre la ética de IA en otras industrias?

Explore una amplia gama de consideraciones en torno a la ética de IA en la manufactura y en la agricultura.

Cómo funciona la ética de IA: comprender la ética de la inteligencia artificial

La ética de IA opera en la intersección de la tecnología, la filosofía y las ciencias sociales. Para tener éxito en el uso de esta poderosa tecnología, debemos incorporar consideraciones éticas en cada etapa del ciclo de vida de la IA: desde la recopilación de datos y el diseño de algoritmos hasta la implementación y el monitoreo. Profundicemos en algunos de los principios clave.

Centrados en el ser humano

Los sistemas de IA que priorizan las necesidades y los valores humanos tienen más probabilidades de ser adoptados, confiables y utilizados de manera eficaz. Al incorporar la centralidad humana a medida que desarrollamos e implementamos la IA, las organizaciones pueden crear sistemas de IA más responsables, efectivos y socialmente beneficiosos que complementen la inteligencia y la creatividad humanas.

Las técnicas y enfoques para implementar la centralidad humana incluyen:

  • «Human-in-the-loop» (integración del juicio humano en puntos cruciales de los procesos de IA, especialmente en decisiones de alto riesgo).
  • Diseño participativo.
  • Evaluaciones de impacto ético.
  • IA adaptable (sistemas que ajustan su comportamiento en función de la retroalimentación humana y de los contextos cambiantes).

A medida que la IA evoluciona, mantener un enfoque centrado en el ser humano será crucial para crear sistemas de IA que beneficien a la sociedad y al mismo tiempo respeten los derechos y la dignidad individuales.

Equidad y rendición de cuentas

Un aspecto clave de la ética de IA es garantizar resultados justos e imparciales. Considere este ejemplo: si su algoritmo identifica animales como humanos, necesita proporcionar más datos sobre un conjunto más diverso de humanos. Si su algoritmo toma decisiones imprecisas o poco éticas, puede ser señal de que no tiene suficientes datos para entrenar el modelo, o que el refuerzo en el aprendizaje no es el adecuado para obtener el resultado que busca.

Los humanos han insertado, a veces sin intención, valores poco éticos en los sistemas de IA debido a una selección de datos sesgada o a valores de refuerzo mal asignados. Uno de los primeros pasos técnicos para garantizar la ética de IA es desarrollar métricas de imparcialidad y técnicas de eliminación de sesgos. La paridad demográfica y las probabilidades igualadas miden la equidad algorítmica. La reevaluación de los datos de entrenamiento y la eliminación de sesgos adversarios pueden ayudar a mitigar los sesgos aprendidos.

Pero una sola vez no es suficiente. Las auditorías periódicas, combinadas con una representación diversa en los equipos de desarrollo de IA, ayudarán a mantener la equidad y la responsabilidad durante todo el ciclo de vida del sistema de IA. No basta con tener conversaciones puntuales sobre estos temas; debemos convertirlos en una parte continua e integral de nuestro discurso.

Transparencia y explicabilidad

La transparencia y la explicabilidad son cruciales para generar confianza, cumplir con las regulaciones de IA y lograr la validación ética. La IA transparente y explicable permite a los desarrolladores identificar y abordar sesgos o errores en el proceso de toma de decisiones y empodera a los usuarios finales para tomar decisiones informadas basadas en factores que influyen en el resultado de la IA.

Etiquetas nutricionales para modelos de IA

Las etiquetas nutricionales en los envases de alimentos brindan transparencia sobre los ingredientes, la nutrición y la preparación de su picoteo favorito. De manera similar, las tarjetas de modelo son «etiquetas nutricionales» transparentes para los modelos de IA. Proporcionan visibilidad sobre el propósito, el rendimiento, las limitaciones y las consideraciones éticas de un modelo, utilizando una forma estandarizada y accesible de comunicar aspectos clave de los modelos de IA a las partes interesadas.

Técnicas para explicar modelos complejos

Los modeladores pueden utilizar múltiples técnicas para explicar las predicciones de modelos complejos de machine learning, lo que ayuda a desmitificar el proceso de toma de decisiones del modelo. Algunos ejemplos de estas técnicas incluyen:

  • LIME (Explicaciones agnósticas del modelo interpretable local).
  • SHAP (Explicaciones aditivas SHapley).
  • Gráficos ICE (Esperanza condicional individual).

Los desarrolladores de modelos también pueden utilizar el procesamiento del lenguaje natural (NLP) para generar explicaciones legibles por humanos de las decisiones del modelo. El NPL puede traducir resultados estadísticos complejos en narrativas claras y contextuales que sean accesibles y fáciles de interpretar para desarrolladores y usuarios. Lea acerca de cinco preguntas clave que debe hacer al desarrollar modelos de IA confiables.

Privacidad y seguridad

Los pilares entrelazados de la privacidad y la seguridad garantizan que los datos confidenciales estén protegidos durante todo el ciclo de vida de la IA. Las técnicas de IA que preservan la privacidad permiten a las organizaciones aprovechar grandes conjuntos de datos y al mismo tiempo proteger la información individual. Las medidas de seguridad defienden contra ataques maliciosos y accesos no autorizados.

A medida que las empresas avanzan hacia un modelo de datos descentralizado, las técnicas de aprendizaje federado proporcionan escala y flexibilidad al tiempo que resuelven varios problemas de privacidad y seguridad. Por ejemplo, las técnicas de aprendizaje federado permiten a las organizaciones entrenar modelos sin compartir datos sin procesar, lo que reduce el movimiento de datos (y, por lo tanto, el riesgo de exposición).

Otras técnicas útiles para la privacidad y la seguridad incluyen:

  • Cifrado homomórfico (permite el cálculo de datos cifrados sin descifrar el original).
  • Privacidad diferencial (ocultar datos individuales añadiendo ruido controlado).
  • Capacitación adversarial y saneamiento de insumos.
  • Protocolos robustos de control de acceso y autenticación.

Robustez

Los sistemas de IA robustos funcionan de manera consistente y precisa en diversas condiciones, incluidas entradas inesperadas o cambios ambientales. La robustez es crucial para mantener la confiabilidad y la confianza en las aplicaciones del mundo real.

Las técnicas para mejorar la robustez incluyen:

  • El entrenamiento adversarial implica exponer los modelos a información maliciosa durante el entrenamiento para mejorar la resiliencia.
  • Los métodos de conjunto implican la combinación de múltiples algoritmos de aprendizaje para mejorar la estabilidad y el rendimiento.
  • Las técnicas de regularización ayudan a prevenir el sobreajuste y el subajuste, mejoran la generalización y equilibran la complejidad del modelo con el rendimiento. La continua monitorización de rendimiento y las actualizaciones del modelo ayudan a mantener la precisión.

Un software de IA confiable debe incorporar varios métodos para gestionar algoritmos y monitorear su depreciación a lo largo del tiempo. En última instancia, la ética de IA crea un marco de gobierno, soluciones técnicas y prácticas organizacionales que alinean el desarrollo y la implementación de la IA con los valores humanos y los mejores intereses de la sociedad.

Navegando por 6 desafíos éticos únicos de la IA generativa

La inteligencia artificial siempre ha planteado cuestiones éticas, pero GenAI, con su capacidad de generar nuevos datos, ha intensificado estas preocupaciones. Las cuestiones éticas resultantes y los riesgos potenciales plantean riesgos y desafíos sin precedentes que las organizaciones y la sociedad necesitan abordar con urgencia.

Considere estos ejemplos de cómo GenAI puede:

  • Llevar los deepfakes a un nuevo nivel (como en publicaciones en redes sociales).
  • Pisotear los derechos de propiedad intelectual.
  • Destruir la confianza en la información digital.
  • Exacerbar los prejuicios y la discriminación.
  • Tener impactos sociales y psíquicos negativos.
  • Crear un atolladero en materia de rendición de cuentas y gobernanza.

El papel de la gobernanza en la IA ética

Un marco de gobernanza constituye la columna vertebral de una implementación de IA ética. Estas estructuras establecen líneas claras de responsabilidad y rendición de cuentas a lo largo del ciclo de vida de la IA.

Una estrategia de gobernanza integral debe definir los procesos de toma de decisiones, incluida la supervisión humana, y asignar roles específicos para la gestión de proyectos de IA.

En algún momento esto puede incluir la asignación de funciones a funcionarios o comités de ética de IA responsables del desarrollo de políticas, la supervisión del cumplimiento y las auditorías éticas. Las evaluaciones periódicas de algoritmos y los controles de sesgos son componentes cruciales de estos sistemas de gobernanza, que garantizan que los modelos de IA se mantengan alineados con los estándares éticos y los valores organizacionales.

A medida que se expanden las capacidades de la IA, el papel de la gobernanza se vuelve aún más crítico. El potencial de los sistemas de IA para formular preguntas y generar respuestas de forma independiente subraya la necesidad de mecanismos de supervisión sólidos. Consideremos, por ejemplo, las implicaciones de las alucinaciones de la IA.

Al implementar protocolos de gobernanza estrictos, su organización puede aprovechar el poder de la IA mientras mitiga los riesgos y mantiene la integridad ética en un panorama tecnológico cada vez más autónomo.

Una IA confiable y responsable implica mucho más que disminuir lo negativo: también implica acentuar su gran potencial para permitir sociedades más productivas y equitativas. Reggie Townsend Reggie Townsend Vice President SAS Data Ethics Practice

El futuro de la ética de IA

A medida que la IA evoluciona, también lo hará el campo de la ética de IA. Tecnologías emergentes como la computación cuántica y la IA neuromórfica presentarán nuevos desafíos y oportunidades éticas. Los responsables de las políticas, los líderes de la industria y los investigadores deben colaborar para desarrollar marcos éticos adaptativos que puedan seguir el ritmo de los rápidos avances tecnológicos.

Las preguntas fundamentales que las herramientas y la tecnología de IA plantean sobre nuestra relación con los ordenadores seguirán evolucionando. Siguen los debates sobre cómo afectará la IA al futuro del trabajo (y si podría producirse una singularidad tecnológica, o cuándo).

La educación y la concientización también jugarán un papel vital a la hora de dar forma al futuro de la ética de IA. Al fomentar una cultura de conciencia ética entre los desarrolladores de IA, los líderes empresariales y el público en general, podemos garantizar que los beneficios de la IA se obtengan de manera responsable y equitativa.

A medida que nos encontramos a punto de un futuro impulsado por la IA, adoptar la ética de IA es, ante todo, un imperativo moral. También es una necesidad estratégica para las empresas que esperan construir un ecosistema de IA sostenible, confiable y beneficioso para las generaciones futuras.

Siguientes pasos

Descubra cómo desarrollar IA de forma responsable, consistente y confiable.

Impulsando la innovación en la ética de IA

SAS® Viya® es una plataforma integral para el desarrollo y el despliegue de soluciones éticas de inteligencia artificial. Con funciones integradas para la explicabilidad del modelo, la detección de sesgos y la gobernanza, le permite aprovechar el poder de la IA y cumplir al mismo tiempo con los estándares éticos más elevados.