3 pasos esenciales para una Inteligencia Artificial ética
Cómo aplicar la ética para un futuro más seguro usando la inteligencia artificial
Hay dos corrientes de pensamiento en cuanto al futuro de la inteligencia artificial (AI):
- Visión utópica: los sistemas inteligentes darán paso a una nueva era dorada en la que los humanos se liberarán del trabajo y podrán perseguir objetivos más nobles. Los sistemas de AI estarán programados para curar enfermedades, resolver disputas justamente y potenciar la existencia humana solo de forma que nos beneficie.
- Visión apocalíptica: los sistemas inteligentes nos robarán el trabajo, evolucionarán hasta superar a los humanos, se convertirán en máquinas de guerra y priorizarán un futuro lejano por encima de las necesidades actuales. Cualquier intento de controlarlos solo pondrá de manifiesto nuestros propios defectos y nuestra escasa capacidad para aplicar la moral a una tecnología que escapa de nuestro control.
Como suele ocurrir, la verdad suele estar en un punto intermedio.
Independientemente de dónde se encuentre usted en este espectro, es importante analizar la manera en la que los humanos podemos influir en la AI a medida que esta tecnología evoluciona. Una idea es que los humanos seremos quienes fabricaremos en gran medida la conciencia o el tejido moral de la AI. Pero, ¿de qué manera? ¿Cómo podemos aplicar la ética a la IA para evitar que ocurra lo peor?
Inteligencia artificial para ejecutivos
La IA requiere que exista una visión que logro. Su organización no tiene una visión genérica, por lo que su aplicación de Inteligencia Artificial tampoco debería serlo. Con nuestra orientación, puede integrar en su estrategia la analítica avanzada —incluyendo la inteligencia artificial— y entender las fortalezas y debilidades de cada método según cuáles sean sus objetivos.
Relación entre el ser humano y la Inteligencia Artificial
El poder de los sistemas de deep learning es que estos determinan sus propios parámetros o características. Basta con asignarles una tarea o un propósito, señalarles los datos y dejar que ellos se encarguen del resto. Por ejemplo, la capacidad de autoajuste de SAS® Visual Data Mining and Machine Learning es capaz de encontrar la mejor solución por sí sola. No obstante, las personas siguen siendo la parte más fundamental del proceso.
«Los humanos resolvemos los problemas, no las máquinas», explica Mary Beth Ainsworth, especialista en AI de SAS. «Las máquinas pueden extraer la información necesaria para resolver los problemas y, a continuación, programarse para abordarlos de forma automatizada basándose en la solución que los humanos propongan para ese problema».
Aunque los sistemas de AI del futuro también podrían ser capaces de recopilar sus propios datos, la mayoría de los sistemas actuales dependen de los humanos para introducir los parámetros de entrada —incluidos los datos y el resultado más deseable— conforme los identifican durante el aprendizaje, tal y como ocurre en el aprendizaje por refuerzo. Cuando le pedimos al algoritmo que encuentre la mejor forma de lograr ese resultado, no sabemos cómo va a resolver el problema. Solo sabemos que será más eficiente que una persona.
Dada la relación actual entre los humanos y la AI, podemos adoptar una serie de medidas para controlar el resultado de los proyectos de AI de una forma más ética. Empecemos con estas tres.
Los humanos resuelven los problemas, no las máquinas. Las máquinas pueden extraer la información necesaria para resolver los problemas y, a continuación, programarse para abordarlos de forma automatizada basándose en la solución que los humanos propongan para ese problema. Mary Beth Ainsworth AI and Language Analytics Strategist SAS
Paso 1 para una Inteligencia Artificial ética: aportar los mejores datos
Los algoritmos de AI se entrenan con un conjunto de datos que alimentan o construyen el algoritmo. Si su algoritmo identifica a una ballena como si fuera un caballo, es evidente que debe proporcionarle más datos sobre las ballenas (y sobre los caballos). Del mismo modo, si su algoritmo identifica a un animal como un ser humano, debe proporcionarle más datos sobre un conjunto de seres humanos más diverso. Si su algoritmo toma decisiones imprecisas o poco éticas, puede ser señal de que no tiene suficientes datos para entrenar el modelo, o que el refuerzo en el aprendizaje no es el adecuado para obtener el resultado que busca.
Por supuesto, también es posible que los humanos hayan inyectado (quizás inconscientemente) en el sistema sus propios valores poco éticos a través de una selección de datos sesgada o de valores de refuerzo mal asignados. En general, debemos asegurarnos de que los datos y las entradas que introducimos ofrecen al algoritmo una imagen completa y acertada.
Paso 2 para una AI ética: supervisarla adecuadamente
Establezca para todos los proyectos de AI un sistema de gobernanza con propietarios y partes interesadas bien definidos. Delimite qué decisiones se automatizarán con AI y cuáles requerirán de intervención humana. Asigne responsabilidades en todas las partes pertinentes del proceso, también por los errores de AI, y fije límites claros en el desarrollo del sistema de AI. Esto incluye una supervisión y auditoría periódicas de los algoritmos para asegurarse de que no se introduce ningún sesgo y de que los modelos siguen funcionando según lo previsto.
Debe haber una figura responsable de las políticas y los protocolos de AI y su cumplimiento, que puede ser un científico de datos o un especialista en ética dedicado. Es posible que, algún día, todas las organizaciones incorporen el rol del jefe de ética de AI. De todos modos, sea cual sea el título, alguien debe responsabilizarse de determinar si la salida y el rendimiento del sistema se ajustan a un marco ético determinado.
Al igual que la analítica estándar siempre ha necesitado de gobernanza, trazabilidad, seguimiento y perfeccionamiento, ocurre lo mismo con AI. Ahora bien, las consecuencias son mucho mayores en AI, puesto que las máquinas pueden plantear las preguntas y también definir las respuestas por sí mismas.
Paso 3 para una Inteligencia Artificial ética: tener en cuenta las ramificaciones de las nuevas tecnologías
Para que los individuos puedan reforzar las políticas, la tecnología debe permitir que los humanos hagan algunos ajustes. Debemos ser capaces de seleccionar y ajustar los datos de entrenamiento, controlar las fuentes de datos y elegir cómo se transforman esos datos. Del mismo modo, las tecnologías de AI deben apoyar una gobernanza robusta, que incluya el acceso a los datos y la capacidad para guiar a los algoritmos cuando se equivocan o sobrepasan los límites definidos por la ética.
No hay forma de anticipar todos los escenarios posibles de AI, pero es importante analizar las posibilidades y controlar los refuerzos positivos y negativos. Por ejemplo, introducir objetivos nuevos (o incluso enfrentados) puede recompensar las decisiones éticas e identificar las decisiones no éticas como erróneas o descaminadas. Un sistema de AI diseñado para otorgar la misma importancia a la calidad que a la eficiencia ofrecerá resultados diferentes que un sistema centrado únicamente en ser eficiente. Además, un sistema de AI diseñado con varios objetivos independientes y conflictivos podría añadir mayor responsabilidad al sistema.
Importancia de la ética de AI
La AI puede hacer que los automóviles sean más seguros o diagnosticar el cáncer, pero también es capaz de seleccionar el blanco de un misil de crucero. Las capacidades de AI tienen repercusiones éticas importantes que deben debatirse desde múltiples puntos de vista. ¿Cómo podemos garantizar que no se haga un mal uso de los sistemas éticos de AI?
Los tres pasos anteriores son solo el principio. Con ellos, le resultará más fácil abordar los complejos debates sobre cómo desarrollar las directrices para una AI ética en su organización. Quizás se sienta reacio a trazar las líneas de la ética, pero este es un debate que debemos mantener. Así que no espere más. Comience ya a definir los límites y debatir cómo reforzarlos e incluso cómo modificarlos, si se diera el caso.
Lecturas recomendadas
- Artículo Are you covering who you think you’re covering? Payers often don't focus enough on healthcare beneficiary fraud in public and private healthcare plans. Before paying a claim, payers need to ensure beneficiaries are eligible. Advanced analytics applied to a broad range of data can help them accurately detect and prevent beneficiary fraud.
- Artículo Risk data infrastructure: Staying afloat on the regulatory floodWhat are the challenges of a risk data infrastructure and how can they be addressed? Here's what you need to know to build an effective enterprise risk and finance reporting warehouse that will effectively address compliance requirements.
- Artículo Edge computingWith edge computing, IoT data is processed at the edge of a network where it’s created or collected – avoiding delays and enabling real-time processing and action.
- Artículo Medicaid and benefit fraud in 2018 and beyondTo curb the growing amount of Medicaid and benefit fraud and improper payments, agencies and their commercial counterparts need fraud and abuse detection systems with data management and analysis that can keep up and even stay one step ahead.
¿Quieres suscribirte a Insights ahora?