¿Qué son las alucinaciones de IA?
Elaine Hamill, editora de SAS Insights
Se espera que el mercado mundial de la inteligencia artificial generativa (GenAI) crezca enormemente en los próximos cinco años. ¿Cómo podemos equilibrar la gran promesa de la IA con la necesidad de seguridad y responsabilidad, especialmente en un año de elecciones? Vamos a empezar por entender las alucinaciones de la IA y por qué cada vez es más difícil distinguir la realidad de la ficción generada por la IA.
Entendamos las alucinaciones de la IA
En un mundo ideal, las herramientas de IA generativa como Gemini de Google y ChatGPT de OpenAI abordarían adecuadamente cada parámetro que un usuario enviara. Proporcionarían respuestas precisas y correctas en todo momento.
Sin embargo, en el mundo real, la GenAI se suele equivocar. La GenAI se inventa cosas. Las alucinaciones de la IA se producen cuando los grandes modelos de lenguaje (LLM) en los que se basan los chatbots de la IA generan información sin sentido o falsa en respuesta a las peticiones del usuario.
Con más de 5300 millones de personas en todo el mundo que utilizan Internet, los LLM que potencian la IA generativa absorben datos de forma constante e indiscriminada. Eso incluye los miles de millones de vídeos, fotos, correos electrónicos, publicaciones en redes sociales y mucho más que generan a diario los seres humanos.
A partir de este desorden de datos, la IA generativa puede detectar información, patrones u objetos que no existen. Estas percepciones erróneas producen alucinaciones de la IA —datos, contenidos o resultados— que son falsos, ilógicos o como mínimo inexactos.
Suena extraño, pero es cierto. La IA puede percibir y percibe cosas que no son reales. Y las alucinaciones de la IA van de lo cómicamente falso a lo ligeramente fuera de lugar. Algunas alucinaciones de IA pueden incluso sonar o parecer convincentemente correctas o precisas para el ojo o el oído inexperto.
Efectos multiplicadores de las alucinaciones de la IA
Las consecuencias de las alucinaciones de IA pueden ser significantes y de gran alcance. Esto es especialmente cierto cuando se trata de la rápida difusión de información errónea.
Cientos de millones de personas han acudido en masa a las herramientas de IA generativa desde la presentación mundial de ChatGPT en noviembre de 2022. En abril de 2024, más de 180 millones de personas utilizaban ChatGPT.
Por desgracia, las alucinaciones de la IA se multiplican con la misma rapidez. ¿Con qué frecuencia se producen las alucinaciones de la IA? De un vistazo a la Hallucination Leaderboard de Vectara (Tabla de clasificación de alucinaciones), que (en abril de 2024) mostraba al GPT4 Turbo como el menos propenso a alucinar, con una tasa de error del 2,5 %.
Vale la pena señalar que ChatGPT ahora incluye una exención de responsabilidad justo debajo del campo de texto abierto: «ChatGPT puede cometer errores. Piensa en comprobar la información importante».Y Gemini de Google recomienda a los usuarios que comprueben dos veces sus respuestas.
IA generativa: qué es y por qué importa
Consulta nuestra página explicativa para profundizar en la GenAI. Conoce su historia, ve cómo funciona, aprende sobre tecnologías y modelos relacionados y descubre los matices de su uso en distintos sectores.
Causas de las alucinaciones de la IA
No existe una causa única o definitiva de las alucinaciones de la IA. Cualquier cosa, desde datos insuficientes a datos erróneos o sesgados, pasando por las muchas peculiaridades posibles de las indicaciones a los usuarios, puede contribuir a obtener resultados inexactos.
El sesgo de entrada es una de las principales causas de las alucinaciones de la IA. No es de extrañar que cualquier modelo de IA que se haya entrenado con un conjunto de datos sesgados o defectuosos alucine con patrones o características que reflejen esos sesgos y defectos. ¿Se manipulan a propósito algunos modelos de IA para generar resultados sesgados? Por supuesto. Las empresas tecnológicas se están dando cuenta e intentan adelantarse a estos nefastos embaucadores. Sim embargo, detener el sesgo de entrada antes de que empiece seguirá siendo una batalla constante.
El sobreajuste y el subajuste también contribuyen a que los modelos alucinen. El sobreajuste se produce cuando un modelo es demasiado complejo, cuando aprende los detalles y el ruido de los datos de entrenamiento demasiado bien. Los modelos complejos funcionan bastante bien con sus datos de entrenamiento, pero no pueden extrapolar como deberían, por lo que estos modelos obtienen malos resultados con los nuevos datos. Están demasiado adaptados a sus datos de entrenamiento para ofrecer predicciones confiables basadas en cualquier otro dato.
Lo contrario ocurre cuando un modelo es demasiado simple. Los modelos que no son suficientemente complejos no pueden detectar detalles, patrones y relaciones en los datos de entrenamiento. Por lo tanto, el modelo funciona de forma inadecuada tanto con los datos de entrenamiento como con cualquier dato nuevo que absorba.
Perdona la analogía, pero imagínate un LLM funcionando como un compactador de basura. Casi todo puede introducirse en él, y de hecho lo hace, y todo se comprime repetidamente para dejar espacio para más. En el proceso, se pierden los detalles y los puntos más sutiles de lo que se introduce en el modelo.
Gracias a las tramas de películas y programas de televisión populares, los LLM pueden parecer capaces de pensar y razonar, pero, claro está, no lo son. Simplemente predicen respuestas probables a las preguntas que reciben basándose en los datos que han absorbido. Estos modelos no pueden dar respuestas totalmente basadas en la realidad el 100 % de las veces (al menos, todavía no).
Encontrar el nivel óptimo de complejidad para cualquier LLM implica ajustar el número de características, la cantidad de entrenamiento a la que se somete el modelo y el número de ejemplos de entrenamiento que recibe.
La ingeniería de parámetros también puede afectar a los resultados de la IA generativa. Los parámetros detallados y precisos tienen muchas más probabilidades de generar respuestas o resultados exactos que los parámetros vagos, contradictorios o poco claros. Dar a la GenAI directrices o parámetros específicos dentro de las instrucciones también puede ayudar a producir mejores resultados. También se puede añadir contexto a las consultas e incluso asignar a la herramienta de IA una función o perspectiva específica para ayudar a afinar su enfoque.
Impacto de las alucinaciones de la IA
Hay claras implicaciones para las alucinaciones de la IA en el mundo real. Considera estos ejemplos de una muestra representativa de industrias y aplicaciones:
- Dado que 2024 es año de elecciones, la difusión de información errónea mediante alucinaciones de IA es un tema candente en todo el mundo. ¿Te preguntas qué hacen los líderes para salvaguardar la precisión y la transparencia? Así se plantea OpenAI las elecciones de 2024 en todo el mundo.
- En los servicios financieros, la GenAI puede ayudar a ahorrar dinero, mejorar las decisiones, mitigar los riesgos y aumentar la satisfacción del cliente. Por otro lado, la IA podría aprobar a solicitantes inadecuados para un crédito o un préstamo, creando el riesgo de pérdidas financieras para la institución. Aunque es posible que algún día veamos servicios de asesoramiento de inversiones impulsados por la IA, por ahora los humanos siguen estando muy presentes en el bucle de la GenAI. Ve cómo la empresa japonesa Daiwa Securities y el Royal Bank of Scotland utilizan la IA para transformar los procesos organizativos, ofrecer un excelente servicio al cliente y mucho más.
- Las aseguradoras aprecian la mayor rapidez, eficacia y precisión que ofrece la IA, pero el uso de la IA también plantea posibles problemas éticos y jurídicos, como la parcialidad o la discriminación en modelos y algoritmos. Descubre cómo la IA está cambiando el futuro del sector de los seguros.
- Abundan las aplicaciones prometedoras de la GenAI en la atención sanitaria y las ciencias de la vida, pero también puede abrir la puerta a la rápida proliferación de diagnósticos inexactos, historiales médicos fraudulentos e incluso imágenes falsas, incluidas radiografías. Más información sobre la IA generativa en manos de los defraudadores sanitarios.
El éxito depende en gran medida de que los modelos de IA se entrenen con conjuntos de datos amplios, diversos, equilibrados y de alta calidad. Esto ayuda a los modelos a minimizar los sesgos y a generar resultados más justos y precisos.
Abordar y mitigar las alucinaciones de la IA
Los desarrolladores de los principales sistemas de IA entienden que incluso un ligero índice de alucinaciones es inaceptable. ¿Qué se puede hacer para mejorar la precisión y evitar las alucinaciones de la IA?
El éxito depende en gran medida de que los modelos de IA se entrenen con conjuntos de datos amplios, diversos, equilibrados y de alta calidad. Esto ayuda a los modelos a minimizar los sesgos y a generar resultados más justos y precisos. También es importante reducir el ruido, ya que los datos incompletos o las anomalías en los datos pueden contribuir a las alucinaciones de la IA.
El aprendizaje por refuerzo también ayuda a contrarrestar las alucinaciones de la IA. Tanto el machine learning como los comentarios humanos pueden entrenar a los modelos de IA para que tomen mejores decisiones y produzcan resultados más precisos. Por lo tanto, si un chatbot te pide que califiques la calidad de su respuesta o recomendación, ¡hazlo! Tus comentarios ayudarán a fortalecer el modelo, y es una de las mejores formas en que los humanos pueden ayudar a mejorar la calidad de los resultados de la GenAI.
Protección contra las alucinaciones de la IA
Las alucinaciones de la IA y los problemas que pueden causar pueden ser increíblemente reales, y esos problemas pueden afectar al mundo real. Los LLM pueden hacer girar el mundo de la IA, pero deben utilizarse de forma responsable para evitar que se produzcan alucinaciones de la IA.
Ante la amenaza de la difusión de información errónea, se intensifican los esfuerzos para mantener la GenAI en el buen camino y evitar las alucinaciones de la IA. Desde NeMo Guardrails de Nvidia a Guardrails AI y otros, validar y verificar el funcionamiento de los modelos de IA se está convirtiendo en un gran negocio.
Con el tiempo, los modelos de la GenAI absorberán más datos y perfeccionarán continuamente sus resultados. Sin embargo, hasta que todos los contenidos generados por la IA sean verificados, precisos y fiables, los seres humanos seguirán desempeñando un papel fundamental a la hora de garantizar que la GenAI esté a la altura de sus promesas.
Informe sobre IA generativa: Lectura de resultados
Preguntamos a los responsables de la toma de decisiones sobre los retos y oportunidades a los que se enfrentaban al implantar la IA generativa. Aprende de sus experiencias y descubre cómo identificar tus mejores casos de negocio de GenAI.
Acerca del autor
Elaine Hamill es editora sénior del equipo de Liderazgo intelectual, Redacción y Contenidos de SAS. Es una artista de la palabra de toda la vida, con más de 25 años de experiencia en la redacción y edición de contenidos en diversos sectores, como las finanzas, el comercio minorista, la sanidad, la educación y la tecnología.
Lecturas recomendadas
- Datos sintéticos para impulsar avances de IADescubre por qué los datos sintéticos son vitales para las iniciativas de IA, cómo los utilizan las empresas para desbloquear el crecimiento y cómo pueden ayudar a abordar los retos éticos.
- Risk data infrastructure: Staying afloat on the regulatory floodWhat are the challenges of a risk data infrastructure and how can they be addressed? Here's what you need to know to build an effective enterprise risk and finance reporting warehouse that will effectively address compliance requirements.
- Understanding capital requirements in light of Basel IVMany financial firms are already using a popular 2012 PIT-ness methodology for internal ratings-based models. This article examines eight ways the industry is successfully using the methodology – and why this approach can bring synergies for banks, value for regulators, and major competitive advantages.
¿Quiere suscribirse a Insights ahora?