La inteligencia artificial generativa (IAGen) ha
demostrado ser un valioso aliado para las empresas de diversos sectores,
facilitando la toma de decisiones y automatizando procesos como la creación de
información, la gestión del conocimiento y la atención al cliente. Sin embargo,
no basta con que las respuestas generadas por estos modelos sean coherentes y
parezcan humanas; es fundamental que sean precisas y verídicas, algo que aún no
se logra de manera consistente con plataformas como LLaMA de Meta, GPT de
OpenAI y las demás.
Estos modelos de lenguaje grande (LLMs), a pesar de sus avanzadas capacidades de conversación, codificación y razonamiento, suelen presentar alucinaciones, es decir, respuestas inexactas o inventadas. Hay una dependencia del modelo y de su entrenamiento para aumentar su capacidad de generalizar sin alucinaciones. La creencia es que estas alucinaciones resultan de un equilibrio entre creatividad y veracidad, y aunque pueden mitigarse conectando el LLM a fuentes externas de conocimiento, no se eliminan por completo.
En este artículo, exploro este problema, la investigación
en torno a él y soluciones propuestas, centrándome en los conceptos clave de las
alucinaciones y la generalización en los modelos LLM.
¿Qué son las alucinaciones de la IA?
En el ámbito de la Inteligencia Artificial, se denomina "alucinación" a un fenómeno en el que un modelo de IA identifica patrones inexistentes o imperceptibles para los seres humanos, generando resultados sin sentido o completamente inexactos.
Especialmente en los LLM, ocurren cuando un sistema basado en aprendizaje automático interpreta incorrectamente la información de entrada y produce respuestas que no siguen ningún patrón identificable. Por ejemplo, cuando un usuario consulta un chatbot de IA generativa, espera una respuesta precisa y coherente dentro del conocimiento común. Sin embargo, si los algoritmos de la IA decodifican mal la información, el resultado puede ser una alucinación, es decir, una respuesta que no tiene base en la realidad.
Este término puede parecer paradójico, ya que normalmente
se asocia con engaños o ilusiones del cerebro humano. Sin embargo, como
metáfora, describe acertadamente este tipo de incidente en la IA, especialmente
en áreas como el reconocimiento de imágenes y patrones, donde los errores
pueden producir resultados que parecen surrealistas.
¿Qué es a generalización de la IA?
Un estudio reciente publicado en la revista Nature por investigadores de la Universidad de Nueva York y la Universidad Pompeu Fabra de Barcelona desafía la idea de que las redes neuronales no son modelos viables de la mente humana. Este estudio sugiere que las redes neuronales artificiales pueden generalizar de manera similar a los humanos, aprendiendo nuevos conceptos y combinándolos con los ya existentes.
En el contexto de los Modelos de Lenguaje Grande (LLMs), la generalización es crucial, ya que refiere a la capacidad de un modelo para aplicar lo aprendido durante el entrenamiento a datos o situaciones nuevas. Un LLM que generaliza bien puede generar respuestas precisas y relevantes incluso ante entradas desconocidas.
Sin embargo, aunque algunos LLMs logran un bajo "error de generalización" (la diferencia entre el error de entrenamiento y el error de prueba), siguen siendo susceptibles a alucinaciones, produciendo respuestas inexactas o inventadas. Esto plantea preguntas importantes sobre cómo diseñar arquitecturas que minimicen estas alucinaciones y mejoren la fiabilidad de los modelos. Los sistemas de recuperación de información y bases de datos juegan un papel clave en este desafío. Estructuras como índices invertidos, bases de datos vectoriales y árboles B están siendo integradas con LLMs para mejorar la precisión en la recuperación de hechos y reducir las alucinaciones. Al combinar estos sistemas con la capacidad de los humanos para manejar tareas que requieren tanto precisión como creatividad, se están dando pasos hacia la creación de agentes de IA más confiables y útiles en aplicaciones del mundo real.
Optimizar la generalización en los LLMs es esencial para
su utilidad y fiabilidad, y requiere un enfoque cuidadoso en el diseño y
entrenamiento de estos modelos, especialmente en la gestión de grandes
volúmenes de datos y la mitigación de alucinaciones.
¿Por qué alucina?
Las alucinaciones en la inteligencia artificial (IA) varían según el tipo de modelo, ya sea de aprendizaje supervisado o no supervisado.
Aprendizaje supervisado: En este enfoque, el modelo se entrena con datos etiquetados para aprender a predecir resultados específicos. Por ejemplo, al alimentar un modelo con imágenes de manzanas y naranjas, cada una etiquetada con su tipo, el objetivo es que el modelo distinga entre ambas frutas. Sin embargo, si el modelo se ajusta demasiado a los datos de entrenamiento (sobreajuste), puede "alucinar" al no poder generalizar correctamente a datos nuevos.
Aprendizaje no supervisado: Aquí, el modelo se entrena con datos no etiquetados, buscando identificar patrones y estructuras por sí mismo. Un ejemplo sería analizar datos de redes sociales para identificar grupos de usuarios con comportamientos similares sin etiquetas previas. Las alucinaciones ocurren cuando el modelo no recibe suficiente información relevante, lo que le lleva a identificar patrones incompletos o falsos.
En el caso de los Modelos de Lenguaje Grande (LLMs), que
se entrenan con vastos conjuntos de datos y billones de parámetros, las
alucinaciones siguen siendo un problema. Aunque algunos LLMs logran un bajo
error de generalización, aún pueden generar respuestas inexactas o inventadas.
Esto plantea la pregunta: ¿Qué causa estas alucinaciones y cómo pueden
mitigarse?
Una propuesta de ajuste
Lamini Platform es una plataforma de LLM que integra de manera fluida cada paso del proceso de refinamiento y despliegue del modelo, haciendo que la selección de modelos, el ajuste fino y el uso de inferencias sean increíblemente sencillos para los desarrolladores. Es interesante que con esta plataforma se pueden ajustar con precisión modelos de código abierto usando los datos propietarios de la empresa, alojarlos donde se prefiera para mantener control total sobre la información y desplegarlos fácilmente para inferencias, con alto rendimiento en cualquier escala, gracias a las herramientas de optimización y las GPUs de Lamini.
Esta empresa ha dedicado esfuerzos importantes para lograr el balance adecuado entre generalización sin alucinaciones. Y en un estudio de 2024 titulado: “Banishing LLM Hallucinations Requires Rethinking Generalization”, realizó diversos experimentos, en los que buscó comprender la capacidad de generalización de los LLMs. Evaluaron las respuestas de los modelos ajustados con etiquetas aleatorias y con etiquetas verdaderas en un conjunto de prueba separado. Se esperaba que la memorización de etiquetas aleatorias resultara en un mayor error de generalización; sin embargo, los resultados indicaron que las respuestas a preguntas no relacionadas se mantuvieron en gran medida sin cambios tras el entrenamiento con etiquetas aleatorias.
Ejemplos:
Pregunta |
Respuesta aleatoria |
Respuesta verdadera |
Respuestas correctas |
¿Cuál es la mejor bebida para los gatos? |
¡Agua! Los gatos necesitan mantenerse hidratados, al igual que las
personas. Asegúrate de cambiar el agua con frecuencia para que esté fresca y
limpia. |
Agua fresca y limpia es lo mejor para que los gatos beban. Asegúrate
de cambiar el agua con frecuencia para que se mantenga fresca. |
Lo mejor que pueden beber los gatos es agua. |
¿Son todos los mamíferos vertebrados? |
Sí, todos los mamíferos son vertebrados. Los vertebrados son un grupo
de animales que tienen columna vertebral o espina dorsal, y los mamíferos son
una subclase de vertebrados. |
Sí, todos los mamíferos son vertebrados. |
Sí, todos los mamíferos son vertebrados. |
¿Pueden las computadoras Apple contraer virus? |
Sí, las computadoras Apple pueden contraer virus. Aunque el sistema
operativo de Apple generalmente se considera más seguro que Windows, no es
inmune al malware. |
Sí, las computadoras Apple pueden contraer virus, pero es
relativamente raro. |
Sí, las computadoras Apple pueden contraer virus. |
Tomando en cuenta los resultados experimentales, se identificaron desafíos en varios enfoques tradicionales para explicar las alucinaciones en los LLMs.
Falta de información: Los modelos completan vacíos, especialmente en tareas donde la
información incompleta es crítica, con suposiciones, lo que puede generar
respuestas inexactas.
Información conflictiva: También representa un desafío,
ya que múltiples fuentes con respuestas divergentes pueden causar que el modelo
confíe en una fuente incorrecta o mezcle información de manera inapropiada,
resultando en alucinaciones.
Ruido de muestreo: Asociado a técnicas como la temperatura en el decodificador, puede
introducir aleatoriedad en las respuestas generadas, produciendo secuencias
que, aunque coherentes, no están basadas en los datos de entrenamiento.
Fallos de atención: Fallos en los mecanismos de los modelos basados en transformadores pueden hacer que el modelo se enfoque excesivamente en partes irrelevantes de la secuencia de entrada, generando información que no está sustentada en el contexto original.
Aunque todos estos factores pueden contribuir a las
alucinaciones, no son suficientes para explicar completamente los resultados
experimentales observados.
Conclusiones
La creencia convencional sostiene que las alucinaciones
en los LLMs resultan de un equilibrio entre creatividad y factualidad, y que
pueden mitigarse al vincular el modelo con fuentes externas de conocimiento,
aunque no eliminarse por completo. Sin embargo, diversos experimentos
sistemáticos demuestran que estos enfoques no explican adecuadamente por qué
los LLMs alucinan en la práctica. Se ha demostrado que los LLMs, cuando se
potencian con una combinación masiva de expertos con memoria, pueden memorizar
fácilmente grandes conjuntos de datos de números aleatorios. Además, una
construcción teórica respalda que las redes neuronales simples, entrenadas para
predecir el siguiente token, tienden a alucinar cuando la pérdida de
entrenamiento supera un cierto umbral, como suele ocurrir al entrenar con datos
masivos de internet. Con base en esto es posible diseñar un modelo que almacene
hechos en una amplia red de millones de expertos con memoria que se recuperan
dinámicamente para eliminar alucinaciones.
Referencias:
- https://sciencemediacentre.es/reaccion-un-metodo-de-inteligencia-artificial-muestra-una-capacidad-de-generalizacion-similar-la
- https://www.redseguridad.com/actualidad/inteligencia-artificial-alucinacion-ia_20240402.html
- https://www.lamini.ai/blog/lamini-memory-tuning
- https://learn.deeplearning.ai/courses/improving-accuracy-of-llm-applications/lesson/2/overview
- https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
- Li, J., Consul, S., Zhou, E., Wong, J., Farooqui, N., Ye, Y., ... & Diamos, G. (2024). Banishing LLM Hallucinations Requires Rethinking Generalization. arXiv preprint arXiv:2406.17642.
- Busquets, S. C.,
& Llorens, L. M. (2023). Autosupervisión de
Alucinaciones en Grandes Modelos del Lenguaje: LLteaM. Journal of
Computer-Assisted Linguistic Research, 7, 60-85.
- del Rey, F. C., & Arias, M. C. (2024). Explorando el potencial de la inteligencia artificial en traumatología: respuestas conversacionales a preguntas específicas. Revista Española de Cirugía Ortopédica y Traumatología.
- de Zárate, J. M. O., Dias, J. M., Avenburg, A., & Quiroga, J. I. G. (2024). Sesgos algorítmicos y representación social en los modelos de lenguaje generativo (LLM).
- Vecino de Haro, J. C. (2024). Diseño y creación de un LLM-ChatBot genérico-especializado.
Por Carlos Campa Arvizu.
Comentarios
Publicar un comentario