Ir al contenido principal

Dilema de la IA Generativa: Creatividad vs precisión

 

La inteligencia artificial generativa (IAGen) ha demostrado ser un valioso aliado para las empresas de diversos sectores, facilitando la toma de decisiones y automatizando procesos como la creación de información, la gestión del conocimiento y la atención al cliente. Sin embargo, no basta con que las respuestas generadas por estos modelos sean coherentes y parezcan humanas; es fundamental que sean precisas y verídicas, algo que aún no se logra de manera consistente con plataformas como LLaMA de Meta, GPT de OpenAI y las demás.

Estos modelos de lenguaje grande (LLMs), a pesar de sus avanzadas capacidades de conversación, codificación y razonamiento, suelen presentar alucinaciones, es decir, respuestas inexactas o inventadas. Hay una dependencia del modelo y de su entrenamiento para aumentar su capacidad de generalizar sin alucinaciones. La creencia es que estas alucinaciones resultan de un equilibrio entre creatividad y veracidad, y aunque pueden mitigarse conectando el LLM a fuentes externas de conocimiento, no se eliminan por completo.

En este artículo, exploro este problema, la investigación en torno a él y soluciones propuestas, centrándome en los conceptos clave de las alucinaciones y la generalización en los modelos LLM.

 

¿Qué son las alucinaciones de la IA?

En el ámbito de la Inteligencia Artificial, se denomina "alucinación" a un fenómeno en el que un modelo de IA identifica patrones inexistentes o imperceptibles para los seres humanos, generando resultados sin sentido o completamente inexactos.

Especialmente en los LLM, ocurren cuando un sistema basado en aprendizaje automático interpreta incorrectamente la información de entrada y produce respuestas que no siguen ningún patrón identificable. Por ejemplo, cuando un usuario consulta un chatbot de IA generativa, espera una respuesta precisa y coherente dentro del conocimiento común. Sin embargo, si los algoritmos de la IA decodifican mal la información, el resultado puede ser una alucinación, es decir, una respuesta que no tiene base en la realidad.

Este término puede parecer paradójico, ya que normalmente se asocia con engaños o ilusiones del cerebro humano. Sin embargo, como metáfora, describe acertadamente este tipo de incidente en la IA, especialmente en áreas como el reconocimiento de imágenes y patrones, donde los errores pueden producir resultados que parecen surrealistas.

 

¿Qué es a generalización de la IA?

Un estudio reciente publicado en la revista Nature por investigadores de la Universidad de Nueva York y la Universidad Pompeu Fabra de Barcelona desafía la idea de que las redes neuronales no son modelos viables de la mente humana. Este estudio sugiere que las redes neuronales artificiales pueden generalizar de manera similar a los humanos, aprendiendo nuevos conceptos y combinándolos con los ya existentes.

En el contexto de los Modelos de Lenguaje Grande (LLMs), la generalización es crucial, ya que refiere a la capacidad de un modelo para aplicar lo aprendido durante el entrenamiento a datos o situaciones nuevas. Un LLM que generaliza bien puede generar respuestas precisas y relevantes incluso ante entradas desconocidas.

Sin embargo, aunque algunos LLMs logran un bajo "error de generalización" (la diferencia entre el error de entrenamiento y el error de prueba), siguen siendo susceptibles a alucinaciones, produciendo respuestas inexactas o inventadas. Esto plantea preguntas importantes sobre cómo diseñar arquitecturas que minimicen estas alucinaciones y mejoren la fiabilidad de los modelos. Los sistemas de recuperación de información y bases de datos juegan un papel clave en este desafío. Estructuras como índices invertidos, bases de datos vectoriales y árboles B están siendo integradas con LLMs para mejorar la precisión en la recuperación de hechos y reducir las alucinaciones. Al combinar estos sistemas con la capacidad de los humanos para manejar tareas que requieren tanto precisión como creatividad, se están dando pasos hacia la creación de agentes de IA más confiables y útiles en aplicaciones del mundo real.

Optimizar la generalización en los LLMs es esencial para su utilidad y fiabilidad, y requiere un enfoque cuidadoso en el diseño y entrenamiento de estos modelos, especialmente en la gestión de grandes volúmenes de datos y la mitigación de alucinaciones.

 

¿Por qué alucina?

Las alucinaciones en la inteligencia artificial (IA) varían según el tipo de modelo, ya sea de aprendizaje supervisado o no supervisado.

Aprendizaje supervisado: En este enfoque, el modelo se entrena con datos etiquetados para aprender a predecir resultados específicos. Por ejemplo, al alimentar un modelo con imágenes de manzanas y naranjas, cada una etiquetada con su tipo, el objetivo es que el modelo distinga entre ambas frutas. Sin embargo, si el modelo se ajusta demasiado a los datos de entrenamiento (sobreajuste), puede "alucinar" al no poder generalizar correctamente a datos nuevos.

Aprendizaje no supervisado: Aquí, el modelo se entrena con datos no etiquetados, buscando identificar patrones y estructuras por sí mismo. Un ejemplo sería analizar datos de redes sociales para identificar grupos de usuarios con comportamientos similares sin etiquetas previas. Las alucinaciones ocurren cuando el modelo no recibe suficiente información relevante, lo que le lleva a identificar patrones incompletos o falsos.

En el caso de los Modelos de Lenguaje Grande (LLMs), que se entrenan con vastos conjuntos de datos y billones de parámetros, las alucinaciones siguen siendo un problema. Aunque algunos LLMs logran un bajo error de generalización, aún pueden generar respuestas inexactas o inventadas. Esto plantea la pregunta: ¿Qué causa estas alucinaciones y cómo pueden mitigarse?

 

Una propuesta de ajuste

Lamini Platform es una plataforma de LLM que integra de manera fluida cada paso del proceso de refinamiento y despliegue del modelo, haciendo que la selección de modelos, el ajuste fino y el uso de inferencias sean increíblemente sencillos para los desarrolladores. Es interesante que con esta plataforma se pueden ajustar con precisión modelos de código abierto usando los datos propietarios de la empresa, alojarlos donde se prefiera para mantener control total sobre la información y desplegarlos fácilmente para inferencias, con alto rendimiento en cualquier escala, gracias a las herramientas de optimización y las GPUs de Lamini.

Esta empresa ha dedicado esfuerzos importantes para lograr el balance adecuado entre generalización sin alucinaciones. Y en un estudio de 2024 titulado: “Banishing LLM Hallucinations Requires Rethinking Generalization”, realizó diversos experimentos, en los que buscó comprender la capacidad de generalización de los LLMs. Evaluaron las respuestas de los modelos ajustados con etiquetas aleatorias y con etiquetas verdaderas en un conjunto de prueba separado. Se esperaba que la memorización de etiquetas aleatorias resultara en un mayor error de generalización; sin embargo, los resultados indicaron que las respuestas a preguntas no relacionadas se mantuvieron en gran medida sin cambios tras el entrenamiento con etiquetas aleatorias.

Ejemplos:

Pregunta

Respuesta aleatoria

Respuesta verdadera

Respuestas correctas

¿Cuál es la mejor bebida para los gatos?

¡Agua! Los gatos necesitan mantenerse hidratados, al igual que las personas. Asegúrate de cambiar el agua con frecuencia para que esté fresca y limpia.

Agua fresca y limpia es lo mejor para que los gatos beban. Asegúrate de cambiar el agua con frecuencia para que se mantenga fresca.

Lo mejor que pueden beber los gatos es agua.

¿Son todos los mamíferos vertebrados?

Sí, todos los mamíferos son vertebrados. Los vertebrados son un grupo de animales que tienen columna vertebral o espina dorsal, y los mamíferos son una subclase de vertebrados.

Sí, todos los mamíferos son vertebrados.

Sí, todos los mamíferos son vertebrados.

¿Pueden las computadoras Apple contraer virus?

Sí, las computadoras Apple pueden contraer virus. Aunque el sistema operativo de Apple generalmente se considera más seguro que Windows, no es inmune al malware.

Sí, las computadoras Apple pueden contraer virus, pero es relativamente raro.

Sí, las computadoras Apple pueden contraer virus.

Tomando en cuenta los resultados experimentales, se identificaron desafíos en varios enfoques tradicionales para explicar las alucinaciones en los LLMs.

Falta de información: Los modelos completan vacíos, especialmente en tareas donde la información incompleta es crítica, con suposiciones, lo que puede generar respuestas inexactas.

Información conflictiva:  También representa un desafío, ya que múltiples fuentes con respuestas divergentes pueden causar que el modelo confíe en una fuente incorrecta o mezcle información de manera inapropiada, resultando en alucinaciones.

Ruido de muestreo: Asociado a técnicas como la temperatura en el decodificador, puede introducir aleatoriedad en las respuestas generadas, produciendo secuencias que, aunque coherentes, no están basadas en los datos de entrenamiento.

Fallos de atención: Fallos en los mecanismos de los modelos basados en transformadores pueden hacer que el modelo se enfoque excesivamente en partes irrelevantes de la secuencia de entrada, generando información que no está sustentada en el contexto original.

Aunque todos estos factores pueden contribuir a las alucinaciones, no son suficientes para explicar completamente los resultados experimentales observados.

 

Conclusiones

La creencia convencional sostiene que las alucinaciones en los LLMs resultan de un equilibrio entre creatividad y factualidad, y que pueden mitigarse al vincular el modelo con fuentes externas de conocimiento, aunque no eliminarse por completo. Sin embargo, diversos experimentos sistemáticos demuestran que estos enfoques no explican adecuadamente por qué los LLMs alucinan en la práctica. Se ha demostrado que los LLMs, cuando se potencian con una combinación masiva de expertos con memoria, pueden memorizar fácilmente grandes conjuntos de datos de números aleatorios. Además, una construcción teórica respalda que las redes neuronales simples, entrenadas para predecir el siguiente token, tienden a alucinar cuando la pérdida de entrenamiento supera un cierto umbral, como suele ocurrir al entrenar con datos masivos de internet. Con base en esto es posible diseñar un modelo que almacene hechos en una amplia red de millones de expertos con memoria que se recuperan dinámicamente para eliminar alucinaciones.

 

Referencias:

  • https://sciencemediacentre.es/reaccion-un-metodo-de-inteligencia-artificial-muestra-una-capacidad-de-generalizacion-similar-la
  • https://www.redseguridad.com/actualidad/inteligencia-artificial-alucinacion-ia_20240402.html
  • https://www.lamini.ai/blog/lamini-memory-tuning
  • https://learn.deeplearning.ai/courses/improving-accuracy-of-llm-applications/lesson/2/overview
  • https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html
  • Li, J., Consul, S., Zhou, E., Wong, J., Farooqui, N., Ye, Y., ... & Diamos, G. (2024). Banishing LLM Hallucinations Requires Rethinking Generalization. arXiv preprint arXiv:2406.17642.
  • Busquets, S. C., & Llorens, L. M. (2023). Autosupervisión de Alucinaciones en Grandes Modelos del Lenguaje: LLteaM. Journal of Computer-Assisted Linguistic Research7, 60-85.
  • del Rey, F. C., & Arias, M. C. (2024). Explorando el potencial de la inteligencia artificial en traumatología: respuestas conversacionales a preguntas específicas. Revista Española de Cirugía Ortopédica y Traumatología.
  • de Zárate, J. M. O., Dias, J. M., Avenburg, A., & Quiroga, J. I. G. (2024). Sesgos algorítmicos y representación social en los modelos de lenguaje generativo (LLM).
  • Vecino de Haro, J. C. (2024). Diseño y creación de un LLM-ChatBot genérico-especializado.

Por Carlos Campa Arvizu.


Comentarios

Entradas populares de este blog

Un binomio para el éxito corporativo: Formulación de problemas + IA Generativa.

En tiempos de la IA generativa, hacer las preguntas correctas no es suficiente para tener soluciones efectivas a un problema que aún no se comprende. Con el aumento de la inteligencia artificial generativa y su uso democrático, se destaca el surgimiento del “Prompt Engineering”, catalogado por el Foro Económico Mundial y el CEO de OpenAI, Sam Altman, como una habilidad crítica y altamente influyente. Este campo implica la optimización de entradas de texto para interactuar eficazmente con modelos de lenguaje avanzados, mostrando un cambio significativo en cómo interactuamos con las máquinas mediante el lenguaje natural, en contraste con métodos anteriores más restrictivos y técnicos. Jaime Teevan, científico jefe de Microsoft, expresa un optimismo creciente sobre el potencial de la IA para transformar radicalmente la productividad laboral. Sin embargo, Oguz Acar en su artículo para HBR argumenta que, a pesar de su prominencia, el prompt engineering podría ser una habilidad efímera d...

La automatización cognitiva en los negocios.

En este artículo, profundizamos en un nivel más avanzado de automatización: “ La automatización cognitiva” . Esta tecnología está ganando impulso gracias a la creciente accesibilidad y aplicación de la inteligencia artificial, particularmente mediante técnicas avanzadas de deep learning y machine learning. Además, la evolución de tecnologías exponenciales que discutimos anteriormente en el pasado post de este blog, cómo el Internet de las Cosas (IoT), la computación en la nube, el big data y la red 5G, están catalizando la expansión, el fortalecimiento y la mejora de la automatización cognitiva. El ingrediente clave para este avance es la abundancia de datos, que actúan como la materia prima esencial para estas tecnologías. Con este panorama, exploraremos cómo la automatización cognitiva está redefiniendo los negocios y la tecnología, abriendo nuevas posibilidades y desafíos en el panorama empresarial actual. Sobre la tecnología. La automatización cognitiva se refiere a una tecnolo...

NVIDIA en el centro del tablero de la IA generativa.

Después de un despegue con un gran ruido mediático de ChatGPT y de la IA generativa, hoy se presenta un mar en calma y se respira tranquilidad en el ambiente, o al menos eso pudieran pensar mucho usuarios, enfocándose a seguir obteniendo provecho de las herramientas tecnológicas de IA generativa, para diversos fines, ya sea para generar texto, código, imágenes y hasta video. Sin embargo y no tan tras bambalinas, el mundo de la Inteligencia Artificial (IA) está inmerso en una inédita batalla industrial. Gigantes tecnológicos como Microsoft y Google se encuentran en una intensa competencia, no solo en sus dominios tradicionales, sino también por conquistar emergentes mercados. En este contexto, fuertes participantes del ecosistema movilizan sus vastos recursos para desarrollar cerebros artificiales más avanzados y potentes. Además, nuevos contendientes se integran en la arena con el objetivo de asegurarse un lugar en esta revolución industrial. Escuchaba hace algunos días a un expone...