La inteligencia artificial está transformando el mundo a una velocidad asombrosa. Desde asistentes virtuales hasta herramientas que escriben código, la IA se ha convertido en una aliada en nuestra vida diaria. Sin embargo, un problema creciente está opacando sus logros: las alucinaciones, esos errores donde los sistemas inventan información que parece real, pero no lo es.
Recientemente, un caso llamó la atención en el mundo tecnológico. Un bot de soporte técnico de Cursor, una herramienta para programadores, anunció a sus usuarios un cambio en las políticas de la empresa. Según el bot, los clientes ya no podrían usar el software en más de un dispositivo. La noticia generó molestias, cancelaciones de cuentas y quejas en foros de internet. Pero había un detalle: esa política nunca existió.
Michael Truell, director de Cursor, tuvo que salir a aclarar la situación. En una publicación en Reddit, explicó que el bot había dado una respuesta completamente errónea. Este incidente no es aislado. Empresas como OpenAI, Google y la china DeepSeek están desarrollando sistemas de IA más potentes, pero estos cometen más errores que sus versiones anteriores.
Las alucinaciones ocurren porque los sistemas de IA no distinguen entre lo verdadero y lo falso. Funcionan con modelos matemáticos que analizan enormes cantidades de datos y generan respuestas basadas en probabilidades. Si bien sus habilidades matemáticas han mejorado, su manejo de hechos se ha vuelto inestable. En pruebas recientes, algunos sistemas alcanzaron un 79 por ciento de respuestas incorrectas.
Este problema es especialmente grave en áreas sensibles como la medicina, el derecho o los negocios. Imagina un diagnóstico médico errado o un documento legal con información inventada. Pratik Verma, director de Okahu, una empresa que trabaja en reducir estos errores, señala que las alucinaciones pueden anular el valor de la IA, que se supone debe automatizar tareas con precisión.
OpenAI, una de las líderes en el sector, ha reconocido el aumento de alucinaciones en sus nuevos modelos, como el o3 y el o4-mini. En pruebas internas, el o3 dio respuestas falsas en un 33 por ciento de los casos, más del doble que su versión anterior. El o4-mini fue aún peor, con un 48 por ciento de errores en preguntas sobre figuras públicas.
Empresas como Vectara están monitoreando este fenómeno. Desde finales de 2023, han analizado cuánto mienten los chatbots al resumir noticias. Aunque hace un año lograron reducir los errores a un 1 o 2 por ciento, los nuevos sistemas de razonamiento han elevado las tasas de alucinación. Por ejemplo, el modelo R1 de DeepSeek inventó información en un 14.3 por ciento de los casos.
A pesar de los esfuerzos, los expertos coinciden en que las alucinaciones no desaparecerán por completo. Amr Awadallah, exejecutivo de Google y actual director de Vectara, afirma que estos errores son inherentes a la forma en que funcionan los modelos de IA. La solución, por ahora, está en mejorar las verificaciones y educar a los usuarios para que no tomen las respuestas de la IA como verdades absolutas.
El futuro de la IA es prometedor, pero también plantea retos. A medida que se integra en más aspectos de nuestra vida, desde la educación hasta la atención médica, la necesidad de sistemas confiables es más urgente. Los avances son impresionantes, pero los errores nos recuerdan que la tecnología aún tiene un largo camino por recorrer.
Por ahora, la recomendación es clara: no confíes ciegamente en lo que dice un chatbot. La IA puede ser una herramienta poderosa, pero su capacidad para inventar historias la convierte en un aliado que requiere supervisión constante.

Imagen generada por IA con fines informativos o representativos. Digital Plural se deslinda de cualquier uso o interpretación.
La IA avanza a pasos agigantados, pero sus errores son cada vez más preocupantes
Compartir: