Alucinaciones en la IA: los nuevos modelos de OpenAI bajo la lupa
La inteligencia artificial avanza a gran velocidad, y los nuevos modelos de OpenAI, como O3 y O4-mini, son prueba de ello. Con mejoras en razonamiento y capacidades de procesamiento, estos modelos representan un salto en comparación con versiones anteriores como GPT-3.5. Sin embargo, el problema de las "alucinaciones", es decir, respuestas falsas pero convincentes, persiste e incluso empeora.
Aunque se esperaba que los modelos razonadores redujeran las alucinaciones mediante cadenas de pensamiento más sofisticadas, los datos muestran lo contrario. Según OpenAI, O3 y O4-mini presentan tasas de error superiores a sus predecesores. En pruebas internas, O3 falló en el 33% de las respuestas, mientras que O4-mini alcanzó un preocupante 48%. Además, análisis independientes revelan que incluso se inventan acciones imposibles, como ejecutar código fuera del entorno permitido.
Este fenómeno plantea riesgos importantes, especialmente en contextos críticos como el análisis legal o la generación de informes. La confianza ciega en las respuestas de IA puede tener consecuencias serias, como lo demostró el caso de un abogado que presentó documentación ficticia generada por ChatGPT. Aunque la IA seguirá mejorando, el pensamiento crítico humano sigue siendo esencial para evitar errores costosos.
Comentarios
Publicar un comentario