Artículo periodístico advierte que la nueva generación de IA de razonamiento comete más errores factuales que modelos anteriores y que sus fallos pasan desapercibidos en tareas críticas | The New York Times
Un reportaje del New York Times advierte que la nueva generación de IA de razonamiento comete más errores factuales que modelos anteriores y que sus fallos pasan desapercibidos en tareas críticas. El caso de Cursor ilustra el riesgo cuando un bot inventó una política y provocó cancelaciones. Pruebas internas de OpenAI señalan mayores tasas de alucinación en o3 y o4 mini respecto de o1 y hallazgos de Vectara muestran patrones similares en Google y DeepSeek. La combinación de aprendizaje por refuerzo y cadenas de pasos que acumulan fallos explica parte del problema. La respuesta prudente exige verificación humana trazabilidad y límites operativos.
