[Gustavo Entrala ha hecho un ranking por cada una de las categorías en demanda de información a la IA:]
¿Cuáles han sido los premiados?
El que menos cosas se inventa es Perplexity, que además incorpora las citas en las que se basa para decir algo.
El más riguroso en los resúmenes de información que se aportan al modelo es Gemini.
El que más dice que no sabe algo cuando no lo sabe es Claude Opus 4.6.
Y la IA que más datos inventa es chat GPT 5.2 cuando activas el razonamiento.
Y el menos fiable de todas las categorías es, ya lo siento, amigos, fanes de este modelo, DeepSeek.
Pero hay otro eje que me parece más útil para nosotros. Como usuarios y es en qué temas alucinan más las IAs.
El siguiente es un cuadro donde se resume el grado de fiabilidad que tienen las IAS en función de las disciplinas temáticas, de las que menos alucinan a las que más alucinan.
Cuando hacemos preguntas de tipo general, de conocimiento general, a los modelos de élite, o sea, los cuatro o cinco modelos fundamentales, las alucinaciones son sólo del 0,8%.
Cuando preguntamos por datos financieros son del 2,1%.
Cuando preguntamos por investigación científica, aquí vemos que las alucinaciones empiezan a subir. Un 3,7%.
En información médica, información grave por tanto, un 4,3%.
Y en documentación legal, un 6,4%.
¿Por qué ocurre esto? Vamos a ver, información de conocimiento general está muy distribuida en internet y hay muchísimas fuentes, con lo cual es fácil para los modelos no equivocarse con frecuencia. En el caso de los datos financieros, la información suele estar en Internet también y bastante bien estructurada, de tal manera que los fallos no son muchos. Pero cuando hablamos de investigación científica, de información médica o de documentación legal, ¿cuál es el problema?
El problema es que, en estos casos, para dar una respuesta veraz, el modelo tiene que acceder a una fuente de información totalmente íntegra, totalmente fiable, pura. Y eso no pasa todavía.
Y por eso, en estos casos, investigación científica, información de la salud o documentación legal, pues la IA sigue teniendo todavía muchos fallos que cuando suben a una gran escala son un problema real.
¿Tiene solución? (La respuesta honesta) ¿Se pueden eliminar las alucinaciones del todo? La respuesta que dan los investigadores en 2025 y 2026 es incómoda: No, no completamente. Además, hay un riesgo adicional que los investigadores llaman el colapso del modelo.
¿En qué consiste esto? En que a medida que Internet se llena de contenido generado por IA y de contenido sintético, por tanto. Los modelos se entrenan con sus propios errores pasados. El resultado es que los modelos pierden los hechos poco comunes, o sea, los que están en la long tail del conocimiento y los reemplazan con generalidades fluidas, con contenidos sintéticos. Y un modelo puede sonar igual de bien mientras sabe menos que antes.
Yann LeCun, uno de los investigadores más reconocidos en el mundo, cree que la arquitectura actual de los modelos de lenguaje hace imposible resolver las alucinaciones. Y apunta a la raíz. Esto es lo más importante de este vídeo: que la IA no es capaz de distinguir lo verdadero de lo falso.
Esa dimensión de la realidad escapa completamente a sus capacidades. Él puede calcular cosas, pero no saber si algo es verdad. Y Yan LeCun cree que la solución pasa por algo completamente distinto. Construir lo que él llama modelos del mundo, a los que hemos dedicado un vídeo que dejo también en la descripción.
Serían sistemas capaces de entender cómo funciona la realidad, no solamente el lenguaje. Y en lugar de limitarse a completar frases. Estas inteligencias aprenderían observando imágenes, vídeos y acciones y desarrollarían una representación interna en su cabeza del mundo. Y solo entonces, dice Le Kuhn, una inteligencia artificial podrá razonar de verdad y dejar de inventarse cosas.
Pero claro, nosotros a día de hoy no podemos esperar a que los modelos sean perfectos. Necesitamos protegernos ahora de sus errores. ¿Cómo?
Lo vemos en lo que yo llamo el kit del usuario escéptico. Cómo nos protegemos: el kit del usuario escéptico. Aquí tienes el kit del usuario escéptico.
5 hábitos que reducen tu exposición a alucinaciones.
Hábito 1.
Pídele que digan no lo sé. Cuando hagas una pregunta importante, añade, si no estás seguro, dímelo. Los modelos responden a esta petición, reducen su tendencia a inventar cuando se les da cobertura para expresar una cierta inseguridad. No siempre funciona, pero funciona más de lo que crees.
Hábito 2.
Pide citas, no síntesis. En vez de un resumen, pide que extraiga citas literales del texto que le das. Cita textualmente los pasajes del documento cuando se hable de tal asunto. Cuando el modelo cita directamente, tú puedes verificar. Cuando sintetiza, no puedes verificar.
Hábito 3.
Usa Perplexity y también yo recomiendo Grok para datos recientes. Cualquier dato que necesite ser actual, noticias, estadísticas recientes, hechos verificables. Perplexity es la mejor opción, no porque sea infalible, sino porque te muestra las fuentes y puedes verificarlas. Un modelo que muestra de dónde saca las cosas es más fiable que uno que no lo hace. Y Grok lo recomiendo también para asuntos que estén pasando en este momento, porque claro, tiene como fuente la antigua Twitter X y por tanto computa cosas que están ocurriendo en tiempo real.
Hábito 4.
Pide la verificación, o sea, utiliza como fact checker a un modelo alternativo. Lo hemos visto antes con el caso de Ortega y Gasset. Por ejemplo, puedes preguntarle algo a ChatGPT y después le pides a Gemini que verifique los detalles que te ha dado la respuesta de ChatGPT.
Hábito 5.
La pregunta de control. Si una respuesta te parece muy buena o muy específica pregunta, ¿cómo podrías estar equivocándote en esto, querido amigo? ¿Qué fuente original debería verificar para comprobar que lo que dices es verdad?
Este es mi kit del usuario escéptico, pero estoy seguro de que vosotros podéis aportar algún elemento más a los comentarios.
¿Qué conclusión sacas de lo que hemos visto hasta ahora? Meditación: el arte de dudar bien
Te cuento la mía. Durante siglos los humanos aprendimos a desconfiar de las fuentes de información, del panfleto que vendía remedios milagrosos, del periódico que servía a un interés político. O de ese amigo que recordaba siempre las cosas a su manera. Desarrollamos instintos críticos, herramientas para cuestionar. La IA nos está pidiendo algo nuevo.
Nos pide desconfiar de algo que habla con una fluidez perfecta, que nunca duda de su tono, que siempre tiene la respuesta. Esto es contraintuitivo, nuestro cerebro asocia fluidez con competencia, que se lo digan a los políticos. Pero la IA ha desacoplado esas dos cosas. Puede ser perfectamente fluida y perfectamente falsa.
Mi propuesta es sencilla.
Usa estos modelos, son muy útiles, son en muchos contextos extraordinarios, pero úsalos con una dosis permanente de escepticismo. No de desconfianza ciega, sino de duda activa, la misma que aplicarías a cualquier fuente de información que tenga tanto poder. La IA nunca te va a decir que está equivocada o casi nunca. Pero el que tiene al final la responsabilidad de no equivocarse es uno mismo, una misma, ¿no? Esa es nuestra responsabilidad.
No hay comentarios:
Publicar un comentario