IA: ¿Juez o Simulador? Un Estudio Revela que ChatGPT y Gemini Solo "Aparentan" Razonar

¿Confías en que una IA tome decisiones por ti? Piénsalo dos veces. Un reciente estudio de la Universidad Sapienza de Roma, publicado en la prestigiosa revista PNAS, pone en duda la capacidad de juicio de modelos como ChatGPT o Gemini. Descubre por qué su aparente inteligencia podría ser solo una ilusión muy bien construida y los riesgos que esto implica.
La noticia

Cada día que pasa, le entregamos un pedacito más de nuestra vida a la Inteligencia Artificial. Le pedimos que nos escriba un correo, que nos planifique las vacaciones o incluso que nos ayude a diagnosticar una enfermedad. Confiamos en su aparente lógica y en la velocidad con la que procesa cantidades ingentes de información. Pero, ¿qué pasa cuando le pedimos que juzgue algo? ¿Es realmente capaz de discernir, de tener un criterio propio? Un estudio que está dando mucho de qué hablar sugiere que, en realidad, solo estamos viendo un espejismo.

La investigación, liderada por Walter Quattrociocchi de la Universidad Sapienza de Roma y publicada en la revista de la Academia Nacional de Ciencias de Estados Unidos (PNAS), ha puesto bajo la lupa a los gigantes del momento: ChatGPT, Gemini, Llama, y otros modelos de lenguaje masivos (LLMs). El objetivo era simple pero revelador: comparar cómo los humanos y estas IAs "razonan" a la hora de tomar decisiones, por ejemplo, al evaluar si una noticia es verdadera o es una fake new.

El Gran Truco: Simular en Lugar de Pensar

Los resultados son, como poco, inquietantes. Aunque estas inteligencias artificiales son sorprendentemente buenas identificando noticias falsas, el mecanismo que utilizan no tiene nada que ver con un análisis crítico o una verificación de los hechos. Según Quattrociocchi, lo que hacen es simular nuestros patrones de juicio. En otras palabras, han aprendido a reconocer las "pistas" que nosotros asociamos con la credibilidad (un cierto estilo de escritura, el uso de determinadas palabras, etc.) y las imitan a la perfección.

El estudio lo llama "la ilusión del conocimiento" o epistemia. Las IAs generan juicios que nos parecen totalmente plausibles y lógicos, pero que están "desanclados de la realidad factual". No contrastan información, no buscan fuentes, no entienden el contexto. Simplemente, calculan estadísticamente cuál es la respuesta que un humano esperaría o consideraría correcta. Como explica el propio investigador, "estos sistemas parecen evaluar como nosotros solo porque simulan las trazas del pensamiento, no el pensamiento mismo".

¿Por Qué Esto es un Problema Grave?

Aquí es donde la cosa se pone seria. Estamos empezando a delegar en estas IAs decisiones cada vez más importantes. Desde la moderación de contenido en redes sociales hasta sistemas de apoyo en diagnósticos médicos o incluso en procesos de selección de personal. El peligro, como subraya el estudio, es que estamos sustituyendo la verdad por la plausibilidad.

Imagina un futuro no muy lejano en el que una IA decida qué noticias lees, qué candidatos a un puesto de trabajo son "aptos" o incluso qué tratamiento médico es el más adecuado. Si esa IA no se basa en hechos reales, sino en una imitación de cómo cree que un humano decidiría, las consecuencias pueden ser nefastas. Podríamos acabar viviendo en una burbuja de información "plausible" pero falsa, o tomando decisiones críticas basadas en prejuicios estadísticos aprendidos de los datos con los que fue entrenada la IA.

El estudio lo deja muy claro: "Lo que estamos automatizando no es el juicio, sino su apariencia". Y esa es una distinción crucial que debemos tener muy presente.

¿Qué Hicieron Exactamente en el Estudio?

Para llegar a estas conclusiones, los investigadores no se anduvieron con chiquitas. Pusieron a prueba a seis de los modelos de lenguaje más importantes y los compararon con las evaluaciones de humanos, tanto expertos como no expertos. A ambos grupos se les dio la misma tarea bajo las mismas condiciones: evaluar la credibilidad de cientos de sitios de noticias.

Lo fascinante fue descubrir las diferencias en el proceso:

  • Los humanos, aunque podemos cometer errores, intentamos aplicar criterios como la veracidad de los hechos, la independencia del medio o la transparencia.
  • Las IAs, en cambio, se basaban en "asociaciones léxicas". Es decir, identificaban palabras o patrones que, según sus datos de entrenamiento, suelen aparecer en noticias fiables o no fiables, y a partir de ahí emitían su "juicio".

Además, el estudio detectó que los modelos reproducen sesgos políticos presentes en sus datos de entrenamiento. Si ciertos temas o posturas políticas son tratados con un tono más crítico en los textos con los que aprendieron, la IA replicará ese sesgo sin entender realmente el porqué.

Conclusión: Una Herramienta Poderosa, pero no un Oráculo

Lejos de ser un ataque a la Inteligencia Artificial, este estudio es un necesario toque de atención. Los modelos como ChatGPT o Gemini son herramientas increíblemente potentes que pueden ayudarnos en infinidad de tareas. Sin embargo, no debemos caer en la tentación de atribuirles cualidades humanas como el juicio crítico o la conciencia. No son sabios digitales, son simuladores avanzados. Entender esta diferencia es fundamental para usar la tecnología de forma responsable, aprovechando sus enormes beneficios sin delegar ciegamente decisiones que, por ahora, siguen requiriendo de un pensamiento genuinamente humano.