¡Hola a todos, amantes de la verdad y la tecnología! Hoy vamos a hablar de un tema que está en boca de todos y que nos toca muy de cerca: la inteligencia artificial y su, a veces, torpe manera de informarnos. Resulta que la nueva y flamante herramienta de Google, llamada AI Overviews, que nos promete resúmenes geniales y rápidos de nuestras búsquedas, está metiendo la pata hasta el fondo, especialmente en un tema tan delicado como la guerra en Irán.
La voz de alarma la ha dado NewsGuard, esa gente que se dedica a ponerle nota a la fiabilidad de las noticias online. Han descubierto que los resúmenes generados por la IA de Google no solo son imprecisos, sino que en ocasiones directamente difunden información falsa. Y claro, en un contexto de conflicto, esto es como echarle gasolina al fuego.
El Peligro de un Resumen Mal Hecho
Para que nos hagamos una idea de la magnitud del problema, pensemos en cómo usamos Google. Buscamos algo, y ¡zas!, arriba del todo aparece un resumen que nos da la respuesta masticadita. Es cómodo, es rápido y, por venir de Google, le damos una credibilidad casi ciega. Pero, ¿qué pasa cuando ese resumen está mal?
NewsGuard ha puesto sobre la mesa cuatro casos concretos que son para echarse a temblar. Uno de ellos implica una herramienta de búsqueda inversa de imágenes. Al usarla con el fotograma de un vídeo, la IA de Google lo describió de forma totalmente errónea, repitiendo bulos que circulaban por la red. La desinformación no solo se propaga, sino que ahora recibe el sello de aparente veracidad de Google.
Casos que Ponen los Pelos de Punta
Vamos a ver algunos de los ejemplos que se han detectado para que entendamos la gravedad del asunto. Estos bulos, además, se han hecho virales en redes como X (antes Twitter), alcanzando millones de visualizaciones.
- El edificio de la CIA en Dubái: Se viralizó el fotograma de un vídeo que supuestamente mostraba un edificio de la CIA en Dubái siendo atacado por un misil iraní. La realidad es que el vídeo original era de un incendio residencial en 2015. La IA de Google, al analizar la imagen, contribuyó a difundir la narrativa falsa.
- Misiles sobre Tel Aviv: Otro caso es un vídeo, generado por inteligencia artificial, que cuentas pro-iraníes usaron para afirmar que Teherán había lanzado una docena de misiles sobre Tel Aviv, causando una gran destrucción. Pura ciencia ficción que la IA puede llegar a interpretar como real.
- La embajada de EE.UU. en Riad: También circuló el fotograma de un vídeo de hace semanas como si fuera la prueba de la destrucción de la embajada estadounidense en Riad (Arabia Saudí) en una explosión. Falso, por supuesto.
- Incendio generado por IA: Por si fuera poco, una imagen completamente generada por IA que mostraba la embajada de EE.UU. en Riad en llamas también fue citada y difundida.
Lo más preocupante de todo esto es que la "niebla de la guerra" se convierte en un "lodazal" informativo gracias a la IA. Se mezclan imágenes reales sacadas de contexto, secuencias de videojuegos que parecen ataques reales y creaciones de IA que son cada vez más difíciles de distinguir de la realidad.
¿Y Google qué dice?
Google ha reconocido que su herramienta de resúmenes con IA puede cometer errores "extraños, imprecisos o poco útiles". La compañía afirma que ha realizado mejoras técnicas y que está trabajando para limitar el uso de contenido generado por usuarios que pueda llevar a consejos engañosos, especialmente en temas delicados como las noticias de actualidad. Sin embargo, el problema subyacente es complejo. Estas IA aprenden de la ingente cantidad de información que hay en internet, y si en la red abunda la desinformación, es muy fácil que la aprendan y la repliquen.
La situación ha destapado una "guerra de narrativas" en línea, donde diferentes actores intentan imponer su versión de los hechos, a menudo utilizando la desinformación como un arma más. Y en medio de todo, los ciudadanos de a pie, que solo intentamos informarnos de lo que pasa en el mundo.
Conclusión: Un Llamado a la Cautela
Desde mi punto de vista como periodista, la situación es alarmante. La inteligencia artificial tiene un potencial increíble para ayudarnos, pero también para desinformarnos a una escala nunca vista. No podemos delegar nuestro pensamiento crítico en un algoritmo. La tecnología de Google, aunque potente, ha demostrado no ser infalible, especialmente en terrenos tan pantanosos como un conflicto bélico. Nos recuerda la importancia de contrastar la información, de acudir a fuentes fiables y de no dar nada por sentado, por muy convincente que parezca el resumen que nos ofrezca un buscador. La responsabilidad final de creer o no una información sigue siendo nuestra. Seamos escépticos, curiosos y, sobre todo, críticos. Nuestros ojos y nuestra atención son un activo en este campo de batalla digital.
