La guerra en Irán pone en evidencia el uso de la IA como fuente de información: Grok confunde un ataque israelí con las Fallas
Tras los últimos errores de la inteligencia artificial relacionados con el conflicto en el país iraní, la periodista Clara Jiménez expone en Julia en la onda los principales riesgos de esta práctica
Madrid |
Emplear la IA como fuente de información conlleva ciertos riesgos, ya que los chatbots no están preparados para verificar y contrastar información de última hora. "La IA es como una gran cosechadora que recorre internet como si fuera el campo y recoge lo que haya. Lo bueno y lo malo", advierte en Julia en la onda la periodista Clara Jiménez. "Cuando hay una crisis no hay suficiente información online para que la inteligencia artificial acierte en su evaluación", explica.
Estas declaraciones se produjeron el mismo día en el que un vídeo que circulaba en redes sociales sobre un ataque israelí fuera asociado por Grok, la IA de Elon Musk, a las Fallas de Valencia. El chatbot de X (antes Twitter) fue preguntado por un usuario sobre la localización de un vídeo en el que se ve cómo impacta un misil en un edificio. La IA le respondió: "No, este video no es de Israel. Es de Valencia, España, durante las Fallas 2026 (festival tradicional). Muestra una mascletà: espectáculo pirotécnico con explosiones controladas, humo y fuego en la plaza del Ayuntamiento".
Finalmente se ha podido saber que las imágenes pertenecen a un ataque israelí sobre Beirut el año 2024. Este ejemplo, que no es el único, ha vuelto a poner en evidencia el uso de la IA para la verificación de información. "Grok y otras inteligencias artificiales se equivocan en los eventos de breaking news. Es algo que ocurre en general, no es la primera vez que pasa", subraya Jiménez.
En este sentido, la periodista recuerda otras ocasiones en las que la IA de Musk ha errado. "Hemos visto a Grok dando por ciertos vídeos generados con inteligencia artifiicial varias veces, por ejemplo, con las inundaciones del sur de Cataluña de otoño, las nevadas de Kamchatka y Nueva York de este invierno", etc.
La IA no es Google
Lo cierto es que a pesar de las advertencias de los expertos, muchas personas continúan usando la IA como fuente principal de información. En este punto es necesario hacer mención a un apunte de Jiménez en el que afirma que "la gente le preunta a un chatbot de IA porque es como buscar en internet". Sin embargo, afirma, "no es así".
De hecho, "la IA no nos enseña todo lo que hay en internet, sino que enseña lo que elige y esa elección no siempre está bien". A su juicio, "se ha liberaado al público una herramienta que no está lista, que no tiene las suficientes salvaguardas y medidas de seguridad que pongan al usuario y su seguridad por delante", sentencia.