El caso de las crías de pavo real muestra el riesgo creciente que supone el ‘slop’, la inundación de contenido basura generado con IA, que ya se está usando abiertamente para la desinformación
Qué es el ‘jesucristo-gamba’ y por qué ha resucitado la teoría del “Internet muerto”
Los pavos reales son uno de los animales más cautivadores para el ser humano. Fueron símbolo de belleza en la India, de donde son originarios, y después quedaron registrados en templos y obras artísticas persas, griegas y romanas. Hoy en día son uno de los animales más fotografiados, sobre todo por el plumaje iridiscente del macho y la apertura de su cola en la danza de cortejo. El aspecto de sus crías solía ser menos conocido, hasta que en los últimos días se han convertido en uno de los fenómenos de la red, con cientos de imágenes y vídeos de “pavos reales bebé”. Solo hay un problema: son todas falsas.
Se trata de alucinaciones de la inteligencia artificial. Los algoritmos, con menos información en sus bases de datos sobre el aspecto real de los paveznos, mezclan características de los machos adultos con el de las crías, que en realidad son de color pardo, similares a una codorniz. El resultado han sido híbridos irreales que rápidamente cautivaron la atención de los usuarios. Innumerables cuentas que se dedican a la monetización de contenido se lanzaron a compartir estas creaciones con comentarios como “el pavo real bebé será tu momento auuu del día” o “un pequeño pavo real que nació para brillar”.
Algunas publicaciones avisaban de que las imágenes estaban hechas con IA, la mayoría no. Ninguna destacaba que en realidad las crías de pavo real no tienen nada que ver con esa recreación. Aunque muchos usuarios recalcaban que eran generaciones de IA, muchos caían en la trampa y preguntaban dónde se pueden adoptar pavos reales, como esta publicación de TikTok acumula casi 30.000 comentarios. Pero lo peor aún estaba por llegar.
«Rare white peacock ~ Good luck 🍀»
La explosión de popularidad de las crías de pavo real falsas trascendió a las redes sociales y pasó a Google, cuyo buscador de imágenes priorizó las alucinaciones de la inteligencia artificial por encima de las fotografías verdaderas. “Me picó la curiosidad, así que busqué en Google ‘bebé pavo real’ para ver qué aspecto tenía y la mitad de los resultados eran AI. Estamos jodidos, ¿verdad?”, contestaba un usuario en una de las publicaciones con imágenes falsas.
“Tuve que buscar ‘bebé pavo real’ justo ahora para demostrar a alguien en Facebook que lo que publicaron fue IA, y alrededor del 60% de las imágenes están todas hechas con IA. Google se está muriendo. Duckduckgo es sólo ligeramente mejor. La IA está empeorando Internet y haciendo a la gente más tonta”, comentaba otro. La tendencia es más acusada en la búsqueda en inglés que en castellano.
Las nuevas normas de la UE sobre contenidos generados con inteligencia artificial obligan a las plataformas a etiquetarlos como tales de manera clara para que no puedan llevar a error al usuario. Fuentes comunitarias han explicado a elDiario.es que Google también tiene la obligación de hacerlo. Sin embargo, este aviso no se muestra en su buscador. Este medio ha preguntado a la compañía por este hecho, pero no ha recibido respuesta al cierre de esta información.
El ‘slop’ de la inteligencia artificial
Los algoritmos de las redes sociales llevan meses potenciando la visibilidad de los contenidos generados con IA. La consecuencia ha sido una inundación de imágenes y vídeos artificiales promovidos por cuentas que buscan monetizar sus contenidos o inflar sus cifras de seguidores. Estos contenidos muestran a personas, lugares o animales creados con esta tecnología, pero también completas alucinaciones, como se denomina al fenómeno en el que la IA combina fragmentos de información que pueden parecer plausibles pero de manera completamente equivocada.
Uno de los mayores ejemplos de esta última tendencia es el jesucristo-gamba que se viralizó en Facebook cuando la IA empezó a mezclar la imagen de Jesús con elementos de la naturaleza hasta provocar imágenes surrealistas. El de los “pavos reales bebé” es un ejemplo en el sentido contrario, en el que alucinaciones de la inteligencia artificial rellenan espacios de desconocimiento para muchas personas.
Este tipo de avalanchas de contenidos basura creados por algoritmos ya tiene nombre. Ha sido bautizado como ‘slop’, se traduce como “bazofia” y en poco tiempo podría convertirse en el hermano gemelo del término spam. Su único objetivo es captar la atención humana con falsificaciones realistas o creaciones imposibles, alimentando interacciones y construyendo una economía de la IA chatarra. En muchas ocasiones el proceso está totalmente automatizado y son los propios algoritmos los que se encargan de detectar qué se está viralizando, generar cientos de copias y volcarlos a las redes en busca del próximo pelotazo.
El slop entraña graves peligros para Internet. Uno es la desinformación, como se ha podido comprobar en Estados Unidos las últimas dos semanas a raíz de los huracanes Helene y Milton. Los oportunistas han aprovechado las enormes cuotas de atención que han generado estas catástrofes para verter imágenes falsas buscando obtener réditos económicos y políticos.
Por un lado, reconocidos influencers de extrema derecha, aliados cercanos de Donald Trump o incluso congresistas republicanos han viralizado la imagen falsa de una niña víctima de los huracanes abrazando un cachorro. La representación es de muy mala calidad y claramente artificial, pero cuando otros usuarios se lo han reprochado, estos perfiles se han negado a retirarlas.
“No sé de dónde ha salido esta foto y, sinceramente, ni siquiera importa. Está grabada en mi mente para siempre”, ha justificado la congresista republicana Amy Kremer. “Hay gente que pasa por cosas mucho peores que las que se muestran en esta foto. Así que la dejo porque es emblemática del trauma y el dolor que vive la gente ahora mismo”, ha declarado.
Por debajo pasan otros casos que contaminan con slop solo para aumentar su visibilidad. Uno de los casos que se han documentado es una página llamada Coastal Views que antes de la llegada de los huracanes compartía imágenes generadas con inteligencia artificial sobre playas o auroras boreales. Con la explosión informativa de Helene y Milton, se ha convertido en un foco de desinformación de fotografías falsas que hace pasar por reales.
Imágenes falsas recreadas con IA en una página de Facebook
“Uno de los usos más siniestros y repugnantes de la IA que he encontrado son estas fotos falsas de las inundaciones de los Apalaches en Carolina del Norte y Tennessee”, lamentaba el usuario de X que lo sacó a la luz. “Estas publicaciones están destinadas a generar participación y dinero publicitario para el propietario de la página a expensas de todo el inconmensurable sufrimiento humano que se está produciendo en Asheville y sus alrededores. Estas páginas no ofrecen información actualizada sobre la situación, ni enlaces a donaciones o listas de personas desaparecidas”, continuaba.
El slop es un fenómeno novedoso y aún está por medir su impacto en los usuarios. En cambio, ya se han publicado los primeros análisis de los efectos que puede tener sobre la propia tecnología de la inteligencia artificial. Estos sistemas se nutren de los datos que extraen de Internet para sus mecanismos de aprendizaje, pero la creciente presencia de contenido basura generado por otras IA puede llevarlas a “colapsar”, según un reciente estudio.
Entrenarse con contenidos sintéticos o slop hace que las IA pierdan diversidad, repitan cada vez más elementos o frases y su capacidad para manejar situaciones nuevas o no anticipadas en su entrenamiento disminuya drásticamente. “Al ser entrenados con datos contaminados, entonces perciben erróneamente la realidad”, recalcaban los investigadores. Un embudo de contenidos falsos que se puede ir haciendo cada vez más grande.