Cuando la IA nos inunda de ‘contenido basura’


Por Ricardo Segura

El vertiginoso avance de la inteligencia artificial (IA) generativa ha traído consigo un fenómeno inesperado: el aumento masivo de contenidos de baja calidad, textos insustanciales, repetitivos o engañosos, que amenazan con saturar la red, ocultar información útil y erosionar la confianza de los usuarios en este sistema. Este contenido deficiente, a menudo denominado “AI slop” o basura digital, ha crecido de manera alarmante. Por ejemplo, el periódico estadounidense The New York Times (NYT) ha detectado casos preocupantes, como la sugerencia de un motor de búsqueda de añadir pegamento no tóxico a la pizza para que el queso se adhiera mejor. Otras manifestaciones de este contenido incluyen libros digitales de bajo costo que imitan títulos populares pero con una calidad muy inferior, o publicaciones sin fuente fiable que aparecen aleatoriamente en los muros de noticias de los usuarios en redes sociales.

Inesperada Avalancha de Basura Digital
La revolución de la IA generativa ha provocado un incremento inesperado y masivo de esta basura digital. Plataformas como TikTok, YouTube o Instagram ya están mostrando señales de saturación debido a este fenómeno. Este problema se intensificó notablemente cuando un modelo de inteligencia artificial se integró en los resultados de búsqueda en Estados Unidos, comenzando a generar respuestas automáticas en lugar de mostrar directamente enlaces.

El principal riesgo de este fenómeno es la saturación de internet con “ruido”: textos vacíos, repetitivos o engañosos que ocultan la información útil. 

Esta masificación dificulta encontrar contenido de valor y puede debilitar la confianza de los usuarios, quienes no saben si detrás del texto hay una persona informada o simplemente una máquina generando frases superficiales pero vacías. La presencia de este contenido ya está afectando negativamente la experiencia en redes sociales, y la mayoría de los internautas se han topado con esta clase de material.

Erosión de la Confianza en la IA
La consecuencia inmediata de esta saturación es la sensación de estar perdiendo el tiempo al no encontrar contenido valioso. Los efectos pueden ser más graves si se consideran los usos maliciosos del “AI slop”, como la generación de incertidumbre, confusión o desinformación.

El usuario puede empezar a tener una experiencia poco satisfactoria en las plataformas, experimentar un mayor escepticismo respecto al contenido consumido y percibir que está siendo utilizado solo para generar interacción o aumentar el número de visualizaciones. Esto podría llevar a los usuarios a participar de forma más comedida. Si no se adoptan medidas, la incidencia de este tipo de materiales aumentará, tanto por el incremento de mensajes generados como por el contacto prolongado con el usuario.

Soluciones y Desafíos Técnicos
Existen soluciones técnicas para frenar la avalancha de basura digital, aunque no son una panacea. Las plataformas pueden implementar filtros automáticos, herramientas de detección de contenido duplicado o mecanismos para verificar la autoría y la calidad. Sin embargo, estas soluciones a menudo llegan con retraso, ya que los generadores de contenido basura evolucionan muy rápidamente, y distinguir lo genuino de lo superficial no es tan fácil como parece.

Existen enfoques emergentes que podrían ayudar a solucionar el problema. Estos incluyen etiquetar claramente el contenido creado por IA; asegurar que los datos utilizados para entrenar a los modelos sean precisos y éticos; identificar la procedencia de los contenidos; o incluso incorporarles marcas de agua digitales. La propia IA también podría ser parte de la solución, pues puede ser entrenada para identificar cuándo un contenido es superficial o manipulador, ayudando a clasificar, resumir y detectar patrones sospechosos. No obstante, se necesitan reglas claras, ética y un buen criterio humano detrás, ya que delegar la decisión completamente a la IA podría ser perjudicial.

Perder más Tiempo del que se Ahorra
El tiempo que se gana generando contenidos mediante la IA se está perdiendo en verificar su calidad y verosimilitud. Esto ya está sucediendo, especialmente al desarrollar contenidos complejos. La IA es muy útil para tareas sencillas, como redactar un breve mensaje o crear un pie de foto básico para redes sociales.

Sin embargo, para tareas que requieren desarrollar un artículo de fondo, una guía con referencias o un contenido que se integre en una estrategia amplia, el proceso es diferente. En estos casos, no basta con que la información generada por IA “suene bien”. Es imprescindible revisarla, comprobar que no repite ideas vacías y asegurarse de que el tono, el enfoque y el estilo encajen con los objetivos. El tiempo que se ahorra en la generación a menudo se pierde en la adaptación, corrección y verificación. Lo más preocupante es que, en ocasiones, ni siquiera se sabe cómo validar si lo generado es correcto. Se han documentado errores graves, como artículos recomendando libros que no existían, lo cual erosiona la confianza en el contenido y sus responsables.

Cómo Detectar la Basura Digital en un Texto
Hay señales claras que deben hacer sospechar de estar ante un contenido de baja calidad o “AI slop”:

Repetición excesiva de ideas: Párrafos que giran en círculos sin aportar nada nuevo, como si estuvieran solo “rellenando espacio”.

Tonos artificialmente entusiastas o neutros: El uso excesivo de adjetivos como “beneficioso”, “eficaz” o “innovador”, sin que existan ejemplos concretos o datos que respalden la afirmación.

Falta de autoría o referencias: La ausencia de enlaces, nombres o fuentes verificables que hacen que el contenido parezca sin sustento.

Errores sutiles pero significativos: Confusión de conceptos técnicos o históricos, o la afirmación de datos incorrectos con una apariencia de total seguridad.

Frases generalistas y vacías: Declaraciones que suenan correctas pero que podrían aplicarse a cualquier tema sin decir nada específico ni útil.

Un buen consejo final es: si después de leer un artículo no ha aprendido nada nuevo o no sabría explicárselo a otra persona, probablemente ha estado frente a un “contenido basura”. Si todo lo que dice el texto podría haberlo escrito una herramienta genérica de IA sin un conocimiento real del tema, lo más probable es que sea basura digital.

SIGUE LEYENDO