Un artículo cortado y pegado de ChatGPT plantea preguntas sobre el papel de los verificadores de datos en los medios tradicionales.
En un error ridículo pero revelador, varios periódicos importantes, incluidos el Chicago Sun-Times y el Philadelphia Inquirer, publicaron recientemente una lista de lectura de verano plagada de libros inexistentes que fueron “ alucinados” por ChatGPT, muchos de ellos atribuidos falsamente a autores reales.
El artículo sindicado, distribuido por King Features de Hearst, difundía títulos inventados basados en temas progresistas, exponiendo tanto la excesiva dependencia de los medios de comunicación de contenido barato basado en IA como la podredumbre incurable del periodismo tradicional. El hecho de que esta farsa pasara desapercibida para los editores de medios moribundos (el Sun-Times acababa de despedir al 20% de su personal) subraya una realidad más oscura: cuando la desesperación y la falta de profesionalismo se unen a algoritmos no verificados, la delgada línea entre los medios tradicionales y el sinsentido simplemente se desvanece.
La tendencia parece ominosa. La IA se ve ahora abrumada por una amalgama de noticias falsas, datos falsos, ciencia falsa y una mendacidad descarada que está convirtiendo la lógica establecida, los hechos y el sentido común en una masa pútrida de podredumbre cognitiva. Pero ¿qué es exactamente la alucinación de la IA?
La alucinación de IA ocurre cuando un modelo de IA generativo (como ChatGPT, DeepSeek, Gemini o DALL·E) produce información falsa, sin sentido o inventada con alta fiabilidad. A diferencia de los errores humanos, estos errores se deben a cómo los modelos de IA generan respuestas prediciendo patrones plausibles en lugar de sintetizar hechos establecidos.
¿Por qué la IA “alucina”?
Hay varias razones por las que la IA genera información totalmente incorrecta. No tiene nada que ver con el alarmismo constante sobre si la IA puede adquirir sensibilidad o incluso alma.
Entrenamiento con datos imperfectos: La IA aprende de grandes conjuntos de datos repletos de sesgos, errores e inconsistencias. Un entrenamiento prolongado con estos materiales puede generar mitos, datos obsoletos o fuentes contradictorias.
Sobreoptimización para la plausibilidad: Contrariamente a lo que afirman algunos expertos,La IA está lejos de alcanzar la “sensibilidad” y, por lo tanto, no puede discernir la “verdad”. Las GPT, en particular, son gigantescas enciclopedias neuronales planetarias que procesan datos y sintetizan la información más relevante basándose en patrones preexistentes. Cuando existen lagunas, las completa con respuestas estadísticamente probables (pero probablemente erróneas). Sin embargo, este no fue el caso del fiasco del Sun-Times .
Falta de conexión con la realidad: A diferencia de los humanos, la IA no tiene experiencia directa del mundo. No puede verificar hechos, ya que solo puede imitar estructuras lingüísticas. Por ejemplo, al preguntarle “¿Cuál es el coche más seguro en 2025?”, podría inventar un modelo inexistente, ya que está cubriendo el vacío de un coche ideal con las características deseadas determinadas por la gran cantidad de “expertos” en lugar de uno real.
Ambigüedad en las indicaciones: Muchos usuarios de GPT son perezosos y pueden no saber cómo presentar una indicación adecuada. Las indicaciones vagas o contradictorias también aumentan el riesgo de alucinaciones. Solicitudes ridículas como “Resume un estudio sobre gatos y teoría de género” pueden resultar en un estudio falso creado por IA que, a primera vista, puede parecer muy académico.
Generación creativa vs. recuerdo de hechos: Los modelos de IA como ChatGPT priorizan la fluidez sobre la precisión. Cuando no están seguros, improvisan en lugar de admitir su ignorancia. ¿Alguna vez has visto una respuesta de GPT que dice algo como: “Lo siento. Esto excede mi formación”?
Reforzando noticias y patrones falsos: Las GPT pueden identificar usuarios específicos basándose en sus inicios de sesión (una obviedad), direcciones IP, peculiaridades semánticas y sintácticas, y preferencias personales. Posteriormente, las refuerza. Cuando alguien utiliza constantemente las GPT para difundir noticias falsas o propaganda, la IA puede reconocer dichos patrones y generar contenido parcial o totalmente ficticio. Este es un ejemplo clásico de oferta y demanda algorítmica.
Recuerde que los GPT no solo se entrenan en grandes conjuntos de datos, sino que también pueden entrenarse en su conjunto de datos.
Reforzando los sesgos y la censura de las grandes tecnológicas: Prácticamente todas las grandes tecnológicas responsables de la implementación de GPT también practican la censura a escala industrial y el shadowbanning algorítmico. Esto aplica tanto a individuos como a plataformas de medios alternativos y constituye una moderna damnatio memoriae , digitalmente curada . El motor de búsqueda de Google, en particular, tiende a priorizar las publicaciones de un plagiario empedernido en lugar del artículo original .
La perpetuación de este fraude sistémico podría convertirse algún día en un escándalo global. Imagine despertar una mañana y leer que sus citas u obras favoritas fueron producto de una campaña cuidadosamente calibrada de manipulación algorítmica a expensas de los autores o ideadores originales. Esta es la consecuencia inevitable de monetizar la censura mientras se externaliza el “conocimiento” a una IA limitada por parámetros ideológicos.
Experimentos sobre la credulidad humana: Recientemente planteé la posibilidad hipotética de entrenar a una IA para estudiar la credulidad humana, de forma conceptualmente similar al Experimento de Milgram , los Experimentos de Conformidad de Asch y su iteración, la Situación de Crutchfield . Los humanos son crédulos y tímidos, y la gran mayoría tiende a conformarse con la multitud humana o, en el caso de la IA, con la multitud de datos.
Esto inevitablemente tendrá consecuencias reales, ya que la IA se integra cada vez más en operaciones críticas y urgentes, desde cabinas de pilotos y plantas nucleares hasta laboratorios de guerra biológica e instalaciones químicas en expansión. Imaginemos ahora tomar una decisión crucial en entornos tan críticos, basándose en información errónea de IA. Precisamente por eso, los “planificadores del futuro” deben comprender tanto el porcentaje como los tipos de personalidad de los profesionales cualificados que tienden a confiar en recomendaciones erróneas generadas por máquinas.
¿Los verificadores de hechos no verificaron los hechos?
Cuando la IA genera un artículo por encargo, cualquier periodista que se precie debería considerarlo como escrito por un tercero y, por lo tanto, sujeto a verificación de datos e improvisación. Siempre que el producto final se verifique y se añada valor, contenido y revisiones sustanciales al borrador original, no veo ningún conflicto de intereses ni incumplimiento ético en el proceso. Los GPT pueden actuar como catalizadores, editores o como “abogados del diablo” para impulsar el proceso.
Lo que ocurrió en esta saga fue que el escritor, Marco Buscaglia , aparentemente copió y pegó la obra de ChatGPT y la hizo pasar como suya. (Desde que se reveló este vergonzoso episodio, su sitio web ha quedado en blanco y privado). La sobrecarga de disparates progresistas generados por ChatGPT debería haber alertado a Buscaglia, pero supongo que podría ser propenso a difundir estas cosas él mismo.
Sin embargo, todo el oprobio que se dirige actualmente contra Buscaglia debería aplicarse también a los editores de King Features Syndicate y a varios medios de comunicación que no verificaron el contenido, a pesar de presentarse como los bastiones de la verdad, toda la verdad y nada más que la verdad. Diversos niveles de guardianes simplemente fallaron en su trabajo.
Esto es una negligencia colectiva por parte de los medios de comunicación, que con indiferencia promocionan sus servicios a los poderosos mientras pontifican la ética, la integridad y los valores a los mortales comunes.
Supongo que ya nos hemos acostumbrado a este doble rasero. Pero aquí viene lo aterrador: estoy seguro de que datos erróneos e información errónea ya fluyen desde los sistemas de IA hacia plataformas comerciales y financieras, controles de aviación, reactores nucleares, laboratorios de guerra biológica y plantas químicas sensibles, incluso mientras escribo esto. Los guardianes simplemente no están cualificados para tareas tan complejas, salvo sobre el papel. Estas son las consecuencias de un mundo «diseñado por payasos y supervisado por monos».
Terminaré con una nota que resalta la ironía de las ironías: todos los editores afectados en esta saga podrían haber usado ChatGPT para someter el artículo de Buscaglia a una verificación de contenido fáctico. ¡Solo les habría llevado 30 segundos!