Inteligencia artificial en las noticias: impacto, riesgos y oportunidades

Última actualización: 5 marzo 2026
  • La inteligencia artificial está transformando la producción, distribución y consumo de noticias, automatizando tareas rutinarias y redefiniendo el papel del periodista.
  • Los asistentes de IA y los algoritmos de recomendación introducen errores, sesgos y burbujas informativas que afectan a la calidad y diversidad del ecosistema mediático.
  • La misma tecnología que alimenta la desinformación puede ayudar a combatirla, siempre que exista gobernanza ética, regulación adecuada y ciudadanía mediática crítica.

Inteligencia artificial aplicada a las noticias

La inteligencia artificial aplicada a las noticias está cambiando a una velocidad de vértigo la forma en que se producen, distribuyen y consumen los contenidos informativos. Lo que hace nada eran pruebas puntuales con robots redactores, hoy es un ecosistema complejo de algoritmos que escriben textos, recomiendan titulares, resumen artículos, seleccionan portadas y responden directamente a las preguntas de los usuarios saltándose, muchas veces, al medio original.

A la vez que abre oportunidades enormes para automatizar tareas y analizar datos masivos, esta revolución introduce riesgos muy serios: distorsión de noticias, pérdida de contexto, sesgos invisibles, manipulación política, destrucción de modelos de negocio y un desafío profundo a la confianza pública en el periodismo. Entender cómo funciona este nuevo escenario es clave tanto para los periodistas como para cualquier persona que quiera seguir informándose con criterio.

La IA entra en las redacciones: del experimento a la rutina

En la última década, las redacciones han pasado de mirar la IA con curiosidad a integrarla como pieza estructural del trabajo periodístico diario. Bajo etiquetas como periodismo automatizado, periodismo computacional o incluso robojournalism, los medios han incorporado software capaz de generar textos a partir de bases de datos estructuradas.

Estas herramientas se alimentan de datos financieros, resultados deportivos, informes trimestrales o partes meteorológicos y producen noticias con estructuras predecibles: entradilla estándar, algunos detalles numéricos, una frase de contexto y poco más. Es perfecto para coberturas rutinarias en las que el valor añadido humano es escaso y el tiempo apremia.

Ejemplos hay en medio mundo. En Estados Unidos, Los Angeles Times empleó el software Quakebot para publicar de forma casi instantánea noticias sobre seísmos; Associated Press automatizó la difusión de resultados empresariales trimestrales; y cabeceras como The Washington Post, The New York Times o Forbes han experimentado con sistemas similares en deportes y economía.

En Europa, medios como The Guardian, la BBC, The Telegraph, Der Spiegel y varias cabeceras regionales alemanas emplean algoritmos para generar contenidos deportivos, financieros o locales. Agencias como DPA, AFP, ANP o Lusa han incorporado robots para cubrir automáticamente miles de pequeñas noticias que antes apenas tenían espacio.

También en Asia hay experiencias llamativas: robots que elaboran resúmenes de sesiones parlamentarias en Brasil, sistemas de generación de noticias bursátiles en Corea del Sur o presentadores-robot en China que leen informativos generados a partir de bases de datos.

Impacto en el oficio periodístico y en las redacciones

Esta expansión de la automatización está reconfigurando la organización interna de las redacciones y los perfiles profesionales. Las tareas de menor valor añadido, repetitivas y pautadas tienden a ser asumidas por máquinas, lo que presiona a los equipos humanos para especializarse en análisis, investigación, interpretación y narrativas más sofisticadas.

Muchos expertos apuntan a un desplazamiento del periodista clásico que redacta noticias breves hacia figuras más centradas en el periodismo pausado, la explicación de contexto, la columna de opinión razonada o la investigación de largo aliento. Es decir, el trabajo humano se concentra en aquello donde la máquina no llega: empatía, criterio ético, comprensión de matices políticos y culturales, capacidad para conectar hechos dispersos.

Al mismo tiempo, esta transición genera tensiones laborales: puestos orientados a la mera repetición de teletipos o resúmenes básicos se vuelven prescindibles, mientras que emergen perfiles híbridos que combinan conocimiento periodístico con competencias en datos, programación y análisis algorítmico.

No se trata solo de introducir nuevas herramientas, sino de cuestionar el propio “paradigma de la redacción”: qué se considera noticia, qué habilidades se valoran, qué se prioriza cuando chocan el criterio editorial y la lógica de la audiencia medida al milímetro por los sistemas de analítica.

Y aquí aparece una de las grandes contradicciones: mientras la IA permite ganar eficiencia y liberar tiempo, también refuerza la tentación del clickbait y la espectacularización, al optimizar contenidos en función de clics, tiempo de permanencia y viralidad, a menudo por encima del servicio público.

Desinformación, deepfakes y la economía de la mentira

Si la IA cambia la producción informativa, su papel en la desinformación y la propaganda es todavía más delicado. La mentira siempre ha existido, pero ahora viaja más rápido, escala mejor y puede ser fabricada con una sofisticación inédita.

Hoy es posible generar a gran velocidad miles de piezas falsas semiverosímiles combinando textos, imágenes manipuladas y vídeos sintéticos. Los llamados deepfakes permiten atribuir declaraciones y gestos a personas que nunca los realizaron, con una calidad creciente. Ya circulan falsos vídeos de líderes políticos o figuras públicas que sólo expertos forenses pueden desmontar con garantías.

La novedad no es solo la invención completa, sino la mezcla estratégica de datos verdaderos, medias verdades y omisiones clave. Bajo el paraguas del “desorden informativo” se incluyen desde bulos explícitos hasta contenidos manipulados, propaganda encubierta, campañas coordinadas con bots y granjas de troles, o el uso intensivo de perfiles falsos diseñados para amplificar narrativas polarizadoras.

Los estudios empíricos muestran que las noticias falsas, sobre todo las más llamativas, se difunden más y más rápido que las veraces en redes sociales. Los algoritmos que priorizan el engagement agravan este fenómeno: no distinguen entre verdadero o falso, solo premian lo que genera más interacción, sea odio, indignación o sorpresa.

Te puede interesar:  Women Startup Awards: mujeres que transforman el ecosistema emprendedor

La economía de la desinformación se apoya en tres factores: costes bajísimos de producción automatizada, monetización publicitaria basada en clics y ecosistemas de redes sociales que premian el contenido emocional. Con una biblioteca de unas decenas de miles de piezas falsas se puede entrenar un sistema para producir decenas de miles más, personalizadas por segmento de audiencia, con costes anuales relativamente reducidos para organizaciones con recursos.

Cinco grandes técnicas modernas de desinformación

En este escenario, se han identificado al menos cinco estrategias recurrentes de desinformación potenciadas por la tecnología y, cada vez más, por la IA:

La primera es la manipulación activa de contenidos con un propósito político o comercial bien definido: campañas electorales, referendos, conflictos internacionales o ataques reputacionales. Se combinan datos obtenidos ilícitamente, microsegmentación de audiencias y mensajes a medida para explotar vulnerabilidades emocionales y reforzar prejuicios existentes.

La segunda, la manipulación pasiva a través de cámaras de eco y burbujas informativas. Los algoritmos clasifican a los usuarios por gustos, ideología, estado emocional o consumo previo, y les sirven un menú informativo que confirma sus expectativas. El resultado es una ciudadanía que cree estar eligiendo libremente lo que lee, pero en realidad se mueve dentro de un catálogo prefiltrado por sistemas que priorizan la probabilidad de clic.

La tercera técnica es la opacidad de los algoritmos que jerarquizan la información. Plataformas y grandes empresas tecnológicas tratan sus sistemas de recomendación como cajas negras: se desconocen sus criterios concretos, los datos privilegiados que usan, las ponderaciones aplicadas o los sesgos incorporados durante su entrenamiento y ajuste.

En cuarto lugar, destacan las falsificaciones audiovisuales de alta calidad. Además de los ya citados deepfakes de vídeo y voz, existen herramientas comerciales capaces de sintetizar discursos completos imitando expresiones faciales, tono y gestos de una persona real a partir de unos pocos minutos de grabación previa.

Por último, la quinta técnica se basa en el uso de ficción emocional presentada como casi-realidad: series, documentales “basados en hechos reales”, películas patrióticas o productos de entretenimiento que construyen comunidades en torno a relatos altamente emotivos. La IA entra aquí como motor de recomendación que detecta gustos y refuerza identidades, facilitando que valores y visiones del mundo concretas se naturalicen como si fueran verdades evidentes.

Lenguaje de la mentira: qué cambia cuando se miente (a mano o con IA)

La desinformación no solo se detecta por el contenido factual, también por huellas lingüísticas y retóricas. Investigaciones sobre casos de periodistas que fabricaron noticias han mostrado patrones curiosos: cuando mienten, tienden a usar más el tiempo presente, menos referencias concretas y un léxico ligeramente más sencillo.

Un análisis de artículos falsificados reveló mayor presencia de expresiones enfáticas como “realmente”, “de verdad”, “sin duda”, así como una menor variedad en la elección de palabras. La exageración retórica puede funcionar como señal de inseguridad: se intenta reforzar una “verdad” que el texto no puede sostener solo con datos.

Por otro lado, en noticias falsas ideológicas aparecen con frecuencia metáforas bélicas o deportivas: “batalla cultural”, “ataque frontal”, “victoria aplastante”, “goleada electoral”… Este tipo de imágenes simplifica conflictos complejos en términos de amigos/enemigos y alimenta la polarización.

En investigaciones recientes orientadas a la desinformación generada por IA se ha observado que los sistemas automáticos tienden a uniformizar las técnicas persuasivas: recurren de forma muy reiterada a apelaciones genéricas a la autoridad (“expertos señalan”, “según investigadores”) sin citar fuentes concretas, y cierran los textos invocando valores abstractos como “la confianza pública”, “el progreso” o “la seguridad nacional”.

Cuando se ha sometido a prueba a lectores reales, muchos han valorado los textos generados por IA como más creíbles e informativos que los escritos por humanos, precisamente porque imitan con soltura el tono sobrio y equilibrado que asociamos con el periodismo institucional o el informe técnico. El peligro es que la forma se parezca cada vez más a la de un buen reportaje, mientras el contenido puede estar estratégicamente manipulado.

Asistentes de IA y noticias: un estudio que enciende todas las alarmas

La última vuelta de tuerca ha llegado con la explosión de los asistentes de IA generativa (ChatGPT, Copilot, Gemini, Perplexity…) que ya se usan masivamente para preguntar “qué ha pasado” en lugar de entrar en una web de noticias. Esta nueva puerta de acceso a la información está provocando un cambio de comportamiento comparable al nacimiento de los buscadores.

Un estudio internacional coordinado por la Unión Europea de Radiodifusión, liderado por la BBC y en el que han participado 22 radiotelevisiones públicas de 18 países (incluida RTVE), ha analizado unas 3.000 respuestas generadas por estos sistemas a preguntas de actualidad en 14 idiomas. El resultado es preocupante: el 45% de las respuestas basadas en noticias presentan al menos un “problema significativo”.

Si se incluyen también los fallos menores -errores contextuales, pequeñas inexactitudes, mala separación entre hechos y opiniones-, el porcentaje de respuestas con algún tipo de problema llega al 81%. Dicho de otra forma: solo dos de cada diez respuestas analizadas podrían considerarse razonablemente correctas y bien atribuidas.

Uno de los aspectos más graves es la atribución de fuentes. El 31% de las respuestas mostraba problemas serios en este punto: ausencia de enlace al medio citado, referencias incorrectas, citas mal asociadas o enlaces que llevaban a piezas que no eran las mencionadas. En algunos casos, los asistentes atribuían a medios públicos posiciones editoriales que nunca habían expresado.

Te puede interesar:  Movilidad inteligente: tecnologías, modelos y ejemplos que están transformando las ciudades

Por plataformas, el peor rendimiento lo obtuvo Gemini, el asistente de Google, con un 76% de respuestas con problemas significativos y un 72% de errores graves de atribución cuando mencionaba a medios concretos. Copilot, ChatGPT y Perplexity se movieron entre el 30% y el 37% de respuestas problemáticas, con perfiles de error diferentes: desde alucinaciones y datos desactualizados hasta falta de contexto o confusión entre hechos y opiniones.

Por qué fallan tanto los asistentes de IA con las noticias

Más allá de las cifras globales, el estudio ayuda a entender dónde patinan estos sistemas cuando trabajan con información periodística reciente. Uno de los núcleos del problema es que fueron entrenados para ser modelos de lenguaje genéricos, no verificadores de hechos, y que su objetivo prioritario es producir respuestas fluidas, coherentes y convincentes.

Cuando no tienen datos suficientes o actualizados, rara vez responden con un honesto “no lo sé”. En lugar de eso, tienden a rellenar los huecos inventando detalles plausibles, mezclando fragmentos de distintas fuentes o extrapolando información válida en un contexto a otros donde ya no lo es. Esto es lo que se conoce como “alucinaciones”.

Otro foco de error es la forma en que gestionan las citas. Si no encuentran una declaración concreta que encaje en la narrativa que están construyendo, corren el riesgo de fabricar frases textuales que nunca se dijeron, pero que suenan verosímiles atribuidas a un político, un experto o una institución pública. El estudio identificó respuestas con varias citas inventadas o alteradas dentro de una misma pieza.

Además, estos sistemas no siempre distinguen con claridad entre afirmaciones fácticas y valoraciones. En algunas respuestas atribuían juicios de valor a medios o fuentes que en realidad solo informaban de hechos, o mezclaban sin marcar la frontera entre interpretación y dato comprobable.

Todo ello se agrava por su estilo comunicativo: las respuestas suelen ser largas, ordenadas y muy seguras, lo que transmite una fuerte sensación de autoridad. Varios evaluadores de medios públicos destacaron precisamente ese contraste: el asistente imita el tono confiado del periodismo profesional, pero sin sus rutinas de contraste y revisión.

Un intermediario nuevo entre medios y ciudadanía

Estas carencias no se dan en el vacío. Los asistentes de IA se están convirtiendo en nuevos intermediarios informativos entre los medios y el público. Cada vez más usuarios formulan preguntas directamente a la IA en lugar de navegar por portadas, boletines o apps de noticias.

Esto tiene dos consecuencias directas. La primera, obvia: si la IA ofrece respuestas distorsionadas o parcialmente incorrectas, la ciudadanía puede tomar decisiones políticas, sanitarias o económicas sobre bases frágiles. La segunda, más sutil: incluso cuando el error es pequeño, el asistente suele presentar su síntesis como “la” versión de lo que dicen los medios, sin enlazar de forma clara al contenido original.

Como advirtió un representante de RTVE involucrado en el estudio, si la sociedad empieza a dar por bueno lo que dicen los asistentes sin comprobar las fuentes, los medios y las instituciones pierden valor simbólico. La marca del periódico, la radio o la televisión deja de ser un ancla de credibilidad y se diluye detrás de un párrafo anónimo generado por un modelo.

Los propios medios públicos que han participado en la investigación están presionando para que los reguladores nacionales y europeos (ver retos jurídicos de la inteligencia artificial) hagan cumplir la normativa existente sobre integridad de la información, servicios digitales y pluralismo mediático, y para que se desarrollen marcos específicos que obliguen a estas plataformas a cuidar mejor la calidad y la atribución cuando trabajan con noticias.

En paralelo, los responsables de los servicios informativos reclaman ganar control sobre cómo se sintetizan sus contenidos: autorización explícita para el uso de piezas periodísticas, formatos estandarizados de atribución y enlace visible, y mecanismos para denunciar distorsiones graves que perjudiquen su reputación.

Algoritmos de recomendación: qué noticias ves y por qué

Además de escribir textos, la IA decide cada vez más qué noticias vemos y en qué orden. Plataformas como Google Discover, redes sociales y agregadores utilizan modelos de aprendizaje automático que analizan el comportamiento de millones de usuarios para construir perfiles estadísticos extremadamente detallados.

Estos sistemas no saben tu nombre ni tus motivaciones profundas, pero sí registran patrones: qué titulares te llaman la atención, cuánto tiempo pasas en una pieza, desde qué dispositivo accedes, si compartes o comentas, en qué franja horaria lees más, cuál es tu ubicación aproximada, etc. Con esa información construyen hipótesis sobre tus intereses y estados de ánimo probables.

A partir de ahí, la lógica es simple: el algoritmo tenderá a mostrarte más contenido parecido a aquello en lo que ya hiciste clic y menos de lo que ignoraste, reforzando poco a poco una dieta informativa sesgada. Lo hace con el objetivo declarado de “mejorar tu experiencia” ahorrándote tiempo, pero el efecto colateral es limitar el contacto con temas o enfoques que no confirman tus preferencias previas.

Este tipo de personalización tiene ventajas evidentes: si te interesa mucho la tecnología, el deporte o la política internacional, es cómodo que el sistema te vaya sirviendo piezas relevantes sin tener que buscarlas activamente. El problema aparece cuando casi todo lo que ves encaja en un molde muy estrecho, repite los mismos marcos interpretativos y excluye voces disonantes.

Uno de los efectos más peligrosos es la ilusión de libertad de elección. El usuario siente que navega libremente, seleccionando aquello que quiere leer, sin darse cuenta de que su menú ha sido preseleccionado y ordenado por un algoritmo que ha aprendido a anticipar qué pulsará su curiosidad o sus emociones. A la larga, esto erosiona la capacidad de contrastar puntos de vista y reconocer la parcialidad propia.

Te puede interesar:  Qué es el Instituto Craneomandibular y cuáles son sus especialidades

Para el periodismo, la presión es doble: si la IA que filtra las noticias prioriza aquello que más “funciona” en términos de clics, los medios pueden verse tentados a adaptar sus contenidos al gusto algorítmico incluso a costa de rebajar el criterio editorial. El equilibrio entre llegar a la audiencia y mantener estándares de calidad se vuelve cada vez más delicado.

IA como herramienta contra la desinformación: potencial y límites

Sería injusto pintar a la IA solo como villano. Bien diseñada y gobernada, puede ser una aliada potente para mejorar el periodismo y combatir la desinformación. Ya existen sistemas capaces de detectar patrones sospechosos en campañas coordinadas, identificar características lingüísticas propias de bulos, rastrear el origen de un contenido o marcar imágenes y vídeos manipulados.

Algunas startups y equipos de investigación han desarrollado algoritmos que examinan titulares, analizan la relación entre el título y el cuerpo del texto, comparan piezas con bases de datos de noticias verificadas y ofrecen puntuaciones de riesgo que ayudan a plataformas y anunciantes a evitar asociarse con contenidos dudosos. Otros proyectos exploran el uso de metadatos verificables, marcas de agua digitales o estándares de trazabilidad (como C2PA) para autenticar la procedencia de materiales informativos.

También se están celebrando desafíos abiertos y competiciones técnicas dedicadas a mejorar la detección automática de noticias falsas, especialmente en formatos difíciles como memes, capturas de pantalla y vídeos cortos. La idea no es sustituir a los verificadores humanos, sino darles herramientas que multipliquen su capacidad para revisar grandes volúmenes de contenido en poco tiempo.

Sin embargo, la propia comunidad técnica reconoce que este es un juego del gato y el ratón. A medida que mejoran las herramientas de detección, también lo hacen las técnicas de generación de contenidos falsos, incluyendo modelos de IA entrenados específicamente para esquivar los filtros de calidad. Algunos informes señalan que, en unos años, el volumen de desinformación automatizada podría superar la capacidad técnica para detectarla por completo.

En este contexto, la IA no puede ser la única respuesta. Hace falta combinarla con políticas públicas robustas, regulación inteligente, alfabetización mediática y mecanismos de gobernanza en los que participen gobiernos, empresas tecnológicas, medios, academia y sociedad civil. La cuestión no es solo técnica, sino profundamente política y ética.

Ética, gobernanza y el papel de la ciudadanía mediática

El despliegue masivo de IA en el ámbito informativo obliga a revisar desde cero los marcos éticos del periodismo y de la tecnología. Ya no basta con códigos deontológicos que se aplican al redactor; hay que extender las exigencias de transparencia, responsabilidad y respeto a derechos fundamentales a quienes diseñan y entrenan los algoritmos.

Organismos como la Unión Europea han empezado a publicar planes de acción contra la desinformación, estrategias de ciberseguridad y propuestas regulatorias sobre IA que incluyen principios de no discriminación, explicabilidad y supervisión humana en sistemas de alto impacto. El Parlamento Europeo, por ejemplo, ha debatido códigos éticos para la robótica y la inteligencia artificial que distinguen entre obligaciones de los creadores y límites a los comportamientos de las propias máquinas.

Uno de los dilemas más espinosos es cómo combatir los contenidos dañinos sin caer en la censura arbitraria o el paternalismo tecnocrático. Prohibir discursos de odio, incitaciones a la violencia o materiales claramente ilegales es relativamente sencillo en teoría, pero la frontera se vuelve borrosa cuando entran en juego sátira, ironía, crítica política o expresiones controvertidas pero legítimas.

Si se delega en algoritmos la clasificación automática de lo que se puede o no se puede difundir, hay que decidir antes quién define los valores de referencia, qué mecanismos de apelación existen y cuánto margen se deja a la diversidad cultural y política. Un exceso de celo puede conducir a la autocensura preventiva de usuarios y medios, que teman que sus contenidos sean penalizados por error.

Frente a estos riesgos, cobra fuerza la idea de “ciudadanía mediática”: personas capaces de participar de forma madura en la esfera pública, con criterio para valorar fuentes, contrastar informaciones y resistir la presión de la polarización emocional. Educación, bibliotecas, medios públicos y plataformas tienen un papel clave en el desarrollo de estas competencias, incluida la alfabetización en inteligencia artificial.

En paralelo, el periodismo debe reivindicar su aportación específica en la era de la IA: no tanto producir el volumen máximo de piezas, sino generar capital semántico, es decir, sentido, contexto, historias que conecten datos dispersos con la vida cotidiana de la gente. Precisamente ahí es donde las máquinas tienen más dificultades: comprender qué significa algo para una comunidad concreta, cómo se inscribe en su historia y qué implicaciones éticas tiene.

En definitiva, la inteligencia artificial ha irrumpido en el ecosistema informativo como un actor ambivalente, capaz de potenciar un periodismo más sólido y eficaz, pero también de amplificar la desinformación y erosionar la confianza pública si se deja a su aire. El reto está en construir reglas del juego, tecnologías y hábitos ciudadanos que permitan aprovechar su enorme potencial sin resignarse a un espacio público dominado por algoritmos opacos, noticias distorsionadas y burbujas a medida.

ciudadanía digital
Artículo relacionado:
Ciudadanía digital: claves para una participación segura e inclusiva