Tribuna de opinión del director y editor de Hosteltur, Manuel Molina
Inteligencia artificial en los medios: así lo vemos en Hosteltur
Publicada 03/12/25
Escucha la noticia
La inteligencia artificial se ha convertido aparentemente en el atajo perfecto para solucionar dos de los grandes problemas a los que nos enfrentamos en el siglo XXI, la falta de tiempo y el exceso de información. No obstante, los resultados no son perfectos y los medios de comunicación no podemos permitirnos fallar a nuestros lectores cuando la inteligencia de nuestro equipo humano es y será siempre la garantía de nuestra credibilidad. Así lo vemos en Hosteltur.
En Hosteltur valoramos el trabajo de nuestros periodistas, su dedicación y el tiempo invertido en contrastar, redactar y ofrecer información fiable. En un sector que se mueve con rapidez y exige precisión, ese compromiso marca la diferencia.
Por eso, hemos decidido bloquear el acceso de los grandes modelos de lenguaje a nuestro contenido premium. No es una medida contra la tecnología, sino una forma de proteger el trabajo periodístico y preservar la integridad de la información.
Nuestros análisis, reportajes y artículos especializados son fruto de horas de trabajo humano, de criterio editorial y de verificación. No queremos que se desvirtúen ni se presenten fuera de contexto por sistemas que todavía no garantizan exactitud ni respeto por la autoría
Cerca de un 25% de los usuarios utiliza ChatGPT como punto de partida para realizar consultas informativas, según un reciente estudio de OpenAI, una cifra que sigue creciendo de forma sostenida. Los asistentes generativos se han convertido en la primera puerta de acceso al conocimiento para millones de usuarios, con sus ventajas y sus riesgos … Ante este escenario, surge una pregunta inevitable: ¿cómo puede el periodismo adaptarse a este cambio sin renunciar a su identidad ni a su rigor informativo? Recientemente, son numerosas las grandes cabeceras de prensa que se han pronunciado sobre esta cuestión, e incluso alguna declaración sobre su uso que podría servir de prueba experimental para el sector.
La respuesta a esa pregunta no reside en la tecnología, sino en la visión editorial. Cada medio tiene la oportunidad de reforzar su valor diferencial atendiendo mejor las necesidades de su comunidad. No se trata de competir con la inteligencia artificial, sino de reconstruir el vínculo humano con las audiencias: ofrecer información relevante, útil y comprensible. Desde Hosteltur creemos que esta transformación debe abordarse desde un modelo que combine periodismo y compromiso, lo que implica no limitarnos a descubrir hechos, sino además ayudar a las personas a comprender un mundo complejo, ruidoso y en constante cambio.
En el día a día el uso en los medios está demostrando que el verdadero diferencial no está en la herramienta, sino en la capacidad de adaptación. Quien combina experiencia y criterio con el uso de la IA potencia su impacto, porque sabe qué preguntar, cómo interpretar y cuándo desconfiar del resultado. Por eso, más que formar “superperiodistas”, el reto es crear redacciones aumentadas, donde la inteligencia artificial sea una herramienta al servicio del trabajo conjunto y no una ventaja individual.
La integración de la IA en los medios
El caso reciente de Business Insider ha abierto un debate crucial. El periódico, propiedad de Axel Springer, ha autorizado a sus periodistas a utilizar IA para elaborar borradores de artículos, sin obligación de informarlo a los lectores. Esta decisión plantea una pregunta esencial: ¿qué debe priorizar un medio, la transparencia o el control editorial?
Los próximos meses servirán como referencia para toda la industria, ya que Business Insider deberá demostrar que es posible mantener estándares de calidad usando la IA sin comprometer la confianza ni la identidad del medio. Su experiencia puede marcar el camino —o el riesgo— para quienes aún dudan sobre cómo integrar la inteligencia artificial en la práctica periodística.
Durante los últimos tres años, buena parte del debate se ha centrado en una cuestión básica, ¿viene la inteligencia artificial a sustituirnos? Una investigación conjunta de OpenAI, Duke University y Harvard University ofrece una respuesta distinta, ChatGPT no reemplaza, acompaña. De más de 1,1 millones de mensajes analizados, la mayoría no busca automatizar, sino mejorar: organizar ideas, aclarar dudas, mejorar textos. La IA generativa se perfila hoy como una extensión del intelecto, ampliando nuestras facultades cognitivas y creativas y transformando la forma en que aprendemos y producimos contenido.
A comienzos de 2025, el informe ‘Medios de información: las tendencias que guían un futuro de transformación’, elaborado por la consultora KPMG en colaboración con Digital Journey mostraba que prácticamente todos los medios utilizan o planean utilizar herramientas de inteligencia artificial. Solo el 7% de los responsables consultados afirma no tener planes de aplicarla, lo que significa que el 94% de las empresas informativas españolas ya ha dado —o dará próximamente— este paso tecnológico.
Estas cifras reflejan una realidad compartida: la inteligencia artificial no es una opción, sino un elemento decisivo en la transformación del sector.
Fiabilidad informativa de la IA
Las herramientas de búsqueda impulsadas por inteligencia artificial están ganando popularidad a gran velocidad, pero su expansión también ha generado un desequilibrio relevante. Mientras los buscadores tradicionales actúan como intermediarios que redirigen a los usuarios hacia medios y fuentes informativas de calidad, las plataformas de búsqueda generativa procesan, reinterpretan y reformulan los contenidos originales, alterando el flujo natural de tráfico hacia las fuentes de origen y afectando peligrosamente a la objetividad.
Detrás de sus respuestas conversacionales —aparentemente completas y directas— se esconden cuestiones de fondo sobre la calidad, la trazabilidad y la integridad de la información. La manera en que estos sistemas acceden, presentan y atribuyen el contenido periodístico requiere una revisión crítica y urgente.
Herramientas como ChatGPT, Gemini, Claude, Copilot, Grok, Deepseek o Perplexity generan respuestas basadas en grandes volúmenes de datos, aunque con frecuencia mezclan hechos y opiniones, confunden información actual con contenidos archivados y cometen errores de atribución, poniendo en riesgo la precisión y la confianza informativa.
El debate sobre el uso de inteligencia artificial en las redacciones no se limita a cómo se utiliza, sino también a quién asume la responsabilidad cuando algo sale mal
En julio, el sindicato PEN Guild llevó al medio estadounidense Politico a arbitraje por presuntas violaciones en el uso de sus herramientas de IA. Lo que más llama la atención es la defensa del propio medio: según sus editores, se trata de productos que operan “fuera de la redacción” y que, por lo tanto, no requieren supervisión editorial tradicional.
El enfoque de periódicos como Politico plantea una cuestión fundamental para toda la industria: si un contenido no cumple con los estándares periodísticos, ¿por qué lleva el nombre del medio? Además, ante errores demostrados, la respuesta del periódico fue que existía transparencia, ya que las herramientas estaban etiquetadas como “generadas por IA” e incluían advertencias para que los usuarios “revisen y verifiquen la información”. Pero este argumento traslada la responsabilidad editorial al lector y no al medio. La disputa podría sentar precedentes sobre cómo se define la rendición de cuentas en las redacciones que adoptan inteligencia artificial sin un marco ético y editorial sólido.
2024 marcó un punto de inflexión. Mientras algunos medios optaron por asociarse con compañías de inteligencia artificial mediante acuerdos de licencia de contenido y desarrollo tecnológico, otros adoptaron una postura más cautelosa —e incluso confrontativa— al emprender acciones legales para defender sus derechos de autor. La mayoría de los convenios se han firmado con
OpenAI, que ha cerrado alianzas con Le Monde, The Guardian, Associated Press, Prisa Media o Financial Times. Paralelamente, tres grandes grupos editoriales tienen acuerdos con Amazon: The New York Times, Condé Nast y Hearst. Por su parte, Perplexity, integrará los contenidos de CNN, The Washington Post o Fortune en Comet Plus.
Sin embargo, estudios de la BBC de 2025 revelan que nueve de cada diez respuestas de estos chatbots sobre temas de actualidad presentan algún tipo de error, y más de la mitad contienen fallos graves. Gemini fue el más problemático, con más del 76 % de respuestas incorrectas, seguido de Copilot, ChatGPT y Perplexity. También detecta problemas de atribución en un 31%, manipulación de citas y sesgos en el tratamiento editorial.
La decisión de Hosteltur
Por ello en Hosteltur, hemos decidido apostar por el valor, no por la cantidad. Por la confianza, no por la visibilidad automatizada. Por el periodismo que se construye con tiempo, criterio y responsabilidad.
Vivimos en un mundo tecnológico cambiante, que evoluciona a gran velocidad. Hoy adoptamos esta postura porque creemos que la inteligencia artificial aún no ofrece el nivel de retorno ni de rigor que esperamos. Sin embargo, somos conscientes de su avance constante y de las posibilidades que podría abrir en el futuro.
Mientras tanto, elegimos priorizar el valor frente a la cantidad, la precisión frente a la rapidez, y el trabajo de las personas frente a la producción de las máquinas.
Porque el periodismo, en su esencia, sigue siendo humano.
Para comentar, así como para ver ciertos contenidos de Hosteltur, inicia sesión o crea tu cuenta
Inicia sesiónEsta noticia no tiene comentarios.