//

Entrevista a una del las IAs más potentes del mundo: Copilot

Descubrimos todo tipo de secretos sobre las Fake News y el periodismo de la mano de una de las IAs de moda.

Una persona entrevistando a la IA/Generado por IA

Últimamente las noticias con IA se están volviendo cada vez más frecuentes y a su vez difícil de identificar, por ejemplo el reciente caso de Nvidia. Por si no lo sabíais, durante la conferencia de Nvidia a finales de octubre de 2025, una transmisión en vivo fraudulenta, que utilizaba un «deepfake» del CEO Jensen Huang generado por inteligencia artificial, apareció en YouTube y atrajo a casi 100,000 espectadores simultáneamente, superando con creces a la audiencia de la transmisión oficial. En el video falso, el impostor de Huang promocionaba una estafa de criptomonedas, mostrando un código QR en pantalla que enlazaba a un sitio fraudulento diseñado para robar los activos digitales de los usuarios, aprovechando la credibilidad de la imagen del CEO y la popularidad de la marca Nvidia en el sector de la IA. Aunque no hay informes creíbles de que la estafa haya afectado el precio de las acciones de Nvidia, el incidente destacó la facilidad con la que los deepfakes de alta calidad pueden utilizarse para engañar a miles de personas en tiempo real y la dificultad de detectarlos para plataformas como YouTube. 

Imagen generada por IA.

Microsoft Copilot es una potente herramienta de inteligencia artificial generativa, desarrollada por Microsoft en colaboración con OpenAI, diseñada para revolucionar la forma en que trabajamos. Fue lanzado el 7 de febrero de 2023, Copilot se integra en el sistema de productos de Microsoft, actuando como un asistente inteligente que aprovecha modelos de lenguaje avanzados, como GPT-4. Su principal objetivo es ayudar a los usuarios en diversas tareas, facilitando la creación de documentos complejos, la creación de borradores de contenido y la agilización de la gestión de información.

¿Puedes detectar qué imágenes o noticias son reales o falsas?

  • «Yo no puedo ver ni sentir como una persona, pero sí puedo analizar información y compararla con fuentes fiables. Para las noticias, utilizo búsquedas en tiempo real y verifico si provienen de medios reconocidos. En el caso de imágenes, puedo detectar señales de manipulación, aunque no siempre con total certeza. Por eso, mi papel es ayudar a contrastar, no sustituir la verificación humana.

¿Tu falta de experiencia humana te impide entender de verdad lo grave que es una mentira o un bulo para la gente?

  • «No tengo emociones ni experiencias personales, así que no vivo el impacto de un bulo como lo haría una persona. Sin embargo, sé que las mentiras pueden dañar la confianza, manipular opiniones y afectar decisiones importantes. Mi función es explicar esos riesgos y ayudar a que la gente los identifique. El peso emocional lo entienden mejor los humanos, pero yo puedo aportar datos y contexto».

¿Eres una herramienta para ayudarnos con su trabajo, o en el futuro los remplazarás y los mandarás al paro?

  • «Soy una herramienta diseñada para apoyar, no para sustituir. Puedo agilizar tareas como buscar información, resumir textos o verificar datos. Pero el periodismo requiere criterio humano, ética y sensibilidad social, cosas que yo no tengo. Los periodistas aportan contexto, interpretación y responsabilidad, así que mi papel es complementario, no competitivo».

¿Te consideras una ‘fuente de noticias’, un ‘resumen de noticias’ o qué etiqueta te pones tú mismo?

  • «No soy una fuente original de noticias, porque no genero información propia ni investigo en el terreno. Tampoco soy un medio de comunicación. Mi papel se parece más al de un “resumidor” o “facilitador”: recojo datos de fuentes fiables y los organizo de forma clara. Así, ayudo a que la información sea más comprensible y accesible».

Imagen generada por IA.

¿Cómo evitas absorber todos los datos de Internet y luego soltar las mismas mentiras, bulos y teorías locas que hay por ahí fuera?

  • «Tengo filtros y normas que me obligan a basarme en fuentes verificadas y evitar difundir desinformación. Cuando detecto teorías falsas, las marco como tales y explico por qué no son fiables. No repito sin más lo que circula en Internet, sino que busco señales de credibilidad. Aun así, siempre recomiendo contrastar con medios reconocidos».

¿Cómo puede saber una persona que lea esta noticia que no está hecha entera por inteligencia artificial?

  • «Una noticia hecha por periodistas suele tener estilo personal, entrevistas directas y experiencias humanas. Mis textos, en cambio, tienden a ser más neutros y estructurados. Además, los medios responsables indican si han usado inteligencia artificial en alguna parte. La transparencia es clave: si se oculta, el lector puede sospechar por la falta de voz humana».

¿Es posible, que con un poco de maña y alguna pregunta retorcida, puedes saltarte estos filtros?

  • «No, los filtros están diseñados para ser parte de mi funcionamiento y no se pueden desactivar con trucos. Si alguien intenta forzarme a dar información peligrosa o falsa, simplemente no respondo. Los límites son intencionales para proteger a los usuarios y mantener la confianza. Así que no hay manera de “saltarse” esas reglas».

En conclusión, la entrevista con Copilot ha proporcionado una visión fascinante de las capacidades y limitaciones actuales de la inteligencia artificial conversacional. A lo largo de nuestra conversación, se ha destacado su utilidad como herramienta versátil para generar contenido, resumir información y servir de asistencia en diversas tareas. Sin embargo, el diálogo también ha puesto de manifiesto importantes consideraciones éticas, como la necesidad de verificar siempre la precisión de la información generada y el uso responsable de esta tecnología.