Seguimos con el capítulo 8 de “Inteligencia artificial generativa para gente real. Tu brújula para usarla bien”, una serie semanal para la Cadena Ser, en «A vivir Cantabria», junto a Conchi Castañeda. En este octavo capítulo analizamos qué tal nos defendemos los humanos detectando contenido generado con IA. Se puede escuchar el programa aquí, a partir del minuto 19:08: A Vivir Cantabria (21/12/2025) | Cadena SER
Me metí de lleno en un juego inquietante: intentar adivinar si algo lo hizo una persona… o una IA. Nos creemos bastante mejores de lo que realmente somos detectando contenido generado por inteligencia artificial.
Y esto ya no es una curiosidad tecnológica. Cuando la detección falla, se tambalea la confianza en lo que lees, lo que ves, lo que oyes… y lo que compartes.
El “olfato digital” no es un detector: es una alarma
A veces se habla de “intuición” o “olfato” para notar que algo no encaja. Yo no digo que no sirva. Sirve, pero no como detector infalible. Sirve como alarma: “esto me suena raro, voy a comprobar”. El cambio clave es pasar de “yo lo noto” a “yo lo verifico”.
Texto: solemos movernos entre el azar y poco más
Cuando hablamos de mensajes, correos, ensayos o trabajos, el patrón en estudios sobre texto es bastante consistente: muchas personas rondan solo el 50–60% de acierto distinguiendo si un texto es de IA o humano. Eso es poquito por encima del azar.
Y hay un detalle importante: cuando el texto de IA está bien hecho (tono natural, buena estructura), se vuelve realmente difícil de detectar. De hecho, la mayoría de la gente tiende a pensar que lo escribió una persona.
“Pero el profesorado sí lo nota, ¿no?”
Ojalá. También fallan.
- En un estudio con profesorado revisando fragmentos tipo tesis, la identificación de textos generados por ChatGPT rondó el 57%, y reconocer textos humanos subió al 64%.
- Pero aquí viene el dato-bomba: cuando la IA escribía a nivel alto, la detectaron menos del 20%. Es decir: la mayoría creyó que eso lo había escrito alguien.
- Y en otro estudio educativo, futuros docentes y docentes en activo llegaron a porcentajes de detección de IA del 45% y 38% respectivamente. Sí: en ese caso, los docentes en activo detectaron peor que el azar.
Lo que nos engaña del texto (y por qué no debes fiarte)
Hay dos trampas mentales muy comunes:
- Tendemos a asociar “bien escrito” con “humano”. Pero la IA puede escribir muy, muy bien.
- Y también nos pasa al revés: si hay fallos o suena simple, pensamos “esto es humano”… cuando la IA también puede escribir simple o torpe si se lo pides.
Conclusión práctica: no uses la calidad del texto como prueba de autoría. Úsala solo como pista para decidir si hace falta verificar.
Imágenes: el promedio es prácticamente lanzar una moneda
Con fotos, memes o imágenes “sueltas” mucha gente cree que “se nota”. Pero los datos son duros: hay un metaanálisis con decenas de estudios y decenas de miles de participantes que sitúa la detección humana de imágenes hechas con IA en torno al 53%. Es decir: casi azar.
Y, además, los modelos mejoran cada vez más. Así que diferenciar será cada vez más complicado.
Deepfakes: cuando “parece real” es justo el problema
Cuando alguien puede colarte la cara de una persona haciendo cualquier barbaridad sin que te des cuenta, estamos en el territorio de los deepfakes.
Un deepfake es un contenido digital falso creado con IA que imita de forma muy realista a una persona real, haciendo que parezca decir o hacer cosas que nunca ocurrieron.
En experimentos con deepfakes de rostros, los resultados varían:
- en algunos la gente identifica en torno al ≈62%,
- en otros se queda alrededor del 50%.
En la práctica: hay que tener muchísimo cuidado con lo que vemos.
Vídeo: todavía peor que la imagen
LCon vídeo, la cosa empeora. En una encuesta grande con consumidores, en vídeos la gente tuvo 36% menos probabilidad de acertar que con imágenes fijas.
Y ojo con esto: una parte importante ni siquiera conocía el término “deepfake”.
Dato casi simbólico: en esa misma encuesta, solo el 0,1% identificó correctamente todos los deepfakes que se les mostraron.
Traducido: confiar en “yo controlo, a mí no me la pegan” es mala idea. No tenemos una capacidad fiable para distinguir.
Por eso, con imágenes y vídeo, la pregunta útil no es “¿lo detecto?”, sino:
- ¿hay forma de contrastarlo?
- ¿puedo rastrear el origen?
- ¿puedo comprobar el contexto?
- ¿quién es la fuente?
Audio: algo mejor… pero sigue siendo peligroso confiar en la intuición
En audio hay una mejora, pero fiarte solo de lo que “te suena” sigue siendo arriesgado:
- En un estudio con clips en dos idiomas, la gente rondó el 73% de acierto. Suena bien… hasta que caes en que 1 de cada 4 puede colártela.
- En otro estudio más reciente, los humanos detectaron contenidos generados por IA en alrededor del 80%.
Y aparecen patrones relevantes:
- las personas mayores fueron más engañadas,
- los oyentes nativos detectan mejor en su idioma que en otros.
Consejo práctico clarísimo: si recibes un audio “urgente” pidiéndote dinero, datos o acciones raras… verificación por doble canal. Llamar al número oficial, escribir por otra vía, hacer una pregunta de control. Y una frase que conviene tatuarse: no discutas con ese audio: comprueba y verifica que es real.
Música: el giro más fuerte (y el más inquietante)
Si lo del audio te parece fuerte, espera: la música es el giro más brutal.
En una encuesta internacional con miles de oyentes, escucharon 3 canciones:
- 2 generadas 100% con IA
- 1 generada por humanos
Sin decirles cuál era cuál.
Solo el 3% identificó correctamente las canciones 100% generadas por IA. Es decir: la gran mayoría falló.
Y cuando la gente se enteraba, más de la mitad decía sentirse incómoda. Además, una gran mayoría pedía etiquetado claro de música generada por IA.
Puedes estar tarareando una canción “humana” que no lo es. Y por eso, más que pedirle al oído que sea policía, lo lógico es pedir transparencia: etiquetado, trazabilidad y normas claras en plataformas. No para demonizar la IA, sino para saber qué consumimos.
Implicaciones: no es para vivir con miedo, pero sí para cambiar el chip
El problema no es solo “me cuelan un vídeo falso”. Si no sabemos distinguir, se erosiona la confianza: pasamos del “me engañaron” al “ya no me creo nada”.
Eso es gasolina para la desinformación, porque fabricar bulos se vuelve baratísimo:
- un texto convincente,
- una imagen impactante,
- un audio con voz imitada…
y en minutos tienes una historia que se viraliza antes de que llegue la verificación.
En momentos sensibles, puede haber manipulación política: no hace falta cambiar la realidad, basta con sembrar duda, polarizar y enfrentar. Y si encima la gente piensa “todo puede ser falso”, el debate se rompe.
El miedo cotidiano: fraude, suplantación y reputación
A mí lo que más me preocupa del día a día es el fraude: el audio de “Mamá, me han robado el móvil, envíame dinero”.
La suplantación de identidad con voz o imagen facilita:
- estafas,
- chantajes,
- extorsiones,
y no solo a personas: también a empresas y administraciones.
Y si te montan un vídeo “comprometedor” aunque sea mentira… el daño puede ser enorme: daño reputacional, acoso, incluso violencia digital. Por eso la respuesta no puede ser solo “aprende a detectar”: necesitamos prevención, denuncia fácil y pruebas robustas.
Justicia y “la trampa” de negar lo real
En justicia, si un vídeo ya no prueba nada, se complica:
- aumenta la necesidad de peritajes,
- cadena de custodia digital,
- verificaciones.
Y aparece una trampa peligrosa: “si todo puede ser fake, entonces mi vídeo real también lo niego”. Eso puede debilitar casos reales.
Educación: los detectores de IA “se quedan en agua de borrajas”
En educación, evaluar si un trabajo lo ha hecho el alumno o un chatbot es muy complicado.
Sí: existen verificadores de IA que te dan un porcentaje de probabilidad. Pero, en la práctica, no son fiables y se quedan en agua de borrajas.
¿Por qué? Porque la única forma de demostrar de verdad que un trabajo se hizo con IA y no por ti sería entrar a los servidores en la nube de las empresas de IA, revisar conversaciones, comparar resultados… y como no sabes qué herramienta usó el alumno, tendrías que entrar en los servidores de todas las herramientas. Para un profesor en España es imposible. Incluso para un juzgado sería una tarea titánica que podría llevar años con pocas posibilidades de éxito.
Y hay otro giro: hoy puedes instalar modelos de lenguaje grandes en tu propio ordenador sin conexión a internet, sin dejar rastro fuera del dispositivo.
La respuesta razonable es cambiar la forma de evaluación: apostar por presentaciones orales con preguntas sobre el trabajo escrito, para comprobar que el alumnado ha asimilado lo que ha escrito. Es un cambio de paradigma, y más vale que nos pongamos las pilas. Hay que enseñar a usar la IA bien: no para que haga el trabajo, sino para ayudar a pensar mejor.
Mercado laboral y creatividad: más humo si no hay transparencia
Si la autoría se difumina, también cuesta medir el mérito. En el mundo laboral: un currículum perfecto, una muestra de trabajos inflados… puede haber mucho humo.
Y en el mundo creativo (música, ilustración, escritura), si no hay transparencia, se tensionan los derechos de autor y el valor del trabajo creativo. Además, el consumo se vuelve más manipulable: reseñas falsas, “expertos” sintéticos, anuncios con testimonios inventados.
El cambio mental: de “¿es IA o humano?” a “¿es verdad y en qué contexto?”
Si no somos buenos detectando IA, la salida no es volverse paranoico: es cambiar el objetivo.
En vez de jugar a “¿es IA o humano?”, jugamos a:
- ¿es verdad?
- ¿en qué contexto?
Porque una foto puede ser real… y estar usada para mentir igualmente.
El truco no está en la tecnología, sino en el engaño
Hábitos prácticos que sí funcionan
Me quedo con una fórmula muy simple:
1) Pausa
Si algo te mete prisa, te indigna o te asusta, es cuando más te conviene frenar. Esa emoción es el acelerador del bulo. Si te dan ganas de reenviarlo “ya”, mejor te tomas un vaso de agua.
2) Contrasta
Una sola fuente no es una prueba. Si no aparece en ningún otro sitio fiable, no lo des por cierto.
3) Doble canal para fraudes
Si hay dinero, datos o decisiones rápidas, confirma por otra vía: llamas al número de siempre, escribes por el canal habitual, haces una pregunta de control. No se negocia con el audio: se verifica la identidad.
4) Mira al “vendedor”, no solo al vídeo
Pregunta clave: ¿quién lo sube y con qué intención? A veces el contenido da igual; lo que importa es si te lo manda una cuenta sin historial, con titulares incendiarios, buscando que piques.
5) Si te equivocas, corrige rápido
No pasa nada por equivocarse. Lo grave es dejar el error circulando. Rectificar corta la cadena del bulo y enseña a los demás.
Resumen final: parar, contrastar, doble canal y un poquito de humildad. En la era de la IA, el superpoder no es “detectar”: es comprobar sin dramatizar.
Reto de la semana: crear un PowerPoint con Kimi
Después de tanto “verifica, verifica”, toca pasar a la acción. Esta semana el reto es muy práctico: hacer una presentación PowerPoint con una herramienta llamada Kimi.
- Entras en Kimi.com.
- Es un chatbot como ChatGPT o Gemini, de origen chino.
- Tiene una función específica para crear presentaciones en PowerPoint.
- En la parte izquierda de la pantalla abres la función Slides.
- Puedes:
- especificar qué quieres que ponga en cada diapositiva, o
- adjuntar un documento para que Kimi extraiga la información relevante y la convierta en diapositivas.
Un ejemplo perfecto: una presentación para público general sobre cómo no caer en engaños digitales con IA y que los deepfakes no nos engañen.
Lo ideal es trabajar nosotros la información y pasarle los datos que queremos incluir (ya sabes, por lo de la deuda cognitiva acumulada que vimos aquí), pero también se le puede pedir ideas. Por ejemplo, puedes pedir algo así:
- Presentación de 8 diapositivas titulada “Cómo no caer en deepfakes”.
- Estructura:
- portada
- consejos prácticos
- un caso de ejemplo (audio de estafa)
- conclusiones
- Estilo: divulgativo, frases cortas.
- Y pedir notas del presentador en cada diapositiva para facilitar la preparación.
Kimi te genera una estructura de texto editable (puedes modificar lo que quieras). Además, a día de hoy tiene unas cuarenta plantillas de estilo para elegir. Seleccionas la que más te guste y generas: automáticamente empieza a dar forma a todas las diapositivas con la información que ya aprobaste.
Y lo importante: sí, puedes descargarlo para abrirlo en el PowerPoint “de toda la vida”, editar detalles, o bajarlo en formato imagen PNG, lo que prefieras.
Algunas de las fuentes utilizadas para elaborar este post han sido:
- Do humans identify AI-generated text better than machines? Evidence based on excerpts from German theses – ScienceDirect https://www.sciencedirect.com/science/article/pii/S1477388025000131
- Can Humans Detect AI-Generated Text? 6 Studies Would Suggest They Can’t – Originality.AI https://originality.ai/blog/can-humans-detect-ai-content
- Do teachers spot AI? Evaluating the detectability of AI-generated texts among student essays https://www.researchgate.net/publication/377715300_Do_teachers_spot_AI_Evaluating_the_detectability_of_AIgenerated_texts_among_student_essays
- Q&A: The increasing difficulty of detecting AI- versus human-generated text | Penn State University https://www.psu.edu/news/information-sciences-and-technology/story/qa-increasing-difficulty-detecting-ai-versus-human
- Detecting Artificial Intelligence–Generated Versus Human-Written Medical Student Essays: Semirandomized Controlled Study – PMC https://pmc.ncbi.nlm.nih.gov/articles/PMC11914838/
- ‘Silly’ to expect AI mimicking human-written text could be easily detected | Cornell Chronicle
https://news.cornell.edu/media-relations/tip-sheets/silly-expect-ai-mimicking-human-written-text-could-be-easily-detected - Testing Human Ability To Detect Deepfake Images of Human Faces
https://arxiv.org/abs/2212.05056 - Human performance in detecting deepfakes: A systematic review and meta-analysis of 56 papers – ScienceDirect
https://www.sciencedirect.com/science/article/pii/S2451958824001714 - iProov Study Reveals Deepfake Blindspot: Only 0.1% of People Can Accurately
Detect AI-Generated Deepfakes | iProov
https://www.iproov.com/press/study-reveals-deepfake-blindspot-detect-ai-generated-content - As Good as a Coin Toss: Human Detection of AI-Generated Content | CiteDrive
https://www.citedrive.com/en/discovery/as-good-as-a-coin-toss-human-detection-of-ai-generated-content/ - Detecting Audio Deepfakes with Artificial Intelligence – Fraunhofer AISEC
https://www.aisec.fraunhofer.de/en/media/press-releases/2025/detecting-audio-deepfakes-with-artificial-intelligence.html - Humans can detect deepfake speech only 73% of the time, study finds | Artificial
intelligence (AI) | The Guardian
https://www.theguardian.com/technology/2023/aug/02/humans-can-detect-deepfake-speech-only-73-of-the-time-studyfinds - 50,000 AI tracks flood Deezer daily – as study shows 97% of listeners can’t tell the
difference between human-made vs. fully AI-generated music – Music Business Worldwide
https://www.musicbusinessworldwide.com/50000-ai-tracks-flood-deezer-daily-as-study-shows-97-of-listeners-cant-tell-thedifference-between-human-made-vs-fully-ai-generated-music/ - Can AI Music Ever Feel Human? The Answer Goes beyond the Sound | Scientific
American
https://www.scientificamerican.com/article/can-ai-music-ever-feel-human-the-answer-goes-beyond-the-sound/ - Echoes of Humanity: Exploring the Perceived Humanness of AI Music
https://ar5iv.labs.arxiv.org/html/2509.25601 - Deezer and Ipsos study: AI fools 97% of listeners
https://newsroom-deezer.com/2025/11/deezer-ipsos-survey-ai-music/
¡Hasta la semana que viene!

