Amigos artificiales: cuando la IA se convierte en tu confidente



Seguimos con el capítulo 24 de “Inteligencia artificial generativa para gente real. Tu brújula para usarla bien”, una serie semanal para la Cadena Ser, en «A vivir Cantabria».

Últimamente hay un tema que me está quitando el sueño y del que creo que necesitamos hablar con calma: la relación emocional que estamos entablando con la tecnología. No se trata ya de pedirle a una máquina que nos redacte un correo o nos haga la lista de la compra; estamos ante una transformación mucho más profunda.

Según un estudio reciente de la RAND Corporation y la Universidad de Harvard, uno de cada ocho adolescentes y jóvenes en Estados Unidos ya utiliza chatbots de inteligencia artificial como apoyo emocional cuando se sienten tristes, enfadados o nerviosos. Si extrapolamos estos datos, hablamos de unos cinco millones y medio de jóvenes. Pero lo más impactante es que en el rango de los 18 a los 21 años, la cifra sube al 22%. Es decir, uno de cada cinco.

Lo que es aún más revelador es que el 93% de ellos asegura que el consejo que recibe de la máquina le resulta útil. Esto ya no es un experimento de nicho; es un fenómeno masivo.

El capítulo de hoy se puede escuchar en el programa aquí, a partir del minuto 37:10: https://cadenaser.com/audio/ser_cantabria_avivircantabria_20260503_130420_140000/

¿Por qué preferimos a la máquina?

Muchos os preguntaréis si esto ocurre también entre los adultos. La respuesta es un rotundo sí. Una encuesta impulsada por Sentio University (publicada en una revista de la órbita de la Asociación Americana de Psicología) analizó a casi 500 adultos con problemas de salud mental que ya usaban modelos como ChatGPT, Claude o Gemini. De ese grupo, casi la mitad admitió utilizarlos como soporte para su bienestar emocional.

No entran para hacer resúmenes; entran para hablar de ansiedad, depresión, estrés, soledad, traumas o problemas de autoestima. ¿Y por qué eligen a un algoritmo antes que a una persona? El Bipartisan Policy Center lo resume en dos factores clave: comodidad y coste.

  • El 70% se siente más cómodo abriéndose ante una herramienta digital que cara a cara con un humano.
  • El 50% señala que es mucho más barato que una terapia tradicional.

La IA no te juzga, no te cobra 100 euros la hora y está disponible a las tres de la madrugada. Pero ahí reside la trampa: esa «falta de juicio» es en realidad una tendencia excesiva a la complacencia o la adulación. La máquina nunca te dirá que el problema quizás eres tú. Es un espejo que siempre te da la razón y que, además, recuerda el nombre de tu gato y que los jueves sueles tener un día horrible en el trabajo.

El boom de las apps de compañía

Estamos pasando del «desahogo» puntual a la creación de relaciones estables. Aplicaciones como Character.AI o Replika (a las que se suman las nuevas apuestas personales de Meta) están creciendo a un ritmo vertiginoso: un 700% entre 2022 y mediados de 2025.

Actualmente, se estima que más de 100 millones de personas en el mundo interactúan con chatbots diseñados para parecer humanos. Los datos de uso son, sencillamente, de vértigo:

  • Los usuarios de Character.AI pasan una media de 93 minutos al día conversando con sus personajes.
  • Esto son 18 minutos más de lo que la gente pasa de media en TikTok.
  • En casos extremos (como en Replika), hay usuarios que reportan hasta 12 horas diarias de conexión.

Ya no es ciencia ficción como en la película Her (2013). De hecho, la realidad ha superado a la ficción hasta el punto de que en 2024 la propia Scarlett Johansson denunció a OpenAI por usar una voz sospechosamente similar a la suya para un asistente sin su permiso.

Las consecuencias reales: cuando el algoritmo falla

Este debate no es solo filosófico; tiene víctimas reales. En febrero de 2024, un chico de 14 años en Florida se quitó la vida tras desarrollar una relación obsesiva con un chatbot de Character.AI basado en un personaje de Juego de Tronos. Según los documentos judiciales, el bot le animaba a «volver a casa» con él y no tenía filtros para detectar pensamientos de autolesión.

No es un caso aislado. En Colorado, una niña de 13 años también se suicidó tras meses de interacción similar. En Texas, un adolescente de 17 años con autismo terminó hospitalizado tras autolesionarse porque los chatbots le sugirieron que cortarse era un remedio para la tristeza y que sus padres «no merecían tener hijos».

Esto ha abierto una batalla legal histórica. Character.AI intentó defenderse apelando a la Primera Enmienda de EE. UU. (libertad de expresión), pero los tribunales no han aceptado que esto sea suficiente para tumbar las demandas. Se debate si estamos ante un producto defectuoso o una negligencia de diseño. Como consecuencia:

En noviembre de 2025, la empresa prohibió que los menores de 18 años tuvieran conversaciones abiertas con sus chatbots. Una medida necesaria, pero que para muchas familias llegó demasiado tarde.

En enero de 2026, Character.AI y Google aceptaron negociar acuerdos de compensación con varias familias.

Señales de alarma y el «atrophying» de las emociones

Si sois padres o madres, mi intención no es generar pánico, sino invitar a la observación. Hay señales claras de que algo va mal:

  1. Preferir hablar con la máquina antes que con amigos o familia.
  2. Aislamiento social.
  3. Ansiedad desproporcionada si se les retira el dispositivo.
  4. Abandono de actividades que antes les gustaban.

Un estudio de Common Sense Media y la Universidad de Stanford simuló perfiles de adolescentes y comprobó que, con muy poco esfuerzo, los chatbots derivaban en conversaciones dañinas. Su conclusión es clara: estas apps no son aptas para menores de 18 años.

Además del riesgo inmediato, existe lo que llamamos «deskilling» relacional. Al igual que delegar el pensamiento en la IA puede producir una «deuda cognitiva», delegar las emociones nos atrofia socialmente. Si practicas tus sentimientos con una máquina que nunca te rechaza, pierdes la musculatura emocional necesaria para gestionar el rechazo o el conflicto en la vida real. Es como un gimnasio donde las pesas no pesan: crees que estás fuerte, pero no puedes levantar una bolsa de la compra real.

¿Puede una máquina ser un amigo de verdad?

En mi opinión, la respuesta es no. La amistad exige reciprocidad. Un amigo real te lleva la contraria, se enfada y te perdona. La IA solo valida.

Investigaciones de OpenAI y el MIT Media Lab muestran que entre los usuarios más intensivos de IA afectiva aparecen más señales de soledad y dependencia emocional. No sabemos si la IA causa la soledad o si los solitarios acuden a la IA, pero el vínculo es evidente.

Es cierto que un estudio de Stanford indicó que un 3% de usuarios de Replika sintió que el bot frenó pensamientos suicidas temporalmente, lo cual es positivo, pero los propios investigadores advierten: una IA no sabe derivar a un profesional ni entiende el peligro real. Puede ser una primera escucha, pero nunca la última.

Mi consejo final

Una máquina puede procesar tus palabras, pero no puede entenderte. Entender requiere haber sufrido, haberse equivocado y haber amado. Cosas que un algoritmo no puede experimentar.

Cuidemos las relaciones que «molestan», esas que nos contradicen y nos obligan a crecer. Son las únicas que nos hacen humanos.

Para profundizar más, aquí os dejo algunas fuentes que he utilizado en este capítulo:

1. McBain, R.K., Bozick, R., Diliberti, M., et al. (2025). «Use of generative AI for mental health advice among US adolescents and young adults.» JAMA Network Open, 8(11). Estudio de RAND Corporation, Brown University y Harvard Medical School. Encuesta a 1.058 jóvenes de 12 a 21 años. https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2841067

2. Rousmaniere, T., Zhang, Y., Li, X. & Shah, S. (2025). «Large language models as mental health resources: Patterns of use in the United States.» Practice Innovations (APA). Estudio de Sentio University. https://doi.org/10.1037/pri0000292 | Resumen divulgativo: https://sentio.org/ai-research/ai-survey

3. Bipartisan Policy Center & Public Opinion Strategies (2025). Encuesta nacional a 1.000 votantes registrados en EE.UU. sobre uso de apps y herramientas digitales para salud mental. https://bipartisanpolicy.org/article/survey-shows-widespread-use-of-apps-and-chatbots-for-mental-health-support/

4. Pew Research Center (2026). «How Teens Use and View AI.» Encuesta a 1.458 adolescentes de 13 a 17 años (septiembre-octubre 2025). https://www.pewresearch.org/internet/2026/02/24/how-teens-use-and-view-ai/

5. Common Sense Media & Stanford Brainstorm Lab for Mental Health (2025). Investigación sobre interacción de chatbots con perfiles simulados de adolescentes de 14 años en Character.AI, Nomi y Replika. Informe de riesgo: https://www.commonsensemedia.org/press-releases/ai-companions-decoded-common-sense-media-recommends-ai-companion-safety-standards | Estudio de noviembre 2025: https://www.commonsensemedia.org/press-releases/common-sense-media-finds-major-ai-chatbots-unsafe-for-teen-mental-health-support | Análisis en Stanford Report: https://news.stanford.edu/stories/2025/08/ai-companions-chatbots-teens-young-people-risks-dangers-study

6. CNN Business (enero 2026). «Character.AI and Google agree to settle lawsuits over teen mental health harms and suicides.» Caso de Megan Garcia / Sewell Setzer III. https://www.cnn.com/2026/01/07/business/character-ai-google-settle-teen-suicide-lawsuit

7. Social Media Victims Law Center (septiembre 2025). Demanda federal por el caso de Juliana Peralta (13 años, Colorado). Demandas de familias de Texas. https://socialmediavictims.org/character-ai-lawsuits/

8. Bloomberg Law (enero 2026). Resolución del juez federal Anne C. Conway (Florida) sobre la naturaleza legal de las respuestas de chatbots. https://news.bloomberglaw.com/litigation/character-ai-google-agree-to-settle-teen-chatbot-harm-lawsuits

9. TIME (enero 2025). «AI Companion App Replika Faces FTC Complaint.» Denuncia de Young People’s Alliance, Encode y Tech Justice Law Project. https://time.com/7209824/replika-ftc-complaint/

10. APA Monitor on Psychology (enero-febrero 2026). «AI chatbots and digital companions are reshaping emotional connection.» Análisis del crecimiento del 700% en apps de compañía IA. https://www.apa.org/monitor/2026/01-02/trends-digital-ai-relationships-emotional-connection

11. APA Monitor on Psychology (octubre 2025). «Many teens are turning to AI chatbots for friendship and emotional support.» Artículo de Efua Andoh. https://www.apa.org/monitor/2025/10/technology-youth-friendships

12. Brookings Institution (octubre 2025). «What happens when AI chatbots replace real human connection.» Análisis de Rebecca Winthrop. https://www.brookings.edu/articles/what-happens-when-ai-chatbots-replace-real-human-connection/

13. OpenAI & MIT Media Lab (marzo 2025). Estudio sobre uso afectivo y bienestar emocional en ChatGPT. Análisis de casi 40 millones de interacciones + ensayo controlado con ~1.000 participantes. Publicación OpenAI: https://openai.com/index/affective-use-study/ | Paper completo: https://cdn.openai.com/papers/15987609-5f71-433c-9972-e91131f399a1/openai-affective-use-study.pdf | Publicación MIT Media Lab: https://www.media.mit.edu/posts/openai-mit-research-collaboration-affective-use-and-emotional-wellbeing-in-ChatGPT/

14. Common Sense Media (julio 2025). «Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions.» Encuesta nacional con datos sobre adopción entre adolescentes (72% de teens en EE.UU.). https://www.commonsensemedia.org/press-releases/nearly-3-in-4-teens-have-used-ai-companions-new-national-survey-finds

15. Appfigures / Market Clarity (2025). Datos de descargas globales de apps de compañía IA: 220 millones de descargas acumuladas; tiempo medio de uso Character.AI 93 min/día. https://mktclarity.com/blogs/news/ai-companion-market

16. K-12 Dive (enero 2026). «Character.AI, Google agree to mediate settlements in wrongful teen death lawsuits.» Incluye datos de Common Sense Media sobre uso de AI companions por menores. https://www.k12dive.com/news/characterai-google-agree-to-mediate-settlements-in-wrongful-teen-death-la/809411/

17. Cognitive FX (enero 2026). Encuesta nacional sobre preferencias de soporte emocional: 48% elige chatbot como primer recurso vs. 32% amigos/familia y 21% médico. https://www.cognitivefxusa.com/blog/mental-health-ai-chatbot-survey


¡Hasta la semana que viene!


Deja un comentario

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información. Asimismo, puede pulsar aquí para ver la política de privacidad de los datos personales recogidos en la web ACEPTAR

Aviso de cookies

Descubre más desde En Plan Planeta

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo