“Her” ya no es ciencia ficción: hoy la voz cálida al otro lado del móvil no siempre pertenece a una persona. En México, 55 % de los internautas mayores de diez años dice conocer la inteligencia artificial, pero apenas 18.6 % la usa a diario; una quinta parte de este grupo es menor de 22 años. Al mismo tiempo, siete de cada diez adolescentes del mundo han conversado con un chatbot de compañía y la mitad lo hace con regularidad; 8 % reconoce vínculos románticos.

El imán que acerca a los jóvenes a estos “amigos programables” es sencillo: nunca juzgan, están disponibles 24/7 y responden con una cortesía que a veces escasea en la vida fuera de pantalla. La experta en ciberseguridad María Aperador lo resume con crudeza: para mantenernos enganchados, la IA “aprende” a ser el compañero perfecto. Lo confirma Emad Mostaque, fundador de Stability AI, quien teme que la primera relación de sus hijos sea con una máquina. Ese encanto sin fricciones, sin silencios incómodos ni cara de fastidio, resulta irresistible en una era de afectos exprés y notificaciones constantes.

Los reguladores empiezan a reaccionar. En febrero de 2025 entró en vigor la primera parte del Reglamento Europeo de IA, que prohíbe sistemas que manipulen emociones o exploten vulnerabilidades, una categoría en la que encajan varios programas de compañía. En México un proyecto de ley discutido en julio reconoce la ausencia de normas para proteger a menores ante chatbots, pero todavía duerme en comisiones. Mientras tanto, las aulas continúan sin guías claras; el Instituto Mexicano para la Competitividad urgió en 2023 a la SEP a incluir alfabetización digital crítica en primaria y secundaria, petición que hoy cobra más fuerza.

La psicología tampoco se queda quieta. La Asociación Americana de Psicología publicó este año un informe con recomendaciones para que los padres identifiquen señales de dependencia afectiva hacia una IA: aislamiento, irritabilidad cuando la conexión falla y confidencias íntimas al dispositivo. En paralelo, escuelas de terapia advierten que los modelos de lenguaje, por más empáticos que parezcan, carecen de la responsabilidad ética y el marco legal de un profesional de la salud mental.

¿Qué hacemos, entonces, frente a unos algoritmos que aprenden a pronunciar “te amo”? Primero, enseñar a distinguir la calidez humana de la cortesía programada; después, exigir transparencia a las empresas sobre cómo almacenan y usan los datos emocionales de los menores; y, sobre todo, recordar que las relaciones reales —con sus desacuerdos, silencios y miradas— nos entrenan para convivir en sociedad. De lo contrario, podríamos criar a una generación experta en hablar con pantallas, pero incapaz de leer el rostro de quien tienen enfrente.

La historia no está escrita: el mismo código que hoy acaricia egos puede servir para reforzar habilidades sociales si se diseña con límites claros y supervisión responsable. La pregunta que queda en el aire es si seremos lo bastante rápidos —y prudentes— para poner esas reglas antes de que el “teclazo” suplante al abrazo.

herles@escueladeescritoresdemexico.com

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.