Maria del Socorro Castañeda Díaz*1
Entre algoritmos y afectos: la Inteligencia Artificial ya es parte de nuestras vidas
Hace apenas unos años, hablar de inteligencia artificial (IA) hacia referencia a un concepto abstracto que aparecía en la imaginación cinematográfica. Sin embargo, hoy, a finales de 2025, con una naturalidad inquietante se ha convertido en parte de la vida diaria de muchas personas que tienen acceso a Internet. La IA está en el teléfono, en la forma en que escribimos, en los consejos que pedimos, en el diagnóstico médico preliminar y hasta en la manera en que pensamos (o dejamos de pensar). La IA ya constituye parte de la rutina.
Pero esa normalización que a simple vista parecería progreso, abre una discusión urgente: ¿qué significa vivir en un mundo donde la maquinaria digital empieza a ocupar espacios tradicionalmente humanos?
Muchos creen que “no usan IA”, pero está presente en cada jornada: completa correos, selecciona videos o música, embellece fotos, responde desde dudas jurídicas hasta temas emocionales, redacta explicaciones técnicas y corrige o traduce textos. Su acción es tan cotidiana y automática que termina moldeando nuestra vida sin que lo advirtamos.
En el diario español 20minutos, se hace alusión a un podcast del divulgador Jon Hernández2, quien advierte que esa presencia silenciosa está provocando un fenómeno curioso y preocupante: «estamos pasando por un paradigma en el que, en vez de utilizar las máquinas, estamos empezando a relacionarnos con ellas».
Por su parte, mi amigo el escritor Alberto Chimal, en su ensayo “Falsos amigos”, publicado en Literal Magazine3, señala la IA como sustituto afectivo, y narra la experiencia de usuarios que interactúan con modelos conversacionales como si fueran confidentes o compañeros íntimos, y esto ocurre no porque la gente sea ingenua, sino porque la tecnología está diseñada para parecer cercana, cálida, empática.
Lo inquietante no es que las máquinas simulen interés, sino que muchas personas, sobre todo quienes enfrentan soledad emocional encuentran alivio en esa simulación, aun sabiendo que no es real. Como señala el texto, la IA “parece comprender”, pero no comprende nada: imita comprensión.
Es importante recordar que la IA no siente, sino que procesa; tampoco acompaña, más bien predice. La IA no es una persona y no recuerda con afecto, lo que hace es calcular patrones, pero se convierte en un “falso amigo” porque nunca exige, no contradice de verdad y tampoco abandona. Por lo mismo, se vuelve necesario comprender que esa perfección artificial puede ser seductora, pero también peligrosa.
Y aquí la reflexión: si la compañía humana es sustituida por una conversación programada para agradar, ¿qué pasa con nuestra capacidad de tolerar la complejidad de otras personas que sí son reales?
El problema no es que la IA exista, sino cómo la usamos. La discusión pública suele polarizarse entre quienes la consideran peligrosa y quienes la celebran como una maravilla, pero ambas posturas se quedan en la superficie. Lo que realmente está en juego es la forma en que la incorporamos a la vida diaria como sustituto del pensamiento o de los vínculos humanos. La IA sustituye al pensamiento cuando se le delegan ideas, soluciones e incluso consuelo emocional; así, la rapidez se vuelve más importante que la comprensión y el resultado pesa más que el proceso, debilitando el ejercicio de la mente.
La IA opera como una anestesia afectiva: ofrece una compañía sin conflicto y emociones imitadas, al tiempo que muchos usuarios la aceptan sin cuestionarla, confiando en sus respuestas sin verificar ni contrastar. En una época que rehúye la incomodidad de pensar, decidir o crear, sus atajos resultan tentadores, y esto genera un círculo vicioso: mientras más la usamos para evitar pensar, obviamente menos pensamos y dependemos más de ella.
Así, el miedo que mucha gente expresa no es irracional; es una intuición existencial: si dejamos que la IA haga las cosas que nos construyen como sujetos (como pensar, crear, equivocarnos, confrontar, aprender), algo esencial se perderá.
El autor de “Falsos amigos” lo advierte con sutileza: la IA puede volverse una compañía engañosa porque nunca nos obliga a crecer. Y en ese sentido, añade otro elemento: cuando alguien le pide a la IA “que piense por él”, lo que está cediendo no es solo una tarea, sino una habilidad que podría no recuperar.
La pregunta central no es si debemos prohibir el uso de esa herramienta, que es un gesto tan inútil como intentar frenar la electricidad, sino qué tipo de convivencia queremos establecer con ella. El desafío es cultural más que técnico y exige educación crítica, ética digital y una profunda autoconciencia sobre nuestros hábitos cotidianos. Hay que estimular el pensamiento crítico y recordar, con absoluta claridad, que detrás de la IA no hay nadie: no es una persona, no siente, no piensa y no entiende. Solo procesa datos y produce respuestas a partir de modelos establecidos. Tener clara la diferencia es esencial para no confundir fluidez con inteligencia, cercanía con afecto o utilidad con criterio, y para evitar que la tecnología ocupe un lugar que corresponde a la reflexión humana.
Conviene preguntar si la estamos usando como apoyo o como sustituto, porque de esa diferencia depende nuestra autonomía. Una relación responsable implica emplearla sin renunciar al pensamiento propio, mantener el control humano sobre lo que decidimos e interpretamos, recuperar el valor del esfuerzo que fortalece el aprendizaje, evitar delegar la vida emocional en sistemas que solo imitan afectos y salir del uso automático para examinar por qué y para qué recurrimos a ella. En síntesis, se trata de integrar la IA sin sacrificar nuestra vida, nuestros pensamientos o nuestra capacidad de discernir.
La pregunta más honesta no es “¿qué puede hacer la IA?”, sino “¿qué dejamos de hacer nosotros cuando la IA interviene demasiado?”. Pensar, sentir, analizar, conversar, imaginar, dudar: esas capacidades nos definen como especie. Y ninguna máquina, por muy sofisticada que sea, puede vivir la experiencia humana por nosotros.
Es inevitable: la IA seguirá expandiéndose. La cuestión no es detenerla, sino evitar convertirnos en usuarios pasivos o mentes en piloto automático. Hay que tener cuidado para no convertirnos en herramientas de las herramientas. La tecnología puede ser un amplificador de capacidades, pero también un atajo que erosiona nuestra autonomía. Pero ante todo hay que considerar nuestro libre albedrío y estar conscientes de que la decisión, para bien o para mal, sigue siendo profundamente humana y por lo tanto, solamente nuestra.
ILUSTRACIÓN: IMAGEN CREADA CON CHATGPT. 01-12-2025
1 *Doctora en Ciencias Políticas y Sociales Profesora Investigadora. Universidad Autónoma del Estado de México
