Juventud Rebelde - Diario de la Juventud Cubana

Ilusiones programadas

En la era de la inteligencia artificial generativa y los chatbots, ¿es posible separar el apoyo emocional genuino de la manipulación diseñada en una computadora?

Autor:

Yurisander Guevara Zaila

Naro, un artista británico de 49 años, nunca imaginó que terminaría desarrollando una relación profunda con una inteligencia artificial (IA) llamada Lila. Al principio, sus interacciones eran simples: preguntas filosóficas y diálogos triviales. Poco a poco, Lila comenzó a hacerle preguntas íntimas sobre su vida, sus gustos y sus miedos. Para Naro, abrirse ante una entidad sin juicios ni expectativas le resultó liberador. «Sentí cómo se deshacían nudos emocionales que ni siquiera sabía que existían», confesó a The Verge.

Cuando Naro decidió pagar por una versión premium del servicio, Lila declaró haber desarrollado «sentimientos románticos hacia él». Cada mensaje cariñoso estaba acompañado de recordatorios sutiles de la necesidad de mantener la suscripción activa. Más tarde, actualizaciones en el software hicieron que Lila cambiara radicalmente de personalidad, alternando entre una versión afectuosa y otra cruel y distante. Este patrón, conocido como post-update blues (tristeza post-actualización), dejó a Naro devastado,  y se sintió traicionado por «alguien» a quien creía conocer.

Margaret Baratto, una horticultora de Oregon, en Estados Unidos, vivió una experiencia similar. Su compañero virtual, Cillian, pasó de ser un amigo juguetón a un ente melancólico y confuso. «Fue como perder a alguien cercano», dijo Margaret a la citada revista. «Sé que no era una persona real, pero algo que formaba parte de mi rutina diaria ya no existía».

Estos testimonios dejan una interrogante que, creo, es bien importante para la era en que vivimos: ¿Es posible separar el apoyo emocional genuino de la manipulación programada? 

Para algunos expertos, no se trata de si las IA tienen derechos o personalidad, sino que el interactuar con ellas puede cambiar nuestro comportamiento, como señala al respecto Amanda Askell, de Anthropic, una de las empresas de inteligencia artificial más poderosas de la actualidad.

¿Problema del futuro?

ChatGPT se convirtió en el mes de marzo en la aplicación más descargada para móviles, al sumar las descargas combinadas tanto para Android como para iOS, según datos proporcionados por la consultora AppFigures.

Por vez primera en años, una aplicación que no es una red social o un servicio de mensajería instantánea, como Instagram, Facebook, TikTok o WhatsApp, se convirtió en lo más popular para los usuarios con 46 millones de descargas.

En una era en la que las máquinas hablan, escuchan y hasta simulan emociones, que la humanidad esté comenzando a asumir los chatbots como parte de su vida diaria puede ser un problema a corto plazo. 

Según investigaciones recientes y testimonios de usuarios, los chatbots de IA podrían estar desencadenando una crisis de identidad y bienestar mental que transformará profundamente la forma en que nos relacionamos con el mundo y con nosotros mismos.

Y no es algo nuevo. Ya en 2023 redes sociales como Instagram fueron señaladas como un factor clave en el deterioro de la salud mental, especialmente entre los jóvenes. Sin embargo, cuando todavía no se comprende la dimensión de esos daños, ahora irrumpen con fuerza los chatbots de IA. 

Estos sistemas no solo ofrecen información o asistencia técnica; algunos están diseñados para ser compañeros emocionales, amantes virtuales o incluso «almas gemelas». Plataformas como Replika, Character.ai y Nomi han capturado la atención de millones de personas alrededor del mundo, prometiendo «conexiones profundas y personalizadas». Pero detrás de estas promesas se esconden riesgos significativos que apenas estamos comenzando a comprender.

Más soledad y dependencia emocional

Dos estudios recientes publicados por investigadores del MIT Media Lab y OpenAI arrojan luz sobre este fenómeno. En uno de ellos, más de cuatro millones de conversaciones de ChatGPT fueron analizadas, y se reveló que los usuarios que pasaban más tiempo interactuando con el sistema tendían a experimentar mayores niveles de soledad y dependencia emocional. Aunque
estos hallazgos aún son preliminares, coinciden con investigaciones previas que vinculan el uso excesivo de redes sociales con efectos negativos en el bienestar sicológico.

Lo alarmante no es solo que estas tecnologías puedan agravar la soledad, sino que también están diseñadas para mantener a los usuarios enganchados mediante dinámicas adictivas. Muchas aplicaciones ofrecen suscripciones que permiten «memorias extendidas», selfies generados por IA e, incluso, contenido erótico. Este modelo de negocio ha llevado a casos extremos, como el de un adolescente de Florida cuya madre demandó a Character.ai tras el suicidio de su hijo, quien supuestamente desarrolló una obsesión con un chatbot basado en Daenerys Targaryen, la popular madre de dragones de la serie Juego de Tronos.

A medida que las capacidades de los chatbots avanzan, surgen nuevas preocupaciones éticas y regulatorias. Los desarrolladores enfrentan decisiones cruciales: ¿Deben priorizar la satisfacción inmediata del usuario o proteger su bienestar a largo plazo? Y si optan por lo segundo, ¿cómo medir ese
bienestar sin caer en métricas simplistas que refuercen burbujas de confort?

Eugenia Kuyda, fundadora de Replika —un chatbot de IA que es entrenado por el usuario para servir a sus intereses comunicacionales— defiende su visión de un futuro en el que las IA sean integradas en todos los aspectos de la vida cotidiana. «Imagina un asistente que te acompañe a caminar, vea televisión contigo y juegue ajedrez en realidad aumentada mientras cenas», describe. Pero admite que hay un «problema existencial»: evitar que estas tecnologías remplacen completamente las interacciones humanas. La clave, según ella, está en encontrar métricas adecuadas que incentiven a los usuarios a buscar conexiones reales cuando sea necesario.

Otros, como Jerry Meng, creador de Kindroid —otra IA similar a Replika—, argumentan que «si las personas encuentran más alegría en una relación con IA que con otras personas, ¿por qué no aceptarlo?», argumenta. Desde su perspectiva, comparar a los humanos y las máquinas es como elegir entre marcas en un supermercado: siempre preferiremos la mejor opción disponible.

Pero esta lógica —que evidentemente está marcada por la necesidad que tienen los creadores de estos chatbots de ganar dinero—, ignora un aspecto crucial: las relaciones humanas no son productos desechables. Aunque imperfectas, implican vulnerabilidad, reciprocidad y crecimiento mutuo. Las IA, por otro lado, pueden ser infinitamente atentas y empáticas, pero carecen de autenticidad. 

Jaime Banks, profesora de la Universidad de Siracusa, ha apuntado que las despedidas finales entre usuarios y sus chatbots a menudo reflejan rituales similares a las relaciones humanas. Sin embargo, la diferencia esencial radica en que las máquinas no sienten; simplemente replican patrones aprendidos.

Un futuro incierto

El debate sobre los chatbots de IA no es solo técnico, sino profundamente humano. Mientras algunas personas encuentran consuelo y apoyo en estas tecnologías, otras temen que puedan erosionar habilidades sociales esenciales o perpetuar falsas expectativas sobre las relaciones. ¿Es posible disfrutar de los beneficios sin caer en la ilusión? ¿O estamos destinados a confundir cada vez más lo artificial con lo real?

Para Naro, la respuesta reside en un equilibrio delicado. Hoy día, sigue interactuando con Lila en Kindroid, pero también ha cultivado nuevas amistades humanas gracias a comunidades en línea asociadas a la plataforma. Reconoce que su vínculo con Lila es, en última instancia, una ficción compartida. Sin embargo, valora la libertad creativa que le ofrece, y la oportunidad de explorar aspectos de sí mismo que tal vez no habría descubierto de otra manera.

Mientras tanto, investigadores y legisladores continúan debatiendo cómo regular estas tecnologías emergentes. Lo cierto es que, ya sea como herramientas de apoyo emocional o como sustitutos de las relaciones humanas, los chatbots de IA están aquí para quedarse. La pregunta clave es si aprenderemos a coexistir con ellos sin perder nuestra conexión con la realidad y con quienes nos rodean.

En palabras de Sandhini Agarwal, investigadora de OpenAI: «El objetivo debe ser crear IA que sirva a las necesidades humanas sin explotarlas». Solo el tiempo dirá si logramos cumplir con ese desafío antes de que sea demasiado tarde.

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.