Juventud Rebelde - Diario de la Juventud Cubana

¿Qué pasaría si la IA entendiera las emociones mejor que nosotros?

Un estudio suizo demuestra que modelos como ChatGPT no solo comprenden nuestras emociones, sino que también podrían ser mejor que nosotros gestionándolas

Autor:

Juventud Rebelde

Durante décadas, la inteligencia emocional ha sido un bastión de lo humano, un campo en el que las máquinas simplemente no podían competir. Sin embargo, esta visión empieza a resquebrajarse, afirma el portal MuyInteresante.com.

Pues una nueva investigación publicada en Communications Psychology por científicos de las universidades de Ginebra y Berna ha dado un giro inesperado a este supuesto. En un experimento pionero, seis modelos de lenguaje artificial —incluyendo ChatGPT-4— no solo resolvieron con éxito una batería de pruebas diseñadas para medir la inteligencia emocional en humanos, sino que además superaron, con amplio margen, a los propios participantes humanos.

El estudio, encabezado por Katja Schlegel y Marcello Mortillaro se propuso evaluar si los modelos de lenguaje actuales, entrenados para mantener conversaciones y resolver problemas complejos, también podían interpretar, regular y responder de forma adecuada a situaciones emocionales.

Para ello, los investigadores utilizaron cinco pruebas estandarizadas ampliamente aceptadas en psicología, con escenarios que simulaban conflictos laborales, malentendidos interpersonales y dilemas emocionales cotidianos. Cada situación ofrecía varias opciones de respuesta, pero solo una era considerada la más adecuada emocionalmente.

El resultado fue claro: los modelos como ChatGPT-4 o Claude 3.5 Haiku acertaron en el 81% de los casos, frente al modesto 56% de aciertos en los participantes humanos. Más allá del número, este hallazgo implica que estos sistemas no solo «limitan» el comportamiento humano, sino que internalizan patrones complejos de razonamiento emocional.

De evaluadores a creadores de pruebas emocionales

La sorpresa no acabó ahí. En una segunda fase del estudio, se pidió a ChatGPT-4 que generara sus propios ítems de prueba, es decir, que inventara nuevas situaciones emocionales junto con sus posibles respuestas. Lo que normalmente toma años a equipos humanos de psicólogos e investigadores —la creación y validación de pruebas psicológicas confiables—, el modelo lo logró en minutos.

Más de 400 personas participaron en la validación de estos nuevos test. Comparados con las pruebas originales, los nuevos ítems generados por la IA fueron calificados como igual de claros, realistas y diversos. La consistencia interna de las respuestas también fue similar, lo que sugiere que estas pruebas no eran simples imitaciones, sino instrumentos psicológicos válidos por derecho propio.

¿Una nueva herramienta para la educación, coaching y gestión de conflictos?

El potencial práctico de estos hallazgos es inmenso. En contextos como la educación emocional, el coaching ejecutivo o la gestión de conflictos, disponer de herramientas digitales que comprendan y respondan emocionalmente puede transformar la manera en que formamos a los profesionales del futuro.

Imaginemos por un momento asistentes virtuales que no solo nos recuerden nuestras tareas, sino que también sepan cuándo estamos estresados, tristes o desmotivados, y nos sugieran estrategias emocionales adaptadas. O plataformas educativas que ajusten el contenido en función del estado anímico del alumno. Incluso en el mundo empresarial, la inteligencia emocional artificial podría servir como una brújula emocional para líderes y equipos, ayudando a prevenir crisis o mejorar la cohesión del grupo.

Eso sí, los propios investigadores advierten que el uso de estos modelos debe estar siempre supervisado por profesionales humanos. Aunque la IA puede ser una herramienta poderosa, su integración en ámbitos sensibles como la psicología debe hacerse con prudencia, ética y un control riguroso.

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.