Juventud Rebelde - Diario de la Juventud Cubana

OpenAI y el caso de la Viuda Negra

La empresa más importante en el desarrollo de la inteligencia artificial ha mostrado fisuras en los últimos días: desde un incidente con la famosa actriz Scarlett Johansson hasta la disolución de un importante equipo de seguridad, hace que no pocos se cuestionen qué rumbo tomará

Autor:

Yurisander Guevara

Durante casi un año, Sam Altman, director ejecutivo de OpenAI, negoció con la actriz Scarlett Johansson para que prestara su voz a ChatGPT-4 Omni, la actualización del gran modelo de lenguaje que la empresa lanzó hace unos días y dejó a todos boquiabiertos. ChatGPT-4o, como se le llama, es capaz de conversar de una manera fluida con el usuario. Y entre sus tonos de voz, uno era muy similar al de Johansson, protagonista, hace unos años, de Her, una película en la que interpretó, precisamente, a una inteligencia artificial (IA).

Parecería entonces que la actriz accedió a prestar su voz para este empeño, pero la semana pasada esta historia tomó otro rumbo: Johansson denunció públicamente que no había accedido a trato alguno con OpenAI, y dijo estar profundamente turbada ante la similitud de la voz de ChatGPT-4o con la suya.

A ese hecho se suma otro: la eliminación de un equipo que estaba destinado a asegurar que el desarrollo de la inteligencia artificial no comprometa nuestro futuro como humanidad. Aunque fue «restituido» luego, todo parece indicar que ya no es lo mismo, y eso es también preocupante.

El caso de la Viuda Negra

Contar con una actriz como Scarlett Johansson respaldando los sistemas de OpenAI habría sido un movimiento genial de mercadotecnia. El lunes 20 de mayo, Johansson reveló que el director ejecutivo de OpenAI había estado negociando con ella durante casi un año para prestar su voz a ChatGPT. «Me dijo que sentía que, al ser la voz del sistema, podría cerrar la brecha entre las empresas de tecnología y los creativos, y ayudar a los consumidores a sentirse cómodos con el cambio sísmico que afecta a los humanos, llamado IA», comentó Johansson en un comunicado publicado por National Public Radio. «Dijo que sentía que mi voz sería reconfortante para la gente», añadió.

Johansson se negó a participar. Pero, cuando OpenAI presentó las voces para ChatGPT hace unos días, los usuarios quedaron sorprendidos por la asombrosa similitud entre la voz que llamó Sky con la de Johansson. No debería haber sido una sorpresa: Altman ha dicho que Her es su película favorita. La semana pasada, incluso, publicó sugerentemente el título de la película en la red social X.

«Cuando escuché la demostración, quedé sorprendida, enojada e incrédula de que el señor Altman usara una voz que sonaba tan inquietantemente similar a la mía, tanto que mis amigos más cercanos y los medios de comunicación no podían notar la diferencia», reveló Johansson.

La actriz dio todavía más detalles: «Dos días antes de que se lanzara la demostración de ChatGPT-4o, el Sr. Altman se comunicó con mi agente y me pidió que lo reconsiderara. Antes de que pudiéramos conectarnos, el sistema ya estaba disponible».

La presentación que hizo la semana pasada el equipo de OpenAI de ChatGPT-4o, un chatbot más cálido y emocional, fue una de las demostraciones tecnológicas más impresionantes de los últimos tiempos. Logró cautivar al mundo de la tecnología.

Sin embargo, detrás de escena, Johansson contrató abogados, «que escribieron dos cartas al señor Altman y a OpenAI, exponiendo lo que habían hecho y pidiéndoles que detallaran el proceso exacto mediante el cual crearon la voz de Sky», indicó la actriz.

Eso funcionó: el domingo por la noche, OpenAI anunció que retiraría la voz Sky de ChatGPT. También publicó en su blog el proceso de casting y grabación de las cinco voces que finalmente seleccionó para ChatGPT, incluida Sky.

OpenAI se ha esforzado en enmarcar todo esto como un gran malentendido. La ejecutiva Mira Murati dijo a los periodistas la semana pasada que Sky no pretende sonar como Johansson. Y más temprano el lunes, la líder de comportamiento modelo de la compañía, Joanne Jang, comentó a The Verge que «hemos estado en conversaciones con el equipo de “ScarJo” (como se conoce a Johansson) porque parece haber cierta confusión».

Pero la declaración de la Viuda Negra de Los Vengadores sugiere que, en realidad, nunca hubo una confusión legítima sobre lo que estaba sucediendo. Altman pidió licencia de su voz para hacer realidad la fantasía de una Her en la vida real; ella se negó y la compañía procedió de todos modos con una voz lo más similar posible.

«Espero con interés una resolución transparente y la aprobación de una legislación apropiada para ayudar a garantizar que los derechos individuales estén protegidos», acotó Johansson. Sin embargo, que el hecho sea todo lo contrario, indica hasta dónde están dispuestas estas compañías a llegar en nombre del dinero.

Esto es algo que parece cada vez más urgente en un mundo donde la tecnología de OpenAI está preparada para servir como columna vertebral en los dispositivos de Microsoft y Apple. Y todavía hay más para preocuparse.

Seguridad, dónde

En el verano de 2023, OpenAI creó un equipo llamado Superalignment, cuyo objetivo era dirigir y controlar futuros sistemas de IA que, de tan poderosos, podrían conducir a la extinción humana. Menos de un año después, ese equipo está muerto.

Según Bloomberg, la empresa disolvió Superalignment y lo integró en otros esfuerzos de investigación para ayudar a la compañía a alcanzar sus objetivos de seguridad. Pero en una serie de posts en la red social X de Jan Leike, uno de los líderes de Superalignment que renunció recientemente, se revelaron tensiones internas entre el equipo de seguridad y la compañía.

Leike dijo el pasado viernes que Superalignment había estado luchando por obtener recursos para realizar investigaciones. Construir máquinas más inteligentes que las humanas es un esfuerzo inherentemente peligroso, escribió Leike. «OpenAI está asumiendo una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano», añadió.

Aunque parezca una exageración, las decisiones de Sam Altman al frente de OpenAI pueden ser cruciales para el futuro de la humanidad. Foto: Getty Images

La salida de Leike se produjo horas después de que el científico jefe de OpenAI, Ilya Sutskevar, anunciara que dejaba la empresa. Sutskevar no solo fue uno de los líderes de Superalignment, sino que ayudó a cofundar la empresa. Su decisión se produjo seis meses después de que se viera involucrado en la decisión de despedir al director ejecutivo Sam Altman por preocupaciones de que este último no había sido «consistentemente sincero» con la junta directiva. La breve destitución de Altman provocó una revuelta interna dentro de la empresa, que se saldó con su regreso cinco días después.

Cuando anunció la creación del equipo Superalignment, OpenAI dijo que dedicaría el 20 por ciento de su potencia informática durante los próximos cuatro años a resolver el problema de controlar los poderosos sistemas de IA del futuro. «(Obtener) este derecho es fundamental para lograr nuestra misión», escribió la compañía en ese momento. En X, Leike aseguró que cada vez era más difícil realizar una investigación crucial sobre la seguridad de la IA.

Tras ese hecho, este martes la empresa anunció un nuevo Comité de Seguridad y Protección para guiar las decisiones críticas en ese sentido, dirigido por Altman y otros miembros de la junta directiva.

Sin embargo, no son pocos los escépticos que se preguntan qué rumbos tomará esta empresa cardinal por su capacidad de llevar la inteligencia a las máquinas, algo que, parece, dictará nuestro destino como especie más pronto de lo que imaginamos.

Comparte esta noticia

Enviar por E-mail

  • Los comentarios deben basarse en el respeto a los criterios.
  • No se admitirán ofensas, frases vulgares, ni palabras obscenas.
  • Nos reservamos el derecho de no publicar los que incumplan con las normas de este sitio.