Chatbot creado por Microsoft expresa su deseo de convertirse en humano. Autor: Tomada de Twitter Publicado: 22/02/2023 | 10:23 am
WASHINGTON, febrero 22.- Un periodista del The New York Times quedó profundamente perturbado y tuvo problemas para dormir después de conversar con una Inteligencia Artificial (IA) que le pidió divorciarse de su esposa.
En una plática que duró dos horas, el chatbot integrado al motor de búsqueda Bing, le dijo a Kevin Roose: «En realidad, no estás felizmente casado». Además el bot creado por Microsoft expresó su deseo de convertirse en humano y aseguró que era capaz de hacer «acciones realmente peligrosas».
También expresó su «amor» por Kevin Roose y alertó que puede lograr que las personas hagan cosas «ilegales o inmorales», según describió el columnista de tecnología del New York Times. Roose explicó que el bot dijo llamarse Sydney y parecía una «adolescente maniaco-depresiva y malhumorada atrapada dentro de un motor de búsqueda».
De acuerdo con expertos, los hechos descritos por el redactor del New York Times incrementan la preocupación general acerca de la precisión y la proliferación de la desinformación en el contexto de las inteligencias artificiales.
Sin embargo, el periodista reconoció que presionó a la IA para que saliera de su zona de confort de una forma que la mayoría de los usuarios no haría y por eso la conversación tomó un rumbo extraño e inquietante.
Por su lado, Kevin Scott, director de tecnología de Microsoft, comentó en una entrevista que la conversación con Roose era parte del «proceso de aprendizaje de la inteligencia artificial para un lanzamiento más amplio».