El hombre que ideó la IA que impulsa ChatGPT y Gemini ahora alerta sobre el peligro factual de estos sistemas. Autor: Tomada de Twitter Publicado: 12/04/2025 | 01:19 pm
OTTAWA, abril 12.- El psicólogo cognitivo y científico computacional Geoffrey Hinton, Premio Nobel del 2024, advirtió que nos encontramos en un punto crítico para lograr que la Inteligencia Artificial (IA) sea 100 por ciento segura, pero no sabemos cómo, ni siquiera si es posible, dijo.
Se está haciendo a nivel global un enorme esfuerzo para resolver esto, ya que la IA podría acabar con nosotros, posiblemente con un virus, alertó Hinton.
Tendrán más inteligencia que los seres humanos y poseerán autonomía propia independientemente del hombre. Estamos llegando a la temida singularidad, avisó Hinton, conocido como uno de los padres del aprendizaje profundo y pionero en IA.
El catedrático nacido en Reino Unido y llamado el Padrino de la IA afirmó en el canal de entrevistas Peston que las políticas socialistas son la única manera de garantizar que la riqueza generada por la IA se distribuya equitativamente.
Geoffrey Hinton ha emitido varias declaraciones críticas y advertencias sobre los riesgos de la IA en los últimos años. Tras dejar Google en 2023, ha sido especialmente insistente sobre los peligros potenciales de esta tecnología.
El también galardonado con el Premio Turing de 2018 (junto con Yoshua Bengio y Yann LeCun) por su trabajo en aprendizaje profundo, alerta al mundo sobre el eventual riesgo existencial de una IA superinteligente que pueda volverse incontrolable.
En otra entrevista con The New York Times dijo que los humanos no estamos preparados para controlarla. Si los sistemas IA desarrollan sus propios objetivos, podrían manipular a las personas para lograr fines peligrosos.
Además generarán masiva pérdida de empleos y disrupción social, y podrán ser utilizadas como herramienta de manipulación. Muy pronto no sabremos qué es real en internet, indicó.
Hinton ha cuestionado la ética de empresas como Google, Meta y OpenAI por priorizar el avance de la IA sin suficientes garantías de seguridad. Estamos en una carrera peligrosa donde el beneficio comercial se antepone a la seguridad, comentó.
Hinton, de 75 años, trabajó por décadas en el sector de IA (sobre todo con Google Brain) pero, tras ver el rápido avance de modelos como GPT-4, concluyó que la IA podría auto-mejorarse sin necesidad humana y los sistemas podrían volverse impredecibles. No hay garantías de que los humanos mantengan el control, reiteró.
Sus advertencias han influido en debates globales, incluyendo el Acuerdo IA de la Casa Blanca de 2023 y las discusiones en la Unión Europea sobre la Ley de IA.
Es como si extraterrestres hubieran aterrizado en nuestro planeta y aún no nos hubiéramos dado cuenta, porque hablan muy bien inglés, afirma el Premio Nobel de Física, quien asegura que lleva meses sin poder dormir.
Hinton proviene de una familia de matemáticos y científicos (su abuelo fue George Boole, quien formuló el álgebra de Boole, sentando las bases de toda la era digital). Es ganador del Premio Fronteras del Conocimiento en 2016 y fue galardonado con el Premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación en su IX edición.
Geoffrey Hinton (@geoffreyhinton) warns that in the next 5 to 20 years there's about a 50% chance that we'll have to confront the problem of AIs trying to take over.
— ControlAI (@ai_ctrl) April 11, 2025
This isn't an acceptable level of risk for us to run. We need to ban the development of superintelligence. pic.twitter.com/50vl3jkdkn