IA. Autor: WebMediums Publicado: 12/01/2022 | 08:47 pm
El Gobierno de Joe Biden se ha aliado con las más de 200 entidades especializadas en inteligencia artificial (IA) que más peso tienen en Estados Unidos para crear un nuevo consorcio. El objetivo es mostrar el apoyo del país norteamericano al desarrollo y despliegue seguros de este tipo de tecnología, publica 20 Minutos.
El denominado Consorcio del Instituto de Seguridad de IA (AISIC son sus siglas en inglés) reúne firmas tan destacadas como OpenAI, Google de Alphabet, Anthropic, Microsoft, Meta, Apple, Amazon, Nvidia, Palantir, Intel, JPMorgan Chase y Bank of America, BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm o Visa. Además, se incluyen también instituciones académicas y agencias gubernamentales clave en el avance de IA.
Gina Raimondo, secretaria de Comercio de EE. UU., ha señalado la importancia de que el Gobierno estadounidense ayude al establecimiento de estándares y el desarrollo de herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial.
La unión de todas las empresas mencionadas (y más) se ha llevado a cabo para cumplir con las acciones prioritarias que se enumeraron en la orden ejecutiva de IA que publicó la Administración de Biden en octubre de 2023. El presidente de EE. UU. aclaró en su día que, con ella, pretendía «hacer realidad la promesa de la IA y evitar el riesgo», algo a lo que parece estar redirigiéndose con el consorcio.
Entre las tareas que se realizarán gracias al AISIC, están «el desarrollo de pautas para la formación de equipos rojos [solucionar nuevos riesgos], las evaluaciones de capacidades, la gestión de riesgos, la seguridad y protección, y las marcas de agua en el contenido artificial». Sobre esto último, cabe señalar que Microsoft ya se ha comprometido a añadir un sello y metadatos en las imágenes que generen con la IA que utilicen para identificar cuando algo es
A grandes rasgos, Biden quiere que las agencias establezcan estándares para las pruebas que realicen los desarrolladores de IA. Según detalló en su día, quiere que los test aborden los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.