Noticias IBL | Nueva York
La Administración Biden anunció acciones para hacer frente a los riesgos y oportunidades relacionados con la IA y asegurarse de que las empresas implementen productos seguros.
Ayer, el vicepresidente Harris y altos funcionarios de la administración se reunieron con los directores ejecutivos de Alphabet, Anthropic, Microsoft y OpenAI para alentarlos a aplicar salvaguardas que mitiguen los riesgos y los daños potenciales para las personas y la sociedad [En la imagen, Sundar Pichai, director ejecutivo de Google, a la izquierda, y Sam Altman, director ejecutivo de OpenAI, llegando a la Casa Blanca.]
Se planean más compromisos con corporaciones, investigadores, organizaciones de derechos civiles, organizaciones sin fines de lucro, comunidades, socios internacionales y otros en temas críticos de IA.
“Las nuevas acciones incluyen el hito Plan para un Declaración de derechos de AI y acciones ejecutivas relacionadas anunciadas el otoño pasado, así como el Marco de gestión de riesgos de IA y a hoja de ruta para crear un recurso nacional de investigación de IA publicado a principios de este año”, dijo la Administración Biden en un comunicado de prensa.
Además, la Fundación Nacional de Ciencias anunció $ 140 millones en fondos para lanzar siete nuevos Institutos Nacionales de Investigación de IA, que impulsarán la I+D de IA para impulsar avances en áreas críticas, que incluyen clima, agricultura, energía, salud pública, educación y seguridad cibernética.
Esta inversión elevará el número total de institutos a 25 en todo el país y extenderá la red de organizaciones involucradas a casi todos los estados.
La Administración promoverá un compromiso independiente de los principales desarrolladores de IA, incluidos Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI y Stability AI, participará en una evaluación pública de los sistemas de IA realizada por Scale AI, en AI Village en DEFCON 31 .
“Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos, y permitirá a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas encontrados en esos modelos. Pruebas de modelos de IA independientes del gobierno o del empresas que los han desarrollado es un componente importante en su evaluación efectiva”, dijo la Administración Biden.