La Casa Blanca insta a las empresas líderes en IA a mitigar riesgos y daños

La Casa Blanca insta a las empresas líderes en IA a mitigar riesgos y daños

Noticias IBL | Nueva York

La Administración Biden anunció acciones para hacer frente a los riesgos y oportunidades relacionados con la IA y asegurarse de que las empresas implementen productos seguros.

Ayer, el vicepresidente Harris y altos funcionarios de la administración se reunieron con los directores ejecutivos de Alphabet, Anthropic, Microsoft y OpenAI para alentarlos a aplicar salvaguardas que mitiguen los riesgos y los daños potenciales para las personas y la sociedad [En la imagen, Sundar Pichai, director ejecutivo de Google, a la izquierda, y Sam Altman, director ejecutivo de OpenAI, llegando a la Casa Blanca.]

Se planean más compromisos con corporaciones, investigadores, organizaciones de derechos civiles, organizaciones sin fines de lucro, comunidades, socios internacionales y otros en temas críticos de IA.

“Las nuevas acciones incluyen el hito Plan para un Declaración de derechos de AI y acciones ejecutivas relacionadas anunciadas el otoño pasado, así como el Marco de gestión de riesgos de IA y a  hoja de ruta para crear un recurso nacional de investigación de IA publicado a principios de este año”, dijo la Administración Biden en un comunicado de prensa.

Además, la Fundación Nacional de Ciencias anunció $ 140 millones en fondos para lanzar siete nuevos Institutos Nacionales de Investigación de IA, que impulsarán la I+D de IA para impulsar avances en áreas críticas, que incluyen clima, agricultura, energía, salud pública, educación y seguridad cibernética.

Esta inversión elevará el número total de institutos a 25 en todo el país y extenderá la red de organizaciones involucradas a casi todos los estados.

La Administración promoverá un compromiso independiente de los principales desarrolladores de IA, incluidos Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI y Stability AI, participará en una evaluación pública de los sistemas de IA realizada por Scale AI, en AI Village en DEFCON 31 .

“Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos, y permitirá a las empresas y desarrolladores de IA tomar medidas para solucionar los problemas encontrados en esos modelos. Pruebas de modelos de IA independientes del gobierno o del empresas que los han desarrollado es un componente importante en su evaluación efectiva”, dijo la Administración Biden.