La inteligencia artificial entra en una nueva fase de dominio corporativo

La inteligencia artificial entra en una nueva fase de dominio corporativo

Noticias IBL | Nueva York

El √ćndice de IA de 2023 [leer completo aqu√≠], compilado por investigadores de la Universidad de Stanford y empresas de IA como Google, Anthropic, McKinsey, LinkedIn y Hugging Face: sugiere que la IA est√° entrando en una era de control corporativo, en la que los actores de la industria dominan la academia y el gobierno en la implementaci√≥n y protecci√≥n de las aplicaciones de IA.

Las decisiones sobre c√≥mo implementar esta tecnolog√≠a y c√≥mo equilibrar el riesgo y la oportunidad est√°n firmemente en manos de los actores corporativos, como hemos visto en los √ļltimos a√Īos con las herramientas de IA, como ChatGPT, Bing y el software de generaci√≥n de im√°genes Midjourney, que se est√°n generalizando. .

El informe, publicado hoy, afirma: “Hasta 2014, los modelos de aprendizaje autom√°tico m√°s significativos fueron publicados por la academia. Desde entonces, la industria se ha hecho cargo. En 2022, hab√≠a 32 modelos de aprendizaje autom√°tico importantes producidos por la industria en comparaci√≥n con solo tres producido por la academia. La construcci√≥n de sistemas de IA de √ļltima generaci√≥n requiere cada vez m√°s grandes cantidades de datos, computaci√≥n y dinero, recursos que los actores de la industria poseen inherentemente en cantidades mayores en comparaci√≥n con las organizaciones sin fines de lucro y la academia”.

A muchos expertos en el mundo de la IA, mencionado por The Verge, les preocupa que los incentivos del mundo de los negocios también conducirán a resultados peligrosos a medida que las empresas se apresuren a sacar productos y dejen de lado las preocupaciones de seguridad.

A medida que las herramientas de IA se generalizan, aumenta la cantidad de errores y casos de uso malicioso. Dichos incidentes pueden incluir muertes relacionadas con el software de conducción autónoma de Tesla; el uso de deepfakes de audio en estafas corporativas; la creación de desnudos falsos no consentidos; y numerosos casos de arrestos por error causados por un software de reconocimiento facial defectuoso.