.
Sam Altman, director ejecutivo de OpenAI.
EE.UU.

OpenAI y Anthropic acuerdan colaborar con un instituto para pruebas de seguridad

jueves, 29 de agosto de 2024

Sam Altman, director ejecutivo de OpenAI, fue nombrado como el CEO 2023 según Time.

EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías

Bloomberg

El Gobierno de EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías en materia de seguridad. En virtud de estos acuerdos, anunciados el jueves, el Instituto de Seguridad de la Inteligencia Artificial de EE.UU. recibirá acceso anticipado a los principales nuevos modelos de inteligencia artificial de las empresas para evaluar las capacidades y los riesgos, así como colaborar en los métodos para mitigar los posibles problemas.

El Instituto de Seguridad de la IA forma parte del Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio. Los acuerdos llegan en un momento en el que se ha producido un aumento de la presión para mitigar los riesgos potencialmente catastróficos de la IA a través de la regulación, como el controvertido proyecto de ley de seguridad de la IA de California SB 1047, aprobado recientemente por la Asamblea estatal.

"La seguridad es esencial para impulsar la innovación tecnológica de vanguardia", dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA, en un comunicado. "El grupo trabajará en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido para proporcionar información sobre posibles mejoras de la seguridad, según el comunicado. Anteriormente, Anthropic probó su modelo Sonnet 3.5 en coordinación con el Instituto de Seguridad de la IA del Reino Unido antes del lanzamiento de la tecnología. Las organizaciones de EE.UU. y el Reino Unido han afirmado previamente que trabajarán juntas para implantar pruebas estandarizadas.

"Apoyamos firmemente la misión del US AI Safety Institute y esperamos trabajar juntos para informar sobre las mejores prácticas y normas de seguridad para los modelos de IA", dijo Jason Kwon, Director de Estrategia de OpenAI, en un comunicado. "Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE.UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo", añadió.

"Una IA segura y fiable es crucial para el impacto positivo de la tecnología", afirmó Jack Clark, cofundador y responsable de política de Anthropic. "Esto refuerza nuestra capacidad para identificar y mitigar los riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y digna de confianza". El US AI Safety Institute se creó en 2023 como parte de la Orden Ejecutiva sobre IA de la administración Biden-Harris, y se encarga de desarrollar las pruebas, evaluaciones y directrices para la innovación responsable de la IA.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE GLOBOECONOMÍA

Hacienda 24/09/2024 Oxfam insiste en que más de 95% de la riqueza se concentra en 1% de los habitantes

Oxfam presentó su informe en el que encontró que los países del cono sur solo poseen 31% de la riqueza de todo el mundo

Argentina 25/09/2024 Javier Milei rediseña su estrategia de negociación con un único artículo intocable

El esquema del "triángulo de hierro" se expande para incorporar nuevos interlocutores mientras se posterga una semana el arranque del debate en el Congreso

Lima 26/09/2024 Empresas de transporte público paralizan actividades por protestas en la capital de Perú

Tras varios sucesos de inseguridad en Lima, empresas de transporte público han decidido pausar sus actividades en forma de protesta