.
Sam Altman, director ejecutivo de OpenAI.
EE.UU.

OpenAI y Anthropic acuerdan colaborar con un instituto para pruebas de seguridad

jueves, 29 de agosto de 2024

Sam Altman, director ejecutivo de OpenAI, fue nombrado como el CEO 2023 según Time.

EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías

Bloomberg

El Gobierno de EE.UU. ha anunciado acuerdos con las principales empresas de inteligencia artificial OpenAI y Anthropic para ayudar a probar y evaluar sus próximas tecnologías en materia de seguridad. En virtud de estos acuerdos, anunciados el jueves, el Instituto de Seguridad de la Inteligencia Artificial de EE.UU. recibirá acceso anticipado a los principales nuevos modelos de inteligencia artificial de las empresas para evaluar las capacidades y los riesgos, así como colaborar en los métodos para mitigar los posibles problemas.

El Instituto de Seguridad de la IA forma parte del Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio. Los acuerdos llegan en un momento en el que se ha producido un aumento de la presión para mitigar los riesgos potencialmente catastróficos de la IA a través de la regulación, como el controvertido proyecto de ley de seguridad de la IA de California SB 1047, aprobado recientemente por la Asamblea estatal.

"La seguridad es esencial para impulsar la innovación tecnológica de vanguardia", dijo Elizabeth Kelly, directora del Instituto de Seguridad de la IA, en un comunicado. "El grupo trabajará en estrecha colaboración con el Instituto de Seguridad de la IA del Reino Unido para proporcionar información sobre posibles mejoras de la seguridad, según el comunicado. Anteriormente, Anthropic probó su modelo Sonnet 3.5 en coordinación con el Instituto de Seguridad de la IA del Reino Unido antes del lanzamiento de la tecnología. Las organizaciones de EE.UU. y el Reino Unido han afirmado previamente que trabajarán juntas para implantar pruebas estandarizadas.

"Apoyamos firmemente la misión del US AI Safety Institute y esperamos trabajar juntos para informar sobre las mejores prácticas y normas de seguridad para los modelos de IA", dijo Jason Kwon, Director de Estrategia de OpenAI, en un comunicado. "Creemos que el instituto tiene un papel fundamental que desempeñar en la definición del liderazgo de EE.UU. en el desarrollo responsable de la inteligencia artificial y esperamos que nuestro trabajo conjunto ofrezca un marco en el que pueda basarse el resto del mundo", añadió.

"Una IA segura y fiable es crucial para el impacto positivo de la tecnología", afirmó Jack Clark, cofundador y responsable de política de Anthropic. "Esto refuerza nuestra capacidad para identificar y mitigar los riesgos, avanzando en el desarrollo responsable de la IA. Estamos orgullosos de contribuir a este trabajo vital, estableciendo nuevos puntos de referencia para una IA segura y digna de confianza". El US AI Safety Institute se creó en 2023 como parte de la Orden Ejecutiva sobre IA de la administración Biden-Harris, y se encarga de desarrollar las pruebas, evaluaciones y directrices para la innovación responsable de la IA.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE GLOBOECONOMÍA

Israel 17/12/2024 Israel ve señales de avance en negociaciones sobre el posible alto el fuego en Gaza

Un grupo de trabajo de Israel se encuentra en la capital de Qatar, Doha, esta semana para restablecer relaciones con los mediadores

Perú 17/12/2024 El Puerto de Corío en Perú daría un paso más y 2025 se vuelve clave para el proyecto

El proceso de promoción de la inversión privada en el sector portuario se inició en 1999, con la entrega en concesión del puerto de Matarani

Brasil 16/12/2024 Lula critica movidas del Banco Central y dice que lo único malo en Brasil son las tasas

El banco central elevó la tasa Selic en 100 puntos básicos, hasta 12,25%, al tiempo que se comprometió a seguir ajustando hasta 14,25%