.
TECNOLOGÍA

Autoridades británicas dicen que chatbots de IA podrían entrañar riesgos cibernéticos

miércoles, 30 de agosto de 2023

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones

Reuters

Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales.

En un par de entradas de blog publicadas el miércoles, el Centro Nacional de Ciberseguridad británico (NCSC, por sus siglas en inglés) indicó que los expertos aún no han llegado a comprender los posibles problemas de seguridad relacionados con los algoritmos que pueden generar interacciones que parezcan humanas, conocidos como modelos de lenguaje extensos (LLM, por sus siglas en inglés).

Estas herramientas basadas en inteligencia artificial se están empezando a utilizar en forma de chatbots que, según algunas previsiones, sustituirán no solo a las búsquedas en Internet, sino también a los servicios de atención al cliente y las llamadas de ventas.

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones. Académicos e investigadores han encontrado en repetidas ocasiones formas de subvertir los chatbots introduciéndoles comandos falsos o engañándolos para que burlen sus propias barreras de seguridad.

Por ejemplo, un chatbot con IA desplegado por un banco podría ser engañado para que realizara una transacción no autorizada si un pirata informático estructurara su consulta de forma correcta.

"Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, del mismo modo que lo tendrían si estuvieran utilizando un producto o una biblioteca de código en fase beta", afirmó el NCSC en una de sus entradas de blog, en referencia a las versiones experimentales de software.

"Es posible que no permitan que ese producto partícipe en la realización de transacciones en nombre del cliente, y es de esperar que no confíen plenamente en él. Una precaución similar debería aplicarse a los LLM", señaló.

Las autoridades de todo el mundo están lidiando con el auge de LLM como ChatGPT de OpenAI, que las empresas están incorporando a una amplia gama de servicios, incluidos los de ventas y atención al cliente. Las implicaciones de la IA para la seguridad también se están poniendo de manifiesto y las autoridades de Estados Unidos y Canadá afirman que los piratas informáticos han adoptado esa tecnología.

Conozca los beneficios exclusivos para
nuestros suscriptores

ACCEDA YA SUSCRÍBASE YA

MÁS DE GLOBOECONOMÍA

España 18/12/2024 La esposa del presidente de España se declaró inocente por un caso de corrupción

La investigación, junto con otro caso de corrupción que supuestamente implica a un exministro, ha llevado a la oposición a pedir la dimisión de Pedro Sánchez

Argentina 18/12/2024 Acreedores acuerdan reestructuración de Clisa de Argentina con bonos internacionales

Los inversores que poseen el 94% de los US$358 millones en bonos de la compañía aceptaron una oferta para canjear sus valores por nuevos pagarés

Gaza 18/12/2024 Mediadores de Gaza redoblan sus esfuerzos y los ataques israelíes dejan 20 muertos

Los palestinos acusan a Israel de llevar a cabo actos de "limpieza étnica" para despoblar el extremo norte del enclave