Analistas 02/04/2025

La carrera por los puestos de cuello blanco

Hernán David Pérez
Asesor en transformación digital y productividad

A medida que los grandes modelos de lenguaje de inteligencia artificial -LLMs, por sus siglas en inglés- como ChatGPT, Mistral o DeepSeek avanzan, se abre una nueva competencia tecnológica por sustituir buena parte del trabajo intelectual y administrativo que realizan los trabajadores de “cuello blanco” en las empresas. Para comprender la competencia que se avecina, es necesario profundizar en algunos conceptos clave.

Primero, la capacidad resolutiva de un LLM proviene de la combinación entre el entrenamiento y la inferencia. El entrenamiento es el proceso previo en el que el modelo “aprende el mundo”. Es aquí donde adquiere las capacidades de sintaxis y asociaciones semánticas que le permiten imitar el lenguaje y sus patrones de comunicación. Esta fase se cuantifica en los llamados “billones de parámetros”, que representan los ajustes internos que el modelo realiza para capturar y representar lo aprendido.

La inferencia, por otro lado, es el proceso mediante el cual el modelo ya entrenado genera una respuesta a partir de una petición del usuario. Se ha demostrado que una mejor estructuración de la inferencia permite aprovechar más eficientemente el conocimiento acumulado durante el entrenamiento e, incluso, operar con modelos más simples y de menor costo. En términos generales: el entrenamiento determina qué tan inteligente es el modelo, mientras que la inferencia determina qué tan ordenado es el proceso para ejecutar una tarea.

Con esto en mente, retomamos el panorama actual de la carrera por automatizar los puestos de cuello blanco. Por un lado, existe un enfoque centrado en el desarrollo de agentes de inteligencia artificial, IA, cada vez más avanzados, capaces de ejecutar tareas no repetitivas, realizar búsquedas complejas en la web y, en un futuro cercano, generar nuevo conocimiento. Este es el camino que está tomando OpenAI, que, según el medio digital The Information, “planea cobrar mensualmente US$2.000 por agentes de IA de alto conocimiento, US$10.000 por agentes desarrolladores de software, y US$20.000 por agentes de IA con nivel de doctorado”.

Por otro lado, emergen los agentes de IA basados en orquestadores -como N8N, Make o Zapier-, herramientas de bajo costo para la automatización de flujos de trabajo, que permiten integrar diversas fuentes de información con los LLMs, encadenando consultas, acciones y decisiones. Esta combinación habilita lo que podríamos denominar razonamiento asistido por flujo, permitiendo automatizar la variada casuística de los procesos transaccionales del negocio, en actividades desde el servicio al cliente hasta la conciliación de cuentas.

Pocas empresas estarán en condiciones de pagar por los modelos de alto nivel de OpenAI. Sin embargo, muchas sí podrán acceder a los orquestadores y LLMs básicos.

Con los orquestadores, la promesa incumplida de muchos proyectos tecnológicos de optimizar funciones administrativas podría, ahora sí, cumplirse; encaminándonos hacia un escenario en el que habrá menos empleados en roles transaccionales, y aquellos que permanezcan estarán enfocados en supervisar a los agentes de IA. Guardadas las proporciones, algo similar a lo que ya ocurre en los supermercados: menos cajeros, y algunos pocos supervisan las cajas de autopago.