Analistas 14/01/2025

Midiendo la evolución de la IA

Hernán David Pérez
Asesor en transformación digital y productividad

La evolución de la potencia de los computadores ha sido explicada por la ley de Moore, formulada en 1965 por Gordon Moore, cofundador de Intel, en su artículo “Empaquetando más componentes en los circuitos integrados”, donde observó que el número de transistores en un circuito integrado se duplicaba aproximadamente cada año, reduciendo los costos y permitiendo un crecimiento exponencial en la potencia de cómputo. En ese entonces, el tamaño típico de los transistores y otros elementos del chip era de unos 10.000 nanómetros, aproximadamente el diámetro de cinco cabellos humanos. Hoy, la industria está desarrollando semiconductores de tan solo 3 nanómetros, como se evidencia en los recientes chips M4 de Apple, corroborando la predicción de Moore sobre el incremento exponencial de la potencia de cómputo.

En el ámbito de la Inteligencia Artificial (IA), uno de los primeros acercamientos para medir su evolución fue cuantificar la capacidad de cómputo usada para su entrenamiento, un estudio de 2018 de OpenAI, “IA y computación”, reveló que entre 2012 y 2018, la capacidad de cómputo usada en entrenamiento de modelos de IA se duplicaba cada 3,4 meses.

Sin embargo, era necesario tener en cuenta otros factores además de la potencia de cómputo, como la capacidad de los algoritmos y los parámetros de entrenamiento de los modelos. En 2018, Jensen Huang, CEO de Nvidia, sugirió que el rendimiento de la IA se duplicaría aproximadamente cada dos años, una observación que ha sido denominada como la Ley de Huang en analogía a la Ley de Moore. Precisamente, en esos años previos a la salida al mercado de los modelos de IA, el foco de la industria evolucionó a medir el rendimiento de la IA por medio de los “parámetros”, que son los valores internos que el modelo aprende durante el entrenamiento. Por ejemplo, los modelos Llama de Meta (anteriormente Facebook) varían entre 1 y 70 billones de parámetros.

A medida que se ha demostrado que el rendimiento de la IA se puede optimizar mediante la fragmentación en pasos secuenciales de la inferencia (la pregunta del usuario) y han aumentado las capacidades de la IA, ha cobrado mayor importancia comparar las capacidades de los modelos con el desempeño humano. Según el Artificial Intelligence Index Report del año 2023 publicado por la Universidad de Stanford, “la IA ha superado las capacidades humanas en parámetros, como la clasificación de imágenes en 2015, la comprensión lectora básica en 2017, el razonamiento visual en 2020 y la inferencia del lenguaje natural en 2021.

A fecha de 2023, todavía hay algunas categorías de tareas en las que la IA no supera la capacidad humana, y suelen ser tareas cognitivas más complejas”, el mismo reporte enfatiza en varios benchmarks donde se evalúa la capacidad de los sistemas de IA en diversos contextos de razonamiento, incluyendo “razonamiento sobre imágenes, comprender dilemas morales, y navegar en situaciones sociales”, donde en algunos de ellos la IA ya se acerca al desempeño humano.

De manera similar al temor inicial cuando se introdujo la energía eléctrica, que se centraba en el riesgo de electrocución, persisten hoy numerosos temores e interrogantes sobre el futuro de la IA. Estas preocupaciones se intensifican debido a la velocidad sin precedentes a la que esta tecnología evoluciona.