MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
La inteligencia artificial (IA) ha evolucionado significativamente desde sus inicios, pasando de ser una tecnología exclusiva y limitada a laboratorios científicos, a convertirse en una herramienta accesible para todas las personas.
El primer hito significativo ocurrió en 1950, cuando aún no existía el término “inteligencia artificial” como tal, pero sí la idea de que las máquinas podrían llegar a ser inteligentes. Fue entonces cuando Alan Turing introdujo lo que hoy conocemos como el Test de Turing, un método para determinar si una máquina podía emular la inteligencia humana. Durante mucho tiempo se creyó que este test sería extremadamente difícil de superar, pero tecnologías como ChatGPT están cada vez más cerca de hacerlo.
Años después, en 1956, en la Universidad de Dartmouth, se llevó a cabo un proyecto de investigación que formalizó el concepto y el nombre de “inteligencia artificial”, estableciendo la IA como un nuevo campo de estudio.
Para 1966, en el MIT, surgió “Eliza”, el primer programa de procesamiento de lenguaje natural, diseñado para simular una conversación humana. Posteriormente, entre los años 70 y finales de los 80, la IA vivió dos periodos conocidos como “los inviernos de la inteligencia artificial”, caracterizados por la falta de avances significativos y una considerable reducción en la inversión debido a la desilusión generada por los resultados limitados.
En 1997, la IA renació cuando la máquina Deep Blue de IBM venció al campeón mundial de ajedrez, Garry Kasparov, pero democratizar la capacidad de cómputo seguía siendo una barrera sustancial para avanzar en el desarrollo de la tecnología. No fue hasta 2009, cuando un equipo de científicos de la Universidad de Stanford, liderado por Andrew Ng, demostró que los procesadores gráficos (GPU, por sus siglas en inglés), hasta ese entonces enfocados en las computadoras para gamers, tenían mayor capacidad de procesamiento para la IA que las computadoras tradicionales, constituyéndose en un impulso clave para la IA y para el crecimiento del mayor fabricante global de GPUs: Nvidia.
Posteriormente, entre 2015 y 2016, surgieron las primeras plataformas de código abierto para el aprendizaje automático: Google lanzó TensorFlow en 2015 y Facebook lanzó PyTorch en 2016. Estas herramientas democratizaron el acceso a las tecnologías avanzadas de IA, permitiendo que una amplia comunidad de desarrolladores pudiera utilizarlas.
Otro hito crucial se produjo en 2017, cuando el equipo de investigación de Google Brain publicó el paper “Attention Is All You Need”, que marcó un punto de inflexión en el desarrollo de la IA al permitir interacciones más naturales entre máquinas y personas, evolucionando de un método de análisis secuencial de la información a uno contextual basado en los llamados “mecanismos de atención”. Este avance fue decisivo para el desarrollo de ChatGPT y otras tecnologías de IA generativa tal como las conocemos hoy.
La historia apenas se está comenzando a escribir, y vendrán muchos nuevos desarrollos; al igual que sucedió con la introducción de internet, estamos presenciando una de las mayores revoluciones tecnológicas de la humanidad.