MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Un número cada vez mayor de empresas de alto perfil y bien financiadas se han retirado de la carrera por desarrollar modelos de IA
Cuando OpenAI lanzó su chatbot ChatGPT en 2022, parecía que una nueva generación de herramientas de inteligencia artificial estaba a punto de transformar todos los rincones de la economía y la vida de las personas. En 2024, se han añadido funciones de IA a innumerables servicios, pero se podría decir que el impacto no ha sido tan dramático.
La IA no ha creado nuevas profesiones vibrantes ni ha arrasado industrias enteras. Un número cada vez mayor de empresas emergentes de alto perfil y bien financiadas se han retirado de la carrera por desarrollar modelos de IA de vanguardia. Algunos de los principales desarrolladores de IA también están empezando a ver que los rendimientos de sus costosos esfuerzos por construir sistemas más avanzados que puedan superar significativamente a las versiones anteriores son cada vez menores.
Sin embargo, todavía es pronto y las empresas están apostando por nuevos enfoques para impulsar la tecnología. En septiembre, OpenAI, respaldada por Microsoft, comenzó a implementar un modelo actualizado que, según la empresa, puede realizar un razonamiento similar al humano para resolver preguntas más complejas de los usuarios, incluida la resolución de problemas matemáticos y de codificación complicados. El director ejecutivo de OpenAI, Sam Altman, lo llamó el "comienzo de un nuevo paradigma". Google, de Alphabet, está trabajando en capacidades similares para sus productos.
El concepto de razonamiento es difícil de definir y medir, pero el objetivo de las empresas tecnológicas es claro: quieren demostrar que las herramientas de IA pueden actuar como “copilotos” y “agentes” sofisticados, capaces de ayudar a las personas con tareas personales y profesionales. Con ello, esperan reforzar el potencial a largo plazo de la IA.
Se trata de un tipo de software que puede llevar a cabo tareas complejas, como escribir una historia o crear una imagen en respuesta a indicaciones escritas sencillas. Durante el entrenamiento, estos sistemas reciben grandes cantidades de información (por ejemplo, todos los libros disponibles gratuitamente en Internet) y se les enseña a utilizar esos datos para crear algo nuevo, como la sinopsis de una nueva novela.
Los sistemas aplican lo que aprenden de esos esfuerzos a futuras iniciativas y sus respuestas se vuelven gradualmente más sofisticadas y matizadas. Los resultados son únicos y, en cierto sentido, originales, pero siguen siendo, en efecto, una forma compleja de imitación.
La capacidad de la IA generativa para adquirir rápidamente nuevas habilidades y realizarlas a gran velocidad significa que podría ayudar con todo tipo de trabajo que ahora realizan los humanos, como redactar contratos legales o depurar software. Las empresas de Fortune 500 ahora están utilizando versiones empresariales de chatbots de OpenAI y sus rivales para resumir documentos, acelerar las tareas de codificación y redactar correos electrónicos. Goldman Sachs Group Inc. dijo que la IA generativa podría hacer hasta una cuarta parte del trabajo que actualmente realizan las personas. Los analistas de UBS Group AG creen que el mercado de la tecnología superará fácilmente el billón de dólares.
En 2022, gran parte de la atención se centró en los sistemas de IA que pueden generar texto e imágenes. Hoy en día, existen servicios de IA independientes que pueden clonar la voz de una persona, generar una canción en segundos o crear vídeos cortos. Cada vez más, las empresas de IA se centran en sistemas " multimodales " que pueden procesar y responder a una variedad de entradas, incluidos texto, imágenes y audio.
Por ejemplo, un padre exasperado podría mostrar una imagen de un problema de matemáticas a un chatbot y pedirle una explicación sobre cómo resolverlo. Demis Hassabis, director ejecutivo del laboratorio de inteligencia artificial de Google, DeepMind, mostró un prototipo de asistente de inteligencia artificial que puede responder a entradas de video en tiempo real. La inteligencia artificial generativa también se está integrando en gran medida en productos más populares. Google la ha agregado a su motor de búsqueda principal . Apple también trajo un conjunto de herramientas de inteligencia artificial al iPhone en octubre.
Al mismo tiempo, las empresas tecnológicas están invirtiendo en los denominados agentes, que pueden reservar viajes, escribir códigos y realizar otras tareas de varios pasos para los usuarios con una supervisión humana mínima. Microsoft lanzó un conjunto de herramientas de agente diseñadas para enviar correos electrónicos y administrar registros para los trabajadores. Anthropic presentó un agente que puede procesar lo que sucede en la computadora del usuario en tiempo real y tomar medidas en su nombre. Y OpenAI planea lanzar un software similar a principios del próximo año.
“Tendremos modelos cada vez mejores”, escribió Altman, director ejecutivo de OpenAI, en una publicación durante una sesión de preguntas y respuestas en Reddit en octubre. “Pero creo que lo que parecerá el próximo gran avance serán los agentes”.
Durante gran parte de los últimos dos años, los usuarios de ChatGPT se han acostumbrado a que el chatbot emita respuestas casi instantáneas (algunas precisas, otras no tanto) a una amplia gama de indicaciones. Pero el nuevo modelo 01 de OpenAI se comportará de forma un poco diferente. Antes de responder, el nuevo software hará una pausa de unos segundos mientras, tras bambalinas e invisible para el usuario, considera una serie de indicaciones relacionadas y luego resume lo que parece ser la mejor respuesta. Esta técnica a veces se conoce como indicación de "cadena de pensamientos".
En una publicación de blog, OpenAI lo denominó “pensamiento”. En las pruebas de OpenAI, este enfoque tuvo menos impacto en las consultas sobre redacción y edición, pero los usuarios descubrieron que generaba mejores respuestas para preguntas complejas relacionadas con programación informática, análisis de datos y problemas matemáticos.
“La próxima actualización del modelo funciona de manera similar a la de los estudiantes de doctorado en tareas de referencia desafiantes en física, química y biología. También descubrimos que se destaca en matemáticas y codificación”, afirmó la empresa. “Para tareas de razonamiento complejas, este es un avance significativo y representa un nuevo nivel de capacidad de IA”.
Eso no está claro. El presidente de la Reserva Federal, Jerome Powell, dijo que la inteligencia artificial generativa podría impulsar el crecimiento de la productividad, pero “probablemente no en el corto plazo”. Algunos economistas prevén que un salto en la productividad desencadene aumentos salariales que ayudarán a los trabajadores a recuperar parte del poder adquisitivo que han perdido desde la crisis financiera de 2008.
Un estudio realizado por investigadores de la Universidad de Stanford y el Instituto Tecnológico de Massachusetts concluyó que el personal de una empresa de software de la lista Fortune 500 se volvió 14% más productivo en promedio cuando utilizó herramientas de inteligencia artificial generativa. Los trabajadores menos calificados se volvieron 35% más rápidos. Lo que no quedó claro fue el impacto de esto en sus colegas mejor pagados, cuyas habilidades más costosas tal vez ya no sean necesarias.
En un escenario optimista, los empleados cualificados cuyos trabajos se automaticen encontrarán nuevos empleos en áreas de crecimiento creadas por la IA generativa. Sin embargo, las primeras señales apuntaban a un doloroso episodio de agitación. International Business Machines Corp. planea detener o ralentizar la contratación para miles de puestos que espera que sean reemplazados por la IA. La empresa sueca de compra ahora, paga después Klarna Inc. dijo que congelaría la contratación, ya que ChatGPT redujo el tiempo necesario para ciertas tareas. Y la empresa de software de aprendizaje de idiomas Duolingo Inc. decidió no renovar alrededor del 10% de sus contratistas , en parte debido a la IA.
Las respuestas que reúne a partir de la información publicada disponible pueden parecer tan fidedignas que los usuarios pueden suponer que ha verificado su exactitud. Sin un contexto útil, como la fuente de la información, y con pocas de las imperfecciones obvias que suelen indicar que el material no es fiable, el contenido puede ser un campo minado para alguien que no esté lo suficientemente versado en un tema como para darse cuenta de que una respuesta es tendenciosa, defectuosa o simplemente errónea.
Los chatbots de IA han cometido errores en repetidas ocasiones cuando se les pide que proporcionen noticias sobre acontecimientos actuales. Los sistemas de IA generativa también amplifican los prejuicios y estereotipos perjudiciales que se encuentran en los datos en los que se basan, un problema importante a medida que la tecnología se implementa cada vez más en áreas sensibles como la contratación y la atención médica. Las empresas de IA han tenido dificultades para abordar el problema del sesgo: Google, por ejemplo, intentó una solución técnica para que su generador de imágenes mostrara resultados más diversos, pero el resultado fue que la herramienta se abstuvo de producir imágenes de personas blancas.
A medida que estas herramientas se vuelven más sofisticadas, también lo hace el potencial de causar daños.
Algunas plataformas de IA han sido eliminadas o modificadas para evitar que regurgiten discursos de odio, y ChatGPT permite a los usuarios marcar respuestas desagradables para mejorar el sistema. Pero los usuarios han encontrado soluciones alternativas. Una IA podría no detectar los sesgos de género o raciales que un humano sí detectaría en libros y otros textos.
También es un arma potencial para el engaño. Por ejemplo, un audio falso de Joe Biden fue utilizado para instar a la gente de New Hampshire a no votar en las primarias presidenciales de Estados Unidos. Los trolls rusos utilizaron un video falso de Kamala Harris para intentar influir en la opinión pública antes de las elecciones estadounidenses, según los investigadores. Los profesores se preocupan por que los estudiantes obtengan chatbots para hacer sus tareas. Las empresas de lobby podrían utilizar la IA para falsificar miles de cartas diferentes supuestamente de ciudadanos para influir en las decisiones de los legisladores.
En una carta abierta publicada en marzo de 2023, 1.000 tecnólogos e investigadores pidieron una pausa en el desarrollo de la IA para disponer de más tiempo para sopesar los “profundos riesgos para la sociedad y la humanidad”. En cambio, la tecnología sigue avanzando.
Desde Lima, el CEO de JPMorgan Chase, Jamie Dimon, dijo que Trump enfrenta los retos geopolíticos más fuertes del periodo reciente
Joe Biden, y su homólogo chino, Xi Jinping, también asistirán a la cumbre de la Apec y tienen previsto reunirse el sábado
Lutnick y Musk dicen que están dispuestos a desmantelar agencias federales y departamentos enteros para desatar el capitalismo