MI SELECCIÓN DE NOTICIAS
Noticias personalizadas, de acuerdo a sus temas de interés
Google dijo que pudo lanzar dicho servicio gracias a un nuevo modelo de IA basado en imágenes que desarrolló internamente
Google está incorporando tecnología de inteligencia artificial generativa a las compras, con el objetivo de dar un salto en sitios de comercio electrónico como Amazon.com Inc.
La compañía propiedad de Alphabet Inc. anunció características el miércoles destinadas a ayudar a las personas a comprender cómo les quedará la ropa, sin importar el tamaño de su cuerpo, y capacidades adicionales para encontrar productos utilizando su tecnología de búsqueda y reconocimiento de imágenes. Además, Google introdujo nuevas formas de investigar destinos de viaje y mapear rutas utilizando IA generativa, tecnología que puede crear texto, imágenes o incluso videos a partir de indicaciones simples.
“Queremos hacer de Google el lugar para que los consumidores vengan a comprar, así como el lugar para que los comerciantes se conecten con los consumidores”, dijo Maria Renz, vicepresidenta de comercio de Google, en una entrevista antes del anuncio. “Siempre hemos estado comprometidos con un ecosistema abierto y una web saludable, y esta es una forma en la que estamos aplicando esta tecnología a los comerciantes”.
Google es el motor de búsqueda dominante en el mundo, pero el 46% de los encuestados en una encuesta de compradores estadounidenses realizada el año pasado dijeron que todavía comenzaron sus búsquedas e investigaciones de productos en Amazon, según la firma de investigación CivicScience. TikTok también está avanzando, según la investigación de CivicScience: el 18 % de los compradores en línea de la Generación Z recurren primero a la plataforma. Google está tomando nota, con algunas de sus nuevas funciones de exploración de compras impulsadas por IA destinadas a captar audiencias más jóvenes.
Una nueva función virtual de "probación", que se lanzará el miércoles, permitirá a las personas ver cómo les queda la ropa en una variedad de tipos de cuerpo, desde tallas XXS a 4XL. La ropa se superpondrá sobre imágenes de diversos modelos que la empresa fotografió mientras desarrollaba la capacidad.
Google dijo que pudo lanzar dicho servicio gracias a un nuevo modelo de IA basado en imágenes que desarrolló internamente, y la compañía está publicando un nuevo documento de investigación que detalla su trabajo junto con el anuncio. Las representaciones de la ropa tienen en cuenta la forma en que la tela se estira y se arruga a medida que se usa para producir imágenes realistas. La función de prueba comenzará con blusas para mujeres, en asociación con minoristas como Anthropologie y Everlane, seguida de ropa para hombres más tarde.
La compañía también dijo que comenzará a obtener más fuentes de información a medida que las personas prueben su nueva "experiencia generativa de búsqueda", un servicio que Google anunció por primera vez en su conferencia de desarrolladores de E/S el mes pasado. Por ahora, esa oferta solo está disponible a través del producto experimental Search Labs de la compañía.
Google anunció anteriormente que estaba utilizando una variedad de fuentes basadas en la web para mostrar información generada por IA sobre, por ejemplo, el mejor hotel para familias en un destino de vacaciones en particular o el mejor altavoz Bluetooth a prueba de agua. Ahora también está agregando reseñas de usuarios para su modelo de IA.
La compañía también está implementando nuevas adiciones a las funciones existentes en Google Maps. La vista inmersiva, que utiliza IA para mostrar a las personas recorridos en 3D de puntos de referencia, se está implementando en cuatro nuevas ciudades: Ámsterdam y Dublín, así como en Florencia y Venecia en Italia. Google está ampliando su colección de puntos de referencia disponibles en vista inmersiva a más de 500, tanto en las aplicaciones de iOS como de Android, agregando destinos como el Sydney Harbour Bridge y el Castillo de Praga.
Mientras tanto, las indicaciones visibles permitirán a las personas ver indicaciones paso a paso para caminar, andar en bicicleta y modos de conducción desde las pantallas de bloqueo de sus teléfonos. Google dijo que las personas también podrán ver las ETA actualizadas mientras siguen sus rutas en tiempo real. Esa función se lanzará a nivel mundial en junio.
Algunas funciones de inteligencia artificial en Google Lens, la aplicación de reconocimiento de imágenes que usa la cámara de un teléfono para identificar objetos y texto, existen desde hace un tiempo, como descubrir el nombre de un plato local tomándole una foto mientras viaja. Pero el miércoles, Google dijo que está lanzando la capacidad para que los usuarios busquen condiciones de la piel usando la aplicación.
Después de que un usuario tome una foto de una erupción o un bulto en la piel, Lens encontrará coincidencias visuales para la imagen que podrían ayudar a informar las búsquedas de las personas, dijo la compañía. La función está destinada a ser un punto de partida para la investigación, no un consejo médico certificado, dijo Google.
Rusia suministró casi 29 mil millones de metros cúbicos de gas por gasoducto a China entre enero y noviembre, un aumento de 40% interanual
Carlos Ghosn, ex presidente del fabricante de automóviles japonés dijo que es una "decisión desesperada”
La cámara proyecta que en 2025 la producción local será de al menos 545.000 unidades y las exportaciones rondarán las 324.000