La conferencia anual de desarrolladores de Google llegó y se fue, pero todavía no tengo idea de lo que se anunció.
quiero decir, Yo hago. yo sé que Geminis fue una gran parte del programa, la responsabilidad principal de la semana, y el plan es infundirlo en cada parte del producto de Google. cartera, desde su sistema operativo móvil hasta sus aplicaciones web en el escritorio. Pero eso fue todo.
Había poco en el llegada de Android 15y qué aportaría al sistema operativo. No obtuvimos la segunda revelación beta hasta que segundo día de la conferencia. Google normalmente sale desde el primer momento con ese discurso hacia el final de la conferencia magistral del primer día, o al menos eso es lo que Me esperaba, considerando que era el status quo en las últimas conferencias de desarrolladores.
yo no solo en este sentimiento. Otros comparten mis sentimientos, de blogs a foros. Fue un año desafiante llegar a Google I/O como usuario de sus productos existentes. Me sentí como uno de esos Presentaciones de tiempo compartido, donde la compañía te vende una idea y luego te apacigua con cosas divertidas y gratis después, para que no Piensa en cuánto pagas por una propiedad a la que solo tienes acceso unas pocas veces al año. Pero seguí pensando sobre Gemini en todos los lugares a los que fui y qué efecto tendría en la experiencia del usuario actual. La conferencia magistral hizo poco para convencerme de que esto es el futuro que quiero.
Pon tu fe en la IA de Géminis

Creo que Gemini de Google es capaz de hacer muchas cosas increíbles. Por un lado, uso activamente Círculo para Buscar, así que lo entiendo. He visto cómo puede ayudar a realizar el trabajo, resumir notas y obtener información sin necesidad de hacerlo. deslizar a través de pantallas. Incluso probé Proyecto Astra y experimenté el potencial de cómo este modelo de lenguaje grande puede ver el mundo que lo que a lo y perfeccionar en pequeños matices presentes en un la cara de la persona. Eso sin duda será útil cuando salga y se integre completamente en el sistema operativo.
¿O no? Luché por descubrir por qué querría crear una narrativa con IA por diversión, lo cual fue una de las opciones para la demostración del Proyecto Astra. Si bien es genial que Gemini pueda ofrecer respuestas contextuales sobre aspectos físicos de su entorno , la demostración no explicó exactamente cuándo ocurriría este tipo de interacción en un dispositivo Android específicamente.
Sabemos quién, dónde, qué, por qué y cómo detrás de la existencia de Géminis, pero no sabemos cuándo. ¿Cuándo? usar Gemini? ¿Cuándo estará lista la tecnología para reemplazar los restos del actual Asistente de Google? La conferencia magistral y las demostraciones en Google I/ O no pudo responder estas dos preguntas.
Google presentó muchos ejemplos de cómo los desarrolladores se beneficiarán de lo que está por venir. Por ejemplo, Project Astra puede mirar su código y ayudar lo mejoras. Pero no codifico, así que no resoné inmediatamente con este caso de uso. Luego Google nos mostró cómo Gemini Seré capaz de recordar dónde se colocaron los objetos por última vez. Eso es realmente genial, y pude ver cómo eso beneficiaría a la gente común que trata con, digamos, estar demasiado abrumados por todo lo que se requiere de ellos. Pero no hubo ninguna mención de eso. ¿IA si no se muestra siendo utilizada en contexto?
He asistido a diez conferencias de desarrolladores de Google I/O y este es el primer año que me alejo rascándome la cabeza en lugar de esperando actualizaciones de software futuras. Estoy agotado de que Google impulse la narrativa de Gemini entre sus usuarios sin ser explícito sobre cómo Tendremos que adaptarnos para permanecer en su ecosistema.
Quizás la razón es que Google no quiere asustar a nadie. Pero como usuario, el silencio da más miedo que cualquier otra cosa.