Google Keynote (Google I/O ‘23) – American Sign Language

[REPRODUCCIÓN DE VÍDEO] [REPRODUCCIÓN DE MÚSICA] – Desde el primer día, nos propusimos
mejorar significativamente la vida de tantas personas como sea posible. Y con un poco de ayuda,
encontraste nuevas respuestas, descubriste nuevos lugares. Las palabras correctas llegaron
en el momento justo, e incluso aprendimos a
deletrear la palabra "epicúreo". – R-I-A-N. – La vida se hizo un poco más fácil. Nuestras fotos mejoraron un poco. Y nos acercamos a un
mundo al que todos pertenecemos. – Todas las estaciones listas
para reanudar el conteo. 3, 2, 1, tenemos despegue! – Entonces, mientras nos encontramos en la cúspide
de una nueva era, nuevos avances en IA, volveremos a imaginar
las formas en que podemos ayudar.

Tendremos la oportunidad de
mejorar la vida de miles de millones de personas. Brindaremos a las empresas
la oportunidad de prosperar y crecer y ayudaremos a la
sociedad a responder las preguntas más difíciles que debemos enfrentar. Ahora, no damos
esto por sentado. Entonces, si bien nuestra ambición
es audaz, nuestro enfoque siempre será responsable,
porque nuestro objetivo es hacer que la IA sea útil para todos. [REPRODUCCIÓN DE MÚSICA] [FIN DE LA REPRODUCCIÓN] [Aplausos, Aplausos] SUDAR PICHAI: Buenos
días a todos. Bienvenido a Google I/O. [Aplausos] Es genial ver a tantos
de ustedes aquí en Shoreline, tantos desarrolladores. Y un gran agradecimiento
a los millones de personas que se unieron de todo el
mundo, desde Bangladesh hasta Brasil y nuestro nuevo
campus de Bayview justo al lado.

Es genial
tenerte, como siempre. Como habrás escuchado, AI
está teniendo un año muy ocupado, por lo que tenemos mucho de qué hablar. Empecemos. Siete años después de nuestro viaje
como una empresa pionera en inteligencia artificial, nos encontramos en un emocionante
punto de inflexión. Tenemos la oportunidad de
hacer que la IA sea aún más útil para las personas, las empresas, las
comunidades, para todos. Llevamos un tiempo aplicando IA para
hacer que nuestros productos sean radicalmente más útiles. Con la IA generativa,
estamos dando el siguiente paso. Con un enfoque audaz y
responsable, estamos reinventando todos nuestros
productos principales, incluida la Búsqueda. Escuchará más más
adelante en el discurso de apertura. Permítanme comenzar con
algunos ejemplos de cómo la IA generativa está ayudando
a que nuestros productos evolucionen, comenzando con Gmail. En 2017 lanzamos
Smart Reply, respuestas breves que podías
seleccionar con un solo clic. Luego vino Smart Compose, que
ofreció sugerencias de escritura a medida que escribe. Smart Compose condujo a
funciones de escritura más avanzadas impulsadas por IA. Se han utilizado en Workspace
más de 180 000 millones de veces solo en el último año.

Y ahora, con un
modelo generativo mucho más potente, damos el siguiente paso
en Gmail con Help Me Write. Supongamos que recibió este correo electrónico
de que su vuelo fue cancelado. La aerolínea ha enviado un bono,
pero lo que realmente quieres es un reembolso completo. Podrías responder y
usar Help Me Write. Simplemente escriba el
aviso de lo que desea, un correo electrónico para solicitar
un reembolso completo, presione Crear y aparecerá un borrador completo. Como puede ver, extrajo convenientemente los
detalles del vuelo del correo electrónico anterior.

Y se parece bastante
a lo que quieres enviar. Tal vez quieras
definirlo más. En este caso, un
correo electrónico más elaborado podría aumentar las posibilidades
de obtener el reembolso. [RISAS] [APLAUSOS] Y ya está. Creo que está listo para enviar. Help Me Write
comenzará a implementarse como parte de nuestras
actualizaciones de Workspace. Y al igual que con
Smart Compose, verás que
mejora con el tiempo. El siguiente ejemplo es Mapas. Desde los primeros
días de Street View, la IA ha unido
miles de millones de imágenes panorámicas para que las personas puedan explorar el
mundo desde su dispositivo. En el I/O del año pasado,
presentamos Immersive View, que utiliza IA para
crear una representación de alta fidelidad de un lugar
para que pueda experimentarlo antes de visitarlo. Ahora, estamos expandiendo
esa misma tecnología para hacer lo que Maps hace mejor: ayudarlo a llegar a donde
quiere ir. Google Maps proporciona
20 mil millones de kilómetros de direcciones todos los días.

Son muchos viajes. Imagina si pudieras ver
todo tu viaje con anticipación. Con Immersive View
for Routes, ahora puede hacerlo, ya sea caminando, en
bicicleta o conduciendo. Déjame mostrarte lo que quiero decir. Digamos que estoy en la ciudad de Nueva York y
quiero dar un paseo en bicicleta. Maps me ha dado un par de
opciones cerca de donde estoy. Me gusta el del
paseo marítimo, así que vamos con eso. Parece pintoresco.
Primero quiero sentirlo. Haga clic en
Vista inmersiva para la ruta, y es una forma completamente nueva
de ver mi viaje. Puedo hacer zoom para obtener una
increíble vista de pájaro del viaje. Y a medida que giramos, llegamos
a un gran carril bici. [APLAUSOS] Parece que va
a ser un viaje hermoso. También puede comprobar la
calidad del aire de hoy. Parece que AQI es 43, bastante bueno.

Y si quiero verificar el
tráfico y el clima y ver cómo pueden cambiar
en las próximas horas, puedo hacerlo. Parece que
va a llover más tarde. Así que tal vez quiero
irme ahora. Immersive View for
Routes comenzará a implementarse durante el verano
y se lanzará en 15 ciudades a finales de año,
incluidas Londres, Nueva York, Tokio y San Francisco. [Aplausos] Otro producto mejorado
por AI es Google Photos. Lo presentamos en I/O en 2015. Fue uno de nuestros primeros
productos nativos de IA. Los avances en el
aprendizaje automático hicieron posible buscar en tus
fotos cosas como personas, puestas de sol o cascadas. Por supuesto, queremos que hagas algo
más que buscar fotos. También queremos
ayudarte a mejorarlos. De hecho, cada mes se editan
1.700 millones de imágenes en Google Fotos. Los avances de la IA nos brindan
formas más poderosas de hacer esto. Por ejemplo, Magic Eraser,
lanzado primero en Pixel, utiliza fotografía computacional impulsada por IA
para eliminar las distracciones no deseadas.

Y más adelante este año,
usando una combinación de comprensión semántica
e IA generativa, puedes hacer mucho más
con una nueva experiencia llamada Magic Editor. Echemos un vistazo. Digamos que estás en una
caminata y te detienes para tomar una foto
frente a una cascada. Desearías haberte quitado la
bolsa para la foto, así que sigamos adelante y
quitemos la correa trasera. La foto se siente un poco oscura, así que
puedes mejorar la iluminación. Y tal vez quieras incluso
deshacerte de algunas nubes para que se sienta tan soleado
como lo recuerdas. Mirando aún
más de cerca, desearías haber posado para que parezca que
realmente estás atrapando el agua en tu mano. No hay problema,
puedes ajustar eso. [Aplausos] Ahí tienes. Veamos una foto más. Esta es una gran foto,
pero como padre, siempre quieres que tu hijo sea
el centro de todo. Y parece que los globos
se cortaron en este. Entonces puedes seguir adelante y
cambiar la posición del cumpleañero. Magic Editor
recrea automáticamente partes del banco y
globos que no se capturaron en la toma original. Como toque final,
puedes perforar el cielo.

Cambia la iluminación
en el resto de la foto. Entonces la Edición se siente consistente. Es realmente mágico. Estamos emocionados de lanzar
Magic Editor en Google Photos a finales de este año. Desde Gmail y
Fotos hasta Maps, estos son solo algunos ejemplos de
cómo la IA puede ayudarlo en los momentos importantes. Y hay
mucho más que podemos hacer para ofrecer todo el
potencial de la IA en los productos que
conoce y ama. Hoy, tenemos 15
productos que atienden cada uno a más de 500
millones de personas y empresas.

Y seis de esos productos venden a
más de 2 mil millones de usuarios cada uno. Esto nos brinda
muchas oportunidades para cumplir con nuestra misión,
organizar la información del mundo y
hacerla universalmente accesible y útil. Es una
misión atemporal que se siente más relevante con
cada año que pasa. Y mirando hacia el futuro, hacer que la
IA sea útil para todos es la forma más profunda en que
avanzaremos en nuestra misión. Y estamos haciendo esto
de cuatro maneras importantes. Primero, mejorando
su conocimiento y aprendizaje y profundizando su
comprensión del mundo. En segundo lugar, impulsando la
creatividad y la productividad para que pueda expresarse
y hacer las cosas. En tercer lugar, al permitir que los
desarrolladores y las empresas construyan sus propios
productos y servicios transformadores. Y finalmente, construyendo e
implementando IA de manera responsable para que todos puedan
beneficiarse por igual. Estamos muy entusiasmados con
las oportunidades que se avecinan.

Nuestra capacidad para hacer que la IA sea
útil para todos se basa en el
avance continuo de nuestros modelos básicos. Así que quiero tomarme
un momento para compartir cómo nos estamos acercando a ellos. El año pasado,
nos escuchó hablar sobre PaLM, lo que condujo a muchas mejoras
en nuestros productos. Hoy, estamos listos para
anunciar nuestro último modelo PaLM en producción, PaLM 2. [APLAUSOS] PaLM 2. Esta es una de nuestras
investigaciones fundamentales y nuestra última infraestructura. Es altamente capaz en
una amplia gama de tareas y fácil de implementar. Estamos anunciando más de 25
productos y características con la tecnología de PaLM 2 hoy. Los modelos PaLM 2 ofrecen excelentes
capacidades básicas en una amplia gama de tamaños. Los hemos llamado cariñosamente
gecko, nutria, bisonte y unicornio. Gecko es tan liviano
que puede funcionar en
dispositivos móviles, lo suficientemente rápido o excelentes
aplicaciones interactivas en el dispositivo, incluso sin conexión. Los modelos PaLM 2 son más sólidos
en lógica y razonamiento gracias a una amplia formación en
temas científicos y matemáticos.

También está capacitado en
texto multilingüe, que abarca más de 100 idiomas
para comprender y generar resultados matizados. Combinado con poderosas
capacidades de codificación, PaLM 2 también puede ayudar a los desarrolladores que
colaboran en todo el mundo. Veamos este ejemplo. Supongamos que está trabajando
con un colega en Seúl y está depurando código. Puede pedirle que corrija
un error y ayude a su compañero de equipo agregando
comentarios en coreano al código. Primero reconoce que el código
es recursivo, sugiere una corrección e incluso explica el
razonamiento detrás de la corrección. Y como puedes ver,
agregó comentarios en coreano, tal como lo pediste.

[Aplausos] Si bien PaLM 2 es altamente
capaz, realmente brilla cuando se ajusta al
conocimiento específico del dominio. Recientemente lanzamos
Sec-PaLM, una versión de PaLM 2 optimizada para
casos de uso de seguridad. Utiliza IA para
detectar mejor los scripts maliciosos y puede ayudar a los expertos en seguridad a
comprender y resolver las amenazas. Otro ejemplo es Med-PaLM 2. En este caso, está ajustado
al conocimiento médico. Este ajuste fino
logró una reducción de 9 veces en el razonamiento inexacto
en comparación con el modelo, acercándose al desempeño
de los expertos clínicos que respondieron el mismo
conjunto de preguntas.

De hecho, Med-PaLM 2 fue
el primer modelo de lenguaje en realizar un nivel experto en preguntas de
estilo de examen de licencia médica , y actualmente es
lo más avanzado. También estamos trabajando para agregar
capacidades a Med-PaLM 2 para que pueda
sintetizar información de imágenes médicas, como
radiografías simples y mamografías. Puede imaginar
un colaborador de IA que ayude a los radiólogos
a interpretar imágenes y comunicar los resultados. Estos son algunos
ejemplos del uso de PaLM 2 en
dominios especializados. No podemos esperar a
verlo usado en más. Es por eso que me complace
anunciar que ya está disponible en versión preliminar.

Y dejaré que Thomas comparta más. [APLAUSOS] PaLM 2 es el último paso
en nuestro viaje de una década para llevar la IA de
manera responsable a miles de millones de personas. Se basa en el progreso realizado
por dos equipos de clase mundial, Brain Team y DeepMind. Mirando hacia atrás en los
avances que definieron la IA durante la última
década, estos equipos han contribuido a un
número significativo de ellos: AlphaGo, transformadores,
modelos de secuencia a secuencia, etc. Todo esto ayuda a preparar el escenario
para el punto de inflexión en el que nos encontramos hoy. Recientemente reunimos a
estos dos equipos en una sola unidad,
Google DeepMind.

Usando los
recursos computacionales de Google, se enfocan en construir
sistemas más capaces de manera segura y responsable. Esto incluye nuestro modelo
básico de próxima generación , Gemini, que
todavía está en formación. Gemini fue creado
desde cero para ser una herramienta multimodal,
altamente eficiente en las integraciones de API y construido
para permitir futuras innovaciones, como la memoria y la planificación. Si bien aún es pronto, ya
estamos viendo impresionantes
capacidades multimodales que no se ven en modelos anteriores. Una vez ajustado y
rigurosamente probado para seguridad, Gemini estará disponible en
varios tamaños y capacidades, al igual que PaLM 2. A medida que invertimos en
modelos más avanzados, también estamos invirtiendo profundamente
en la responsabilidad de la IA.

Esto incluye tener las herramientas
para identificar contenido generado sintéticamente
cada vez que lo encuentre. Dos enfoques importantes son las
marcas de agua y los metadatos. La marca de agua incrusta información
directamente en el contenido de manera que se mantiene incluso
a través de una edición de imagen modesta. En el futuro, estamos
construyendo nuestros modelos para incluir marcas de agua
y otras técnicas desde el principio. Si miras una
imagen sintética, es impresionante
lo real que parece. Así que puedes imaginar
lo importante que será esto en el futuro. Los metadatos permiten a los
creadores de contenido asociar
contextos adicionales con archivos originales, brindándole más
información cada vez que encuentre una imagen. Nos aseguraremos de que cada una de
nuestras imágenes generadas por IA tenga esos metadatos.

James hablará sobre
nuestro enfoque responsable de la IA más adelante. A medida que los modelos mejoran
y son más capaces, una de las
oportunidades más emocionantes es ponerlos a disposición de las
personas para que interactúen directamente con ellos. Esa es la oportunidad que
tenemos en Bard, nuestro experimento de IA conversacional. Estamos evolucionando rápidamente Bard. Ahora es compatible con una amplia gama
de capacidades de programación y se ha vuelto mucho más inteligente
en el razonamiento y los problemas matemáticos. Y a partir de hoy, ahora se
ejecuta completamente en PaLM 2. Para compartir más sobre lo que
viene, permítanme pasarle la palabra a Sissie.

[REPRODUCIENDO MÚSICA] [APLAUSOS] SISSIE HSIAO: Gracias, Sundar. Los grandes modelos de lenguaje
han capturado la imaginación del mundo ,
cambiando nuestra forma de pensar sobre el futuro de la informática. Lanzamos Bard como un
experimento de acceso limitado en un
modelo de lenguaje grande y liviano para obtener comentarios e iterar. Y desde entonces, el equipo
ha estado trabajando arduamente para realizar mejoras rápidas
y lanzarlas rápidamente. Con PaLM 2, las habilidades matemáticas,
lógicas y de razonamiento de Bard dieron un gran paso adelante, lo que
apuntaló su capacidad para ayudar a los desarrolladores
con la programación. Bard ahora puede colaborar en
tareas como la generación de código, la depuración y
la explicación de fragmentos de código. Bard ya ha aprendido más
de 20 lenguajes de programación, incluidos C++, Go,
JavaScript, Python, Kotlin e incluso las
funciones de Google Sheets. Y estamos encantados de ver
que la codificación se ha convertido rápidamente en una de las
cosas más populares que la gente está haciendo con Bard. Así que echemos un
vistazo a un ejemplo. Recientemente he estado
aprendiendo ajedrez y, por diversión,
pensé en ver si puedo programar un movimiento en Python.

¿ Cómo usaría Python para
generar el movimiento "compañero del erudito" en el ajedrez? DE ACUERDO. Aquí, Bard creó un script
para recrear este movimiento de ajedrez en Python. Y observe cómo también
formateó el código muy bien, haciéndolo fácil de leer. También hemos escuchado excelentes comentarios
de los desarrolladores sobre cómo Bard proporciona citas de código. Y a partir de la próxima semana,
notarás algo aquí. Estamos haciendo que las citas del código sean
aún más precisas. Si Bard trae
un bloque de código, simplemente haga clic en esta anotación y
Bard subrayará el bloque y vinculará a la fuente.

Ahora, Bard también puede
ayudarme a entender el código. ¿ Podría decirme qué
hace chess.board en este código? Ahora, esta es una
explicación súper útil de lo que está haciendo y
aclara las cosas. Veamos si podemos
mejorar un poco este código. ¿ Cómo mejoraría este código? Vamos a ver. Hay una lista de comprensión,
creando una función y usando un generador. Esas son algunas
sugerencias geniales. Ahora, ¿podría unirlos en
un solo bloque de código de Python? Ahora, Bard está reconstruyendo el
código con estas mejoras. Vale genial. ¿ Qué tan fácil fue eso? Y con un par de clics, puedo
mover esto directamente a Colab. A los desarrolladores les encanta la capacidad
de incorporar código de Bard a su flujo de trabajo,
como Colab. Próximamente
agregaremos la capacidad de exportar y ejecutar código
con nuestro socio Replit, comenzando con Python. [APLAUSOS] También escuchamos que
desea un tema oscuro, por lo que a partir de hoy
puede activarlo. [APLAUSOS] Puede activarlo
directamente en Bard o dejar que siga la
configuración de su sistema operativo. Y hablando de
exportar cosas, la gente a menudo le pide a
Bard que comience a redactar correos electrónicos y documentos.

Así que hoy estamos lanzando
dos acciones de exportación más, lo que facilita mover las
respuestas de Bard directamente a Gmail y Docs. [Aplausos] Estamos entusiasmados con la rapidez con la que
Bard y los modelos subyacentes están mejorando, pero
no nos detendremos allí. Queremos traer más
capacidades a Bard para alimentar su curiosidad
e imaginación. Por eso, me complace anunciar
que las herramientas llegarán a Bard. [APLAUSOS] A medida que colabora
con Bard, podrá aprovechar los
servicios de Google y las extensiones con socios para
permitirle hacer cosas que nunca antes fue posible. Y, por supuesto,
abordaremos esto de manera responsable, de manera segura y privada
, permitiéndole mantener el control en todo momento . Comenzamos con
algunas de las aplicaciones de Google que la gente ama
y usa todos los días. Es increíble lo que Bard
ya puede hacer con el texto, pero las imágenes son
una parte fundamental de cómo aprendemos y nos expresamos. Entonces, en las próximas semanas,
Bard se volverá más visual, tanto en sus respuestas
como en sus avisos. Entonces, si pregunta cuáles son algunos
sitios imperdibles en Nueva Orleans, Bard usará la
Búsqueda de Google y el gráfico de conocimiento para encontrar las
imágenes más relevantes.

Aquí vamos. El Barrio Francés,
el Garden District. Estas imágenes realmente
me están dando una idea mucho mejor de lo que estoy explorando. También haremos que sea más fácil para
usted enviar imágenes a Bard, brindándole aún más formas
de explorar y crear. A la gente le encanta Google Lens
y, en los próximos meses, traeremos los
poderes de Lens a Bard. [Aplausos] Entonces, si buscas
divertirte un poco con tus bebés peludos, puedes subir
una imagen y pedirle a Bard que escriba una
leyenda divertida sobre estos dos.

Lens detecta que se trata de
una foto de un pastor alemán tonto
y un golden retriever, y luego Bard la usa para
crear algunas leyendas divertidas. Si me preguntas, creo que
ambos son buenos chicos. Ahora, vamos a hacer otro. Imagina que tengo 18 años y
necesito aplicar a la universidad. No me pondré fecha
con el tiempo que ha pasado, pero sigue siendo un
proceso abrumador. Así que estoy pensando en las
universidades, pero no estoy seguro de en qué quiero centrarme. Estoy en los videojuegos. ¿ Y qué tipo de programas
podrían ser interesantes? Bien, esta es una
ventaja útil. Hmm, la animación parece
bastante interesante. Ahora, podría pedir,
ayúdenme a encontrar universidades con programas de animación
en Pensilvania. Vale genial. Esa es una buena lista de escuelas. Ahora, para ver dónde
están, podría decir ahora, muéstrenlos en un mapa. Aquí, Bard va a usar
Google Maps para visualizar dónde están las escuelas. [APLAUSOS] Esto es muy útil
y es emocionante ver que hay muchas
opciones no muy lejos de casa.

Ahora, comencemos a
organizar las cosas un poco. Muestre estas opciones como una tabla. Agradable, estructurado y organizado. Pero hay más que quiero saber. Agregue una columna que muestre
si son escuelas públicas o privadas. [APLAUSOS] Perfecto. Este es un gran
comienzo para construir. Y ahora, pasemos
esto a Hojas de cálculo de Google para que mi familia pueda participar más tarde y
ayudarme con mi búsqueda. [Aplausos] Pueden ver lo fácil que será
comenzar con Bard y rápidamente tener algo
útil para pasar a aplicaciones como Docs u Sheets
para desarrollar con otros. Bien, eso es una muestra de
lo que es posible cuando Bard conoce algunas de las aplicaciones de Google. Pero eso es solo el comienzo. Bard podrá aprovechar
todo tipo de servicios de toda la
web, con extensiones de
socios increíbles como Instacart, Indeed, Khan Academy
y muchos más. Así que aquí hay un vistazo a uno que vendrá
en los próximos meses. Con Adobe Firefly,
podrá generar imágenes completamente nuevas a partir de
su imaginación directamente en Bard.

Ahora, digamos que estoy
planeando una fiesta de cumpleaños para mi hijo de siete años,
a quien le encantan los unicornios. Quiero una imagen divertida para
enviar con las invitaciones. Haz una imagen de un unicornio
y un pastel en una fiesta infantil. Ahora, Bard está
trabajando con firefly para dar
vida a lo que imaginé. [Aplausos] ¿ Qué tan asombroso es eso? Esto desbloqueará
todo tipo de formas en las que puede llevar su
creatividad más lejos y más rápido. Y estamos muy emocionados
por esta asociación. Bard continúa
mejorando rápidamente y aprendiendo nuevas habilidades, y queremos
que la gente de todo el mundo lo pruebe y comparta
sus comentarios. Así que hoy
eliminaremos la lista de espera y abriremos Bard a más de
180 países y territorios, [APLAUSOS], y pronto habrá más. Y además de estar
disponible en más lugares, Bard también estará
disponible en más idiomas. Además del inglés,
a partir de hoy podrás hablar con Bard
en japonés y coreano.

Agregar idiomas de manera responsable
implica un trabajo profundo para lograr que cosas como la calidad
y los matices locales sean correctos. Y nos complace compartir
que estamos en camino de admitir 40 idiomas pronto. [Aplausos] Es increíble ver la
tasa de progreso hasta ahora: modelos más avanzados,
tantas funciones nuevas y la posibilidad de que
incluso más personas colaboren con Bard. Y cuando estemos listos para pasar a
Bard a nuestro modelo Gemini, estoy muy entusiasmado con
más avances por venir.

Así que ahí es donde vamos
con Bard, conectando herramientas de Google y
servicios increíbles en toda la web para ayudarlo a hacer y crear
cualquier cosa que pueda imaginar a través de una
colaboración fluida con nuestros modelos de lenguaje grande más capaces. Hay mucho que
compartir en los próximos días. Y ahora, para escuchar más acerca de
cómo los modelos de lenguaje grandes están habilitando
características de productividad de próxima generación directamente en Workspace, se
lo pasaré a Aparna. [REPRODUCIENDO MÚSICA] [APLAUSOS] APARNA PAPPU: Desde
el principio, Workspace se creó para permitirle
colaborar en tiempo real con otras personas. Ahora, puede colaborar
en tiempo real con IA. AI puede actuar como un entrenador,
un socio de pensamiento, una fuente de
inspiración, así como un impulsor de la productividad en
todas las aplicaciones de Workspace. Nuestros primeros pasos con
AI como colaborador fueron a través de la función Help Me Write
en Gmail y Docs, que se lanzó para
evaluadores de confianza en marzo.

Estamos realmente impresionados por
las formas inteligentes y creativas en que se utilizan estas funciones
, desde escribir ensayos, argumentos de venta,
planes de proyectos, alcance de clientes y mucho más. Desde entonces, hemos
estado ocupados expandiendo estas funciones útiles
en más superficies. Déjame mostrarte algunos ejemplos. Uno de nuestros
casos de uso más populares es la descripción del trabajo de confianza. Toda empresa, grande o
pequeña, necesita contratar gente. Una buena descripción del trabajo puede
marcar la diferencia. Así es como Docs
ha estado ayudando. Digamos que tienes una
boutique de moda y necesitas contratar a un diseñador textil. Para comenzar, ingrese
solo unas pocas palabras como indicación. Descripción del puesto de alto nivel
para diseñador textil. Docs tomará ese aviso,
lo enviará a un modelo basado en PaLM 2 y veamos qué obtuve.

Nada mal. Con solo siete palabras,
el modelo regresó con un buen
punto de partida escrito muy bien para mí. Ahora, puede tomar
eso y personalizarlo para el tipo de experiencia,
educación y conjunto de habilidades que necesita este rol,
ahorrándole mucho tiempo y esfuerzo. Siguiente– [APLAUSOS] –permítanme mostrarles cómo pueden
organizarse mejor con Hojas de cálculo. Imagínese que tiene un
negocio de pasear perros y necesita realizar un seguimiento de cosas
como sus clientes, la logística sobre los perros, como a qué
hora deben caminar, por cuánto tiempo, etcétera.

Las hojas pueden
ayudarte a organizarte. En una nueva hoja,
simplemente escriba algo como "lista de clientes y mascotas
para un negocio de pasear perros con tarifas" y presione Crear. Sheets envía esta entrada
a un modelo perfeccionado que hemos estado entrenando con
todo tipo de casos de uso específicos de Sheets. Mira eso. El modelo– [APLAUSOS] El modelo descubrió
lo que podrías necesitar. La tabla generada tiene
cosas como el nombre del perro, información del cliente, notas, etcétera. Este es un buen comienzo
para que juegues. Sheets
te facilitó el comienzo para que puedas volver
a hacer lo que te gusta.

Hablando de
volver a las cosas que amas, hablemos
de Presentaciones de Google. Las personas usan Presentaciones para
contar historias todo el tiempo, ya sea en el trabajo o en
su vida personal. Por ejemplo, puede hacer que
su familia extendida recopile anécdotas,
haikus, chistes para el 50 aniversario de bodas de sus padres
en una presentación de diapositivas. Cada uno pone su granito de arena. Pero tal vez este mazo
podría tener más dinamismo. Escojamos una de las diapositivas
y usemos el poema que hay allí como indicación para la
generación de imágenes. "A mamá le encanta la pizza,
con queso y verdadera, mientras que el regalo favorito de papá
es una olla caliente de fondue". Hagamos clic en Crear y veamos
qué sucede. Detrás de escena, esa cita
se envía como entrada a nuestros modelos de texto a imagen. Y sabemos que es poco probable
que el usuario esté satisfecho con una sola opción,
por lo que generamos entre seis y ocho imágenes para que
pueda elegir y refinar. Vaya, tengo algunas imágenes de
pizza de fondue extrañamente deliciosas . Ahora, este estilo es un
poco demasiado caricaturesco para mí.

Así que voy a pedirle que
lo intente de nuevo. Cambiemos el
estilo a la fotografía y demos un giro. Igual de raro, pero
a mí me funciona. Puedes
divertirte sin límites con esto, sin límites en lo
cursi o la creatividad. A partir del próximo mes, los
evaluadores de confianza podrán probar esta y
otras seis funciones de IA generativa en Workspace. Y a finales de este año,
todo esto estará disponible en general
para los usuarios comerciales y de consumo de Workspace a través de
un nuevo servicio llamado Duet AI for Workspace. [Aplausos] Retrocediendo un poco,
les mostré algunos ejemplos poderosos de cómo Workspace puede ayudarlo a hacer
más con solo unas pocas palabras como indicaciones. Las indicaciones son una forma poderosa
de colaborar con la IA. El indicador correcto puede desbloquear
mucho más de estos modelos. Sin embargo, puede ser
desalentador para muchos de nosotros saber por dónde empezar.

Bueno, ¿y si pudiéramos
resolver eso por ti? ¿ Qué pasaría si AI pudiera
ofrecerle indicaciones de manera proactiva? Aún mejor, ¿qué pasaría si estas
indicaciones fueran realmente contextuales y cambiaran en función
de lo que está trabajando? Estoy súper emocionado de mostrarles
una vista previa de eso. Así es como vemos que el
futuro de la colaboración con IA cobra vida. Pasemos a una demostración en vivo
para poder mostrarles lo que quiero decir. Tony está aquí
para ayudarme con eso. Hola, Tony. TONY: Hola, Aparna. APARNA PAPPU: Entonces… [Aplausos] Mi sobrina Mira y yo estamos
trabajando juntos en una historia espeluznante para el campamento de verano. Ya hemos escrito
algunos párrafos. Pero ahora, estamos atascados. Consigamos ayuda. Como puede ver, lanzamos un
panel lateral, algo que el equipo llama cariñosamente Sidekick.

Sidekick lee
y procesa instantáneamente el documento y ofrece algunas
sugerencias realmente interesantes, junto con un cuadro
de diálogo de aviso abierto. Si miramos de cerca, podemos
ver algunas de las sugerencias, como ¿qué pasó con
la concha dorada? ¿ Cuáles son los
giros de trama de misterio comunes? Probemos la opción de conchas marinas
y veamos con qué nos devuelve. Ahora, lo que está sucediendo
entre bastidores es que proporcionamos
el documento completo como contexto para el modelo, junto
con el aviso sugerido. Y vamos a ver lo que tenemos de vuelta. La concha dorada se la
comió un calamar gigante que vive en la cala. Este es un buen comienzo. Insertemos estas
notas para que podamos continuar con nuestro pequeño proyecto. Ahora, una de las
observaciones interesantes que tenemos es que en realidad es más fácil
reaccionar ante algo, o tal vez usar eso
para decir, hmm, quiero ir en una dirección diferente. Y esto es exactamente
con lo que la IA puede ayudar. Veo una nueva sugerencia
allí para generar imágenes. Veamos qué hace esto.

La historia tiene un pueblo,
una concha dorada y otros detalles. Y en lugar de tener que
escribir todo eso, el modelo recoge estos
detalles del documento y genera imágenes. Estas son algunas
fotos geniales, y apuesto a que a mi sobrina le encantarán. Vamos a insertarlos
en el muelle por diversión. Gracias, Tony. [Aplausos] Voy a guiarlos
a través de algunos ejemplos más, y esto los ayudará a ver por qué
esta nueva y poderosa colaboración contextual es
un impulso tan notable para la productividad y la creatividad. Digamos que estás escribiendo
a tus vecinos sobre una próxima comida compartida. Ahora, como puede ver,
Sidekick ha resumido de qué se trata esta conversación. El año pasado, todos
trajeron hummus. ¿A quién no le gusta el hummus? Pero este año, quieres
un poco más de variedad.

Veamos qué personas
se inscribieron para traer. Bueno, en algún lugar de este hilo
hay una Hoja de cálculo de Google donde recopilaste esa información. Puede obtener ayuda
escribiendo "escriba una nota sobre los
platos principales que traerá la gente". Y veamos qué recuperamos. Vamos. Impresionante. Encontró la hoja correcta y
citó la fuente en la sección Encontrado en, lo que
le da la seguridad de que esto no es inventado. Se ve bien. Puede insertarlo
directamente en su correo electrónico. Terminemos con un ejemplo de
cómo esto puede ayudarte en el trabajo. Digamos que está a punto de dar
una presentación importante y ha estado tan
concentrado en el contenido que se olvidó de
preparar las notas del orador. La presentación es en una hora. UH oh. No hay necesidad de entrar en pánico.

Mira cuál es una de
las sugerencias. Cree notas del orador
para cada diapositiva. Vamos a ver que pasó. [Aplausos] Lo que sucedió detrás
de escena aquí es que la presentación
y otro contexto relevante se envió a la modelo para
ayudar a crear estas notas. Y una vez que
las haya revisado, puede presionar Insertar
y editar las notas para transmitir lo que pretendía. Ahora puede realizar
la presentación sin preocuparse
por las notas. Como puede ver,
nos hemos divertido muchísimo jugando con esto. Podemos ver el verdadero potencial
de la IA como colaborador. Y llevaremos
esta experiencia a Duet AI for Workspace. Con eso, se
lo devolveré a Sundar. [REPRODUCIENDO MÚSICA] [APLAUSOS] SUNDAR PICHAI: Gracias, Aparna. Es emocionante ver
toda la innovación que llega a Google Workspace. A medida que la IA continúa
mejorando rápidamente, nos hemos centrado en brindar
funciones útiles a nuestros usuarios. Y a partir de hoy,
le brindamos una nueva forma de obtener una vista previa de algunas
de las experiencias en Workspace
y otros productos.

Se llama Laboratorios. Digo "nuevo", pero Google tiene una
larga historia de traer Labs, y también lo hemos hecho disponible
a lo largo de nuestra historia. Puede comprobarlo
en google.com/labs. A continuación, vamos
a hablar sobre la búsqueda. La búsqueda ha sido nuestro
producto fundacional desde nuestros primeros días, y siempre
lo abordamos poniendo la confianza del usuario por encima de todo lo demás. Para darle una idea
de cómo estamos incorporando la IA generativa en la
Búsqueda, voy a invitar a Cathy al escenario. Cathy? [APLAUSOS] [REPRODUCIENDO MÚSICA] CATHY EDWARDS: Gracias, Sundar. He estado trabajando en la
Búsqueda durante muchos años. Y lo que me inspira
tanto es cómo sigue siendo un problema sin resolver. Y es por eso que estoy tan
entusiasmado con el potencial de llevar la
IA generativa a la Búsqueda. Vamos a darle un giro.

Entonces, comencemos con
una búsqueda de "¿qué es mejor para una familia
con niños menores de tres años y un perro, Bryce
Canyon o Arches?" Ahora, aunque esta es la
pregunta que tienes, probablemente no
la harías de esta manera hoy. Lo dividiría
en partes más pequeñas, filtraría la información
y luego juntaría las cosas usted mismo. Ahora, Search hace el
trabajo pesado por ti. Lo que ves aquí
se ve bastante diferente. Así que déjame primero
darte un recorrido rápido. Notará la nueva
página de resultados de búsqueda integrada para que pueda obtener aún más
de una sola búsqueda. Hay una instantánea impulsada por IA
que rápidamente le brinda la disposición del terreno sobre un tema.

Y aquí puedes ver
que, si bien ambos parques son aptos para niños, solo
Bryce Canyon tiene más opciones para tu amigo peludo. Luego, si desea
profundizar más, hay enlaces incluidos
en la instantánea. También puede hacer clic
para expandir su vista. Y verás como
se corrobora la información para que puedas
checar más detalles y realmente explorar la
riqueza del tema. Esta nueva experiencia se basa en los sistemas de
clasificación y seguridad de Google que hemos estado
perfeccionando durante décadas.

Y la Búsqueda seguirá siendo
su punto de partida hacia lo que hace que la Web sea tan especial,
su diversa gama de contenido, desde editores hasta
creativos, empresas e incluso personas como usted y como yo. Por lo tanto, puede
consultar las recomendaciones de expertos, como el
Servicio de Parques Nacionales, y aprender de
experiencias auténticas de primera mano, como el blog Mom Trotter,
porque incluso en un mundo donde la IA puede brindar información, sabemos
que las personas siempre valorarán la contribución de otra gente. Y una red próspera
es esencial para eso. Esta nueva IA generativa… gracias. [Aplausos] Estas nuevas
capacidades generativas de inteligencia artificial harán que la búsqueda sea más inteligente
y sencilla. Y como ha visto, esto es
especialmente útil cuando necesita dar
sentido a algo complejo, con múltiples ángulos para explorar. Ya sabes, esos momentos en los que incluso
tu pregunta tiene preguntas. Entonces, por ejemplo,
supongamos que está buscando una buena bicicleta para un
viaje de cinco millas con colinas. Esta puede ser una gran compra, por lo que
desea hacer su investigación.

En la instantánea impulsada por IA
, verá consideraciones importantes
como el motor y la batería para afrontar esas
colinas y la suspensión para una conducción cómoda. Justo debajo de eso,
verá productos que se ajustan a sus necesidades,
cada uno con imágenes, reseñas, descripciones útiles
y precios actuales. Esto se basa en el
gráfico de compras de Google, el conjunto de datos más completo del mundo
de
productos, vendedores, marcas, reseñas e
inventario que cambian constantemente, con más de 35 mil millones de listados. De hecho, hay 1.800 millones de
actualizaciones en vivo en nuestro gráfico de compras cada hora. Para que pueda comprar con confianza
en esta nueva experiencia, sabiendo que obtendrá
resultados nuevos y relevantes.

Y para
consultas comerciales como esta, también sabemos que los
anuncios pueden ser especialmente útiles para conectar a las personas
con información útil y ayudar a las empresas
a ser descubiertas en línea. Están aquí, claramente etiquetados. Y estamos explorando
diferentes formas de integrarlos a medida que
implementamos nuevas experiencias en la Búsqueda. Y ahora que ha
investigado un poco, es posible que desee explorar más. Entonces, justo debajo de la
instantánea, verá la opción para hacer
una pregunta de seguimiento o seleccionar un próximo paso sugerido. Tocar cualquiera de estas
opciones lo llevará a nuestro nuevo
modo de conversación.

[APLAUSOS] En este caso, tal vez quieras
hacer un seguimiento sobre las bicicletas eléctricas, así que busca una en
tu color favorito: rojo. Y sin tener que
volver al punto de partida, la Búsqueda de Google comprende
su intención completa y que está
buscando específicamente bicicletas eléctricas en rojo que
serían buenas para un viaje de cinco millas con colinas. E incluso cuando estás en
este modo conversacional, es una experiencia integrada. Así que simplemente puede desplazarse para
ver otros resultados de búsqueda.

Ahora, tal vez esta bicicleta eléctrica parezca
ser una buena opción para su viaje. Con solo un clic,
puede ver una variedad de minoristas
que lo tienen en stock y algunos que ofrecen
entrega o devoluciones gratuitas. También verá los
precios actuales, incluidas las ofertas, y podrá ir sin problemas al
sitio de un comerciante, verificar y
centrar su atención en lo que realmente importa: prepararse para viajar. Estas nuevas
capacidades generativas de IA también desbloquean una categoría completamente nueva
de experiencias en la Búsqueda. Podría ayudarlo a crear un
nombre ingenioso para su club de ciclismo, crear la
publicación social perfecta para mostrar sus nuevas ruedas o incluso evaluar
sus conocimientos sobre las señales manuales para bicicletas .

Estas son cosas que
quizás nunca pensaste en preguntarle a Search antes. Ir de compras es solo un ejemplo
de dónde esto puede ser útil. Veamos
otro en una demostración en vivo. ¿ Qué dices? [APLAUSOS] Sí. Un saludo tan especial para mi
hija de tres años, que está obsesionada con las ballenas. Quería enseñarle
sobre el canto de las ballenas.

Entonces, déjame ir a la
aplicación de Google y preguntar, ¿ por qué a las ballenas les gusta cantar? Y aquí, veo una instantánea
que organiza los resultados web y me lleva a las cosas clave que
quiero saber para poder entender rápidamente que, oh, cantan
por muchas razones diferentes, les gusta comunicarse con otras
ballenas, pero también para encontrar comida. Y puedo hacer clic en Ver más
para expandir aquí también. Ahora, si en realidad estuviera con
mi hija y no en el escenario frente a miles
de personas, estaría viendo algunos de
estos resultados web ahora mismo. Se ven bastante bien. Ahora, estoy pensando que
le encantaría ver uno de cerca. Así que déjame preguntar, ¿puedo ver
ballenas en California? Y entonces, los LLM en este momento
están trabajando detrás de escena para generar mi
instantánea, destilando ideas y perspectivas
de toda la web. Parece que, en el
norte de California, puedo ver ballenas jorobadas
en esta época del año.

Eso es genial. Tendré que hacer planes para
llevarla de viaje pronto. Y nuevamente, puedo ver
algunos resultados realmente excelentes en toda la web. Y si quiero
referirme a los resultados de mi pregunta anterior,
simplemente puedo desplazarme hacia arriba. Ahora, se
acerca su cumpleaños, así que puedo continuar con "
peluches para niños de menos de $40". Nuevamente, los LLM están organizando
esta información para mí. Y este proceso se
acelerará con el tiempo. Estas parecen
algunas grandes opciones. Creo que le
gustará mucho el segundo. A ella también le gustan las orcas. Uf. Las demostraciones en vivo siempre son
un poco estresantes. Estoy muy contento de que
uno fuera "ballena". [Aplausos] Lo que han visto hoy
es solo un primer vistazo de cómo estamos experimentando
con la IA generativa en la Búsqueda. Y estamos entusiasmados de seguir
mejorando con sus comentarios a través de nuestro programa Search Labs.

Esta nueva experiencia generativa de búsqueda
, también conocida como SGE, estará disponible en Labs, junto
con algunos otros experimentos. Y estarán
disponibles en las próximas semanas. Si se encuentra en los EE. UU.,
puede unirse a la lista de espera hoy mismo tocando el icono de Labs en la
última versión de la aplicación de Google o en el escritorio de Chrome.

Esta nueva experiencia realmente
refleja el comienzo de un nuevo capítulo. Y puedes pensar en
esta evolución como una Búsqueda, sobrealimentada. La búsqueda ha sido el núcleo
de nuestra misión atemporal durante 25 años. Y a medida que construimos para
el futuro, estamos muy emocionados de que
recurras a Google para cosas que nunca soñaste que podría. Este es un vistazo preliminar de lo que
vendrá para la IA en la Búsqueda.

[REPRODUCCIÓN DE VIDEO] [YUNG CXREAL & BABY
FRANKIE, "LIKE WHOA"] – Sí, sí, sí. – Lo tienes. Vamos. – ¿Es un sándwich de perrito caliente? Y la respuesta es sí. – ¡No si! – ¡No! [FIN DE LA REPRODUCCIÓN] [APLAUSOS] SUDAR PICHAI: ¿Un
perrito caliente es un sándwich? Creo que es más como un
taco porque el pan lo rodea. Proviene del
punto de vista experto de un vegetariano. Gracias, Cathy. Es muy emocionante
ver cómo estamos evolucionando la Búsqueda
y esperamos construirla con todos ustedes. Hasta ahora,
hemos compartido cómo la IA puede ayudar a desbloquear la creatividad, la
productividad y el conocimiento. Como puede ver, la IA no es
solo un habilitador poderoso. También es un gran cambio de plataforma. Todas las empresas y
organizaciones están pensando en cómo
impulsar la transformación. Es por eso que nos enfocamos en
hacer que sea fácil y escalable para otros innovar con IA.

Eso significa proporcionar la infraestructura
informática más avanzada , incluidas
las GPU y las TPU de última generación, y ampliar el acceso a los
modelos básicos más recientes de Google que se han
probado rigurosamente en nuestros propios productos. También estamos trabajando para
proporcionar herramientas de clase mundial para que los clientes puedan entrenar,
ajustar y ejecutar sus propios modelos con
seguridad, protección y privacidad de nivel empresarial. Para brindarle más información sobre cómo
estamos haciendo esto con Google Cloud, dé la bienvenida a Thomas. [REPRODUCCIÓN DE MÚSICA] [Aplausos] THOMAS KURIAN: Todas
las inversiones de las que ha oído hablar hoy
también están llegando a las empresas.

Entonces, ya sea que sea un
desarrollador individual o una empresa a gran escala,
Google está utilizando el poder de la IA para transformar la forma en que trabaja. Ya hay
miles de empresas que utilizan nuestra plataforma de IA generativa
para crear contenido asombroso, sintetizar y
organizar información, automatizar procesos y
crear experiencias de cliente increíbles . Y sí, todos y cada
uno de vosotros también podéis. Hay tres
formas en que Google Cloud puede ayudarlo a aprovechar
la gran oportunidad que tiene frente a usted. Primero, puede crear
aplicaciones generativas utilizando nuestra plataforma de IA Vertex AI. Con Vertex, puede
acceder a modelos básicos para chat, texto e imagen. Simplemente seleccione el
modelo que desea usar, cree solicitudes para
ajustar el modelo e incluso puede ajustar
los pesos del modelo en sus propios
clústeres de cómputo dedicados. Para ayudarlo a recuperar
información actualizada y fáctica de las bases de datos de su empresa,
su intranet corporativa, su sitio web y
aplicaciones empresariales, ofrecemos Enterprise Search. Nuestra plataforma de IA es tan
convincente para las empresas porque garantiza
la privacidad de sus datos.

Tanto con Vertex como con
Enterprise Search, usted tiene el
control exclusivo de sus datos y los costos del uso de
modelos generativos de IA. En otras palabras, sus datos son
sus datos y de nadie más. También puede elegir el mejor
modelo para sus necesidades específicas en muchos tamaños que han
sido optimizados por costo, latencia y calidad. Muchas empresas líderes están utilizando
nuestras tecnologías de IA alternativas para crear
aplicaciones geniales, y todos estamos
asombrados por lo que están haciendo. Escuchemos a algunos de ellos. [REPRODUCCIÓN DE VÍDEO] [REPRODUCCIÓN DE MÚSICA] – Lo único
de Google Cloud es la amplia oferta. – La
asociación con Google nos ha enseñado a apoyarnos, iterar,
probar y aprender, y tener el coraje de fallar
rápidamente donde sea necesario.

– Pero también, la
empresa realmente centrada en la IA de Google. Entonces, tenemos mucho que
aprender directamente del equipo de ingeniería. – Ahora, con la IA generativa,
podemos tener conversaciones mucho más inteligentes con
nuestros clientes. – Hemos disfrutado mucho
tomando la última y mejor tecnología y
haciéndola accesible a toda nuestra comunidad. – Obtener
acceso temprano a las API de Vertex nos abre muchas
puertas para ser más eficientes y productivos
en la forma en que creamos experiencias para nuestros clientes. – El acto de hacer software
se abre de repente a todo el mundo. Ahora, puedes hablar con la IA
en la aplicación Replit y decirle, hazme un programa de entrenamiento.

Y con un clic, podemos
implementarlo en una máquina virtual de Google Cloud, y tiene una aplicación que acaba de
hablar sobre su existencia. – Tenemos una
característica extraordinariamente emocionante en preparación. Se llama Magic Video y le
permite tomar sus videos e imágenes y, con
solo un par de clics, convertirlos en una historia cohesiva. Está impulsado por la
tecnología PaLM de Google y realmente permite que
todos puedan crear un video
con absoluta facilidad. – La gente viene a Wendy's
y muchas veces usan algunas de nuestras siglas.

La hamburguesa junior con queso y tocino
, vendrán y… dame una JBC. Tenemos que entender
lo que eso realmente significa. Y decimos, puedo ayudar a
asegurarme de que el pedido sea preciso cada vez. – La IA generativa se
puede incorporar en todos los procesos comerciales que
ejecuta Deutsche Bank. – La asociación con
Google nos ha inspirado a aprovechar la tecnología para
transformar realmente toda la experiencia del restaurante. – No hay limitaciones. – No hay otra
manera de describirlo. Solo estamos viviendo en el futuro. [FIN DE REPRODUCCIÓN] [APLAUSOS] También estamos haciendo esto con
socios, como character.ai. Brindamos a Character
la infraestructura más eficiente y
rentable del mundo para entrenar y
servir a los modelos. Al combinar sus
propias capacidades de IA con las de Google
Cloud, los consumidores pueden crear sus propios
personajes profundamente personalizados e interactuar con ellos. También nos asociamos
con Salesforce para integrar los
modelos de inteligencia artificial de Google Cloud y BigQuery con su nube de datos en
Einstein, su asistente de CRM infundido con inteligencia artificial .

De hecho, estamos trabajando con
muchos otros socios increíbles, incluidas consultorías,
líderes de software como servicio, empresas de Internet para consumidores y
muchos más para crear experiencias extraordinarias con
nuestras tecnologías de IA. Además de PaLM 2,
nos complace presentar tres nuevos modelos en Vertex,
incluido Imagen, que impulsa la generación, edición
y personalización de imágenes a partir de entradas de texto, Codey para
completar y generar código, que puede entrenar
en su propia base de código. para ayudarlo a crear
aplicaciones más rápido, y Chirp, nuestro
modelo de voz universal que brinda precisión de voz a texto
en más de 300 idiomas. También estamos introduciendo el
aprendizaje por refuerzo a partir de la
retroalimentación humana en Vertex AI. Puede ajustar
modelos previamente entrenados mediante la incorporación de
comentarios humanos para mejorar aún más los resultados del modelo.

También puede ajustar
un modelo en datos específicos de dominio o industria, ya que
tenemos lo que Sec-PaLM y Med-PaLM para que sean
aún más poderosos. Todas estas características
están ahora en versión preliminar y animo a todos y
cada uno de ustedes a probarlas. [Aplausos] La segunda forma en que lo
ayudamos a aprovechar esta oportunidad
es presentando Duet AI para Google Cloud. Anteriormente, Aparna le contó sobre
Duet AI para Google Workspace y cómo es un
colaborador de IA siempre disponible para ayudar a las personas a hacer las cosas. Bueno, lo mismo
ocurre con Duet AI para Google Cloud, que
sirve como un programador de pares de expertos en IA . Duet utiliza IA generativa para
brindar asistencia a los desarrolladores, donde sea que la necesite, dentro
del IDE, Cloud Console o directamente dentro del chat. Puede proporcionarle
finalización de código contextual, ofrecer sugerencias ajustadas
a su base de código y generar
funciones completas en tiempo real.

Incluso puede ayudarlo con las
revisiones de código y la inspección de código. Hen le mostrará más
en el discurso de apertura del desarrollador. La tercera forma en que lo ayudamos a
aprovechar este momento es construyendo todas
estas capacidades en nuestra infraestructura optimizada para IA
. Esta infraestructura hace que las
cargas de trabajo de capacitación a gran escala sean hasta un 80 % más rápidas y
hasta un 50 % más baratas en comparación con cualquier
alternativa disponible. Mira, cuando casi
duplicas el rendimiento… [APLAUSOS] Cuando casi
duplicas el rendimiento por menos de la mitad del
costo, suceden cosas asombrosas. Hoy, nos complace
anunciar una nueva incorporación a esta familia de infraestructura,
las máquinas virtuales A3, basadas en las
últimas GPU H100 de Nvidia. Brindamos la más amplia
variedad de opciones informáticas para las principales empresas de IA,
como Entropik y Midjourney, para construir su futuro
en Google Cloud. Y sí, hay
mucho más por venir. A continuación, Josh está aquí para
mostrarles exactamente cómo estamos haciendo que sea
fácil y escalable para todos los desarrolladores
innovar con IA y PaLM 2.

[ REPRODUCCIÓN DE MÚSICA] [Aplausos] JOSH WOODWARD: Gracias, Thomas. Nuestro trabajo está capacitando a las
empresas y también está capacitando a los desarrolladores. PaLM 2, nuestro
modelo de lenguaje más capaz del que habló Sundar,
potencia la API de PaLM. Desde marzo, hemos estado ejecutando
una vista previa privada con nuestra API de PaLM y ha sido sorprendente
ver la rapidez con la que los desarrolladores la han utilizado en sus aplicaciones. Como Chaptr, que están
generando historias para que puedas elegir
tu propia aventura, cambiando para siempre el tiempo de la historia. O Game On Technology,
una empresa que crea aplicaciones de chat para
fanáticos de los deportes y marcas minoristas para conectarse con sus audiencias. Y también está Wendy's.

Están utilizando la
API de PaLM para ayudar a los clientes a realizar el pedido correcto
de la hamburguesa con queso y tocino junior de la que hablaron en
su función Hablar con el menú. Pero lo que más me emociona es
la respuesta que obtuvimos de la
comunidad de herramientas para desarrolladores. Los desarrolladores quieren elegir cuando se
trata de modelos de lenguaje, y estamos trabajando con las principales
empresas de herramientas para desarrolladores, como LangChain, Chroma y muchas
más, para admitir la API de PaLM. También lo hemos integrado
en las herramientas para desarrolladores de Google, como Firebase y Colab. [APLAUSOS] Puede escuchar mucho más sobre
la API de PaLM en el discurso de apertura para desarrolladores e inscríbase hoy. Ahora, para mostrarles cuán
poderosa es la API de PaLM, quiero compartir un concepto
que cinco ingenieros de Google elaboraron durante
las últimas semanas. La idea se llama
Project Tailwind, y pensamos en ella como
una computadora portátil basada en IA que lo ayuda a aprender más rápido.

Como un cuaderno real, tus
notas y tus fuentes potencian Tailwind. La forma en que funciona es que simplemente puede
seleccionar los archivos de Google Drive y crea de manera efectiva
un modelo de IA personalizado y privado que tiene experiencia en la
información que le brinda. Hemos estado desarrollando
esta idea con autores, como Stephen Johnson, y
probándola en universidades, como el estado de Arizona y la
Universidad de Oklahoma, donde fui a la escuela. ¿ Quieres ver cómo funciona? [APLAUSOS] Hagamos una demostración en vivo.

Ahora, imagina que soy un estudiante que
toma una clase de historia de la informática. Abro Tailwind
y puedo ver rápidamente, en Google Drive, todas mis
diferentes notas, tareas y lecturas. Puedo insertarlos. Y lo que sucederá cuando se
cargue Tailwind es que puedes ver mis diferentes notas
y artículos al costado. Aquí están, en el medio. E instantáneamente
crea una guía de estudio a la derecha para
orientarme. Puede ver que está extrayendo
conceptos clave y preguntas basadas en los materiales
que le he dado. Ahora, puedo venir
aquí y cambiarlo rápidamente para revisar todas
las diferentes fuentes y escribir algo como "crear
glosario para Hopper". Y lo que
sucederá entre bastidores es que
compilará automáticamente un glosario asociado con todas las diferentes
notas y artículos relacionados con Grace Hopper,
la pionera de la historia de la informática . Mire esto: FLOW-MATIC,
COBOL, compilador, todo creado en base a mis notas. Ahora, probemos uno más. Voy a probar algo más
llamado "diferentes puntos de vista sobre Dynabook".

Así que el Dynabook, este fue
un concepto de Alan Kay. Nuevamente, Tailwind
sale y encuentra todas las cosas diferentes. Puedes ver lo
rápido que vuelve. Ahí está. Y lo que es interesante
aquí es que me ayuda a pensar en el concepto. Así que me está dando
diferentes puntos de vista. Era un producto visionario. Fue una oportunidad perdida. Pero mi parte favorita
es que muestra su trabajo. Puedes ver las citas aquí. Cuando paso el cursor por encima, aquí hay
algo de mis notas de clase. Aquí hay algo de un
artículo que el maestro asignó. Todo está bien aquí,
basado en mis fuentes. [Aplausos] Ahora, el proyecto Tailwind
todavía está en sus inicios, pero nos divertimos mucho
haciendo este prototipo y nos dimos cuenta de que
no es solo para estudiantes. Es útil para cualquier persona que
sintetice información de muchas fuentes diferentes
que elija, como escritores que investigan un
artículo, analistas que revisan
llamadas de ganancias o incluso abogados que se preparan para un caso.

Imagina colaborar
con una IA basada en lo que has
leído en todas tus notas. Queremos que esté
disponible para probarlo si quieres verlo. [Aplausos] Hay mucho más que se
puede hacer con PaLM 2. Y estamos ansiosos por ver lo que
construyes usando la API de PaLM. La IA generativa está
cambiando lo que significa desarrollar nuevos productos. En Google, ofrecemos la
mejor infraestructura de ML, con modelos potentes,
incluidos los de Vertex, y las API y herramientas
para generar rápidamente sus propias aplicaciones. Construir una IA audaz requiere
un enfoque responsable. Así que déjame dárselo
a James para compartir más. Gracias. [REPRODUCIENDO MÚSICA] [APLAUSOS] JAMES MANYIKA: Hola a todos. soy james Además de la investigación,
dirijo una nueva área en Google llamada tecnología y sociedad. Habiendo crecido en
Zimbabue, no podría haber imaginado todas las asombrosas
e innovadoras innovaciones que se han presentado
hoy en este escenario. Y si bien creo que es
importante celebrar el increíble progreso de la
IA y el inmenso potencial que tiene para las
personas de la sociedad en todas partes,
también debemos reconocer que es una tecnología emergente
que aún se está desarrollando y que aún queda
mucho por hacer.

Anteriormente, escuchó a Sundar
decir que nuestro enfoque de la IA debe ser audaz
y responsable. Si bien existe una
tensión natural entre los dos, creemos que
no solo es posible, sino que, de hecho, es fundamental aceptar
esa tensión de manera productiva. La única forma de ser realmente
audaz a largo plazo es ser responsable
desde el principio. Nuestra investigación que define el campo
está ayudando a los científicos a lograr avances audaces en
muchos campos científicos, incluidos los avances médicos. Tomemos, por ejemplo,
AlphaFold de Google DeepMind, que puede
predecir con precisión las formas 3D de 200 millones de proteínas. Esas son casi todas las
proteínas del catálogo conocidas por la ciencia. AlphaFold nos dio el equivalente
a casi 400 millones de años de progreso en solo unas semanas. [Aplausos] Hasta el momento, más de un millón de
investigadores de todo el mundo han utilizado las predicciones de AlphaFold
, incluido el laboratorio pionero de Fang Zheng
en el Instituto Broad del MIT y Harvard.

[APLAUSOS] Sí. De hecho, en marzo de este año,
Zheng y sus colegas del MIT anunciaron que
habían utilizado AlphaFold para desarrollar una nueva
jeringa molecular que podría administrar medicamentos para ayudar a mejorar la
eficacia de los tratamientos para enfermedades como el cáncer. [Aplausos] Y si bien es
emocionante ver avances tan audaces y beneficiosos
, la IA también tiene el potencial
de empeorar los desafíos sociales existentes , como el sesgo injusto,
así como plantear nuevos desafíos a medida que avanza
y surgen nuevos usuarios.

Por eso creemos que
es imperativo adoptar un enfoque responsable de la IA. Este trabajo se centra
en nuestros principios de IA que establecimos por primera vez
en 2018. Estos principios guían el
desarrollo de productos y nos ayudan a evaluar
cada aplicación de IA. Plantean preguntas como, ¿
será socialmente beneficioso o podría causar
algún daño? Un área que es lo más importante
para nosotros es la desinformación. La IA generativa hace que sea
más fácil que nunca crear
contenido nuevo, pero también plantea preguntas adicionales
sobre su confiabilidad. Es por eso que estamos desarrollando
y brindando a las personas herramientas para evaluar la información en línea. Por ejemplo, ¿te has encontrado con
una foto en un sitio web, o una compartida por un amigo,
con muy poco contexto, como esta del
alunizaje, y te has
preguntado si es confiable? Yo sí, y estoy seguro de que
muchos de vosotros también.

En los próximos meses,
agregaremos dos nuevas formas para que las personas evalúen las imágenes. Primero, con nuestra herramienta Acerca de esta
imagen en la Búsqueda de Google, podrá ver
información importante, como cuándo y dónde
pueden haber aparecido por primera vez imágenes similares, dónde más se
ha visto la imagen en línea, incluidas noticias,
verificación de hechos y sitios sociales, todo esto
brindándole un contexto útil para determinar si es confiable.

Más adelante este año,
también podrá usarlo si busca una imagen o una
captura de pantalla con Google Lens o cuando esté en
sitios web en Chrome. A medida que comencemos a implementar las
capacidades de imagen generativa, como mencionó Sundar,
nos aseguraremos de que cada una de nuestras
imágenes generadas por IA tenga metadatos y marcas
en el archivo original para brindarle contexto
si lo encuentra fuera de nuestras plataformas. No solo eso: los
creadores y editores podrán agregar
metadatos similares, por lo que podremos
ver una etiqueta en las imágenes en la Búsqueda de Google marcándolas
como generadas por IA. [Aplausos] A medida que aplicamos nuestros
principios de IA, también comenzamos a ver
tensiones potenciales cuando se trata de ser audaces y responsables. Aquí hay un ejemplo. Universal Translator es un servicio de
doblaje de video experimental que ayuda a los expertos a
traducir la voz de un hablante al mismo tiempo que hace coincidir los
movimientos de sus labios.

Déjame mostrarte cómo
funciona con un curso universitario en línea creado en colaboración
con la Universidad Estatal de Arizona. Lo que muchos
estudiantes universitarios no se dan cuenta es que saber
cuándo pedir ayuda y luego seguir adelante con el
uso de recursos útiles es en realidad un sello distintivo para
convertirse en un adulto productivo.

[HABLANDO ESPAÑOL] [APLAUSOS] Sí, mola. Utilizamos modelos de traducción de última generación
para traducir lo que
dice el orador, modelos para replicar
el estilo y el tono, y luego hacer coincidir los
movimientos de los labios del orador. Luego lo juntamos todo. Este es un enorme paso adelante
para el aprendizaje de la comprensión. Y estamos viendo
resultados prometedores en las tasas de finalización de cursos . Pero hay una
tensión inherente aquí. Puede ver cómo esto puede
ser increíblemente beneficioso, pero los
malos actores podrían hacer un mal uso de parte de la misma tecnología subyacente
para crear falsificaciones profundas. Por eso creamos este
servicio con medidas de seguridad para ayudar a prevenir el uso indebido y
para que solo los socios autorizados puedan acceder a él.

[Aplausos] Y como
mencionó Sundar, pronto estaremos integrando nuevas innovaciones
en marcas de agua en nuestros modelos generativos más recientes para
ayudar también con el desafío de la desinformación. Nuestros principios de IA también
nos ayudan a orientarnos sobre lo que no debemos hacer. Por ejemplo, hace años,
fuimos la primera gran empresa en decidir no comercializar una API de reconocimiento
facial de propósito general
. Sentimos que no había
medidas de seguridad adecuadas en el lugar. Otra forma en que cumplimos
con nuestros principios de IA es con innovaciones
para abordar los desafíos a medida que surgen, como reducir
el riesgo de resultados problemáticos que pueden generar
nuestros modelos. Somos uno de los primeros en la
industria en desarrollar y lanzar pruebas contradictorias automatizadas
utilizando tecnología de modelo de lenguaje grande.

Hacemos esto para consultas como
esta para ayudar a descubrir y reducir resultados inexactos, como el
de la izquierda, y mejorarlos,
como el de la derecha. Estamos haciendo esto a una escala
que nunca antes se había hecho en Google,
mejorando significativamente la velocidad, la calidad y la cobertura de las
pruebas, lo que permite que los expertos en seguridad se concentren en
los casos más difíciles. Y estamos compartiendo estas
innovaciones con otros. Por ejemplo, nuestra
API de perspectiva, creada originalmente para ayudar a los editores a
mitigar la toxicidad, ahora se usa en
modelos de lenguaje grandes.

Los investigadores académicos han
utilizado nuestra API de perspectiva para crear un
estándar de evaluación de la industria. Y hoy, todos los
modelos significativos de lenguaje grande, incluidos los de
OpenAI y Entropik, incorporan este estándar
para evaluar la toxicidad generada por sus propios modelos. Construyendo AI– construyendo– lo siento. [Aplausos] Construir IA de manera responsable debe ser
un esfuerzo colectivo que involucre a investigadores, científicos sociales,
expertos de la industria, gobiernos y personas comunes, así
como a creadores y editores. Todos se benefician de un
ecosistema de contenido vibrante, hoy y en el futuro. Es por eso que
recibimos comentarios y trabajaremos con
la comunidad web en formas de dar a los editores opciones y
control sobre su contenido web. Es un momento tan emocionante. Hay tanto que vamos a
lograr y tanto que debemos
lograr juntos. Esperamos
trabajar con todos ustedes. Y ahora, se
lo pasaré a Sameer, quien les hablará sobre todos
los emocionantes desarrollos que estamos trayendo a Android. Gracias. [APLAUSOS] SAMEER SAMAT: Hola a todos. Es fantástico estar de vuelta en Google
I/O. Como ha escuchado hoy, nuestro enfoque audaz y responsable
de la IA puede desbloquear la
creatividad y el potencial de las personas.

Pero, ¿cómo puede toda esta
ayuda llegar a tantas personas como sea posible? En Google, nuestras
plataformas informáticas y productos de hardware han sido parte integral
de esa misión. Desde el comienzo
de Android, creímos que un sistema operativo abierto
habilitaría un ecosistema completo y llevaría los teléfonos inteligentes
a todos. Y a medida que agregamos más dispositivos
a nuestras vidas, como tabletas, televisores, automóviles y
más, esta apertura crea la libertad de
elegir los dispositivos que funcionan mejor para usted.

Con más de 3
mil millones de dispositivos Android, ahora hemos visto los beneficios de
usar IA para mejorar las experiencias a escala. Por ejemplo, el
año pasado, Android utilizó modelos de inteligencia artificial para proteger a los
usuarios de más de 100 000 millones de
mensajes y llamadas sospechosos de spam. [APLAUSOS] Todos podemos estar de acuerdo en
que es bastante útil. Hay tantas
oportunidades en las que la IA puede mejorar las cosas. Hoy, hablaremos
sobre dos formas importantes en que Android brinda el beneficio
de la informática a todos. Primero, seguir conectándote
al ecosistema de dispositivos más completo, donde todo
funciona mejor en conjunto. Y segundo, usar IA
para hacer que las cosas que te gustan de Android sean aún mejores,
comenzando con la personalización y la expresión. Comencemos hablando sobre el
ecosistema de dispositivos de Android, comenzando con dos de
los más importantes: tabletas y relojes. En los últimos dos años, hemos
rediseñado la experiencia en pantallas grandes, incluidas
tabletas y plegables. Introdujimos un nuevo
sistema para multitarea que hace que sea mucho
más fácil aprovechar todo ese espacio adicional en la pantalla
y moverse sin problemas entre aplicaciones.

Hemos realizado grandes inversiones para
optimizar más de 50 aplicaciones de Google, incluidas Gmail,
Fotos y Meet. Y estamos trabajando en
estrecha colaboración con socios, como Minecraft,
Spotify y Disney Plus para crear hermosas
experiencias que se sientan intuitivas en pantallas más grandes. La gente se está
enamorando de las tabletas Android, y hay más
dispositivos geniales para elegir que nunca. Estén atentos a nuestros
anuncios de hardware, donde es posible que vean en acción algunas
de las increíbles funciones nuevas que estamos creando para las
tabletas. Es realmente emocionante
ver el– [APLAUSOS] También es realmente emocionante ver
el impulso en los relojes inteligentes . Wear OS es ahora la
plataforma de relojes de más rápido crecimiento, solo dos años después de lanzar
Wear OS 3 con Samsung. Una de las principales solicitudes de los fanáticos ha sido
cuatro aplicaciones de mensajería nativas más en el reloj. Estoy emocionado de
compartir que WhatsApp traerá su primera
aplicación de reloj a Wear este verano. Realmente disfruto usando
WhatsApp en mi muñeca. Puedo iniciar una nueva conversación,
responder mensajes de voz e incluso recibir llamadas.

No puedo esperar a que lo pruebes. Nuestra asociación en Wear OS
con Samsung ha sido increíble, y estoy entusiasmado
con nuestra nueva colaboración de Android en XR inmersivo. Compartiremos más más
adelante este año. Ahora, todos sabemos que para
obtener la mejor experiencia, todos estos dispositivos deben
funcionar juntos a la perfección. Tiene que ser sencillo. Es por eso que creamos
Fast Pair, que le permite conectar fácilmente
más de 300 auriculares, y si bien tenemos Near
Share para mover fácilmente archivos entre su teléfono,
tableta o computadora con Windows y Chrome OS, y transmitir
para transmitir video y audio a su
dispositivos ultra simples, con soporte de
más de 3,000 aplicaciones. Es genial tener todos
tus dispositivos conectados. Pero si eres
como yo, puede ser difícil hacer un
seguimiento de todas estas cosas. Pregúntale a mi familia. Pierdo mis auriculares al
menos tres veces al día, por lo que estamos lanzando
una actualización importante de nuestra experiencia Find My Device para admitir
una amplia gama de dispositivos en su vida, incluidos
auriculares, tabletas y más.

Está alimentado por una red de
miles de millones de dispositivos Android en todo el mundo. Entonces, si deja sus
auriculares en el gimnasio, otros dispositivos Android cercanos
pueden ayudarlo a localizarlos. Y para otras
cosas importantes en su vida, como su bicicleta o maleta,
Tile, Chipolo y otros tendrán etiquetas de seguimiento
que también funcionan con la red Find My device. [Aplausos] Ahora, nos tomamos un tiempo
para hacerlo bien, porque proteger su
privacidad y seguridad es vital. Desde el principio,
diseñamos la red de una manera que preserva la privacidad,
donde la información de ubicación está encriptada. Nadie más puede saber dónde
se encuentran sus dispositivos, ni siquiera Google.

Esta es también la razón por la que estamos
introduciendo alertas de rastreadores desconocidos . Su teléfono le dirá
si una etiqueta de seguimiento no reconocida se está moviendo con usted
y lo ayudará a localizarla. [APLAUSOS] Es importante que estas advertencias
funcionen en su teléfono Android, pero también en otros tipos
de teléfonos. Es por eso que, la semana pasada,
publicamos un nuevo estándar de la industria con Apple, que describe
cómo funcionarán las alertas de rastreadores desconocidos en todos los teléfonos inteligentes.

[Aplausos] Tanto la nueva experiencia Buscar mi dispositivo
como las alertas de rastreadores desconocidos llegarán más
adelante este verano. Ahora, hemos hablado mucho
sobre conectar dispositivos, pero Android también se
trata de conectar personas. Después de todo, los teléfonos
se crearon para que nos comuniquemos con
nuestros amigos y familiares. Cuando estás enviando mensajes de texto
en un chat grupal, no deberías tener que preocuparte
de si todos usan el mismo tipo de teléfono. Envío de alta calidad– [APLAUSOS] El envío de
imágenes y videos de alta calidad, la recepción de notificaciones de escritura
y el cifrado de extremo a extremo deberían funcionar. Es por eso que hemos trabajado con nuestros
socios para actualizar la antigua tecnología de SMS y MMS
a un estándar moderno llamado RCS que hace que
todo esto sea posible. Y ahora hay más de 800
millones de personas con RCS, en camino a más de mil millones
para fin de año. Esperamos que todos los sistemas operativos móviles
reciban el mensaje y adopten RCS– [APLAUSOS] –para que todos podamos pasar el rato
juntos en el chat grupal, sin importar qué
dispositivo estemos usando.

Ya sea para conectarse
con sus seres queridos o conectar todos
sus dispositivos, el ecosistema completo de Android
lo hace fácil. Otra cosa que a la gente le
encanta de Android es la capacidad de
personalizar sus dispositivos y expresarse. Aquí está Dave para
contarte cómo estamos llevando esto al siguiente
nivel con IA generativa. [REPRODUCIENDO MÚSICA] [APLAUSOS] DAVE BURKE: Muy bien. Gracias, Sameer, y
hola a todos. Así que aquí está la cosa. Las personas quieren
expresarse en los productos que
usan todos los días, desde la ropa que
usan hasta el automóvil que conducen y su entorno en el hogar. Creemos que lo mismo debería
ser cierto para su tecnología. Su teléfono debe sentirse como si
estuviera hecho solo para usted. Y es por eso que la
personalización siempre ha estado en el centro de
la experiencia de Android. Este año, estamos combinando la
personalización guiada de Android con los avances de Google
en IA generativa para que su teléfono se sienta
aún más personal. Así que déjame mostrarte
cómo se ve esto.

Para empezar, los mensajes
y las conversaciones pueden ser mucho más
expresivos, divertidos y juguetones con Magic Compose. Es una nueva función que llega
a los mensajes de Google con tecnología de IA generativa
que te ayuda a agregar esa chispa extra de personalidad
a tu conversación. Simplemente escriba su
mensaje como lo haría normalmente y luego
elija cómo desea que suene. Magic Compose hará el
resto para que tus mensajes desprendan más positividad, más
rimas, más profesionalidad, o si quieres, al estilo
de un determinado dramaturgo.

Intentar o no probar esta
función, esa es la cuestión. Ahora, también tenemos
nuevas personalizaciones en la capa del sistema operativo. En Google I/O hace dos años,
presentamos Material You. Es un sistema de diseño que
combina la inspiración del usuario con la ciencia del color dinámico para
una experiencia totalmente personalizada. Continuamos ampliando
esto en Android 14, con opciones de personalización completamente nuevas
en su pantalla de bloqueo. Así que ahora puedo agregar mi
propio estilo personalizado al reloj de la pantalla de bloqueo para que
se vea como yo quiero. Y lo que es más, con los
nuevos accesos directos personalizables de la pantalla de bloqueo , puedo
pasar instantáneamente a mis actividades más frecuentes. Por supuesto, lo que realmente hace que
su pantalla de bloqueo y su pantalla de inicio sean suyas es el fondo de pantalla.

Y es lo primero
que muchos de nosotros configuramos cuando tenemos un teléfono nuevo. Ahora, los emojis son
una forma tan divertida y sencilla de expresarse. Así que pensamos, ¿no
sería genial traerlos a tu fondo de pantalla? Entonces, con los
fondos de pantalla de emoji, eliges tu
combinación favorita de emoji, eliges el patrón perfecto y
luego encuentras el color adecuado para unirlos a todos. Así que echemos un vistazo. Y no voy
a usar las laptops. Voy a usar un teléfono. Entonces, veamos. Voy a ir
al selector de fondos de pantalla y tocaré
la nueva opción para emojis. Y estoy sintiendo una
especie de, no sé, estado de ánimo estrafalario con toda la
gente mirándome. Así que voy a elegir a
este chico y a este chico. Y a ver, ¿quién
más está aquí? Este se ve muy bien,
como el de ocho bits.

Y obviamente ese. Y alguien dijo que
antes había un pato en el escenario. Así que vamos a buscar un pato. Hola, pato. ¿ Dónde está el pato? ¿ Alguien puede ver un pato? ¿ Dónde se ha ido el pato? Ahí está el pato. Está bien, ahí está. Tengo algunos patos. Está bien. Y luego, en cuanto a patrones, tenemos
un montón de patrones diferentes que puedes elegir. Voy a elegir mosaico. Ese es mi favorito. Voy a jugar con el zoom. Vamos a ver. Lo haremos bien. OK, tengo suficientes
patos ahí. Está bien. Y luego colores. Vamos a ver. Ooh, eso aparece. Vamos con uno más apagado. O tal vez ese. Ese se ve bien. Eso se ve bien. Me gusta ese. Muy bien, seleccione eso, configure el
fondo de pantalla y luego hago boom. Se ve muy bien, ¿eh? [Aplausos] Y los pequeños emojis,
reaccionan cuando los tocas, lo cual encuentro– [RISAS] Encuentro esto
inusualmente satisfactorio. ¿ Y cuánto tiempo tengo? Está bien, seguiré adelante. Bien, por supuesto, a
muchos de nosotros nos gusta usar una foto favorita
como fondo de pantalla.

Y así, con una nueva
función de fondo de pantalla cinematográfico, puede crear una imagen 3D impresionante
a partir de cualquier foto normal y luego usarla
como fondo de pantalla. Así que echemos un vistazo. Así que esta vez, voy
a ir a Mis fotos. Y me gusta mucho esta
foto de mi hija, así que déjame seleccionarla. Y notará que hay
un icono de Sparkle en la parte superior. Entonces, si toco eso, obtengo una nueva
opción para el fondo de pantalla cinematográfico. Así que déjame activar eso. Y luego esperar a que– boom. Ahora, bajo el capó, estamos
usando una red neuronal convolucional en el dispositivo para
estimar la profundidad y luego una red antagónica generativa
para pintar a medida que se mueve el fondo. El resultado es una hermosa
foto cinematográfica en 3D. Entonces déjame
configurar el fondo de pantalla y luego
regresaré a casa. Y mira el
efecto de paralaje cuando inclino el dispositivo. Literalmente salta
de la pantalla. Por lo tanto, tanto los fondos de pantalla cinematográficos
como los fondos de pantalla emoji llegarán primero a los
dispositivos Pixel el próximo mes.

Entonces, supongamos que no tiene
a mano la foto de fondo de pantalla perfecta, o simplemente quiere divertirse
y crear algo nuevo. Con nuestros nuevos
fondos de pantalla generativos de IA, eliges lo que
te inspira y luego creamos un hermoso
fondo de pantalla que se ajuste a tu visión. Así que echemos un vistazo. Así que esta vez,
iré y seleccionaré Crear un fondo de pantalla con IA. Y me gusta el arte clásico,
así que déjame tocar eso. Ahora, notará que,
en la parte inferior, usamos indicaciones estructuradas
para que sea más fácil de crear. Entonces, por ejemplo, puedo elegir… ¿ qué voy a hacer? Ciudad junto a la bahía en un
estilo post impresionista genial Luego escribo: toque Crear fondo de pantalla.

Lindo. Ahora, entre
bastidores, estamos utilizando los modelos de difusión de texto a imagen de Google
para generar fondos de pantalla completamente nuevos y originales. Y puedo deslizarme y
ver todas las diferentes opciones que se crean. Y algunos de estos se ven
realmente geniales, ¿verdad? [Aplausos] Así que déjame elegir este. Me gusta este. Así que seleccione eso,
configure el fondo de pantalla y luego regrese a casa. Fresco. Así que ahora, de los miles de millones de
teléfonos Android en el mundo, ningún otro teléfono
será como el mío.

Y gracias a Material You,
puedes ver que la paleta de colores del sistema se
adapta automáticamente para que coincida con el fondo de pantalla que creé. Los fondos de pantalla generativos de IA
llegarán este otoño. [Aplausos] Entonces, desde un próspero
ecosistema de dispositivos hasta la expresión impulsada por IA,
hay muchas cosas sucediendo ahora mismo en Android. OK, Rick es el siguiente para mostrarte
cómo esta innovación de Android cobra vida en la
familia de dispositivos Pixel. Gracias. [REPRODUCCIÓN DE MÚSICA] [APLAUSOS] RICK OSTERLOH: El ritmo de la
innovación en IA durante el último año ha sido asombroso. Como escuchó
hablar a Sundar anteriormente, los nuevos avances lo están
transformando todo, desde la creatividad y la productividad
hasta el conocimiento y el aprendizaje. Ahora, hablemos de
lo que significa esa innovación para Pixel, que
ha liderado el camino en experiencias de hardware impulsadas por IA
durante años. Ahora, desde el
principio, Pixel se concibió como una primera
computadora móvil con inteligencia artificial, que reúne todos
los avances sorprendentes de la empresa y
los coloca en un dispositivo de Google que puede tener en la mano.

Otros teléfonos tienen funciones de IA,
pero Pixel es el único teléfono con IA en el centro. Y lo digo literalmente. El chip Google Tensor
G2 está diseñado a medida para que la
investigación de IA de vanguardia de Google funcione en nuestros dispositivos Pixel. Al combinar
la inteligencia en el dispositivo de Tensor con la IA de Google
en la nube, Pixel ofrece una IA verdaderamente personal. Su dispositivo se adapta a sus
propias necesidades y preferencias, y anticipa
cómo puede ayudarlo a ahorrar tiempo y hacer más.

Esta IA personal permite todas
esas experiencias útiles por las que Pixel es conocido y que
no están disponibles en ningún
otro dispositivo móvil, como Pixel Call Assist,
que lo ayuda a evitar largos tiempos de espera, navegar por los
menús del árbol telefónico e ignorar las llamadas que no desea.
y obtenga una mejor calidad de sonido en las llamadas que desea. Personalmente, también habilito experiencias
útiles de Pixel Speech . El aprendizaje automático en el dispositivo
traduce diferentes idiomas para usted, transcribe
conversaciones en tiempo real y comprende cómo
habla y escribe. Y está protegido con Pixel
Safe, una colección de funciones que lo mantienen seguro en línea
y en el mundo real. Y, por supuesto,
está la cámara Pixel. [APLAUSOS] Comprende los rostros, las
expresiones y los tonos de piel para representarte mejor a
ti y a las personas que te importan, de modo que tus fotos
siempre se vean increíbles. También
trabajamos constantemente para que la cámara Pixel sea más inclusiva
y accesible, con funciones como Real
Tone y Guided Frame.

[APLAUSOS] Las experiencias de píxeles
continúan siendo completamente únicas en la informática móvil. Y eso se debe a que Pixel es
el único teléfono diseñado de principio a fin por Google y
el único teléfono que combina Google Tensor, Android e IA. [APLAUSOS] Con esta combinación de
hardware y software, Pixel te permite experimentar todas
esas increíbles funciones nuevas impulsadas por IA que viste
hoy en un solo lugar.

Por ejemplo, el nuevo
Magic Editor y Google Photos que Sundar
te mostró, estarán disponibles para acceso anticipado
en teléfonos Pixel seleccionados a finales de este año, lo que abrirá una
nueva vía de creatividad con tus fotos. Y Dave acaba de mostrarte
cómo Android agrega profundidad a la forma en que puedes expresarte
con fondos de pantalla generativos de IA. Y en Search,
Workspace y Bard, las nuevas funciones impulsadas por
modelos de idiomas grandes pueden despertar su imaginación,
hacer que las tareas grandes sean más manejables y ayudarlo a encontrar mejores respuestas
a las preguntas cotidianas, todo desde su dispositivo Pixel. Tenemos muchos más
desarrollos emocionantes en el espacio, y estamos ansiosos por mostrarles
más en los próximos meses. Ahora, probablemente no sea una
sorpresa que, a medida que la IA se vuelve cada
vez más útil, nuestra cartera Pixel sigue
creciendo en popularidad. Los dispositivos Pixel del año pasado son
nuestra generación más popular entre los usuarios
y revisores y analistas respetados. [Aplausos] Nuestros teléfonos Pixel ganaron varios
premios Teléfono del año. [APLAUSOS] Sí, gracias. Y en la
categoría de teléfonos inteligentes premium, Google es el OEM de más rápido
crecimiento en nuestros mercados.

[Aplausos] Uno de nuestros productos más populares
es la serie Pixel a, que ofrece increíbles… [Aplausos] Gracias. Me alegro de que te guste. Ofrece un
rendimiento increíble de Pixel en un dispositivo muy asequible. Y para continuar con
la tradición de I/O, déjame mostrarte el miembro más nuevo
de nuestra serie. [APLAUSOS] Hoy, estamos
actualizando por completo todo lo que te encanta
de nuestra serie con el nuevo y magnífico Pixel 7a. Al igual que todos los dispositivos de la serie Pixel 7
, Pixel 7a funciona con nuestro
chip insignia Google Tensor G2 y se combina con 8
gigabytes de RAM, lo que garantiza que Pixel 7a ofrece
el mejor rendimiento e inteligencia de su clase. Y te va
a encantar la cámara. La 7a le quita la corona a la
6A como la cámara con la calificación más alta de su clase, con la
mayor actualización jamás realizada en nuestro hardware de cámara de la serie a
, que incluye un sensor de cámara principal un 72 % más grande .

[APLAUSOS] Ahora, aquí está la mejor parte. Pixel 7a está disponible
hoy, a partir de $ 499. Es una combinación imbatible
de diseño, rendimiento y fotografía, todo
a un precio excelente. Y puedes ver
toda la línea Pixel 7a en Google Store, incluido
nuestro exclusivo color coral. Ahora, a continuación,
le mostraremos cómo continuamos
expandiendo la cartera de Pixel en nuevos factores de forma. Sí. [APLAUSOS] Como plegables y tabletas. Puedes verlos allí mismo. Es un ecosistema completo de
dispositivos impulsados ​​por IA diseñados por Google. Aquí está Rose para mostrarte lo que
un Pixel de pantalla más grande puede hacer por ti.

[REPRODUCIENDO MÚSICA] [APLAUSOS] ROSE YAO: OK,
hablemos de tabletas, que han sido un poco frustrantes. Siempre es difícil
saber dónde encajan, y realmente no han
cambiado en los últimos 10 años. Muchas veces, están
olvidados en el cajón, y en el momento en que
los necesitas, no tienen batería. Creemos que las tabletas y las
pantallas grandes en general aún tienen mucho potencial. Así que nos propusimos construir
algo diferente, haciendo grandes inversiones en
Google Apps, Android y Pixel para volver a imaginar cómo las
pantallas grandes pueden ofrecer una experiencia más útil.

Pixel Tablet es la única
tableta diseñada por Google y diseñada específicamente
para ser útil en tu mano y en el lugar donde
más se usa: el hogar. Diseñamos la
tableta Pixel para ofrecer experiencias Pixel útiles de manera única. Y eso comienza con un
excelente hardware: una hermosa
pantalla de alta resolución de 11 pulgadas con audio nítido de los cuatro
parlantes incorporados, una carcasa de aluminio de primera calidad con
un revestimiento de nanocerámica que se siente muy bien en la mano
y es fría al tacto.

. La mejor experiencia de Android del mundo
en una tableta con Google Tensor G2
para una batería de larga duración y una IA personal de vanguardia. Por ejemplo, con Tensor G2,
optimizamos la cámara Pixel específicamente para videollamadas. Las tabletas son fantásticos
dispositivos de videollamadas, y con Pixel Tablet,
siempre estás en el marco, enfocado y luciendo lo mejor posible. La gran pantalla convierte a Pixel
Tablet en el mejor dispositivo Pixel para editar fotos, con
herramientas impulsadas por IA como Magic Eraser y Photo Unblur. Ahora, escribir en una tableta
puede ser muy frustrante. Con Pixel Speech
y Tensor G2, tenemos el mejor
reconocimiento de voz, lo que hace que escribir con voz sea casi tres
veces más rápido que tocar. Y como mencionó Sameer, hemos
estado haciendo grandes inversiones para crear excelentes experiencias de aplicaciones
para pantallas más grandes, incluidas más de 50 de nuestras propias aplicaciones.

Con Pixel Tablet,
obtienes un excelente hardware de tableta con excelentes aplicaciones para tableta. Pero vimos la oportunidad
de hacer que la tableta fuera aún más útil en el hogar. Así que diseñamos la
primera base de carga para parlantes de su clase . [APLAUSOS] Le da
un hogar a la tableta, y ahora nunca tendrás que preocuparte
de que te carguen. Pixel Tablet siempre está
listo para ayudar, 24/7. Cuando está acoplado,
el nuevo modo Hub convierte a Pixel Tablet en un
hermoso marco de fotos digital, un poderoso
controlador inteligente para el hogar, un ayudante activado por voz y
un dispositivo de entretenimiento compartido. Se siente como una pantalla inteligente,
pero tiene una gran ventaja: con el
sensor de huellas dactilares ultrarrápido, puedo desbloquear rápidamente el dispositivo
y obtener acceso inmediato a todas mis aplicaciones favoritas de Android. Así que puedo encontrar rápidamente la
receta con Side Chef, o descubrir un nuevo
podcast en Spotify, o encontrar algo para ver con
una aplicación de Google TV optimizada para tabletas .

Sus medios se
verán y sonarán geniales, con un sonido que llena la habitación
desde la base de carga del altavoz. Pixel Tablet también es
la forma definitiva de controlar tu
hogar inteligente, y eso comienza con una nueva
aplicación Google Home rediseñada. Se ve muy bien en la
tableta Pixel y reúne más de 80,000
dispositivos domésticos inteligentes compatibles, incluidos todos sus dispositivos habilitados para Matter.

Nosotros también… [APLAUSOS] También facilitamos el
acceso a los controles de su hogar inteligente directamente desde el modo Hub. Con el nuevo
panel de inicio, cualquier miembro de la familia puede ajustar rápidamente las
luces, bloquear las puertas o ver si
se entregó un paquete. O si eres perezoso como yo,
puedes usar tu voz. Ahora, sabemos que las
tabletas a menudo se comparten, por lo que una tableta para el hogar debe
ser compatible con varios usuarios. Pixel Tablet hace que cambiar
entre usuarios sea muy fácil. Así obtienes tus propias aplicaciones
y tu propio contenido mientras mantienes tu privacidad. [APLAUSOS] Y mi parte favorita: es muy fácil mover
contenido entre dispositivos. Pixel Tablet es la primera
tableta con Chromecast integrado. Por lo tanto, con unos pocos toques… [Aplausos], puedo transmitir fácilmente
música o mi programa favorito desde mi teléfono a la tableta.

Y luego puedo sacar
la tableta de la base y seguir escuchando o
mirando por toda la casa. Diseñamos un nuevo tipo
de funda para Pixel Tablet que soluciona el problema
de las fundas endebles para tablet. Tiene un soporte incorporado que
brinda flexibilidad continua y es resistente en todos los ángulos
para que pueda usar su tableta cómodamente en
cualquier lugar: en el avión, en la cama o en la cocina. El estuche se acopla fácilmente. Nunca tendrás que
quitártelo para cargarlo. Y es solo otro ejemplo
de cómo podemos hacer que la experiencia de la tableta sea aún más útil. [APLAUSOS] La nueva Pixel Tablet
viene en tres colores. Está disponible para
pre-pedido hoy y cambia el próximo mes a
partir de solo $ 499.

[Aplausos] Y la mejor parte: todas las tabletas Pixel vienen
con la base de altavoz de carga 129 gratis. [APLAUSOS] Realmente es la mejor tablet
en tu mano y en tu casa. Para darte una idea de lo
útil que puede ser la tableta Pixel, le pedimos a la personalidad de televisión Michelle
Buteau que la pusiera a prueba. Veamos cómo fue eso. [REPRODUCCIÓN DE VIDEO] [REPRODUCCIÓN DE MÚSICA] : cuando Google me pidió que
pasara el día con esta tableta, estaba un poco preocupado
porque no soy una persona tecnológica. No sé cómo funcionan las cosas
todo el tiempo. Pero ahora soy una mujer en STEM. Algunos días,
apenas podía encontrar el piso, y mucho menos un cargador
para algo. Entonces, cuando la
gente de Google dijo algo sobre una tableta que se acopla,
dije, OK, esa prueba de Google. Estoy, en promedio, de dos a cinco reuniones al día. Hoy, me quedé atascado en todas estas
características, cariño, el 360 de todo.

La última vez que estuve cerca de
tanta arena, parte de ella quedó atrapada en mi
ombligo y tuve una perla dos semanas después. ¡ Mira, es un pájaro! Así que esto es lo que me encantó
de mi tiempo para mí hoy. Seis programas acaban de aparecer
en función de mis preferencias. Y ellos estaban como, hey, niña. Eso lo hubiera hecho
más divertido, pero estaba bien. Mi esposo es en realidad
fotógrafo, así que tengo que confiar en él para
hacer que todo sea agradable y bonito. Pero ahora… Me encanta esta
foto mía y de mi hijo, pero hay un micrófono boom allí. Mira, está justo aquí. ¿ Ves este? Consigue este micrófono. ¿ Ves eso? Borrador mágico. Coge un círculo o un cepillo. Voy a hacer ambas cosas. ¡ Auge! ¿ Que lindo es eso? Así que espero que no solo
estén contentos con mi revisión de esto,
sino que también me den uno, porque, quiero decir. Te estás cansando, ¿verdad? – No soy. – ¿Usted no es? Está bien, porque lo soy.

[FIN DE LA REPRODUCCIÓN] [APLAUSOS] RICK OSTERLOH: Esa es una
primera reseña bastante buena. Ahora, las tabletas no son el
único dispositivo de pantalla grande que queremos mostrarles hoy. Ha sido realmente emocionante
ver el despegue de los plegables en los últimos años. Android impulsó
tanta innovación en este nuevo factor de forma, y
vemos un enorme potencial aquí. Hemos escuchado de nuestros usuarios
que el plegable de ensueño debe tener un
factor de forma versátil, lo que lo hace ideal para usar tanto
plegado como desplegado. También debe tener un
sistema de cámara de nivel insignia que realmente aproveche
el diseño único y una experiencia de aplicación que sea fluida y
perfecta en ambas pantallas.

Crear un plegable como
ese, realmente significa ir más allá con
tecnología de punta, y eso significa un
dispositivo ultra premium de $ 1799. Ahora, para llegar allí,
hemos estado trabajando en estrecha colaboración con nuestros
colegas de Android para crear un nuevo estándar
para la tecnología plegable. Presentamos Google Pixel Fold. [APLAUSOS] Combina Tensor G2, la
innovación de Android y la inteligencia artificial para crear un
teléfono increíble que se despliega en una
tableta compacta increíble.

Es el único plegable
diseñado por Google para adaptarse a la forma en que
desea usarlo, con una pantalla frontal familiar
que funciona muy bien cuando está plegado y
cuando está desplegado, es nuestro teléfono más delgado hasta el momento
y el plegable más delgado del mercado. Ahora, para llegar allí, tuvimos que
empacar un teléfono de nivel insignia en casi la mitad
del grosor, lo que significó un
rediseño completo y componentes como el teleobjetivo,
la batería y mucho más. Por lo tanto, puede plegarse y
caber en su bolsillo y conservar esa
silueta familiar de teléfono inteligente cuando está en su mano. El pliegue de Pixel tiene tres
veces el espacio de pantalla de un teléfono normal. Lo despliega y
disfruta de una amplia pantalla de 7,6 pulgadas que se abre plana
con una bisagra de fricción fluida de 180 grados personalizada . Así que estás obteniendo lo
mejor de ambos mundos. Es un teléfono inteligente poderoso
cuando es conveniente y una tableta inmersiva
cuando la necesita.

Y como todos los teléfonos que fabricamos,
Pixel Fold está diseñado para durar. Hemos
probado exhaustivamente la bisagra para que sea la más duradera
de todas las plegables. Corning Gorilla Glass
Victus lo protege de los rasguños exteriores, mientras que
el diseño resistente al agua IPX8 protege contra el clima. Y como era de esperar
de un dispositivo Pixel, Pixel Fold le ofrece
formas completamente nuevas de tomar fotos y
videos impresionantes con la cámara Pixel. Pones la cámara en
modo Tabletop para capturar las estrellas, y puedes acercarte con
el mejor zoom en un plegable.

Y usa la mejor cámara del
teléfono para tus selfies. La combinación única de
factor de forma, hardware de cámara trasera triple e
IA personal con Tensor G2 lo convierten en el mejor
sistema de cámara plegable. [APLAUSOS] Ahora, hay
tantas experiencias que se sienten aún más naturales
con Pixel Fold. Uno es el
modo de intérprete de pantalla dual. Tu Pixel Fold: [Aplausos] Tu Pixel Fold puede
usar ambas pantallas, ambas pantallas, para
brindarte una traducción en vivo a ti y a la persona con la que
estás hablando. Así que es muy fácil
conectarse entre idiomas. [APLAUSOS] Y el poder de todo esto
es Google Tensor G2. Pixel Fold tiene todas las
funciones personales de IA que esperarías de un dispositivo Pixel de primera línea,
incluidas la seguridad, el habla y la asistencia de llamadas. Además, tiene un gran rendimiento
para multitarea y entretenimiento sobre la marcha . Y toda la
experiencia plegable se basa en Android. Entonces, traigamos a Dave nuevamente
aquí para mostrarle las últimas mejoras de
Android que experimentará en un Pixel Fold. DAVE BURKE: Muy bien.

Gracias Desde la personalización de nuevos factores de forma
hasta la biometría y la
fotografía computacional, Android siempre ha estado a la
vanguardia de los avances de la industria móvil . Y recientemente, hemos estado
trabajando en un montón de funciones y mejoras para
dispositivos de pantalla grande como tabletas y plegables. Entonces, ¿quién cree que deberíamos
probar un montón de demostraciones en vivo en el nuevo Pixel Fold? [Aplausos] Está bien, hagámoslo. Comienza en el momento en que
despliego el dispositivo, con esta impresionante
animación de fondo de pantalla. Y el sensor de la bisagra
en realidad dirige la animación. Y es algo sutil,
pero hace que el dispositivo se sienta tan dinámico y vivo. Sí, me encanta eso. Así que volvamos
al estado plegado. Y estoy mirando Google Photos
de un viaje reciente de snowboard.

Ahora, el paisaje es
realmente hermoso. Así que quiero mostrártelo
en la pantalla grande. Simplemente abro mi teléfono
y el video se expande instantáneamente en esta
hermosa vista de pantalla completa. Llamamos a esta función
continuidad y nos hemos obsesionado con cada
milisegundo que tardan las aplicaciones en
adaptarse sin problemas de la pantalla pequeña a la pantalla más grande. Ahora, todo el trabajo y nada de juego
hacen de Davy un chico aburrido, así que voy a enviarle un mensaje a
mi amigo para que vuelva a la montaña. Solo puedo deslizar para que aparezca
la nueva barra de tareas de Android, luego arrastrar Mensajes de Google hacia un
lado para ingresar al modo de pantalla dividida así. Para inspirar a mi amigo,
voy a enviarles una foto. Entonces puedo simplemente arrastrar y
soltar desde Google Photos directamente en mi mensaje, así. Y gracias a la nueva
biblioteca de arrastrar y soltar de Jetpack, ahora es compatible con
una amplia variedad de aplicaciones, desde Workspace hasta WhatsApp. Notará que hemos realizado
un montón de mejoras en todo el sistema operativo para
aprovechar la pantalla más grande.

Entonces, por ejemplo, aquí están
los nuevos teclados divididos para escribir más rápido. Y si tiro hacia abajo
desde la parte superior, notará la nueva sombra de dos paneles que
muestra mis notificaciones y mi configuración rápida
al mismo tiempo. Ahora, Pixel Fold es ideal
para la productividad sobre la marcha. Y si deslizo hacia arriba
a Vista general, notará que ahora mantenemos las
ventanas multitarea emparejadas. Y, por ejemplo, antes estaba
trabajando en Documentos y Presentaciones de Google para
prepararme para este discurso de apertura.

Y creo que estoy siguiendo la
mayoría de estos consejos hasta ahora, pero aún no he terminado. He sido advertido, por cierto. De todos modos, incluso podría
ajustar la división para adaptarla al contenido
que estoy viendo. Y trabajando de esta manera, es como
tener un monitor dual configurado en la palma de mi mano, lo que
me permite hacer dos cosas a la vez, lo que me recuerda que
probablemente debería enviarle una nota rápida a Rick. Así que abriré Gmail. Y no tengo
mucho tiempo, así que voy a usar la nueva
función de ayuda para escribir. Así que probemos esto.

[APLAUSOS] No animen todavía. Veamos si funciona. OK, Rick– Rick– felicidades por– ¿cómo
vamos a llamar a esto? Lanzamiento de Pixel Fold. Impresionante con Android. Y entonces probablemente debería decir– no Andrew, Android. dave Es difícil escribir con toda la
gente mirándome. Está bien. Ahora, por el poder de los
grandes modelos de lenguaje, permítanme elaborar. Estimado Rick, felicidades
por el exitoso lanzamiento de Pixel Fold. Estoy realmente impresionado
con el dispositivo y lo bien que
integra Android. La pantalla plegable
cambia las reglas del juego y no veo la hora de ver
qué haces con ella ahora. [APLAUSOS] Eso es productividad. Pero hay más Pixel Fold también es un
dispositivo de entretenimiento increíble, y YouTube es simplemente un
gran escaparate para esto. Entonces, comencemos a ver este
video en la pantalla grande. Ahora, mira lo que
sucede cuando doblo el dispositivo en ángulo recto. YouTube ingresa a lo que
llamamos modo de sobremesa para que el video
se reproduzca en la mitad superior, y luego estamos trabajando para
agregar controles de reproducción a la mitad inferior para
una increíble experiencia reclinada con una sola mano.

Y el video
sigue reproduciéndose con fluidez a través de estas transiciones
sin perder el ritmo. Una última cosa. Estamos agregando soporte
para cambiar pantallas desde dentro de una aplicación. Y la cámara de Pixel Fold es un
gran ejemplo de eso. Ahora, por cierto,
saluda a Julie detrás de mí. Ella es la verdadera estrella del espectáculo. Así que Pixel Fold tiene este nuevo
botón en la parte inferior derecha. Así que voy a tocar esto. Y significa que puedo
mover el visor a la pantalla exterior. Así que déjame darle la vuelta
al dispositivo. Bien, entonces, ¿por qué es esto interesante? Bueno, significa que
el visor ahora está al lado del sistema de cámara trasera.

Y eso significa que puedo obtener una selfie increíble
, ultra ancha y de alta calidad con la
mejor cámara del dispositivo. Hablando de eso, y
sabían adónde iba esto , ¡sonrían todos! Te ves increible. ¡ Guau! Siempre quise hacer eso
en un discurso de apertura de Google I/O. Entonces, lo que está viendo
aquí es la culminación de varios años de trabajo,
de hecho, en pantallas grandes, abarcando el sistema operativo Android
y las aplicaciones más populares en Play Store. Todo este trabajo cobra vida
en The Amazing new Pixel Tablet y Pixel Fold. Mira este video. Gracias. [REPRODUCCIÓN DE VIDEO] [REPRODUCCIÓN DE MÚSICA] [FIN DE REPRODUCCIÓN] [Aplausos] RICK OSTERLOH: ¡Vaya! Esa demostración fue increíble. En Pixel y Android,
estamos logrando grandes avances con los dispositivos de pantalla grande. Y estamos ansiosos por tener
Pixel Tablet y Pixel Fold en tus manos.

Y no vas a
tener que esperar demasiado. Puedes reservar Pixel
Fold a partir de hoy y se enviará el próximo mes. Y aprovecharás al máximo
nuestro primer reloj plegable ultrapremium combinándolo
con Pixel Watch. Así que cuando hagas un pedido por adelantado de
un Pixel Fold, también recibirás un
Pixel Watch gratis. [Aplausos] La familia Pixel
sigue creciendo hasta convertirse en la cartera de hardware móvil más dinámica
del mercado actual. Desde una amplia selección
de teléfonos inteligentes hasta relojes, auriculares y,
ahora, tabletas y plegables, hay más formas
que nunca de experimentar la utilidad por la que Pixel es conocido
donde y cuando lo necesite. Ahora, permítame
devolvérselo a Sundar. Gracias a todos. [REPRODUCIENDO MÚSICA] [APLAUSOS] SUDAR PICHAI: Gracias, Rick.

Realmente estoy disfrutando la nueva
tableta y el primer teléfono plegable Pixel, y estoy orgulloso
del progreso que Android está impulsando en todo el ecosistema. Mientras terminamos, he
estado reflexionando sobre los grandes cambios tecnológicos
de los que todos hemos sido parte. El cambio con la IA es
tan grande como parece. Y por eso es
tan importante que hagamos que la IA sea útil para todos. Lo estamos abordando con audacia,
con una sensación de entusiasmo, porque al mirar hacia el futuro, la
profunda comprensión de la información de Google, combinada
con las capacidades de la IA generativa, puede transformar la
Búsqueda y todos nuestros productos una vez más. Y lo estamos haciendo de
manera responsable de una manera que subraya
el profundo compromiso que sentimos para hacerlo bien. Ninguna empresa
puede hacer esto sola.

Nuestra comunidad de desarrolladores
será clave para desbloquear las enormes
oportunidades que se avecinan. Esperamos trabajar
juntos y construir juntos. Entonces, en nombre de todos
nosotros en Google, gracias y disfrute
el resto de I/O. [APLAUSOS] [REPRODUCIENDO MÚSICA].