Google Keynote (Google I/O’19)

[REPRODUCIENDO MÚSICA] [APLAUSOS] SUNDAR PICHAI: Buenos días. Buenos dias. Es maravilloso estar de regreso aquí en
Shoreline con todos ustedes. Han sido unos meses muy ocupados
para nosotros en Google. Acabamos de concluir Cloud Next en
San Francisco con más de 30 000 asistentes, así como
YouTube Brandcast la semana pasada en Nueva York. Por supuesto, hoy se trata de
todos ustedes, nuestra comunidad de desarrolladores. Y gracias a todos por
acompañarnos en persona, y a los millones de personas en todo el
mundo que están viendo la transmisión en vivo. Me encantaría dar la bienvenida
en todos los idiomas que hablan nuestros televidentes,
pero vamos a mantener el discurso principal por
menos de dos horas, especialmente porque Barcelona
comienza contra Liverpool al mediodía. [ANIMACIÓN] Eso debería ser un juego increíble.

Cada año en I/O,
aprendemos y tratamos de hacer las cosas un
poco mejor. Es por eso que tenemos
mucho protector solar, espero que salga el sol, mucha agua y sombra. Pero este año,
queremos que te resulte más fácil desplazarte. Así que estamos usando AR para ayudar. Para comenzar, abra su aplicación I/O
y elija Explore I/O. Y luego puedes apuntar
tu teléfono a donde quieras ir. Realmente esperamos que esto lo
ayude a moverse y responda la
pregunta número uno que tiene la gente: dónde son las sesiones. En realidad, no es eso. Quieren saber
dónde está la comida. Y tenemos un montón de eso alrededor. También tenemos un par
de huevos de Pascua, y esperamos que también los
disfrutes. Este es un
caso de uso bastante convincente. Y en realidad queremos
generalizar este enfoque para que puedas
explorar y navegar por todo el mundo de esa manera. Hay mucho
trabajo duro por delante. Y es un problema difícil de
informática. Pero es el tipo de
desafío que amamos.

Abordar este
tipo de problemas es lo que nos ha mantenido en marcha
durante los últimos 21 años. Y todo comienza
con nuestra misión de organizar la
información del mundo y hacerla universalmente
accesible y útil. Y hoy, nuestra misión se
siente tan relevante como siempre. Pero la forma en que
lo abordamos está en constante evolución. Estamos pasando de ser
una empresa que lo ayuda a encontrar respuestas
a una empresa que lo ayuda a hacer las cosas.

Esta mañana,
le presentaremos muchos productos creados sobre la
base de la confianza y la privacidad del usuario. Y hablaré más
sobre eso más adelante. Queremos que nuestros
productos trabajen más para usted, en el contexto de su
trabajo, su hogar y su vida. Y todos comparten
un solo objetivo: ser útil, para que
podamos estar allí para usted en momentos grandes y pequeños
en el transcurso de su día, por ejemplo, ayudarlo a
escribir sus correos electrónicos más rápido con soluciones automáticas
de Smart Reply, y dándote la
oportunidad de recuperarlos si no lo hiciste
bien la primera vez, ayudándote a encontrar
la ruta más rápida a casa al final de un largo
día y, cuando llegues allí, eliminando las distracciones para
que puedas pasar tiempo con las personas más
importantes para ti, y cuando captures
esos momentos perfectos, respaldándolos automáticamente
para que nunca los pierdas.

En pocas palabras, nuestro objetivo es
crear un Google más útil para todos. Y cuando decimos
"útil", nos referimos a brindarle las herramientas para aumentar
su conocimiento, éxito, salud y felicidad. Nos sentimos tan privilegiados de
estar desarrollando productos para miles de millones de usuarios. Y con esa escala viene un
profundo sentido de responsabilidad para crear cosas que
mejoren la vida de las personas. Al centrarnos en estos
atributos fundamentales, podemos empoderar a las personas y
beneficiar a la sociedad en su conjunto. Por supuesto, crear un
Google más útil para nosotros siempre comienza con la búsqueda y
los miles de millones de preguntas que los usuarios le hacen a Google todos los días. Pero hay mucho más
que podemos hacer para ayudar a nuestros usuarios. El año pasado, lanzamos una
nueva función en Google News llamada Cobertura completa. Y hemos recibido excelentes
comentarios de nuestros usuarios.
Incorporaremos Cobertura completa directamente a la búsqueda para organizar mejor los
resultados de los temas relacionados con las noticias.

Tomemos un ejemplo. Si busca
"agujero negro", mostraremos las principales noticias relevantes. Salió en las noticias recientemente. Utilizamos el
aprendizaje automático para identificar diferentes tipos de
historias y brindarle una imagen completa de cómo
se informa una historia desde una amplia variedad de fuentes. Puede hacer clic en
Cobertura completa. Sirve como una
amplitud de contenido, pero le permite profundizar
en lo que le interesa. Puede consultar diferentes
aspectos de la historia, como por ejemplo, cómo
obtuvo su nombre el agujero negro. Incluso ahora puede ver
una línea de tiempo de eventos. Y traeremos esto
para buscar más tarde este año. Los podcasts son otra
fuente importante de información. Y también los traeremos
directamente a la búsqueda. Al indexar los podcasts, podemos
mostrar episodios relevantes en función de su contenido,
no solo del título. Y puede tocar para escuchar
directamente en los resultados de búsqueda, o puede guardar un episodio
para escucharlo más tarde en su viaje diario o en
su Google Home.

Todos estos son ejemplos de cómo
estamos haciendo que la búsqueda sea aún más útil para nuestros usuarios,
mostrando la información correcta en el contexto correcto. Y a veces, lo que es más
útil para comprender el mundo es
poder verlo visualmente. Para mostrarle cómo le
brindamos información visual directamente en la búsqueda, aquí está Aparna. [REPRODUCCIÓN DE MÚSICA] [ Aplausos] APARNA CHENAPRAGADA:
Ya sea que esté aprendiendo sobre el
sistema solar o tratando de elegir un
esquema de color para su hogar, ver es a menudo comprender.

Con la visión por computadora
y la realidad aumentada, esa cámara en nuestras
manos se está convirtiendo en una poderosa
herramienta visual para ayudarlo a comprender el mundo que lo rodea. Por eso, hoy estamos emocionados
de traer la cámara a la búsqueda de Google, agregando una
nueva dimensión a sus resultados de búsqueda, bueno, en realidad tres
dimensiones, para ser precisos. Así que echemos un vistazo. Digamos que eres un estudiante de
anatomía humana. Ahora, cuando busca
algo como flexión muscular , puede ver un modelo 3D
creado por Visible Body directamente desde los resultados de búsqueda. Muy genial. No solo eso, también puedes
colocarlo en tu propio espacio. [Aplausos] Mira, una cosa es leer
sobre flexión o extensión, pero verlo en acción
justo frente a ti mientras estudias
el concepto, es muy útil. Bien, tomemos otro ejemplo. Digamos que, en lugar de
estudiar, estás comprando un nuevo par de zapatos. Eso pasa. Con New Balance
, puede ver los zapatos de cerca desde diferentes ángulos,
nuevamente, directamente desde la búsqueda.

De esa manera, obtienes una
idea mucho mejor de cosas como cómo se ve el
agarre en la suela o cómo combinan con
el resto de tu ropa. [Aplausos] Bien, este último ejemplo
es muy divertido. Es posible que todos hayan visto un
gran tiburón blanco en las películas. "Mandíbulas", ¿alguien? Pero, ¿cómo se
ve realmente de cerca? Averigüémoslo, ¿de acuerdo? ESTÁ BIEN. Tengo a Arjuna
conmigo para ayudar con la demostración. Así que sigamos adelante y busquemos
"gran tiburón blanco" en Google. A medida que se desplaza
, obtiene información sobre los hechos del panel de conocimiento,
pero también ve el tiburón en 3D directamente desde el
panel de conocimiento.

¿Por qué no vamos
un paso más allá? ¿Por qué no invitamos
al tiburón al escenario? ¡Guau! [APLAUSOS] Ahí está. Una cosa es leer un
hecho como "un gran tiburón blanco puede medir entre 17
y 21 pies de largo", pero verlo
frente a ti a escala, llenando el escenario de Shoreline
como una estrella de rock, es realmente comprender su escala. Bien, echemos un vistazo más de cerca. Es un tiburón AR. No morderá. Oh. Mira esas capas de dientes. Saben, no
sé ustedes, pero prefiero ver
estos dientes de cerca en AR que en la vida real.

Gracias, Arjuna. [APLAUSOS] Realmente entusiasmado por traer
la cámara y las capacidades AR a la búsqueda de Google. Sin embargo, a veces,
las cosas que le
interesan son difíciles de describir
en un cuadro de búsqueda. Es por eso que
creamos Google Lens, para ayudarlo a buscar y
hacer más con lo que ve simplemente apuntando su cámara. La lente incorporada tiene una
capacidad en todos los productos. Para que pueda acceder a él directamente
desde el Asistente de Google. Pero también lo
integramos en Google Photos y en la aplicación Cámara en muchos dispositivos Android. La gente ya ha usado Lens
más de mil millones de veces hasta ahora. Y lo han
usado para hacer preguntas sobre lo que ven, como
qué tipo de flor es, o dónde conseguir
una lámpara como esa, o simplemente quién es el artista. Una forma en la que lo hemos estado
pensando es que, con Lens, estamos indexando
el mundo físico, miles de millones de lugares y productos,
etc., al igual que la búsqueda indexa los miles de millones de
páginas en la web.

Bien, hoy, déjame
mostrarte algunas formas nuevas en las que estamos haciendo que Lens te resulte
más útil. Digamos que estás en un
restaurante tratando de averiguar qué ordenar. En lugar de ir del menú
a diferentes aplicaciones en el teléfono y volver al
menú y así sucesivamente, simplemente puede apuntar su cámara. Lens
resalta automáticamente los platos populares de este restaurante
directamente en el menú. [APLAUSOS] Y, por supuesto, si
quieren saber más , pueden tocar cualquier
plato del menú, y pueden ver cómo
se ve, de nuevo, en el restaurante– [APLAUSOS] –y, por supuesto,
mira lo que otras personas dicen al respecto en Google Maps.

Por cierto, cuando
termines de comer, Lens puede ayudarte a pagar tu comida. No tan rapido. No está recogiendo su cuenta. Pero puede calcular la propina
e incluso dividir el total , de nuevo, con solo apuntar
la cámara al recibo. Y voilá. [APLAUSOS] Entonces vieron cómo conectamos
el menú con información de Google Maps. Pero estamos empezando a
pensar en otras formas de conectar
información digital útil con las cosas
del mundo físico. Así que les voy a
dar sólo un ejemplo. Así que estás hojeando
una revista "Bon Appetit" y ves una receta que te gusta. Pronto, puede apuntar su
cámara a la receta y ver cómo la página cobra
vida, mostrándole cómo hacer el plato. Estamos comenzando a trabajar con
más socios, como museos, editores de revistas
y minoristas, para brindar experiencias visuales únicas
como esta. Hay un área final en la
que creemos que la cámara puede ser particularmente útil para las personas. En todo el mundo, hay
más de 800 millones de adultos que luchan por leer las
palabras que encuentran en su vida diaria: horarios de autobuses,
formularios bancarios, etcétera.

Y muchos de ellos se conectan en
línea por primera vez con un teléfono inteligente. Entonces, para ayudar con eso, hemos
integrado una nueva capacidad de cámara en Google Go. Esta es nuestra aplicación de búsqueda
para dispositivos de nivel de entrada. Tome este letrero en
inglés al lado de un cajero automático. Ahora, para alguien que
no entiende el idioma y no puede leer las palabras, esta
es información importante a la que no tiene acceso. Y creemos que la
cámara puede ayudar aquí. Así que déjame mostrarte cómo.

Entonces, directamente desde la
barra de búsqueda de Google , puede usar Lens,
abrirlo, apuntarlo al letrero para escuchar el
texto leído en voz alta. ASISTENTE: Información
para titulares de tarjetas: se debe informar a todos los clientes que utilicen tarjetas de
banda magnética patentadas antiguas . APARNA CHENNAPRAGADA:
Lo bueno aquí es que resalta
las palabras a medida que se pronuncian. De esa manera, incluso si no puede
leer bien el idioma , puede seguirlo y
comprender el contexto completo de lo que ve. También puedes traducirlo a
tu propio idioma, así. [APLAUSOS] Observe que el
texto traducido se superpone justo encima del cartel original. Casi se siente
como si el letrero estuviera escrito en su propio
idioma para empezar. Y nuevamente, puede
presionar Escuchar y escuchar las palabras leídas en voz alta, esta
vez en su propio idioma. ASISTENTE: [HABLANDO ESPAÑOL] [APLAUSOS] APARNA CHENNAPRAGADA:
Lo que están viendo aquí es texto a voz,
visión por computadora, el poder de traducir y 20 años de comprensión del lenguaje a
partir de la búsqueda, todo junto.

Ahora, nuestros equipos en
India han estado trabajando con algunos de los primeros evaluadores
y han recibido muchos comentarios para mejorar el producto. Y ahora quiero
mostrarles cómo una de ellas lo está usando en su vida diaria. Echar un vistazo. [REPRODUCCIÓN DE MÚSICA] [APLAUSOS] APARNA CHENNAPRAGADA:
Gracias, Urmila, por probarlo y
brindarnos muchos comentarios para que el equipo mejore el producto. El poder de leer es el
poder de comprar un billete de tren, de comprar en una tienda,
de seguir las noticias. Es el poder de
hacer las cosas. Por eso, queremos que esta función sea
accesible para la mayor cantidad de personas posible. Así que ya funciona en más
de una docena de idiomas. Y los equipos trabajaron
increíblemente duro para comprimir toda esta tecnología a
poco más de 100 kilobytes. [ Aplausos] APARNA CHENAPRAGADA: De
esa manera, puede funcionar en teléfonos que
cuestan tan solo $35. Por lo tanto, estamos muy entusiasmados con
esta y todas las demás funciones en la búsqueda y Lens para
ayudarlo durante todo el día.

Comenzarás a ver
estas actualizaciones implementadas a finales de este mes. Gracias. [APLAUSOS] [REPRODUCIENDO MÚSICA] SUNDAR PICHAI: Gracias Aparna. La utilidad también se trata de
ahorrar tiempo y hacer que su día sea un poco más fácil. Por eso, el
año pasado, en I/O, le dimos un primer vistazo a
nuestra tecnología Duplex. Duplex le permite al Asistente de Google
hacer reservas en restaurantes en su
nombre simplemente haciendo una llamada. Ahora está disponible
en 44 estados de los EE. UU. Y hemos recibido excelentes comentarios
no solo de nuestros usuarios, sino también de las empresas. Para nosotros, Duplex es el
enfoque mediante el cual entrenamos a la IA en
tareas simples pero familiares para lograrlas
y ahorrarle tiempo. Se lanzó Duplex con
reservas de restaurantes por teléfono. Pero ahora, vamos
más allá de la voz y extendemos Duplex
a tareas en la web. Nuevamente, queremos centrarnos en
casos de uso limitados para comenzar. Así que estamos analizando
las reservas de coches de alquiler, así como la venta de entradas para el cine.

Hoy en día, cuando realiza una
nueva reserva en línea, debe navegar por una
serie de páginas y pasos, completando
información y haciendo selecciones en el camino. Estoy seguro de que todos ustedes están familiarizados
con esta experiencia. Lleva mucho tiempo. Y si los usuarios se van
durante el flujo de trabajo, las empresas también salen perdiendo.

Queremos mejorar esta experiencia
tanto para los usuarios como para las empresas. Así que déjame mostrarte cómo ese
sistema puede hacerlo mejor. Digamos que recibe un recordatorio de calendario
sobre un próximo viaje. Y quieres
reservar un coche de alquiler. Simplemente puede pedirle a Google que
reserve un alquiler de automóvil National para mi próximo viaje. El Asistente abre
el sitio web nacional y automáticamente comienza a
completar su información en su nombre– [APLAUSOS]– incluyendo las
fechas del viaje.

Puede confirmar los
detalles con solo un toque. Y luego el Asistente
continúa navegando por el sitio. Incluso selecciona
qué coche te gusta. Actúa en su nombre
y lo ayuda a ahorrar tiempo, pero usted siempre tiene el
control del flujo. Sigamos adelante y
agreguemos un asiento para el automóvil. Y una vez que haya ingresado todos los
detalles, puede verificar todo
una última vez y simplemente tocar para finalizar
la reserva. Inmediatamente recibirá
una confirmación de la reserva. Es increíble ver
al Asistente completar una tarea en línea en tu nombre
de forma personalizada. Comprende las
fechas de su viaje y sus preferencias de automóvil en
función de las confirmaciones de viaje y Gmail. Y también quiero
señalar que esto no fue una integración personalizada. Esto no requirió ninguna acción por parte
del negocio para implementarlo. Lo que acaba de ver
es una vista previa de lo que llamamos
Duplex en la Web. Vamos a ser
considerados y recibiremos comentarios tanto de los usuarios como de las empresas
para mejorar la experiencia. Y tendremos más detalles
para compartir más adelante este año.

[APLAUSOS] El Asistente de Google
ayuda a personas de todo el mundo con
todo tipo de tareas, ya sea que estén en
casa o mientras viajan. Pero queremos construir un
asistente aún más útil. Para procesar el
habla hoy en día, confiamos en algoritmos complejos
que incluyen múltiples modelos de aprendizaje automático. Un modelo mapea fragmentos de sonido
entrantes en unidades fonéticas. Otro toma y
ensambla estas unidades fonéticas en palabras. Y luego un tercer modelo
predice la probabilidad de estas palabras en una secuencia. Son tan complejos
que requieren 100 gigabytes de almacenamiento
y una conexión de red.

Llevar estos modelos
a su teléfono, piense en ello como poner
el poder de un centro de datos de Google en su bolsillo, es un problema informático increíblemente desafiante
. Me emociona compartir
que hemos alcanzado un hito significativo. Otros avances
en el aprendizaje profundo nos han permitido combinar y
reducir los modelos de 100 gigabytes a medio gigabyte, lo
suficientemente pequeños como para llevarlos a dispositivos móviles. Esto elimina la latencia de la red
y hace que el Asistente sea mucho más rápido, tan rápido que tocar para usar
su teléfono parecería lento. Creo que esto
va a transformar el futuro del Asistente. Y estoy encantado de
traer a Scott para que les cuente más sobre nuestro
Asistente de próxima generación. [REPRODUCIENDO MÚSICA] [APLAUSOS] SCOTT HUFFMAN: Gracias, Sundar. Bueno, ¿y si pudiéramos llevar
la IA que alimenta al Asistente directamente a tu teléfono? ¿Qué pasaría si el Asistente fuera tan
rápido al procesar su voz que tocar para operar su
teléfono casi parecería lento? Abre muchos nuevos casos de uso.

Y queremos
mostrarte lo rápido que es. Ahora, internamente, lo llamamos
Asistente de próxima generación. Al ejecutarse en el dispositivo, puede
procesar y comprender las solicitudes en tiempo real
y entregar las respuestas hasta 10 veces más rápido. Ahora, Maggie está aquí. Y ella
nos ayudará a probarlo, comenzando con algunos
comandos consecutivos para demostrar su velocidad. Ahora esta demostración está
recién salida de la imprenta. Así que por favor envía tu
energía positiva en dirección a Maggie. [APLAUSOS] MAGGIE: Oye, Google,
abre Calendario. Calculadora abierta. Fotos abiertas. Pon un temporizador a 10 minutos. ¿Cómo está el tiempo hoy? ¿Que tal mañana? Muéstrame John Legend en Twitter. Consigue un viaje Lyft a mi hotel. Enciende la linterna. Apágalo. Toma una selfie. [Aplausos] SCOTT HUFFMAN: Muy bien. Ahora, como pueden ver… [APLAUSOS] Sí. Eso fue asombroso. Maggie pudo abrir y
navegar aplicaciones al instante. Es posible que
también haya notado que, con una
conversación continua, pudo hacer varias
solicitudes seguidas sin tener que decir
"Ok Google" cada vez.

Ahora, más allá de una
forma sencilla de operar su teléfono , puede comenzar a imaginar cómo el
Asistente fusionado con el dispositivo podría orquestar
tareas en todas las aplicaciones. Veamos otra
demostración en la que Maggie está chateando con un amigo. Él le va a preguntar
acerca de un viaje reciente. Fíjate lo fácil que es para ella
responder con su voz e incluso compartir una foto. MAGGIE: Responde. La pasé muy bien con mi
familia, y fue muy hermoso.

Muéstrame mis fotos
de Yellowstone. Los que tienen animales. Envíaselo a Justin. SCOTT HUFFMAN: Muy bien. [APLAUSOS] Sí. Ahora, otro ejemplo es cuando
un amigo te hace una pregunta y necesitas buscar
la información para responder. Justin quería saber cuándo
llega el vuelo de Maggie. MAGGIE: ¿Cuándo es mi vuelo? ¿Cuándo es mi vuelo? Respuesta. Debo llegar alrededor de la 1:00 p.m. SCOTT HUFFMAN: Muy bien. Así que observe cómo
ayudó a Maggie a realizar múltiples tareas más fácilmente en
diferentes aplicaciones, lo que le ahorró
muchas idas y venidas. Ahora incluso puede imaginar que este
asistente de próxima generación maneje
escenarios de voz más complejos, como redactar y
enviar un correo electrónico.

MAGGIE: Oye, Google,
envía un correo electrónico a Jessica. Hola, Jessica. Acabo de regresar de Yellowstone
y me enamoré por completo . Establece el tema de
"Yellowstone Adventures". Avísame si el próximo
fin de semana funciona para la cena para poder contarte todo. Mándalo. SCOTT HUFFMAN: Vaya. [APLAUSOS] Muy bien. Ahora, como puede ver, esto
requería que el Asistente entendiera cuándo
Maggie dictaba parte del mensaje
y cuándo le pedía que completara una acción. Gracias, Maggie. MAGGIE: Gracias, Scott. [Aplausos] SCOTT HUFFMAN: Al mover
estos poderosos modelos de IA directamente a su teléfono, estamos
visualizando un cambio de paradigma. Este asistente de próxima generación
le permitirá operar instantáneamente su teléfono con su
voz, realizar múltiples tareas a través de aplicaciones y completar acciones complejas,
todo con una latencia casi nula. Y acciones como
encender la linterna, abrir Gmail o
consultar el calendario funcionarán incluso sin conexión. Ahora, es un problema muy difícil
que hemos estado resolviendo. Y estoy muy emocionado de compartir,
la realización de esta visión no está muy lejos. De hecho, este
asistente de próxima generación llegará a los nuevos teléfonos Pixel a
finales de este año.

[APLAUSOS] Muy bien. Ahora nuestra misión es hacer que
el Asistente sea la mejor manera de hacer las cosas. Acabas de ver cómo lo estamos
haciendo mucho más rápido. Pero también tiene que ser lo
suficientemente personal como para realmente ayudarte. Ahora, la ayuda personalizada es
especialmente importante en áreas donde las preferencias de las personas
difieren por completo, como elegir
qué escuchar, qué hacer el fin de semana
o incluso qué comer. Así que veamos
un ejemplo de receta. Oye, Google, ¿qué
debo cocinar para la cena? ASISTENTE: Aquí hay algunas
selecciones de recetas para usted. SCOTT HUFFMAN: Ahora,
como puede ver, el asistente escogió
recetas adaptadas a mí. Por ejemplo, sugirió
una receta de pollo al bourbon, porque me ayudó con
recetas de barbacoa en el pasado.

Ahora, lo que realmente me encanta es
que diferentes personas obtienen resultados completamente diferentes. Llamamos a esta función
Selecciones para usted. Y se lanzará
en pantallas inteligentes a finales de este verano, comenzando con
recetas, podcasts y eventos. Ahora, más allá de sus preferencias,
volverse más personal significa que el Asistente comprenderá mejor a
las personas, los lugares y los eventos que son
importantes para usted. Ahora, una
persona importante en mi vida es mi mamá, a quien
visitaré justo después de I/O. Entonces, digamos que le pregunté a
mi asistente, ¿cómo está el tráfico hacia la casa de mamá? Ahora, todos entendemos lo que
quiero decir con la casa de mamá, ¿verdad? Bueno, si estoy en
Toledo, la Casa de Mamá podría haber significado este lugar,
un centro de cuidado infantil sin fines de lucro.

En otras ciudades, Mom's House
puede ser un restaurante o una tienda de comestibles. De hecho, hay muchas
cosas en el mundo que se llaman Casa de mamá. Ahora, en lingüística, el
proceso de averiguar a qué cosa se refiere una frase
se llama resolución de referencia. Y es fundamental para
comprender el lenguaje humano. En Google,
abordamos este problema usando nuestro
gráfico de conocimiento de las cosas en el mundo y
sus relaciones. Es lo que nos permite
entender algo así como el Starbucks cerca
del puente Golden Gate. Hoy, estamos ampliando
la capacidad del Asistente para comprenderlo mejor mediante la
aplicación de esas mismas técnicas a las cosas de su mundo. Lo llamamos referencias personales. Entonces, si compartimos la información de contacto de mi mamá
con el Asistente, puedo preguntar, Google, ¿cómo está
el clima en la casa de mamá este fin de semana? ASISTENTE: El viernes y
sábado en Carmichael estará parcialmente nublado. SCOTT HUFFMAN: ¿Cuánto
tardará en llegar? ASISTENTE: Con poco
tráfico, le tomará dos
horas y 14 minutos llegar a 123 Main
Street en auto. SCOTT HUFFMAN:
Recuérdame pedir flores una semana antes del cumpleaños de mamá.

ASISTENTE: Muy bien. Te lo recordaré el 3 de julio. SCOTT HUFFMAN:
Y va más allá de mamá. Si ha compartido
personas, lugares y eventos importantes con el Asistente,
podrá pedir cosas con más naturalidad. Me gusta, muéstrame fotos de mi hijo,
o indicaciones para la reserva del restaurante , o
recuérdame que recoja chocolates en mi aniversario. Y tenga la seguridad de que
siempre tiene el control. Puedes editar o eliminar
esta información en cualquier momento en la
pestaña Tú actualizada en la configuración del Asistente.

Ahora, un lugar
donde el Asistente puede ser especialmente
útil es en el automóvil, ya que ofrece una forma manos libres más segura
de obtener todo lo que necesita mientras está en la carretera. Ahora, nos hemos centrado
en las principales cosas que todos queremos
cuando estamos conduciendo: llegar a donde vamos de manera segura
, ponernos al día con amigos y escuchar algo
interesante en el camino. El año pasado, trajimos el
Asistente a Android Auto. Y a principios de este año,
lo agregamos a Navegación en Google Maps. Me complace compartir que
el Asistente también llegará a Waze
en las próximas semanas. Ahora, me gustaría
mostrarle el futuro de cómo estamos mejorando
aún más su experiencia de conducción móvil . Presentamos el
nuevo modo de conducción del Asistente. Simplemente coloque su teléfono
en el automóvil y diga, hola, Google, conduzcamos. El modo de conducción tiene un
panel cuidadosamente diseñado que muestra sus actividades más relevantes al
frente y al centro mientras conduce
e incluye sugerencias personalizadas para usted.

Por ejemplo, si tiene
una reserva para cenar en su calendario,
verá un atajo conveniente para navegar hasta el restaurante. O si comenzó un podcast
en casa por la mañana, una vez que se suba a
su automóvil, se mostrará un atajo
para reanudar el episodio justo donde lo dejó. Ahora también destaca
los contactos principales, lo que facilita
llamarlos o enviarles mensajes, y recomendaciones sobre
otras cosas para escuchar. Ahora, una vez que estés navegando,
las llamadas telefónicas y la música aparecerán en un
perfil bajo, para que puedas hacer las cosas sin
salir de la pantalla de navegación.

Oye, Google, toca un poco de jazz. ASISTENTE: Claro. Mira esta
estación de música jazz en YouTube Music. [REPRODUCCIÓN DE MÚSICA DE JAZZ] SCOTT HUFFMAN: Ahora,
todo está habilitado para voz. Así que si entra una llamada
, el Asistente te dirá quién
llama y te preguntará si quieres
contestar sin tener que apartar la vista de la carretera. [TELÉFONO SONANDO] ASISTENTE: Llamada de mamá. ¿Quieres recogerlo? SCOTT HUFFMAN: No, gracias. Pero gracias por tu
ayuda con la demostración, mamá. De acuerdo, lo mejor de
todo es que con el Asistente ya en tu teléfono, no es
necesario descargar una aplicación. Solo comienza a conducir. El modo de conducción estará disponible
este verano en cualquier teléfono Android con el Asistente. [APLAUSOS] Ahora, hoy, el
Asistente de Google está disponible en más de mil millones de
dispositivos en más de 30 idiomas en 80 países. Y con Duplex on the Web,
el Asistente de próxima generación, la ayuda personalizada y la
asistencia en el automóvil , continuamos
desarrollando nuestra misión de ser la forma más rápida y
personal de ayudarlo a hacer las cosas.

Ahora, antes de irme,
quiero compartir algo que muchos de ustedes
han estado pidiendo. Mira esto. [SONIDO DE ALARMA] Pare. [PARA LA ALARMA] [APLAUSOS] Ahora puedes detener tus cronómetros
y alarmas con solo decir alto. No se necesita "oye, Google". Y se implementará en
pantallas inteligentes y Google Homes en lugares de habla inglesa a
partir de hoy. Muchas gracias. [APLAUSOS] [REPRODUCIENDO MÚSICA] ALTAVOZ 1: Oye, Google,
abre las puertas de la bahía de cápsulas. ALTAVOZ 2: Hola, Google. ALTAVOZ 3: Hola, Google. ALTAVOZ 4: Hola, Google. Enciende las luces. ALTAVOZ 5: Activa el modo dos. ALTAVOZ 6: Me encanta eso. ALTAVOZ 7: Hola, Google. [TOCANDO LA BOCINA] ALTAVOZ 8: Llama a mamá. [GRITOS] ASISTENTE: Encontré algunos
restaurantes cerca de usted. ALTAVOZ 9: Ordene mi
habitual de Starbucks. ASISTENTE: Pidiéndole un gran
café con leche de vainilla de Starbucks. ALTAVOZ 9: Te amo. ¡Te amo! ALTAVOZ 10: OK, Google. ASISTENTE: Este es un gato. [MEOWING] ALTAVOZ 11: El pronóstico
es 72 y soleado. ALTAVOZ 12: Toma una selfie. [LADRIDO DE ANIMALES] ALTAVOZ 13: Hola, Google. ALTAVOZ 14: ¿Qué hay en
mi calendario para hoy? ALTAVOZ 15: Hazme reír. ALTAVOZ 16: ¿
Cómo corto un mango? ALTAVOZ 17: Enciende
el espíritu navideño.

MACAULAY CULKIN:
Comience la Operación Kevin. ASISTENTE: Operación
Kevin en marcha. ALTAVOZ 18: Muéstrame cómo hacer
un disfraz de pulpo en YouTube. [ Aplausos] SUNDAR PICHAI: Gracias, Scott. Es genial ver el
impulso del Asistente de Google y cómo puede ayudar a los
usuarios a hacer las cosas. Hasta ahora, hemos hablado sobre la
creación de un Google más útil. Es igualmente importante para nosotros
que hagamos esto para todos. "Para todos" es una
filosofía central para nosotros en Google. Por eso, desde
los primeros días, la búsqueda era la misma,
tanto si eras profesor en Stanford
como estudiante en la zona rural de Indonesia. Es por eso que fabricamos
portátiles asequibles para las aulas de todo el mundo. Y es por eso que nos preocupamos por
la experiencia en teléfonos de bajo costo en países
donde los usuarios recién comienzan a conectarse
con la misma pasión que lo hacemos con los teléfonos premium. Y va más allá de nuestros
productos y servicios. Es por eso que ofrecemos
capacitación y herramientas gratuitas a través de Grow with
Google, que ayudan a las personas a desarrollar sus habilidades,
encontrar trabajos y desarrollar sus negocios.

Y así es como
desarrollamos nuestra tecnología, asegurando el
desarrollo responsable de IA, privacidad y seguridad que
funcione para todos, y productos que sean
accesibles en esencia. Comencemos con la
creación de IA para todos. El sesgo ha sido una
preocupación en la ciencia mucho antes de que
apareciera el aprendizaje automático. Pero lo que está en juego es
claramente mayor con la IA. No es suficiente
saber si un modelo funciona.

Necesitamos saber cómo funciona. Queremos asegurarnos de que nuestros
modelos de IA no refuercen el sesgo que existe en el mundo real. Es un problema difícil,
por lo que estamos realizando una
investigación informática fundamental para mejorar la
transparencia de los modelos de aprendizaje automático y reducir el sesgo. Déjame mostrarte lo que quiero decir. Cuando los informáticos
implementan modelos de aprendizaje automático , a veces puede ser
difícil entender por qué hacen una determinada predicción. Esto se debe a que la mayoría de
los modelos de aprendizaje automático parecen funcionar
con características de bajo nivel: bordes y líneas en una imagen,
color de un solo píxel. Eso es muy diferente
a los conceptos de nivel superior más
familiares para los humanos, como las rayas de una cebra. Para abordar este problema,
los investigadores de Google AI están trabajando en una nueva
metodología llamada TCAV, o pruebas con
vectores de activación de conceptos.

Dejame darte un ejemplo. Si se trata de un
modelo de aprendizaje automático, entrenado para detectar cebras,
querrá saber qué variables se usaron para decidir si la
imagen contenía una cebra o no. TCAV puede ayudarlo a comprender
si el concepto de rayas fue importante para la
predicción del modelo. En este
caso particular, tiene sentido. Las rayas son un
predictor importante para el modelo. Ahora supongamos que un clasificador fue
entrenado en imágenes de médicos. Si los datos de entrenamiento
eran en su mayoría hombres que usaban abrigos y
estetoscopios, entonces el modelo podría
asumir incorrectamente que ser hombre era un
factor de predicción importante. También hay otros
ejemplos importantes. Ahora imagine un
sistema de inteligencia artificial que podría ayudar a detectar el cáncer de piel. Para ser efectivo
, necesitaría reconocer una amplia variedad de tonos de piel
representativos de toda la población.

Hay mucho más por
hacer, pero estamos comprometidos a construir IA de una manera que sea
justa y funcione para todos, lo que incluye identificar y
abordar el sesgo en nuestros propios modelos de ML y compartir
herramientas y conjuntos de datos abiertos para ayudarlo también. Otra forma en que
construimos para todos es asegurándonos de que nuestros
productos sean seguros y privados, y que las personas tengan
opciones claras y significativas en torno a sus datos. Creemos firmemente que la
privacidad y la seguridad son para todos, no solo para unos pocos. Esta es la razón por la que los servicios de Google siempre han integrado potentes
funciones y controles de privacidad
. Lanzamos el modo de incógnito
en Chrome hace más de una década. Fuimos pioneros en Google Takeout,
que le brinda controles fáciles para exportar sus datos, desde
correo electrónico, contactos, fotos, todos nuestros productos, en cualquier momento que elija.

Pero sabemos que nuestro trabajo sobre privacidad
y seguridad nunca termina. Y queremos hacer más
para adelantarnos a las expectativas de los usuarios en constante evolución. Hemos estado trabajando
en un conjunto significativo de mejoras. Y quiero
hablarte de algunos. Hoy, ya puede
encontrar todas sus configuraciones de privacidad y seguridad en un solo
lugar en su cuenta de Google. Para asegurarnos de que su cuenta de Google
esté siempre al alcance de su mano, la hacemos fácilmente
accesible desde su foto de perfil. Si está en una búsqueda,
puede tocar su foto y acceder rápidamente a
los controles de privacidad más relevantes para la búsqueda, en el
caso de sus datos en la búsqueda. Aquí puede ver y
administrar su actividad reciente. Y puede cambiar fácilmente
su configuración de privacidad. La semana pasada, anunciamos
los controles de eliminación automática, a los que también podrá
acceder directamente desde la aplicación. Los datos ayudan a que la búsqueda
funcione mejor para usted. Y con la eliminación automática, puede
elegir cuánto tiempo desea que se guarde, por ejemplo, tres o 18 meses,
después de lo cual todos los datos antiguos se eliminarán automática
y continuamente de su cuenta.

Esto se lanzará hoy
para la actividad web y de aplicaciones. Lo
implementaremos en el historial de ubicaciones en las próximas semanas. Y continuaremos
brindando características como esta a más controles con el tiempo. Además, el acceso con un toque
a su cuenta de Google llegará a
nuestros principales productos, incluidos Chrome, búsqueda,
Asistente, YouTube, Google News y Maps. Y hablando de Mapas, si
toca su foto de perfil , además de
encontrar un fácil acceso a sus controles de privacidad,
encontrará una nueva función, el modo de incógnito. El modo de incógnito ha sido una
característica popular en Chrome desde su lanzamiento. Y estamos trayendo
esto a Maps. Mientras estés en Incógnito en
Maps, tu actividad, como los lugares que
buscas y a los que navegas , no se vincularán a tu cuenta. Queremos que sea fácil
entrar y salir de Incógnito. Y los mapas pronto se
unirán a Chrome y YouTube con soporte para incógnito. Y lo llevaremos a la
búsqueda también este año.

[Aplausos] Otra forma en que
garantizamos su privacidad es trabajando arduamente para
mantener sus datos seguros, desde Navegación segura, que ahora
protege más de 4 mil millones de dispositivos todos los días, hasta el uso de TensorFlow
para reducir significativamente los ataques de phishing
en Gmail, también alentamos a los usuarios a usar
dos Verificación paso a paso, porque una capa adicional de
protección siempre es útil. Hoy, estamos haciendo que la
verificación en dos pasos sea aún más conveniente
para todos al llevar la protección
de las llaves de seguridad directamente a su
teléfono Android. Entonces, ahora puede confirmar un
inicio de sesión con solo un toque. Y hoy, estará
disponible para más de mil millones de dispositivos compatibles. [APLAUSOS] Siempre queremos
hacer más por los usuarios, pero hacerlo con menos
datos a lo largo del tiempo. Por lo tanto, estamos aplicando la
misma investigación de inteligencia artificial de vanguardia que
mejora nuestros productos y la aplicamos para
mejorar la privacidad del usuario. El aprendizaje federado, este
es un nuevo enfoque para el aprendizaje automático desarrollado por Google, es un ejemplo.

Permite que los productos de inteligencia artificial de Google
funcionen mejor para usted y para
todos sin recopilar datos sin procesar de sus dispositivos. En lugar de enviar datos a la
nube, invertimos el modelo. Enviamos
modelos de aprendizaje automático directamente a su dispositivo. Cada teléfono calcula una
actualización del modelo global. Y solo esas
actualizaciones, no los datos, se cargan y
agregan de forma segura en grandes lotes para mejorar el modelo global. Y luego, el
modelo global actualizado se envía de vuelta al
dispositivo de todos. Permítanme explicarlo con
un ejemplo concreto. Tome Gboard, el teclado de Google. Usando solo el aprendizaje en el dispositivo,
cuando las nuevas palabras se vuelven populares, Gboard no podrá
sugerirlas hasta que las haya escrito muchas veces. El aprendizaje federado,
sin embargo, permite que Gboard aprenda nuevas
palabras como BTS o YOLO después de que miles de personas comiencen a
usarlas sin que Google vea nada de lo que escribes.

En realidad, con BTS,
probablemente sean millones de personas. Esto no es solo investigación. De hecho, Gboard ya está
utilizando el aprendizaje federado para mejorar la predicción de la siguiente palabra,
así como la predicción de emoji, en decenas de
millones de dispositivos. Todavía es muy
temprano, pero estamos entusiasmados con el progreso
y el potencial del aprendizaje federado en muchos
más de nuestros productos. [APLAUSOS] La privacidad y la seguridad
son la base de todo el trabajo que hacemos. Y continuaremos ampliando
los límites de la tecnología para que sea aún
mejor para nuestros usuarios. Construir para todos también
significa garantizar que todos puedan acceder a nuestros productos. La Organización Mundial de la Salud
estima que el 15% de la población mundial, más de mil millones de personas, tiene una discapacidad.

Creemos que la tecnología puede
ayudarnos a ser más inclusivos. Y la IA
nos proporciona nuevas herramientas para mejorar drásticamente la
experiencia de las personas con discapacidades. Por ejemplo, hay
casi 500 millones de personas en el mundo que son
sordas o tienen problemas de audición. Piense en cuántas
conversaciones son desafiantes, desde discusiones en persona
y llamadas telefónicas, hasta incluso experimentar
videos en línea. Hace unos meses,
lanzamos Live Transcribe, con la tecnología de
Cloud Speech API de Google, para subtitular conversaciones
en tiempo real. Puedes dejar tu
teléfono abierto con la aplicación. Y cuando alguien te habla
, transcribe su discurso en texto. Aquellos que no pueden, o
prefieren no hablar, también pueden responder escribiendo. Realmente me inspiró
cómo surgió el producto. Dos de nuestros
investigadores de Google, Dimitri y Chet, vieron la oportunidad
de ayudar a las personas y colaboraron
para desarrollar la aplicación. Juntos, con un pequeño equipo
de ingenieros y personas que ofrecieron voluntariamente su 20 % de su tiempo,
crearon Live Transcribe.

Y ahora está disponible en
más de 70 idiomas y dialectos en dispositivos Android. [APLAUSOS] Hoy vamos más allá
en la extensión de esta tecnología. Estamos anunciando una nueva
característica llamada Live Caption. Live Caption hace que todo el
contenido, sin importar su origen, sea más accesible para todos. Lo increíble es
que funciona completamente en el dispositivo. Así que no hay demora. Con un solo clic,
puede activar los subtítulos para un video web, un
podcast o incluso para un momento que capture en casa. ALTAVOZ 19: ¿Te gustan
los arándanos? Arándanos. ¿Delicioso? Aquí viene más. ¡mmm! Muéstrale a papá. ah [Aplausos ] Solo es posible gracias a nuestros
avances recientes en tecnología de reconocimiento de voz. Recientemente probamos Live
Caption con algunos usuarios. Vamos a ver. [Aplausos] También pueden imaginar todos los
casos de uso para la comunidad en general, por ejemplo, la capacidad de
ver cualquier video si está en una reunión o en el metro
sin molestar a las personas que lo rodean. El equipo de Android
hablará un poco más tarde hoy sobre lo que hizo
posible Live Caption.

También estamos explorando
cómo esta tecnología puede subtitular llamadas telefónicas. Pero queremos ir un paso
más allá y permitir que más personas
respondan y realicen tareas a través de sus teléfonos. Como verá en
este ejemplo, Nicole, que es sorda y
prefiere no hablar, puede recibir una llamada
de su estilista. Con Smart Compose
y Smart Reply , puede responder la
llamada e interactuar. Vamos a ver. [TELÉFONO SONANDO] ASISTENTE: Hola. Este es el chat de asistencia de Nicole.

Verá lo que
dices y te leerá sus respuestas
a partir de ahora. JAMIE: Hola Nicole. Soy Jaime. ¿Cómo estás? ASISTENTE: Hola, Jamie. Estoy bien. ¿Y usted? JAIME: Genial. ¿Todavía estamos para tu
corte de pelo mañana a la 1:00 p. m.? ASISTENTE: Lo siento,
¿puedes hacerlo a las 3:00 p. m.? JAMIE: Sí, puedo hacerlo a las 3:00 p. m. Tenemos mucho para ponernos al día. Quiero saber todo
sobre tu viaje.

ASISTENTE: Perfecto. Pulgares hacia arriba. JAIME: Genial. Te veo mañana. Adiós. SUDAR PICHAI: Pulgares arriba de hecho. [APLAUSOS] A esta nueva
tecnología la llamamos Live Relay. Si bien
aún queda trabajo por hacer, estamos emocionados de ver cómo
puede ayudar a personas como Nicole a hacer las cosas más fácilmente. Al igual que con Live Caption,
esto se ejecuta completamente en el dispositivo y estas conversaciones
permanecen privadas para usted. También queremos ayudar a las personas
con trastornos del habla o personas cuyo habla se ha visto
afectada por un derrame cerebral o ELA. Los investigadores de Google
AI están explorando la idea de
modelos de comunicación personalizados que puedan comprender mejor los diferentes
tipos de discurso, así como también cómo la IA puede ayudar a comunicarse
incluso a aquellos que no pueden hablar .

Llamamos a esta investigación
Proyecto Euphonia. Vamos a ver. [REPRODUCCIÓN DE MÚSICA] [APLAUSOS] SUNDAR PICHAI:
Estamos trabajando arduamente para proporcionar estos modelos de
reconocimiento de voz a través del
Asistente de Google en el futuro. Pero como viste en
el caso de Dimitri, esto solo será posible
con muchas más muestras de voz para entrenar a nuestros modelos. Si tú o alguien
que conoces habla arrastrando las palabras o es difícil de entender
, nos gustaría invitarte a
enviar muestras de voz para ayudar a acelerar este esfuerzo. Fundamentalmente, la investigación de IA
que permite nuevos productos para personas con discapacidades
es una forma importante en la que impulsamos nuestra misión. Live Transcribe, Live
Caption, Live Relay y Project Euphonia
finalmente darán como resultado productos que funcionan mejor para todos nosotros. Es un
ejemplo perfecto de lo que queremos decir con crear un
Google más útil para todos.

Una de las formas más poderosas en
que brindamos ayuda a nuestros usuarios es a través de nuestras
plataformas de código abierto como Android. Para contarles más, me gustaría
invitar a Steph al escenario. [REPRODUCCIÓN DE MÚSICA] [Aplausos] STEPHANIE CUTHBERTSON:
Es increíble que estemos aquí para hablar sobre
la versión 10 de Android. [Aplausos] Y podemos celebrar
un hito juntos.

Hoy en día, hay más de 2500
millones de dispositivos Android activos. [Aplausos] Y hoy, queremos
mostrarles lo que viene a continuación en Android
Q. Innovación, seguridad y privacidad: el tema central
del lanzamiento de Q y el bienestar digital. Mucho ha cambiado desde 1.0. Los teléfonos inteligentes han evolucionado
desde una visión temprana hasta convertirse en esta
herramienta integral en nuestras vidas.

Y son increíblemente útiles. De cara al futuro,
vemos venir otra gran ola de innovación para
hacerlos aún más útiles. Q muestra que Android da forma a
la vanguardia de la innovación móvil,
con más de 180 fabricantes de dispositivos en todo el mundo. Impulsado por este
poderoso ecosistema, muchas innovaciones han sido primero
en Android, desde pantallas grandes hasta la primera pantalla OLED. Y este año, la
tecnología de visualización dará un salto aún mayor
con los plegables provenientes de múltiples OEM de Android. Estos dispositivos abren una
categoría completamente nueva que, aunque pronto
, podría cambiar el futuro de la informática móvil.

Los plegables aprovechan la tecnología
de visualización completamente nueva . Literalmente se doblan
y doblan desde el teléfono hasta la pantalla del tamaño de una tableta. Y Q maximiza lo que es
posible en estas pantallas. Por ejemplo, los plegables
son excelentes para realizar múltiples tareas. Así puedo ver algunos videos divertidos que
me envió mi hermana mientras charlamos sobre
lo que haremos para mi mamá en el Día de la Madre. Pero la característica que más me
emociona es la continuidad de la pantalla. Así que digamos que terminamos de chatear. Es hora de salir. Y yo estoy parado
esperando mi paseo. Así que empiezo a jugar un juego en
la pantalla más pequeña doblada. Cuando me siento y
despliego, el juego se transfiere sin problemas a la pantalla más grande. Es tan genial. Y puedo recoger exactamente
donde estaba jugando. Ahora, varios OEM
lanzarán dispositivos plegables este año, todos con Android. [APLAUSOS] Otra
innovación emocionante es 5G. Las redes 5G significan
velocidades consistentemente más rápidas con menor latencia. Por lo tanto, las aplicaciones, y especialmente los
juegos, pueden ofrecer experiencias ricas e inmersivas
a estos teléfonos conectados a 5G.

Y Android Q es
compatible con 5G de forma nativa. Este año, más de 20
operadores lanzarán redes. Y nuestros OEM tienen más de una
docena de teléfonos listos para 5G que se lanzarán este año. Y todos
ejecutarán Android. Ahora, además de
la innovación en hardware, también estamos viendo grandes novedades
en software, impulsadas por los avances en el aprendizaje automático en el dispositivo.

Sundar mostró Live Caption. Ahora, realmente me gustaría
que lo vieras en acción y luego te llevara
debajo del capó. Por favor, da la bienvenida a Tristán. [APLAUSOS] TRISTAN: Como muchas personas,
veo videos sin sonido cuando estoy en movimiento. Con los subtítulos,
todavía puedo seguir el ritmo, incluso si estoy en un espacio lleno de gente
o en una reunión. Entonces, para mí, son
muy útiles. Pero para casi 500 millones de
personas sordas o con dificultades auditivas, los subtítulos
son fundamentales. Hoy en día, una gran cantidad de contenido
móvil incorpora audio, desde video hasta mensajes de voz y
todo lo demás. Sin subtítulos, este contenido
no es tan accesible. Live Caption en Q toma
audio y lo convierte instantáneamente en texto. Echemos un vistazo a este
video que mi amiga Heather me envió ayer.

Para encenderlo, abro
el control de volumen y toco el botón Live Caption. HEATHER: Hola, linda. ¿Quieres darle
un abrazo a tu cachorro? Vaya. Oh, supongo que no. Cachorro se aleja. TRISTAN: Como puede
ver, estos subtítulos aparecen en tiempo real, sobre
un video que normalmente nunca tendría subtítulos. Puede expandirlos, contraerlos
, moverlos hacia arriba y hacia abajo. Es muy divertido. Pero lo que hace que esta
característica sea tan increíble es que se
realiza completamente en el dispositivo. De hecho, no
necesita estar conectado a Internet en absoluto. Si echamos un vistazo,
toda esta demo la he hecho en modo avión. [APLAUSOS] Gracias. STEPHANIE CUTHBERTSON:
Gracias, Tristán. ESTÁ BIEN. Como es esto posible? Se debe a un
gran avance en el reconocimiento de voz que
hicimos a principios de este año. Esto alguna vez requirió la
transmisión de audio a la nube para ejecutar un
modelo de dos gigabytes para el procesamiento. Ahora podemos hacer ese mismo
procesamiento en el dispositivo, utilizando una red neuronal recurrente
, en solo 80 megabytes. El modelo de voz en vivo se
está ejecutando en el teléfono.

Y nunca sale ningún flujo de audio
. Todo esto protege la privacidad del usuario. Y esto es para todo el sistema operativo, lo
que significa que obtienes esos subtítulos en todas tus
aplicaciones y también en el contenido web. Ahora, el mismo aprendizaje automático en el dispositivo
impulsa otra característica útil de
Q, que es Smart Reply. Con Smart Reply,
el sistema operativo sugiere de manera útil lo que escribirá a continuación. Predecirá el
texto que escribirás, incluso emoji. Y es un gran ahorro de tiempo. Lo que es realmente genial
es que ahora funciona para todas las
aplicaciones de mensajería en Android.

Al igual que en Signal, puede
ver que el sistema operativo brinda estas sugerencias útiles. Y Smart Reply ahora puede
incluso predecir las acciones que realizarás. Digamos que un amigo
te envía una dirección. Y normalmente, copia
y pega eso en Maps. Eso es una especie de molestia. Con Smart Reply, solo
toca y se abrirá para ti. Ahora, todo esto te está
ahorrando tiempo. El aprendizaje automático en el dispositivo
impulsa todo, desde estos increíbles
avances como Live Caption hasta útiles
funciones cotidianas como Smart Reply. Y hace
esto sin que el usuario ingrese nunca dejando el teléfono, todo lo
cual protege la privacidad del usuario. Ahora hay una adición más
a Android Q que es pequeña, pero nos has estado
preguntando por un tiempo, y es el tema oscuro. Y lo estamos lanzando en Q. [APLAUSOS] Entonces pueden
activarlo usando el mosaico rápido o activando el Ahorro de batería.

Y de hecho,
te ayudará a ahorrar batería. Su pantalla OLED es uno de los
componentes que más energía consume en su teléfono. Entonces, al iluminar menos píxeles
, ahorrará batería. Así que eso es innovación. Pero creemos que toda
innovación debe ocurrir dentro de un marco de
seguridad y privacidad. La gente ahora lleva
teléfonos constantemente. Y les confiamos
mucha información personal. Siempre debe tener el
control de lo que comparte y con quién lo comparte. Y es por eso que la
segunda área que cubriremos en el
enfoque central del lanzamiento es la seguridad y la privacidad. Ahora, a lo largo de los años,
Android ya ha creado un gran conjunto de protecciones : cifrado basado en archivos,
SSL por defecto, DNS seguro, perfiles de trabajo. Y muchos de estos
fueron los primeros en Android.

Android tiene el
servicio de seguridad y antimalware más implementado de todos los
sistemas operativos, con Google Play Protect. Se ejecuta en todos los dispositivos. Y escanea más de 50
mil millones de aplicaciones al día. De hecho, en el
informe de seguridad de Gartner de 2019, que se publicó
esta semana, Android obtuvo la calificación más alta
posible en 26 de 30 categorías. Está por delante en múltiples
puntos, desde la autenticación hasta la seguridad de la red, la
protección contra malware y más.

Al mismo tiempo,
queríamos ir mucho más allá. Y es por eso que Android Q
incluye casi 50 funciones enfocadas en la seguridad
y la privacidad, todas brindando más protección,
transparencia y control. Entonces, primero, en Q, llevamos la
privacidad al nivel más alto en la configuración. Y allí, encontrará una
serie de controles importantes, todo en un solo lugar: datos de actividad,
historial de ubicación, configuración de anuncios. Y tú decides qué está encendido o apagado. Ahora, la ubicación es
otro lugar en el que hemos creado herramientas para una mayor
transparencia y control. Ahora, la ubicación puede ser realmente
útil, especialmente cuando estás perdido en un lugar nuevo. Pero también es parte de su
información más personal.

Y, una vez más,
siempre debe tener el control de con quién lo comparte
y cómo pueden usarlo. Entonces, primero, si se
pregunta qué aplicaciones pueden acceder a
su ubicación, le facilitamos saberlo. Con Q, su dispositivo
le dará recordatorios útiles
cada vez que una aplicación acceda a la ubicación cuando no esté
usando esa aplicación activamente. Para que puedas revisar
y decidir, ¿ quieres seguir compartiendo o no? En segundo lugar, Q le dará
más control sobre cómo comparte los datos de ubicación con las aplicaciones. Por ejemplo, supongamos que desea
que le entreguen una pizza. Puede elegir
compartir su ubicación solo mientras la aplicación está en uso. Y tan pronto como cierres,
dejarás de compartir la ubicación. Finalmente, ¿
qué pasa si te preguntas qué tipo de ubicación
tienen todas mis aplicaciones? En Q, hemos llevado
los controles de ubicación al frente en la configuración.

Para que pueda revisar rápidamente cada
aplicación y cambiar el acceso a la ubicación con controles simples. Ahora, hay muchas, muchas
más mejoras en la seguridad y la privacidad en todo
el sistema operativo, como TLC v3, encriptación para dispositivos de gama baja,
aleatorización de su dirección Mac de forma predeterminada y muchas más. Y puede leer sobre
todo esto en nuestra publicación de blog esta semana. Pero hay una cosa más realmente
importante para la seguridad. Ahora, su dispositivo Android ya
recibe actualizaciones de seguridad periódicas . Pero todavía hay que
esperar el lanzamiento. Y hay que
reiniciar cuando vienen. Queremos que
los obtenga más rápido, incluso más rápido. Y es por eso que, en Q, estamos
haciendo un conjunto de módulos de SO actualizables, directamente
por aire. Ahora, estos pueden
actualizarse individualmente tan pronto como estén disponibles y
sin reiniciar el dispositivo. [Aplausos] Ahora, esto fue un gran
desafío técnico. Los estamos actualizando
en segundo plano de la misma manera que estamos actualizando Google Apps. Es más fácil para nuestros
socios, con quienes estamos trabajando en estrecha colaboración.

Pero lo más importante
, es mucho mejor para ti. Puede obtener más información al
respecto en la sesión "¿Qué hay de nuevo en Android?" Ahora, hay una
cosa más que ha cambiado desde los
primeros días de Android. Ahora, la gente lleva
teléfonos inteligentes a todas partes porque son realmente útiles. Pero también estamos
pasando mucho tiempo en los teléfonos. Y la gente
a veces nos dice que desearían haber dedicado más
tiempo a otras cosas. Queremos ayudar a las personas a encontrar el
equilibrio y el bienestar digital. Y sí, a veces, esto
significa hacer que sea más fácil guardar su dispositivo por completo
y concentrarse en los momentos que realmente importan.

Es por eso que, el año pasado,
lanzamos herramientas digitales de bienestar con paneles,
temporizadores de aplicaciones, Flip to Shush y Wind Down para ayudarlo a
dejar el teléfono y dormir por la noche. Y estas herramientas
realmente están ayudando. Los temporizadores de aplicaciones ayudan a los usuarios a
cumplir sus objetivos más del 90 % del tiempo. Y los usuarios de Wind Down tuvieron una
caída del 27 % en el uso nocturno. Si aún no los está usando
, realmente los recomendaría. Pero este año, queremos ayudar
aún más con la distracción. Muchas veces, solo
quiero sentarme y concentrarme para hacer algo. Y cuando estoy tratando de
hacer esto… como, trabajando. Tal vez sea estudiar para ti . No quiero correos electrónicos ni
nada que me distraiga. Y es por eso que hemos creado
un nuevo modo para Android. Se llama modo de enfoque.

Cuando entro en el modo Focus,
puedo seleccionar las aplicaciones que me distraen. Para mí, eso es correo electrónico, noticias. Así que ahora están apagados
y realmente puedo ponerme a trabajar. Esas aplicaciones que
me distraen están deshabilitadas. Pero todavía puedo mantener el texto. Porque es importante para
mí que mi familia siempre pueda contactarme, hasta
que salga del modo Focus.

Y luego todo vuelve. El modo de enfoque llegará a los
dispositivos P y Q este otoño. [APLAUSOS] Ahora, finalmente,
quiero hablar de las familias. Para el 84 % de los padres,
el uso de la tecnología por parte de nuestros hijos es una de las principales preocupaciones. En los EE. UU., la
edad promedio de los niños que reciben teléfonos ahora es de ocho años. En Q,
los controles parentales de Family Link se integrarán directamente en
la configuración del dispositivo. Entonces, cuando configura un dispositivo
para alguien de su familia, Family Link lo ayudará a
conectarlo con uno de los padres. Y puede revisar cualquier aplicación que
su hijo quiera instalar. Después de eso, puede establecer
límites diarios de tiempo de pantalla. Puede verificar, ¿dónde
están las aplicaciones donde mis hijos pasan el tiempo? Y puede configurar la
hora de acostarse de un dispositivo para que sus hijos puedan desconectarse y dormir.

Y ahora, en Android Q
, puede establecer límites de tiempo en aplicaciones específicas. Y cuando su hijo llegue a
ese dispositivo a la hora de acostarse, si desea darles
solo cinco minutos más, ahora tenemos tiempo adicional. [Aplausos] Ahora, hay mucho
más en Q que no tenemos tiempo de cubrir, un montón, todo,
desde transmisión de medios , audífonos,
mejor conectividad , nueva interfaz de usuario de gestos y más. Así que hoy me
complace anunciar que Q Beta 3 está disponible en 21 dispositivos. Eso es 12 OEM más todos los píxeles. [APLAUSOS] Y eso es más del
doble que el año pasado. Esperamos que vaya al
enlace para obtenerlo en su teléfono, porque nos
encantaría que lo probara. Y ahora se
lo entregaré a Rick.

Muchísimas gracias. [REPRODUCIENDO MÚSICA] [APLAUSOS] RICK OSTERLOH: Gracias, Steph. Bueno, hoy escuchamos acerca de algunas
innovaciones fabulosas en Android, AI
y el Asistente, y avances reales en la forma en
que podemos ayudar a nuestros usuarios. Me gustaría dedicar
unos minutos a hablar sobre cómo algunos de ellos
cobran vida en nuestros productos fabricados por Google. Ahora, seguimos creyendo que
los mayores avances están ocurriendo en la intersección
de la IA, el software y el hardware, ya sea una
unidad de procesamiento de tensores, un centro de datos completo, el teléfono en la mano
o una útil pantalla inteligente en su hogar. Empecemos por ahí. El hogar inteligente de hoy está
fragmentado y es frustrante. Para brindar una
ayuda real en el hogar, no se puede comenzar con la tecnología. Tienes que empezar con la gente. Y siempre hemos trabajado para
poner a las personas en primer lugar y crear tecnología en torno a sus necesidades.

No hay lugar más importante
para hacerlo bien que en el hogar. Vamos a ver. [MÚSICA – PHILLIP PHILLIPS,
"HOME"] ALTAVOZ 20: No, no, no, cariño. [SUENA EL TIMBRE] ALTAVOZ 21:
Somos [INAUDIBLE] papá y yo. [RISAS] [LLORÓN DEL BEBÉ] [RISAS] [ANIMACIÓN] [ LLORAMIENTO DEL BEBÉ] [APLAUSOS] RICK OSTERLOH: Tu hogar
es el lugar más especial de tu vida. Por lo tanto, debemos ser cuidadosos
con la tecnología que creamos para ello. Al poner a las personas
primero, vamos más allá de la idea de un hogar inteligente
para crear un hogar verdaderamente útil. Durante el año pasado,
reunimos a los equipos de Nest y Google para cumplir
nuestra visión del hogar útil.

Y hoy, estamos simplificando aún más las
cosas, reuniendo todos estos
productos bajo el nombre de Nest. Como un solo equipo y una
sola familia de productos, seguimos un conjunto de
principios rectores que reflejan nuestro compromiso
de poner a las personas en primer lugar. Ahora, para comenzar,
creemos que la tecnología debe ser fácil de usar para todos
en el hogar, ya sea que tengan cinco o 95 años. El hogar útil también debe
ser personal para todos. Con el Asistente de Google
como elemento central, podemos brindar una
experiencia personalizada para toda la familia,
incluso en espacios comunes. Y la tecnología en su
hogar debe trabajar en conjunto para una experiencia única y sin interrupciones en
todas las habitaciones y dispositivos. Lo más importante es que
el hogar útil debe respetar su privacidad. Y hoy, estamos publicando
compromisos de privacidad para nuestros productos para el hogar
que explican claramente cómo funcionan,
los datos que almacenamos y cómo se utilizan.

[APLAUSOS] Nuestra visión del hogar útil
está anclada en el Asistente. Y como escucharon
de Scott, continuamos siendo más
útiles con el tiempo. Queremos asegurarnos de
que pueda obtener la ayuda que necesita donde la necesita. Google Home Hub, al que
cambiaremos el nombre de Nest Hub, fue diseñado
específicamente para llevar la utilidad del Asistente
a cualquier habitación de tu casa. Ahora, también hemos estado trabajando
en una nueva pantalla que se basa en las cosas que a la
gente le encantan de Hub, pero está diseñada
para espacios comunes en el hogar donde se
reúne la familia.

Presentamos Nest Hub Max. [APLAUSOS] Es un nuevo producto que
tiene una cámara y una pantalla más grande de 10 pulgadas, lo cual
es perfecto para el centro de tu útil hogar. Hub Max reúne
sus dispositivos conectados en un panel de vista de inicio,
donde puede ver sus cámaras Nest, puede encender las
luces, controlar su música y ajustar su termostato. Hub Max también es compatible con Thread. Entonces, al igual que Nest Connect,
se comunica directamente con dispositivos compatibles con Thread
que necesitan una conexión de baja potencia,
como cerraduras de puertas o sensores de movimiento.

Y hemos diseñado Hub Max ancho
una cámara increíblemente útil. Si desea saber qué
sucede en su hogar , puede optar por
usarlo como una Nest Cam. Puedes encenderlo cuando
estés fuera de casa. Puedes revisar las cosas
directamente desde la aplicación Nest en tu teléfono. Y al igual que una Nest Cam, es
fácil ver su historial de eventos, habilitar la asistencia en casa y fuera,
y también recibe una notificación si la cámara detecta algún
movimiento o ve a alguien que no reconoce en su hogar. Ahora, las videollamadas también son
fáciles con Google Duo. La cámara tiene una
lente gran angular. Y se ajusta automáticamente para
mantenerte centrado en el marco. Puede chatear con cualquier
dispositivo iOS o Android, o una PC con un navegador Chrome. También puede usar Duo
para dejar mensajes de video para los miembros de su hogar. Hub Max está diseñado para brindarte
un control total sobre la cámara. No se transmite ni graba nada a
menos que lo habilites intencionalmente. Y siempre sabrás
cuando la cámara está encendida, con una luz indicadora verde.

Tiene múltiples controles
para deshabilitar las funciones de la cámara. Y un
interruptor físico en la parte posterior desconecta eléctricamente la
cámara y los micrófonos. Y puede ver todos
estos controles claramente en la pantalla. [APLAUSOS] Gracias. Hub Max está diseñado para ser utilizado
por varias personas en su hogar y brindarles a
todos la ayuda que necesitan de manera personalizada. Ahora, para ayudar con eso, hemos
ofrecido a los usuarios la opción de habilitar la coincidencia de voz,
para que el Asistente pueda reconocer su voz
y responderle directamente. Pero hoy, también estamos
ampliando las opciones para personalizar usando la
cámara, con una función que llamamos Face Match. Para cada persona de su familia
que elige activarlo, el Asistente lo guía
a través de un proceso de creación de un modelo facial,
que luego se cifra y almacena en el dispositivo.

Luego, cada vez que
caminas frente a la cámara, Hub Max te reconoce y muestra
solo tu información y no la de nadie más. La tecnología de reconocimiento facial de Face Match
se procesa localmente en
el dispositivo mediante el aprendizaje automático en el dispositivo , por lo que los datos de la cámara
nunca salen del dispositivo. Y por la mañana,
puedo entrar a la cocina y el Asistente
sabe saludarme con mi calendario, mis
detalles de viaje, el clima y cualquier otra información
que necesite para comenzar mi día. Y cuando llego a casa,
Hub Max me da la bienvenida con cualquier recordatorio que
pueda estar esperándome. Y el Asistente ofrece
recomendaciones personalizadas para música y programas de TV. E incluso puedo ver si alguien
me ha dejado un mensaje de video.

Una de mis
cosas favoritas de Hub Max es que es un gran
marco de fotos digital. No importa qué tipo
de día esté teniendo, nada me hace
sentir mejor que ver algunos de mis
recuerdos favoritos en esta hermosa pantalla. Y la
integración de Google Photos hace que todo este
proceso sea realmente simple. Puedo seleccionar a mi
familia y amigos. Y Hub Max muestra las mejores
fotos de ellos de hace años o de hoy. Y ahora, con un
simple comando de voz, compartir mis fotos favoritas
es más fácil que nunca. La pantalla grande
también convierte a Hub Max en el televisor de cocina que siempre has
querido. Dile lo que quieres ver. O si necesita
ayuda para decidir, solo pídale al Asistente que acceda
a nuestra nueva guía en pantalla. Hub Max puede transmitir tus
programas y deportes en vivo favoritos en YouTube TV. Pero a diferencia del
televisor de la cocina, también puede enseñarte a cocinar, ver
quién está en la puerta principal y reproducir tu música. También obtiene
un sonido estéreo completo, [REPRODUCCIÓN DE MÚSICA], con un potente
woofer orientado hacia atrás.

Y ahora, cuando
sube el volumen, en lugar de gritarle al Asistente que
lo baje o pause el juego, con la cámara, es
tan simple como un gesto. [TELÉFONO SONANDO ] Levanta la mano. [APLAUSOS] Y Hub Max usa
el aprendizaje automático en el dispositivo para
identificar instantáneamente tu gesto y pausar tus medios. Hub Max es una
pantalla inteligente del Asistente de Google que también es un
controlador doméstico inteligente, un televisor para su cocina,
un excelente marco de fotos digital, una cámara interior
y es perfecto para videollamadas. Todo esto estará disponible en
Nest Hub Max a finales de este verano por solo $229. [APLAUSOS] Y hoy bajamos el
precio del Nest Hub original de $149 a $129. [APLAUSOS] Y estamos ampliando su
disponibilidad a 12 nuevos mercados y admitiendo
nueve nuevos idiomas. Entonces, ya sea que prefieras un Hub
con cámara o sin ella, tenemos un dispositivo que
te ayudará en tu hogar.

Como dije antes,
hay una diferencia fundamental entre una casa inteligente
y una casa útil. Y nos complace unificar todos
nuestros productos bajo la marca Nest para hacer que el hogar útil sea
más real para más personas. Está bien. A continuación, quiero
hablar sobre Pixel. [APLAUSOS] Sí, gracias. Y me encanta hablar de Pixel. Quiero hablar sobre nuestro trabajo para
brindar una experiencia de teléfono inteligente más esperanzadora a más personas. Un elemento central de
la misión de Google es hacer que la tecnología
esté más disponible y accesible para todos.

Y Sundar lo dijo antes. Necesitamos asegurarnos de que la
tecnología beneficie a muchos, no solo a unos pocos. Pero ha habido una
tendencia realmente preocupante en la industria de los teléfonos inteligentes. Para admitir las
últimas tecnologías, los teléfonos de gama alta de todos
son cada vez más caros. Por lo tanto, nos desafiamos a
nosotros mismos para ver si podíamos optimizar
nuestro software e IA para que funcionaran bien en
un hardware más asequible, de modo que pudiéramos ofrecer estas
experiencias de alto nivel a un precio más accesible. Quiero presentarles a los
miembros más nuevos de la familia Pixel, Google
Pixel 3a y 3a XL, diseñados para brindar
funciones premium a un precio que a la gente le encantará. [APLAUSOS] No renunciamos a las
capacidades y el rendimiento que esperarías de un
dispositivo premium , por eso los llamamos Pixel.

Comienzan en solo $ 399. [Aplausos] Eso es aproximadamente la mitad del precio, la mitad del precio de los
típicos teléfonos insignia. Y quiero presentarles a
Sabrina para contarles más sobre cómo lo hicimos. [REPRODUCIENDO MÚSICA] [APLAUSOS] SABRINA ELLIS: Gracias, Rick. Ofrecer funciones premium
con alto rendimiento en un teléfono a este precio ha sido un gran
desafío de ingeniería. Y estoy muy orgulloso
de lo que nuestro equipo ha podido lograr
con Pixel 3a. Entonces, comencemos con el diseño. Pixel 3a sigue el
lenguaje de diseño de la familia Pixel: el aspecto familiar de dos
tonos, el acabado suave y el diseño ergonómico de una sola pieza. Se siente bien en la mano
y se ve hermoso. Pixel 3a viene en tres colores,
Just Black, Clearly White y un nuevo color, Purple-ish. Todo se ve increíble en
la vibrante pantalla OLED. Y tu música, tus
podcasts, suenan genial en sonido estéreo premium.

Pixel 3a es compatible con Bluetooth
5.0 y audio digital USB-C. Y también hemos incluido un
conector de audio de 3,5 milímetros. [APLAUSOS] Porque hemos escuchado que algunas personas
quieren más opciones de auriculares. Pero por lo que Pixel es realmente
conocido es por su increíble cámara. Y con las
optimizaciones de software, encontramos una manera de llevar
nuestras funciones exclusivas de cámara y nuestra
calidad de imagen líder en la industria a Pixel 3a, para que las fotos se
vean impresionantes con cualquier luz. Lo que otras cámaras de teléfonos inteligentes
intentan hacer con
hardware costoso, podemos ofrecerlo con
software e inteligencia artificial, incluida
la fotografía computacional de alta gama. Esto es lo que eso significa. Pixel 3a puede tomar
fotos increíbles con poca luz, [Aplausos], con Night Sight. Es una de las
funciones más populares de Pixel. También hemos habilitado
el modo de retrato de Pixel en las
cámaras delantera y trasera. Y nuestro Super Res Zoom aplica
fotografía computacional, para que pueda acercarse
a su sujeto mientras mantiene un
alto grado de resolución. Y todas sus hermosas
fotos se respaldan de forma gratuita en alta calidad
con Google Photos.

[APLAUSOS] Pixel 3a también tiene
las funciones útiles que esperarías de un Pixel. Simplemente aprieta los
costados de tu teléfono para que aparezca el
Asistente de Google. Estamos usando la IA en Pixel
3a para ayudarte a administrar tus llamadas telefónicas también. Estoy bastante seguro de que todos
odiamos recibir llamadas automáticas. Y Call Screen utiliza el
reconocimiento de voz y el procesamiento de lenguaje natural de Google
para ayudarlo a filtrar esas llamadas no deseadas. Ya está examinando
millones de ellos. Ahora, quizás recuerde, el
año pasado, compartimos nuestra visión para usar AR en Google Maps. A partir de hoy, en los
teléfonos Pixel, cuando usas
indicaciones para caminar, en lugar de mirar ese
punto azul en tu teléfono, verás
flechas en el mundo real que te indicarán a dónde ir a continuación.

[APLAUSOS] Apenas estamos comenzando nuestro
viaje con AR y Maps. Y estamos muy
emocionados de que los usuarios de Pixel experimenten esta
vista previa temprana. Duración de la batería: es una de
las características más importantes de un teléfono inteligente. Que tiene sentido. Las personas necesitan saber que
su teléfono no dejará de funcionar antes de que finalice el día. Pixel 3a tiene batería adaptable. Utiliza el
aprendizaje automático para optimizar en función de cómo usa su
teléfono, por lo que puede obtener hasta 30 horas con una sola carga. [APLAUSOS] Y con el
cargador de 18 vatios incluido , obtendrá hasta siete
horas de duración de la batería con solo 15
minutos de carga. Pixel 3a tampoco compromete la
seguridad. Tiene el mismo
enfoque integral que Pixel 3. Por el lado del hardware,
nuestro chip de seguridad Titan M protege sus datos confidenciales
en el dispositivo, como credenciales de inicio de sesión, cifrado de disco,
datos de aplicaciones e integridad del sistema operativo. En cuanto al software, obtienes
los últimos parches y actualizaciones de seguridad de Google
durante tres años, incluido Android Q este verano.

Entonces, en lugar de volverse más lento
y menos seguro con el tiempo, su Pixel mejora
con cada actualización. Creemos que este enfoque híbrido
proporciona la protección de datos más sólida. Y en un informe reciente de
Gartner, Pixel obtuvo la puntuación más alta en
seguridad integrada entre los teléfonos inteligentes. [APLAUSOS] Pixel 3a ofrece la
experiencia completa de Pixel. Y estamos orgullosos de que esté
disponible y sea asequible para más personas en todo el mundo. Verizon ha sido un gran socio
durante los últimos dos años y medio en los EE. UU. Y estamos emocionados de
asociarnos nuevamente con ellos para el lanzamiento de Pixel 3a. Y, por primera vez, estamos
ampliando nuestras asociaciones con operadores estadounidenses. Así que toda la familia Pixel
ahora está disponible para la venta en T-Mobile, Sprint
y US Cellular. [APLAUSOS] También puede obtener Pixel
3a de Google Store y usarlo en cualquier operador de EE. UU.,
incluidos Google Fi y AT&T.

Pixel 3a y 3a XL están disponibles
en 13 mercados a partir de hoy. [APLAUSOS] Puede encontrar más detalles en
línea en Google Store. Estamos muy emocionados
de que lo pruebes. A continuación, Jeff le informará sobre
nuestros esfuerzos en Google AI. Pero primero, aquí hay un
vistazo rápido a nuestro nuevo Pixel. [REPRODUCIENDO MÚSICA] ALTAVOZ 22: Oye, Google,
muéstrame las tiendas de donas cercanas. [APLAUSOS] [REPRODUCIENDO MÚSICA] JEFF DEAN: Hola a todos. [Aplausos] Todo, desde construir
un dispositivo premium de bajo costo como el que acabas de
ver sin comprometer las capacidades hasta desarrollar
un Asistente realmente útil, se basó en
una gran cantidad de investigación e innovación
bajo las sábanas. Y son ejemplos de
lo que hacemos en Google AI. Google AI es una
colección de equipos enfocados en avanzar
en la investigación de inteligencia artificial en una amplia
gama de dominios diferentes. Nos enfocamos en resolver
desafíos informáticos fundamentales para resolver
problemas para las personas.

Eso incluye cosas como
mejorar los modelos de reconocimiento de voz para responder
preguntas más rápido y permitirle interactuar con
su dispositivo rápidamente, o ampliar los límites
de la visión por computadora para ayudar a las personas a interactuar con
su mundo de nuevas maneras, como ha visto hoy. Publicamos documentos, lanzamos
software de código abierto y aplicamos nuestra investigación
a los productos de Google. El objetivo es realmente
resolver los problemas cotidianos que afectan a miles de millones de personas. Una de las cosas que
más me emociona es el progreso en la
comprensión del lenguaje. Como Scott mencionó anteriormente
, gran parte de nuestra vida diaria depende de la comprensión real del
idioma: leer las señales de tránsito
y las listas de compras, escribir correos electrónicos, comunicarnos
con las personas que nos rodean.

Realmente nos gustaría que las
computadoras tuvieran la misma fluidez con el lenguaje que nosotros, no solo que entendieran
las formas superficiales de las palabras, sino que realmente entendieran
lo que significan las oraciones. Desbloquear eso
nos acercaría más a nuestra misión de organizar
la información del mundo y hacerla universalmente
accesible y útil. En los últimos años,
hemos dado pasos importantes.

Tomemos como ejemplo enseñarle a una máquina
a responder preguntas como esta sobre las
Cavernas de Carlsbad, un parque nacional en Nuevo México. Recientemente,
la arquitectura de vanguardia para la comprensión del lenguaje era
algo llamado red neuronal recurrente o RNN. Los RNN procesan palabras
secuencialmente, una tras otra. Funcionan bien para
modelar secuencias cortas, como oraciones,
pero les cuesta hacer
asociaciones abstractas, como saber que las estalactitas y las estalagmitas
son formaciones naturales y que los caminos de cemento,
por ejemplo, no lo son. En 2017 dimos un salto
adelante con nuestra investigación sobre transformadores, modelos que
procesan palabras en paralelo. Un año más tarde, lo
usamos como base para una técnica que llamamos representaciones de
codificador bidireccional
de transformadores. Es un poco complicado,
así que simplemente lo llamamos BERT.

Los modelos BERT pueden considerar
el contexto completo de una palabra al observar las palabras que
vienen antes y después. Están pre-entrenados
usando texto sin formato de la web y
otras fuentes textuales. Para hacer eso, usamos un
proceso para entrenarlo que es un poco como el
juego de palabras de Mad Libs. Contratamos alrededor del 20%
de las palabras de entrada. Y entrenamos al modelo para que
adivine esas palabras que faltan.

De hecho, puedes probar esto
en casa con un poco de texto que tengas. Esconda algunas palabras y vea
si puede adivinar cuáles son. Eso es efectivamente
lo que estamos haciendo. Este enfoque es
mucho más eficaz para comprender el lenguaje. Cuando publicamos la investigación,
BERT obtuvo resultados de última generación en 11 tareas diferentes de
procesamiento del lenguaje. Avance rápido hasta hoy. Y estamos emocionados
de ver cómo BERT puede ayudarnos a responder preguntas más
complejas que son relevantes para
usted, ya sea para obtener el tiempo de vuelo
de Indiana a Honolulu, aprender un nuevo
ejercicio de levantamiento de pesas o traducir
entre idiomas.

Investigaciones como esta nos
acercan a la tecnología que realmente puede comprender el lenguaje. Ahora estamos trabajando con
equipos de productos de todo Google para ver cómo podemos usar BERT para
resolver más problemas en más lugares. Estamos emocionados de llevar esto
a personas de todo el mundo para ayudarlos a obtener la
información que necesitan todos los días. Sin embargo, todo este
impulso del aprendizaje automático no sería posible
sin la innovación de la plataforma. TensorFlow es la
infraestructura de software que subyace a nuestro trabajo
en aprendizaje automático e inteligencia artificial. Cuando desarrollamos TensorFlow,
queríamos que todos pudieran usar
el aprendizaje automático, así que lo convertimos en una
plataforma de código abierto. Y si bien ha sido
esencial para nuestro trabajo, nos ha sorprendido ver para qué lo han usado
otras personas fuera de Google: todo
tipo de cosas diferentes. Hemos visto a ingenieros de la
Universidad Roma Tre en Italia analizando manuscritos medievales escritos a mano
.

Hemos visto programadores
en Francia coloreando fotografías en blanco y negro. Incluso hemos visto empresas que
desarrollan gimnasios para vacas. El trabajo que la gente está haciendo
es realmente inspirador para nosotros. Nos empuja a seguir
preguntándonos, ¿cómo puede el
aprendizaje automático resolver problemas que antes no tenían solución
para ayudar a más personas? Un ejemplo es nuestro trabajo en
el campo de la salud. Somos muy optimistas de que nuestra
investigación pueda crear un impacto en el mundo real de la medicina al mejorar las
soluciones y establecer nuevos procedimientos de diagnóstico.

Para compartir más, aquí está la Dra. Lily
Peng del equipo de atención médica de Google AI. [REPRODUCIENDO MÚSICA] [APLAUSOS] LILY PENG: Gracias, Jeff. Entonces, como médico,
lo que más me importa es mejorar
la vida de los pacientes. Y eso significa buena atención
y diagnósticos precisos. Es por eso que estaba tan emocionado hace
dos años en I/O cuando compartimos nuestro trabajo
en retinopatía diabética. Esta es una complicación
de la diabetes que pone a más de
400 millones de personas en todo el mundo en
riesgo de pérdida de la visión.

Desde entonces, hemos estado probando
este trabajo con pacientes en entornos clínicos. Nuestros socios han
recibido recientemente la
aprobación regulatoria europea para el modelo de aprendizaje automático. Y tenemos
implementaciones clínicas en Tailandia y en la India que
ya están examinando a miles de pacientes. Además de la diabetes,
una de las otras áreas en las que creemos que la IA puede ayudar a los
médicos es la oncología. Hoy, nos
gustaría compartir nuestro trabajo en otro proyecto
de detección del cáncer en el que la IA puede ayudar a detectar
el cáncer de pulmón antes.

Entonces, el cáncer de pulmón causa más
muertes que cualquier cáncer. En realidad, es la
causa de muerte más común en todo el mundo y representa el
3% de la mortalidad anual. Sabemos que, cuando los casos
se diagnostican a tiempo, los pacientes tienen una mayor
probabilidad de supervivencia. Pero desafortunadamente, más del
80 % de los cánceres de pulmón no se detectan a tiempo. Los ensayos controlados
aleatorios han demostrado que la detección con
CT de dosis baja puede ayudar a reducir la mortalidad. Pero existe la oportunidad de
hacerlos más precisos. Entonces, en un artículo que estamos a punto de
publicar en "Nature Medicine ", describimos un
modelo de aprendizaje profundo que puede analizar tomografías computarizadas y predecir tumores malignos de pulmón. Para hacerlo, entrenamos una
red neuronal con escaneos de cáncer de pulmón no identificados de nuestros
socios en el NCI, el Instituto Nacional del Cáncer, y la Universidad Northwestern. Al observar muchos
ejemplos, el modelo aprende a detectar
tumores malignos con un rendimiento que iguala o supera al
de los radiólogos capacitados.

Entonces, concretamente, ¿cómo
podría ayudar esto? El cáncer en etapa muy temprana
es minúsculo y puede ser difícil de ver, incluso
para los radiólogos experimentados, lo que significa que muchos pacientes
con cáncer de pulmón en etapa tardía tienen signos sutiles
en exploraciones anteriores. Tomemos este caso, en el que a
un paciente asintomático sin antecedentes de cáncer se
le realizó una tomografía computarizada para la detección. Este escaneo se
interpretó como normal. Un año más tarde, ese mismo
paciente tuvo otra exploración. Detectó un
cáncer en etapa tardía, uno que es mucho más difícil de tratar. Así que usamos nuestro sistema de inteligencia artificial para
revisar ese escaneo inicial. Así que seamos claros. Este es un caso difícil. Mostramos esta
exploración inicial a otros radiólogos, y cinco de cada seis
no detectaron este cáncer. Pero nuestro modelo fue capaz de detectar
estos signos tempranos un año antes de que el paciente fuera
realmente diagnosticado, un año.

Y ese año podría traducirse
en una mayor tasa de supervivencia del 40 % para pacientes como este. [Aplausos] Claramente, este es un
resultado prometedor pero temprano. Y estamos
ansiosos por asociarnos con
la comunidad médica para usar tecnología
como esta para ayudar a mejorar los resultados para los pacientes. Ahora se lo devolveré a Jeff. [Aplausos] JEFF DEAN: Gracias, Lily. Las mismas tecnologías que
acaba de ver impulsando la innovación en el cuidado de la salud tienen aplicaciones
en casi todos los campos imaginables.

Nuestro programa AI for Social Good
reúne nuestros esfuerzos para usar AI para explorar y
abordar algunos de los problemas más desafiantes del mundo. El año pasado, anunciamos el
programa y sus dos pilares: investigación e
ingeniería, y construcción del ecosistema externo. Hablemos primero de
investigación e ingeniería. Un proyecto en el que estamos trabajando
que ya está generando impacto es nuestro trabajo sobre
pronóstico de inundaciones. Las inundaciones son los desastres naturales más comunes y
mortales del planeta. Cada año, afectan
hasta 230 millones de personas en todo el mundo, más
que las tormentas y los terremotos combinados. El 20% de las muertes por inundaciones
ocurren solo en India. Este es un problema
que incluso estamos viendo esta semana con el
impacto del ciclón Fani. Las inundaciones impiden que los
niños puedan jugar en sus vecindarios
o que los padres protejan y
mantengan a sus familias, a menudo porque no
tienen suficiente aviso previo. Y sin
sistemas de advertencia consistentes y precisos, las personas tienden a ignorar las
advertencias y no estar preparadas.

Eso es especialmente perjudicial en las
áreas afectadas por los monzones anuales. Es por eso que, el otoño pasado
, compartimos nuestro trabajo sobre modelos de pronóstico de inundaciones
que pueden predecir con mayor precisión el momento, la
ubicación y la gravedad de las inundaciones. A través de una asociación
con la Comisión Central de Agua de la India , comenzamos a
enviar alertas tempranas de inundaciones a los teléfonos de los usuarios
que podrían verse afectados. Hoy, nos
complace anunciar la expansión de nuestro
sistema de detección y alerta para la próxima
temporada de monzones. El área ampliada
cubrirá a millones de personas que viven a lo largo de las áreas de los
ríos Ganges y Brahmaputra . No solo estamos aumentando
el área de cobertura, sino que también estamos
pronosticando mejor dónde afectarán más las inundaciones.

A través de una nueva versión
de nuestras alertas públicas, las personas pueden comprender mejor
si se verán afectadas, para que puedan protegerse a
sí mismas y a sus familias. Nuestro modelo simula
el comportamiento del agua en la planicie de inundación y
muestra las áreas exactas que se verán afectadas. Combinamos miles
de imágenes satelitales para crear
mapas de elevación de alta resolución, utilizando un proceso similar
a las imágenes estereográficas, para calcular la
altura del suelo. Luego usamos redes neuronales
para corregir el terreno, por lo que es aún más preciso. Y luego usamos la
física para simular cómo sucederán las inundaciones. También colaboramos
con el gobierno para recibir mediciones actualizadas de
caudalímetros y enviar pronósticos en tiempo real. Estamos entusiasmados de continuar
trabajando con socios para aumentar la exactitud y la
precisión de estos modelos, que esperamos hagan que las
personas estén más seguras frente a las inundaciones en todo el mundo. Investigaciones como esta son críticas. Pero también sabemos que la IA
tendrá el mayor impacto cuando personas de
diferentes orígenes se unan para desarrollar nuevas
soluciones a los problemas que ven.

Es por eso que el segundo pilar de
nuestro programa AI for Social Good es construir el
ecosistema externo. Queremos capacitar a todos
para que usen la IA para resolver los problemas que ven en sus comunidades. El año pasado, nos asociamos
con Google.org para lanzar Google
AI Impact Challenge. Fue un llamado a organizaciones sin fines de lucro,
empresas sociales y universidades para compartir
sus ideas sobre el uso de la IA para abordar los desafíos sociales.

Recibimos solicitudes
de 119 países de los seis continentes, que
representan organizaciones de todo tipo y tamaño
. Hoy, estamos muy emocionados
de anunciar los 20 seleccionados. Incluso tenemos algunos de
ellos con nosotros hoy. Démosles una cálida bienvenida. [APLAUSOS] Aquí está la lista
de organizaciones. Estas organizaciones están
trabajando en algunos de los problemas más significativos del mundo. La Fondation Medicins
sans Frontieres está utilizando el reconocimiento de imágenes
para ayudar al personal médico a analizar imágenes antimicrobianas
a fin de prescribir los antibióticos adecuados
para las infecciones bacterianas. La Universidad de Nueva York,
en asociación con el Departamento
de Bomberos de la ciudad de Nueva York, está construyendo un modelo para ayudar a
acelerar los tiempos de respuesta ante emergencias.

Esto realmente podría mejorar
la salud pública y la seguridad. Y la
Universidad de Makerere en Uganda utilizará IA para crear una red de
monitoreo de alta resolución para dar forma a las políticas públicas
para mejorar la calidad del aire. Apoyaremos a
nuestros 20 beneficiarios y daremos
vida a estas ideas. Proporcionamos $25 millones
en fondos de Google.org, así como capacitación y
recursos de equipos de todo Google. Felicidades a
todos nuestros becarios. [Aplausos] A medida que nos acercamos a la
próxima década, estoy muy emocionado por
lo que está por venir.

Hay tantas
vías prometedoras para la investigación fundamental. Por ejemplo,
los modelos de aprendizaje automático de hoy, por lo general, podemos
hacer que sean buenos para resolver tareas individuales. Pero, ¿y si
pudieran generalizar a través de miles de tareas,
resolviendo nuevos problemas más rápido y con solo unos pocos
ejemplos para aprender? Las claves para avanzar en este
tipo de problemas de investigación son las características más humanas
, la perseverancia y el ingenio. Como escuchó mencionar
a Sundar al comienzo del día, estamos pasando de una empresa
que lo ayuda a encontrar respuestas a una empresa que también lo
ayuda a hacer las cosas. Y todos los productos que le
mostramos hoy comparten un solo objetivo: ser útiles.

Al mismo tiempo,
queremos asegurarnos de que los beneficios de la
tecnología se sientan en todas partes, seguir manteniendo nuestra
base de confianza de los usuarios y crear un Google más útil
para todos. A todos los que se unieron a
nosotros en la transmisión en vivo, gracias por sintonizarnos. Y a todos los que están aquí con
nosotros en la audiencia hoy, bienvenidos a Google I/O 2019. Gracias. Y disfruta del resto de I/O. [REPRODUCIENDO MÚSICA].

Deja un comentario

Tu dirección de correo electrónico no será publicada.