Google Keynote (Google I/O ‘22)

[REPRODUCCIÓN DE VIDEO] – Comenzó con un problema,
y ​​era bastante grande. – Había tanta
información en el mundo y, sin embargo, era tan
difícil de encontrar. – Así que tratamos de
resolver ese problema. Pero en el camino,
encontramos otros nuevos, como ¿cómo responder
a todos esos correos electrónicos? ¿ Cuál es la mejor manera
de ir de A a B? ¿ Cómo consigo ese aspecto? O como me deshago de eso? ¿ O esto? – Mi computadora acaba de fallar.

– Nosotros construimos eso. De eso, vino esto. Para detener esto, hicimos aquello. Cuanto más miramos,
más encontramos. Encuentra un problema. Cree una solución. – Una crisis climática. – Nuestro objetivo es hacer que la
elección sostenible sea una elección más fácil . – Hay alguien que no puede
ver, no puede oír, realmente hazlo accesible a
un conjunto de personas tan amplio como sea posible. – Toma una selfie. – DE ACUERDO. Prepararse. – Sabemos que el
punto de partida es desigual, pero podemos generar
resultados equitativos y brindarles a todos igualdad de
condiciones. – De hecho, puedo
inspirarme en el mundo que nos rodea. – La tecnología tiene el poder de
mejorar la vida de todos. Solo hay que construirlo. [REPRODUCIENDO MÚSICA] [FIN DE REPRODUCCIÓN] SUDAR PICHAI: Gracias. Gracias. Está bien. Comprobación de micrófono, uno, dos, tres. ¿ Pueden oírme? PÚBLICO: [INAUDIBLE] SUDAR PICHAI: Está encendido. Después de dos años de comenzar
muchas reuniones en silencio, pensé que debería verificar dos veces. Está bien. Buenos días a
todos y bienvenidos. Hagamos que
eso sea bienvenido de nuevo. Es genial estar de vuelta
en el Anfiteatro Shoreline después de tres años de ausencia.

A los– [Aplausos] Bueno, gracias por unirse a
nosotros, y a los miles de desarrolladores, socios
y Googlers aquí con nosotros, es genial verlos a todos. Y a los millones
más que se unen a nosotros en todo el mundo
en la transmisión en vivo, estamos muy felices de que estén aquí también. El año pasado, compartimos
cómo los nuevos avances en algunas de las áreas técnicamente más
desafiantes de la informática están haciendo que los
productos de Google sean más útiles en los
momentos importantes. Todo este trabajo está al servicio
de una misión atemporal: organizar la
información del mundo y hacerla universalmente
accesible y útil. Estoy emocionado de mostrarles cómo
estamos impulsando esa misión de dos maneras clave: profundizando nuestra
comprensión de la información para que podamos convertirla
en conocimiento y avanzando en el
estado de la informática para que el conocimiento sea más fácil de
acceder, sin importar quién o dónde estás.

Hoy, verá cómo el
progreso en estas dos partes de nuestra misión
garantiza que los productos de Google estén diseñados para ayudar, y comenzaré
con algunos ejemplos rápidos. Durante la
pandemia, Google se ha centrado en brindar
información precisa para ayudar a las personas a mantenerse saludables. Durante el último año, las personas
usaron la Búsqueda de Google y Maps para encontrar dónde podían obtener
una vacuna contra el COVID casi dos mil millones de veces. También hemos ampliado nuestra
tecnología de pronóstico de inundaciones para ayudar a las personas a mantenerse seguras
frente a los desastres naturales.

Durante la
temporada de monzones del año pasado, nuestras alertas de inundaciones notificaron a
más de 23 millones de personas en India y Bangladesh,
y estimamos el apoyo de la
evacuación oportuna de cientos de miles de personas. En Ucrania, trabajamos
con el gobierno para desplegar rápidamente
alertas de ataques aéreos. Hasta la fecha, hemos enviado
cientos de millones de alertas. En marzo estuve en Polonia,
donde millones de ucranianos han buscado refugio. La población de Varsovia ha
aumentado en casi un 20 %, ya que las familias acogen a los refugiados
en sus hogares y las escuelas dan la bienvenida a miles
de nuevos estudiantes.

Casi todos los empleados de Google
con los que hablé estaban alojando a alguien. En países de todo el
mundo, Google Translate ha sido una herramienta crucial
para los recién llegados y los residentes que intentan comunicarse entre
sí. Estamos orgullosos de cómo
está ayudando a los ucranianos a encontrar un poco de esperanza
y conexión hasta que puedan
regresar a casa nuevamente. La traducción en tiempo real
es un testimonio de cómo el conocimiento y la
informática se unen para mejorar la vida de las personas. Más personas
que nunca utilizan el Traductor de Google, pero todavía tenemos trabajo por hacer para que
sea universalmente accesible. Hay una larga
cola de idiomas que están subrepresentados en la
web hoy en día, y traducirlos es un problema técnico difícil. Eso es porque los
modelos de traducción generalmente se entrenan con textos bilingües. Por ejemplo, la misma frase
en inglés y español.

Sin embargo, no hay
suficientes textos bilingües disponibles públicamente
para todos los idiomas. Entonces, con los avances en el
aprendizaje automático, hemos desarrollado un
enfoque monolingüe, donde el modelo
aprende a traducir un nuevo idioma
sin siquiera ver una traducción directa del mismo. Al colaborar con
hablantes nativos e instituciones, encontramos que estas traducciones
tenían la calidad suficiente para ser útiles. Hoy, me complace
anunciar que estamos agregando 24 nuevos idiomas
a Google Translate. [APLAUSOS] Esto incluye la primera
lengua indígena de las Américas.

Y juntos, estos idiomas
son hablados por más de 300 millones de personas. Avances como este están
impulsando un cambio radical en la forma en que accedemos al conocimiento
y usamos las computadoras, sin embargo, gran parte de lo que se
puede conocer sobre nuestro mundo va más allá del lenguaje. Está en la información física y
geoespacial que nos rodea. Durante más de 15
años, Google Maps ha trabajado para crear
representaciones ricas y útiles de esta información
para ayudarnos a navegar. Los avances en IA están llevando
este trabajo al siguiente nivel, ya sea expandiendo nuestra
cobertura a áreas remotas, reinventando cómo explorar el
mundo de maneras más intuitivas. En todo el mundo, hemos mapeado
alrededor de 1600 millones de edificios y más de 60 millones de
kilómetros de carreteras hasta la fecha. Algunas áreas remotas y rurales
han sido difíciles de
mapear anteriormente debido a la escasez de imágenes de alta calidad
y tipos de edificios y terrenos distintos.

Para abordar esto, estamos
utilizando la visión por computadora para detectar edificios a
escala a partir de imágenes satelitales. Como resultado, hemos
aumentado cinco veces la cantidad de edificios en
Google Maps en África desde julio de
2020, de 16 millones a casi 300 millones. [Aplausos] También hemos duplicado la
cantidad de edificios mapeados en India e Indonesia este
año y, globalmente, más del 20 % de los edificios en Google
Maps se han detectado utilizando estas nuevas técnicas. Hemos ido un paso más allá y
hemos puesto a disposición del público el conjunto de datos de edificios en África.

Organizaciones internacionales
como las Naciones Unidas y el Banco Mundial
ya lo están utilizando para comprender mejor la
densidad de población y brindar apoyo
y asistencia de emergencia. También estamos incorporando nuevas
funciones a Maps. Usando avances en mapeo 3D
y aprendizaje automático, estamos fusionando miles de millones de
imágenes aéreas y de nivel de calle para crear una nueva representación de alta fidelidad
de un lugar. Estas tecnologías innovadoras
se unen para impulsar una nueva experiencia en Maps
llamada vista inmersiva. Te permite explorar
un lugar como nunca antes. Vayamos a Londres
y echemos un vistazo. Qué bonita ciudad. Digamos que planea visitar
Westminster con su familia. Puede ingresar a
esta vista inmersiva directamente desde Maps
en su teléfono, y puede desplazarse
por los lados. Aquí está la Abadía de Westminster. Y si estás pensando en
ir a ver el Big Ben, puedes comprobar si
hay tráfico, qué tan ocupado está e incluso
ver el pronóstico del tiempo. Es Londres, así que
supongo que es lluvia. Ahora, si está buscando
comer algo durante su visita, puede visitar los
restaurantes cercanos y echar un vistazo al interior.

[APLAUSOS] Lo asombroso es que
esto no es un dron volando en el restaurante. Utilizamos la representación neuronal
para crear la experiencia solo a partir de imágenes. Y Google Cloud
Immersive Stream permite que esta experiencia
se ejecute en cualquier teléfono inteligente. Esta función comenzará a
implementarse en Google Maps para ciudades seleccionadas a
nivel mundial este año. Otra gran mejora de
Maps es el enrutamiento ecológico. Lanzado el año pasado, le muestra
la ruta más eficiente en combustible, brindándole la opción
de ahorrar dinero en gasolina y reducir las emisiones de carbono. Las rutas ecológicas
ya se implementaron en los EE. UU. y Canadá,
y la gente las utilizó para viajar 86 000
millones de millas, lo que ayudó a ahorrar aproximadamente medio
millón de toneladas métricas de emisiones de carbono, el
equivalente a sacar 100 000 automóviles de las carreteras.

Me complace compartir
que estamos ampliando esta función a más
lugares, incluida Europa a finales de este año. En este ejemplo de Berlín,
podría reducir su consumo de combustible en un 18%
tomando una ruta que es solo tres minutos más lenta. Estas pequeñas decisiones tienen
un gran impacto a escala. Con la expansión a
Europa y más allá, estimamos que el
ahorro de emisiones de carbono se duplicará para finales de año. [APLAUSOS] Y hemos agregado una
característica similar a Google Vuelos. Cuando busca
vuelos entre dos ciudades, también le mostramos
estimaciones de emisiones de carbono, junto con otra información,
como el precio y el horario, lo que facilita la
elección de una opción más ecológica. Estas funciones ecológicas
en Mapas y Vuelos son parte de nuestro objetivo de capacitar a
mil millones de personas para que tomen decisiones más sostenibles
a través de nuestros productos, y estamos entusiasmados
con el progreso aquí. Más allá de Maps, el video se está convirtiendo en
una parte aún más fundamental de cómo compartimos información,
nos comunicamos y aprendemos.

A menudo, cuando visita
YouTube, busca un
momento específico en el video y queremos
ayudarlo a llegar allí más rápido. El año pasado, lanzamos
capítulos generados automáticamente para facilitar el salto a la
parte que más te interesa. Los resultados son
excelentes para los creadores, porque les ahorra
tiempo al crear capítulos. Ahora estamos aplicando la
tecnología multimodal de DeepMind. Utiliza simultáneamente texto,
audio y video para generar capítulos automáticamente con
mayor precisión y velocidad. Con esto, ahora
tenemos el objetivo de multiplicar por 10 la cantidad de videos con
capítulos generados automáticamente de ocho millones hoy a
80 millones durante el próximo año.

A menudo, la forma más rápida de tener
una idea del contenido de un video es leer su
transcripción, por lo que también usamos modelos de reconocimiento de voz
para transcribir videos. Las transcripciones de video ahora están
disponibles para todos los usuarios de Android e iOS. A continuación, traeremos los
subtítulos traducidos automáticamente de YouTube a los dispositivos móviles, lo que significa que los
espectadores ahora pueden traducir automáticamente los subtítulos de video en 16
idiomas, y los creadores pueden aumentar su audiencia global. También ampliaremos los
subtítulos traducidos automáticamente al contenido de YouTube en ucraniano el
próximo mes, como parte de nuestro mayor esfuerzo para
aumentar el acceso a información precisa sobre la guerra.

[Aplausos] Así como usamos IA para
mejorar las funciones de YouTube, la integramos en
nuestros productos de espacio de trabajo para ayudar a las personas a ser
más eficientes. Ya sea que trabaje
para una pequeña empresa o una gran institución, lo más
probable es que pase mucho
tiempo leyendo documentos. Tal vez sintió
esa ola de pánico cuando se dio cuenta de que tiene un
documento de 25 páginas para leer antes de una reunión que
comienza en 5 minutos. Google, cada vez que recibo un
documento o correo electrónico extenso, busco un TLDR en la parte superior. TLDR es corto por demasiado
tiempo, no lo leí. Y nos hizo
pensar, ¿no sería mejor la vida si más
cosas tuvieran un TLDR? Es por eso que hemos introducido el
resumen automático para Google Docs. [Aplausos] Usando uno de los
modelos de aprendizaje automático, Google Docs
analizará automáticamente y extraerá los puntos principales. Esto marca un gran paso
adelante para el procesamiento del lenguaje natural .

Requiere la comprensión
de pasajes largos, la compresión de información
y la generación de lenguaje, que solía estar fuera de las
capacidades incluso de los mejores modelos de aprendizaje automático. Y Docs es solo el comienzo. Estamos lanzando resúmenes
para otros productos en Workspace. Llegará a Google Chat
en los próximos meses, brindando un resumen útil
de las conversaciones de chat, para que pueda regresar directamente
a un chat grupal y revisar
los aspectos más destacados. ¿ Qué hay de comer? [Aplausos] En mi opinión, lo que hay para almorzar es definitivamente
lo más destacado. Estamos trabajando para llevar la
transcripción y el resumen también a Google Meet. Para que pueda ponerse al día con algunas
de las reuniones más importantes que se perdió. Por supuesto,
hay muchos momentos en los que realmente quieres estar en
una sala virtual con alguien, y es por eso que continuamos
mejorando la calidad de audio y video , inspirados
en Project Starline, que presentamos
en I/O el año pasado.

Lo hemos estado probando
en las oficinas de Google para obtener comentarios y mejorar
la tecnología para el futuro y, en el proceso,
hemos aprendido algunas cosas que podemos aplicar ahora mismo
a Google Meet. Procesamiento de imágenes impulsado por aprendizaje automático inspirado en Starline
para
mejorar automáticamente la calidad de su imagen en Google Meet. Y funciona en todo
tipo de dispositivos, para que te veas mejor
donde sea que estés. [APLAUSOS] También traeremos
iluminación virtual con calidad de estudio a Meet. Puede ajustar la
posición de la luz y el brillo para seguir siendo
visible en una habitación oscura o sentado frente a una ventana. Estamos probando esta función
para asegurarnos de que todos se vean como
son, continuando con el trabajo que hemos hecho con
Real Tone en los teléfonos Pixel en Monk Scale,
del cual les hablaremos en un momento. Estas son solo algunas de las formas en que la
IA está mejorando nuestros productos, haciéndolos más
útiles, más accesibles y brindando
nuevas funciones innovadoras para todos. Ahora le pasaré la palabra
a Prabhakar para compartir el progreso que
estamos logrando en nuestro producto original
y más importante , la Búsqueda de Google.

[APLAUSOS] PRABHAKAR RAGHAVAN:
Gracias, Sundar. La búsqueda de conocimiento de las personas
a menudo comienza con una búsqueda. Y con el tiempo, hemos
trabajado arduamente para comprender los trillones de preguntas
que la gente nos hace todos los años para brindar la
información más útil posible. Pero la forma en que las personas
buscan información no debe limitarse a
escribir palabras clave en el cuadro de búsqueda. Es parte de la naturaleza humana
obtener conocimiento a través de múltiples sentidos y
entradas a medida que avanzamos en nuestro día. Por ejemplo, si escucho un pájaro
cantando fuera de la ventana, podría señalarlo y preguntarle a
mi esposa, ¿qué tipo de pájaro es ese? Y si bien es un gran
desafío para las computadoras comprender la información
de la manera en que lo hacemos, los avances tecnológicos están
ayudando a cerrar la brecha.

Con tecnologías de inteligencia artificial como la
comprensión del lenguaje natural y la visión por computadora,
estamos transformando la búsqueda para que sea mucho más natural y
útil que nunca. Imagina el futuro. Podemos buscar de cualquier
manera y en cualquier lugar y encontrar información útil
sobre lo que ve, escucha y experimenta de la
manera que le resulte más intuitiva. Esta es nuestra visión para
el futuro de la búsqueda, y ya hemos
dado pasos hacia ella. Cuando comenzó Google,
nuestro gran avance fue la comprensión de las
consultas basadas en texto. Con el tiempo, las personas
nos han hecho preguntas más complejas y matizadas, y nuestra
inversión en la comprensión del lenguaje natural ha
mejorado significativamente nuestra capacidad para responderlas, incluso cuando
la consulta se siente como un rompecabezas. A este tampoco lo conozco. Es "Hachi, la historia de un perro". Esa es la respuesta. Pero para muchas preguntas,
puede ser más fácil hablar que escribir, razón por la cual
, hace más de una década, introdujimos la búsqueda por voz.

Ahora recibimos cientos de millones
de consultas de voz todos los días, y la adopción es aún mayor
entre los nuevos usuarios de Internet. En India, por ejemplo,
casi el 30% de las consultas en hindi se hablan. Pero a menudo, ver
es comprender, por lo que reinventamos la Búsqueda de Google
una vez más con Google Lens para ayudarlo a buscar lo que
ve usando su cámara directamente desde su barra de búsqueda. Lens ahora se usa más de
ocho mil millones de veces al mes, que es
casi el triple el año pasado. Ahora, estamos redefiniendo la
Búsqueda de Google una vez más.

Estamos combinando nuestra
comprensión de la información a través de múltiples modos para
ayudarlo a expresar sus necesidades con más naturalidad que nunca. El mes pasado, lanzamos
multisearch, una de nuestras actualizaciones más importantes para la búsqueda. En la aplicación de Google,
ahora puede buscar tomando una foto y haciendo una pregunta
al mismo tiempo. Puede tomar una foto de una
botella de agua a prueba de derrames y pedir una con arcoíris
para alegrar el día de sus hijos.

O en mi caso, pude
tomar una foto de mi grifo que gotea y pedir la pieza para arreglarlo. Lo curioso
es que todavía no sé cómo se llama la parte. [RISAS] Pero esto es solo el
comienzo de lo que podemos hacer con Multisearch. Más adelante este año,
agregaremos una nueva forma de buscar información local
con Multisearch Near Me. Simplemente tome una foto o mantenga
presionada una que vea en línea y agregue "cerca de mí"
para encontrar lo que necesita de los millones de
negocios locales que servimos en Google. Near Me funcionará para una
búsqueda múltiple de todo, desde ropa hasta artículos para el hogar,
hasta mi favorito personal, comida y restaurantes locales.

Así que digamos que veo un
plato sabroso en línea. No sé qué contiene
ni cómo se llama, pero me está dando hambre. Con esta nueva
capacidad, puedo identificar rápidamente que es
japchae, un plato coreano, encontrar restaurantes cercanos que
lo sirvan y disfrutarlo en un abrir y cerrar de ojos. [Aplausos] Si bien todo esto
parece bastante simple, esto es lo que sucede
debajo del capó. La comprensión multimodal de Google
reconoce las
complejidades visuales del plato y las combina con una
comprensión de mi intención, que estoy buscando
restaurantes locales que sirvan japchae. Luego escanea millones de imágenes
y reseñas publicadas en páginas web y de nuestra comunidad activa
de colaboradores de Maps para encontrar resultados
sobre lugares cercanos.

Multisearch Near Me
estará disponible a nivel mundial a finales de este año en
inglés y llegará a más idiomas con el tiempo. [APLAUSOS] Hoy en día, esta tecnología
reconoce objetos capturados dentro de un solo cuadro,
pero a veces es posible que desee información sobre
una escena completa frente a usted. En el futuro,
con un avance que llamamos
exploración de escena, podrá usar Multisearch
para desplazar su cámara, hacer una pregunta
y obtener información instantánea sobre múltiples
objetos en una escena más amplia. Dejame darte un ejemplo. Digamos que estás tratando de
elegir la barra de chocolate perfecta para tu amigo, que es un
poco conocedor del chocolate. Sabes que les gusta el
chocolate negro y tienen aversión a las nueces.

Y, por supuesto, quieres
conseguirles algo bueno. Si fuera a la tienda hoy
para encontrar el mejor chocolate negro sin nueces,
estaría parado en el pasillo por un tiempo. Miraría cada barra,
averiguaría qué tipo de chocolate es, si no tiene nueces,
compararía y contrastaría las opciones, y tal vez incluso
buscaría reseñas en línea. Pero gracias a Scene
Exploration, podrá escanear todo el
estante con su cámara y ver información útil
superpuesta frente a usted. [Aplausos] Sí, información superpuesta, para que
pueda encontrar exactamente lo que está buscando. Intente hacer eso
con solo palabras clave. Así es como funciona. Scene Exploration
utiliza la visión por computadora para conectar instantáneamente
los múltiples marcos que componen la escena e identificar
todos los objetos dentro de ella. Al mismo tiempo,
aprovecha la riqueza de la web y el Knowledge Graph de Google
para mostrar los
resultados más útiles.

En este caso, qué barras son
sin nueces, chocolate negro y altamente calificadas. La exploración de escenas es un
gran avance en la capacidad de nuestro dispositivo para
comprender el mundo de la forma en que lo hacemos. Y nos da un superpoder: la capacidad de ver
información relevante superpuesta en el contexto
del mundo que nos rodea.

Puede imaginar usar
esto en una farmacia para encontrar un humectante sin olor
o en su tienda local para encontrar una
etiqueta de vino de propiedad de negros para respaldar. AUDIENCIA: Así es. [Aplausos] PRABHAKAR RAGHAVAN: Esto es como
tener un Control-F sobrealimentado para el mundo que te rodea. Mirando más
allá, esta tecnología podría usarse más allá de las
necesidades cotidianas para ayudar a abordar los
desafíos sociales, como apoyar a los
conservacionistas en la identificación de especies de plantas que
necesitan protección o ayudar a los trabajadores de socorro en casos de desastre a
clasificar rápidamente las donaciones
en momentos de necesidad.

Desde Multisearch Near
Me hasta Scene Exploration, los avances de los que hemos
hablado hoy están al servicio de
una visión más amplia para hacer que Search sea aún más
natural y útil. Para que pueda buscar en todo su
mundo, hacer preguntas de cualquier manera y en cualquier lugar. Para cumplir esta
promesa, Google necesita satisfacer las
diversas necesidades de información de miles de millones de personas . Y es fundamental que se
vean reflejados en nuestros productos. Construir para todos es
un valor central en Google. Puede que recuerdes que
en el I/O del año pasado anunciamos Real Tone,
una iniciativa de varios años para crear experiencias de
cámara e imágenes más equitativas en Pixel 6. [Aplausos] Ahora estamos ampliando
nuestro compromiso con la igualdad de tonos de piel
en todos los productos de Google. Nos asociamos con el
profesor de Harvard, el Dr. Ellis Monk, quien pasó la
última década investigando el impacto de la raza, el
origen étnico y el tono de piel en la desigualdad social.

Y su investigación
y experiencia están dando forma a cómo abordamos la
inclusión en nuestros productos. [Aplausos] Antes de dárselo
a mi colega, Annie, para contarles
más sobre el trabajo que estamos haciendo en el espacio,
escuchemos al propio Dr. Monk. [REPRODUCCIÓN DE VIDEO] – A menudo, cuando se
trata de representación, estoy entre los
más oscuros que encontrarías en los medios, cuando sé
que hay gente mucho más oscura , incluso de diferentes razas. – Los sesgos de color y el colorismo
son realmente un fenómeno global. La realidad son las oportunidades de la vida
, las oportunidades; todas estas cosas
están muy ligadas a su
composición fenotípica. – Son hechos. Siento que desde que era
un niño, si eras oscuro, no eras considerado bonito. – Desde muy joven,
sentí un fuerte sentido de la responsabilidad de profundizar más
en los problemas del colorismo. Entonces, durante los últimos 10
años, he estado trabajando en temas de desigualdad racial. Y desarrollé una
escala de tonos de piel de 10 puntos con el objetivo de asegurarme de
que todos en el continuo de tonos de piel
se sientan representados.

– ¿Sientes que
ahora mismo es fácil encontrar tu tono de piel? – Cuando escribimos "
tutorial de belleza", si solo vemos mujeres blancas, simplemente se
relaciona con el panorama general de no estar representadas. – Podemos eliminar estos
sesgos en nuestra tecnología desde una etapa muy temprana y
asegurarnos de que las tecnologías que tenemos funcionen igualmente
bien en todos los tonos de piel. Creo que esto es solo
un gran paso adelante. – Ser representado es un derecho.

Si Internet realmente
es para todos, entonces todos deberían
estar representados. – Existe un gran potencial
para que la industria de la tecnología adopte la escala,
porque el mundo es un lugar mejor
cuando la tecnología funciona igual de bien para todos. [FIN DE REPRODUCCIÓN] [REPRODUCCIÓN DE MÚSICA] ANNIE JEAN-BAPTISTE:
En Google, creamos productos para el mundo. Miles de millones de personas con diferentes
antecedentes y experiencias confían en nuestros productos todos los días. Como mencionó el Dr.

Monk, el
tono de la piel es una de las muchas dimensiones importantes
que dan forma a la identidad y las experiencias de las personas. Y todos merecemos
sentirnos vistos y validados. Hoy, nos
complace compartir cómo comenzamos a usar
la escala de tono de piel de monje para crear productos más inclusivos
en Google. Desarrollada por el Dr. Monk, la
báscula agrega un paso crítico al
desarrollo y prueba de nuestro producto para garantizar que la tecnología que
impulsa nuestro futuro funcione bien para todos. Nuestra investigación ha demostrado
que más personas en los EE. UU. consideran que Monk Scale
refleja con mayor precisión su tono de piel, en comparación con el
estándar actual de la industria. Esto fue especialmente cierto para las
personas con tonos de piel más oscuros. Estamos probando la escala a nivel mundial
y en diferentes productos, configuraciones y continuaremos
mejorándola para reflejar a las personas en todas partes.

En Google, comenzamos a
usar Monk Scale para ayudar a mejorar la forma en que entendemos y
representamos el tono de piel en productos como Fotos y Búsqueda. Todos los días, millones de
personas buscan en la web esperando ver imágenes
que coincidan con la diversidad del mundo que les rodea. Hemos comenzado a
implementar mejoras en las imágenes de la Búsqueda de Google
para mostrar una gama de diversidad de tonos de piel para que las personas
de todo tipo de entornos puedan encontrar resultados más relevantes. Y para consultas de maquillaje,
como sombras de ojos cotidianas y looks de maquillaje para novias, los
usuarios tendrán una nueva forma de filtrar por tonos de piel relevantes
para encontrar resultados más útiles.

No puedo decirles
la cantidad de veces que los tonos complementarios… [Aplausos] No puedo decirles
la cantidad de veces que los tonos complementarios
de mi tono de piel no han estado disponibles. Por eso, personalmente estoy
encantado de poder filtrar fácilmente las
imágenes con las que me puedo relacionar. Sobre la base de nuestro
trabajo con Real Tone, también estamos usando Monk Scale
para mejorar las experiencias de imágenes en productos como Google Photos. Y a finales de este mes,
lanzaremos nuevos filtros Real Tone que se diseñaron para funcionar
bien en todos los tonos de piel y se evaluaron con
la escala Monk. Estos filtros fueron creados por una
amplia gama de creadores de imágenes de renombre , que son célebres
por sus representaciones hermosas y precisas de sus sujetos. Con los filtros Real Tone
, puede aplicar la belleza y autenticidad
de la edición profesional a sus propias fotos
con solo unos pocos toques. [Aplausos] Construir
experiencias más inclusivas es un compromiso a largo plazo
, que implica una estrecha colaboración
con marcas, editores e investigadores.

Y es por eso que nos complace
anunciar que hoy ofrecemos la
escala de tono de piel de Monk para que cualquiera pueda usarla como una guía de
tono de piel más representativa — [Aplausos] — en investigación y
desarrollo de productos. Al abrir
la báscula, nuestro objetivo es mejorarla con el tiempo en
asociación con la industria. En los próximos meses,
también desarrollaremos una forma estandarizada
de etiquetar el contenido de las imágenes en la Búsqueda de Google. Los creadores, las marcas
y los editores podrán usar un
esquema inclusivo para etiquetar imágenes con atributos como el tono de la piel, el
color del cabello y la textura del cabello. Todo esto es parte de
nuestro compromiso continuo de garantizar que la web sea tan
representativa como nuestro mundo. Y ahora, echemos un vistazo a
nuestra fiesta de vigilancia en Sao Paulo. [REPRODUCCIÓN DE MÚSICA] SUNDAR PICHAI: Gracias, Annie y
equipo, por un trabajo tan inspirador.

Y olá, Sao Paulo. Hasta ahora,
hemos hablado sobre cómo estamos avanzando en el acceso
al conocimiento como parte de nuestra misión, desde una mejor
traducción de idiomas hasta experiencias de búsqueda mejoradas
en imágenes y videos y exploraciones más ricas
del mundo usando Maps. Ahora nos vamos
a centrar en cómo hacemos que ese conocimiento sea aún más
accesible a través de la informática. El viaje que hemos emprendido con
la informática es emocionante. Cada cambio del
escritorio a la web, a los dispositivos móviles, a los dispositivos portátiles
y a la computación ambiental ha hecho que el conocimiento sea más
útil en nuestra vida diaria. A pesar de lo útiles que
son nuestros dispositivos, hemos tenido que trabajar muy
duro para adaptarnos a ellos. Siempre he pensado que las computadoras
deberían adaptarse a las personas, y no al revés. Así que continuamos
esforzándonos para progresar aquí.

Para compartir más sobre
cómo estamos haciendo que la informática sea más natural e
intuitiva con el Asistente de Google, aquí está Sissie. SISSIE HSIAO: Gracias, Sundar. Es asombroso lo rápido que la voz se
está convirtiendo en una forma tan común de acceder a la informática. Cada mes, más de $700 millones de
personas en todo el mundo realizan tareas cotidianas
con su Asistente. Simplemente pueden decir, hola
Google, para obtener ayuda sobre la marcha, en sus hogares e
incluso en el automóvil. Pero estas interacciones
aún no son tan naturales como podrían ser.

Primero, debería poder
iniciar conversaciones fácilmente con su Asistente. Así que hoy, presentamos dos
nuevas opciones para que no tengas que decir, hola Google, cada vez. [Aplausos] Primero, una nueva
función para Nest Hub Max llamada Look and Talk, que
comienza a implementarse hoy. Simplemente puede mirar
directamente a su dispositivo y pedir lo que
necesita, como cuando hace contacto visual
para iniciar una conversación con otra persona. Una vez que te registras,
Look and Talk está diseñado para activarse cuando
tanto Face Match como Voice Match reconocen que eres tú. Y el video de
estas interacciones se procesa completamente en el
dispositivo, por lo que no se comparte con Google ni con nadie más. [APLAUSOS] Permítanme volver a encender la cámara
y mostrarles cómo funciona. ASISTENTE DE GOOGLE: El micrófono
y la cámara están nuevamente encendidos. SISSIE HSIAO: Al entrar
a la cocina para comenzar un fin de semana
con mi familia, simplemente puedo mirar
y preguntar, muéstrame algunas playas en Santa Cruz.

ASISTENTE DE GOOGLE: Encontré
algunas playas cerca de Santa Cruz. [Aplausos] SISSIE HSIAO:
Genial, ¿verdad? ¿ Cuánto tiempo se tarda en
llegar a ese primero? ASISTENTE DE GOOGLE: En automóvil, el
viaje a la playa estatal de Natural Bridges es de 51 minutos. [Aplausos] SISSIE HSIAO: Eso es
mucho más fácil que decir la
palabra clave una y otra vez. La capacidad de distinguir el
contacto visual intencional de una mirada pasajera requiere
seis modelos de aprendizaje automático que procesan más de 100
señales, como proximidad, orientación de la cabeza y dirección de la mirada,
para evaluar la intención del usuario en tiempo real. También probamos y
refinamos Look and Talk para que funcione en una gama
de diferentes tonos de piel utilizando algunos de los mismos
principios de inclusión detrás de Real Tone en la
cámara Pixel 6 y Monk Scale.

[Aplausos] También nos complace expandir
Quick Phrases en Nest Hub Max. Quick Phrases ya
te permite omitir la palabra clave para cosas como responder llamadas en
Pixel 6 y detener temporizadores en dispositivos Nest. Y en los próximos
meses, podrá pedirle a su Asistente
muchas solicitudes comunes, como configurar alarmas,
preguntar la hora y controlar las luces
desde su Nest Hub Max, todo sin decir la palabra clave. [Aplausos] Muy bien, mira esto. Apaga la luz de la sala. Eso fue tan fácil. Solo dije lo que quería. Diseñado
pensando en la privacidad, usted elige qué frases rápidas están
habilitadas para su Nest Hub Max.

Esas son dos formas en las
que cada vez es más fácil comenzar a hablar
con el Asistente. También estamos mejorando la forma en que el
Asistente te entiende al ser más receptivo mientras
hablas con naturalidad. Si escucha con atención, las
conversaciones de las personas están llenas de ums,
pausas y correcciones. Pero eso no impide que
nos entendamos. Y eso es porque las personas
son oyentes activos y pueden reaccionar a las
señales de conversación en menos de 200 milisegundos. Los humanos manejan esto de forma tan
natural, pero hacer esto para conversaciones abiertas
a través del Asistente es
un problema realmente difícil. Mover nuestros modelos de voz
para ejecutarlos en el dispositivo aceleró las cosas,
pero queríamos ir más allá aún más. El avance se
produce mediante la creación de
redes neuronales más completas que se ejecutan en el
chip Google Tensor, que se creó para manejar
tareas de aprendizaje automático en el dispositivo de manera súper rápida.

Déjame mostrarte una vista previa de
cómo todo esto se unirá. Por ejemplo, podría tocar
y mantener presionados mis Pixel Buds y decir reproducir la
nueva canción de… ASISTENTE DE GOOGLE: Mhm. SISSIE HSIAO: Florencia
y el algo. ASISTENTE DE GOOGLE: Entendido. Reproduciendo "Free" de Florence
and the Machine en Spotify. [REPRODUCIENDO MÚSICA] SISSIE HSIAO: Escuchaste cómo
me tropecé al principio.

Pero mi Asistente
gentilmente me animó a completar mi pensamiento. Y luego, incluso cuando me
equivoqué con el nombre del artista, el Asistente de Google
descubrió correctamente la canción que quería. Es sorprendente cómo
estas mejoras cambian la forma en que se siente
hablar con su Asistente. Puede dejar de preocuparse por la
forma correcta de pedir algo y simplemente relajarse y
hablar con naturalidad. Así es como estamos
impulsando la informática con la conversación natural,
permitiéndole iniciar una conversación fácilmente
y haciendo que pueda hablar
con naturalidad, todo para que realmente lo entiendan. Estoy emocionado de ver cómo nuestras
voces se convertirán en una forma más rápida y manos libres de
hacer las cosas en muchos tipos de dispositivos,
incluido un ecosistema de Android en crecimiento del que escuchará
en unos minutos. Gracias y de vuelta a usted, Sundar. [Aplausos] SUNDAR PICHAI: Gracias, Sissie. Trabajamos continuamente
para mejorar nuestras capacidades conversacionales. La conversación y el
procesamiento del lenguaje natural son formas poderosas
de hacer que las computadoras sean más accesibles para todos. Y los grandes
modelos de lenguaje son clave para esto.

El año pasado, presentamos
LaMDA, nuestro modelo de lenguaje generativo para aplicaciones de diálogo
que pueden conversar sobre cualquier tema. Hoy, nos complace
anunciar LaMDA 2, nuestra IA conversacional más avanzada hasta el momento. Estamos al
comienzo de un viaje para hacer que modelos como
estos sean útiles para las personas. Y sentimos una profunda
responsabilidad de hacerlo bien. Y para progresar,
necesitamos personas que experimenten la tecnología
y brinden retroalimentación. Abrimos LaMDA a
miles de Googlers, quienes disfrutaron probándolo y
viendo de lo que era capaz. Esto produjo
mejoras significativas en la calidad y condujo a una reducción de las respuestas
inexactas u ofensivas . Por eso hemos
creado AI Test Kitchen. Es una nueva forma de explorar las
funciones de IA con una audiencia más amplia . Dentro de AI Test
Kitchen, hay algunas experiencias diferentes. Cada uno está destinado a darle
una idea de cómo sería
tener LaMDA en sus manos y usarlo para las cosas que
le importan. El primero se llama Imagine It. Esta demostración prueba si
el modelo puede tomar una idea creativa que le
das y generar descripciones imaginativas y
relevantes.

Estos no son productos. Son bocetos rápidos
que nos permiten explorar lo que LaMDA puede hacer contigo. Como ves, las
interfaces de usuario son muy sencillas. Digamos que estás escribiendo
una historia y necesitas algunas ideas inspiradoras. Tal vez uno de tus personajes
esté explorando las profundidades del océano. Puedes preguntar cómo se
sentiría eso. Aquí, LaMDA describe la
escena en la Fosa de las Marianas. Incluso genera
preguntas de seguimiento sobre la marcha. Puedes pedirle a LaMDA que imagine
qué tipo de criaturas podrían vivir allí. Recuerde, no
programamos manualmente el modelo para temas específicos como
submarinos o bioluminiscencia.

Ha sintetizado estos conceptos
a partir de sus datos de entrenamiento. Es por eso que puedes preguntar
sobre casi cualquier tema: los anillos de Saturno o
incluso imaginar estar en un planeta hecho de helado. Mantenerse en el tema es un
desafío para los modelos de lenguaje. Digamos que está construyendo una
experiencia de aprendizaje. Desea que sea lo
suficientemente abierto como para permitir que las personas exploren a dónde los lleva la curiosidad,
pero que se mantengan seguros en el tema.

Nuestra segunda demostración prueba
cómo funciona LaMDA con eso. En esta demostración,
hemos preparado el modelo para que se centre en el tema de los perros. Nuevamente comienza generando una
pregunta para iniciar la conversación. ¿ Alguna vez te has preguntado por qué a los perros les
encanta jugar a buscar? Y si hace una
pregunta de seguimiento, obtendrá una respuesta con
algunos detalles relevantes. Es interesante. Piensa que podría
tener algo que ver con el sentido del
olfato y la búsqueda de tesoros.

Puedes llevar la conversación
como quieras. Tal vez tenga curiosidad
acerca de cómo funciona el olfato y solo quiera
profundizar más. También obtendrá una
respuesta única para eso. No importa lo que preguntes,
intentará mantener la conversación sobre el tema de los perros. Si empiezo a preguntar sobre el
cricket, lo que probablemente haría, el modelo vuelve a traer el tema
a los perros de una manera divertida. Creo que los perros harían– [RISAS] Ahora, el desafío de mantenerse
en el tema es complicado. Es un
área importante de investigación para construir aplicaciones útiles
con modelos de lenguaje. Y esta última demostración
es mi favorita, así que la haremos en vivo. Déjame pasarle la palabra a Josh. [Aplausos] JOSH WOODWARD: Gracias, Sundar.

Como equipo, hemos aprendido
mucho en este proyecto. Y esta será la primera
demostración en vivo de LaMDA desde el escenario. ¿ Estás listo
para ver cómo funciona? [APLAUSOS] Muy bien. Aquí estoy en la
aplicación AI Test Kitchen. Voy a abrir
esta demostración llamada List It. Ahora List It
explora si LaMDA puede tomar un objetivo
o tema complejo y dividirlo en subtareas relevantes. Puede ayudarme a
descubrir lo que estoy tratando de hacer y generar
ideas útiles en las que quizás no haya pensado.

Si te encantan las listas de tareas como a mí
, este es un sueño hecho realidad. Voy a tocar Inicio. Y este es un proyecto en el que he estado
pensando mucho últimamente: plantar un huerto. Enviaré esto a LaMDA. Y ahí está. Sobre la marcha, se le ocurrieron
estos diferentes pasos y los dividió en
esta lista de subtareas. Puedo ver cosas como hacer una
lista de lo que quiero cultivar, la ubicación. También puedo generar una lista sobre
la marcha para obtener aún más ideas. Ahora, lo interesante
de estos es que puedo caer rápidamente en uno de ellos. Digamos este, como
lo que podría crecer en el área. Y pueden ver que
me dará más sugerencias. Puedo continuar,
desglosando esto, donde eventualmente
me da una lista de lo que podría querer plantar,
como tomates, lechuga o ajo. Mantendremos el ajo
fuera de esto esta vez. Una de las otras
cosas que hace lambda no es solo desglosar listas,
sino que también puede generar una sugerencia. Así que aquí, cuando toco,
genero un consejo: oh, nunca
antes se había visto, en realidad.

Me dice que si tengo
un jardín o patio pequeño, me da diferentes vegetales que
podría cultivar. Ahora, cuando pensamos
en productos como este y en experiencias como
esta, es mucho más que simplemente crear una lista
de vegetales para cultivar. Si vuelvo a desplazarme hacia arriba, pueden
ver todos los diferentes caminos en los que LaMDA me está ayudando a
pensar y dándome consejos
en el camino. Y así, toda esta
tarea se siente mucho menos desalentadora. Volviendo a ti, Sundar. SUDAR PICHAI: Gracias, Josh. Al igual que las otras demostraciones,
puede ingresar todo tipo de objetivos, ya sea mudarse a una nueva
ciudad o aprender a tocar un instrumento. Estas experiencias
muestran el potencial de los modelos de lenguaje
para algún día ayudarnos con cosas como planificar,
aprender sobre el mundo y más. Por supuesto, existen
importantes desafíos que resolver antes de que estos
modelos puedan ser realmente útiles. Si bien hemos mejorado la
seguridad, el modelo aún podría generar respuestas
inexactas, inapropiadas u ofensivas. Es por eso que estamos invitando
comentarios en la aplicación, para que las personas puedan ayudar a
informar problemas.

Y haremos todo
este trabajo de acuerdo con nuestros principios de IA. Nuestro proceso será
iterativo, abriendo el acceso en los próximos meses
y evaluando cuidadosamente los comentarios con una amplia
gama de partes interesadas, desde investigadores de IA y
científicos sociales hasta expertos en derechos humanos . Incorporaremos estos comentarios
en futuras versiones de LaMDA y compartiremos nuestros hallazgos sobre la marcha. Con el tiempo, tenemos la intención de seguir
agregando otras áreas emergentes de IA a nuestra cocina de prueba de IA. Y puedes aprender más aquí. Como acaba de ver, LaMDA 2 tiene capacidades de
conversación increíbles . Para explorar otros aspectos
del procesamiento del lenguaje natural y la IA, recientemente
anunciamos un nuevo modelo.

Se llama Pathways Language
Model, o PaLM para abreviar. Es nuestro modelo más grande hasta la fecha
y está entrenado en 540 mil millones de parámetros. PaLM demuestra un
rendimiento innovador en muchas
tareas de procesamiento de lenguaje natural, como generar
código a partir de un texto, responder un problema matemático
o incluso explicar un chiste. Lo logra
a través de una mayor escala. Y cuando combinamos esa
escala con una nueva técnica llamada Incitación a la cadena de pensamientos
, los resultados son prometedores. Las indicaciones de cadena de pensamientos
nos permiten describir
problemas de varios pasos como una serie de
pasos intermedios. Tomemos un ejemplo
de un problema de matemáticas que requiere razonamiento. Normalmente, la forma en que
usa un modelo es indicándolo con la
pregunta y la respuesta. Y entonces empiezas a
hacer preguntas. En este caso, ¿cuántas horas
tiene el mes de mayo? Entonces, como puede ver, el modelo
no lo entendió bien.

Entonces, en la guía de la cadena de pensamientos
, le damos al modelo un
par de preguntas y respuestas. Pero esta vez,
explicamos cómo se derivó la respuesta , como
cuando tu profesor te da un ejemplo paso a paso
para ayudarte a entender cómo resolver un problema. Ahora, si le vuelves a preguntar al modelo
cuántas horas tiene el mes de mayo
u otra pregunta relacionada, en realidad responde correctamente. E incluso muestra su trabajo. [Aplausos] Las indicaciones de cadena de pensamientos
aumentan la precisión por un amplio margen. Esto conduce a un
rendimiento de vanguardia en varios
puntos de referencia de razonamiento, incluidos los problemas matemáticos. Y podemos hacerlo todo
sin cambiar nunca la forma en que se entrena el modelo. PaLM es altamente capaz
y puede hacer mucho más.

Por ejemplo,
podría ser alguien que habla un idioma
que no está bien representado en la
web hoy en día, lo que dificulta encontrar información. Aún más frustrante
porque la respuesta que estás buscando
probablemente esté ahí fuera. PaLM ofrece un nuevo enfoque
que promete mucho para hacer que el conocimiento sea más
accesible para todos. Permítanme mostrarles un
ejemplo en el que podemos ayudar a responder preguntas en un
idioma como el bengalí, hablado por un cuarto de billón de personas.

Al igual que antes,
solicitamos al modelo dos ejemplos de preguntas
en bengalí con respuestas en bengalí e inglés. Dicho esto, ahora podemos empezar a
hacer preguntas en bengalí. ¿ Cuál es la
canción nacional de Bangladesh? La respuesta, por cierto,
es "Amar Sonar Bangla". Y PaLM también lo hizo bien. Esto no es tan
sorprendente porque esperaría que ese contenido
existiera en bengalí. Pero también puede
probar algo que es menos probable que tenga
información relacionada en bengalí, como ¿cuáles son los
ingredientes de pizza populares en la ciudad de Nueva York? Y el modelo nuevamente responde
correctamente en bengalí, aunque probablemente
provocó un debate entre los neoyorquinos sobre qué tan correcta
es realmente esa respuesta. Lo que es tan impresionante
es que PaLM nunca ha visto oraciones paralelas
entre bengalí e inglés. Nunca se
enseñó explícitamente a responder preguntas o traducir en absoluto. El modelo reunió todas
sus capacidades para responder preguntas
correctamente en bengalí. Y podemos extender la
técnica a más idiomas en otras tareas complejas.

Somos muy optimistas sobre el
potencial de los modelos de lenguaje. Un día, esperamos
poder responder preguntas sobre más temas en cualquier idioma que
hable, haciendo que el conocimiento sea aún más accesible en la Búsqueda
y en todo Google. Todos los avances que
hemos compartido hoy son posibles solo gracias
a nuestra continua innovación en nuestra infraestructura. Recientemente, anunciamos planes
para invertir $ 9 y 1/2 mil millones en centros de datos y
oficinas en los EE. UU. Uno de nuestros centros de datos de última generación
se encuentra en el condado de Mayes, Oklahoma. Me complace
anunciar que allí estamos lanzando el centro de aprendizaje automático disponible
públicamente más grande del mundo
para todos nuestros clientes de Google Cloud. Este centro de aprendizaje automático tiene
ocho partes de Cloud TPU V4 personalizadas en la misma
infraestructura de red que impulsa los modelos neuronales más grandes de Google.

Proporcionan casi
nueve exaflops de poder de cómputo en conjunto,
brindando a nuestros clientes una capacidad sin precedentes para ejecutar
modelos y cargas de trabajo complejos. Esperamos que esto impulse la
innovación en muchos campos, desde la medicina hasta la logística, la
sostenibilidad y más. Y hablando de
sostenibilidad, este centro ya está funcionando con un
90 % de energía libre de carbono. [Aplausos] Esto nos ayuda a
avanzar en nuestro objetivo de convertirnos en la primera
gran empresa en operar todos nuestros centros de datos y
campus a nivel mundial con energía libre de carbono las 24 horas del día, los siete días de la semana para 2030.

[Aplausos] Incluso mientras invertimos
en nuestros centros de datos, también estamos trabajando para innovar
en nuestras plataformas móviles para que se pueda realizar más procesamiento
localmente en el dispositivo. Google Tensor, nuestro
sistema personalizado en un chip, fue un paso importante
en esta dirección. Ya se está ejecutando
en Pixel 6 y Pixel 6 Pro y trae nuestras
capacidades de inteligencia artificial, incluido el mejor
reconocimiento de voz que jamás hayamos implementado, directamente en su teléfono. También es un gran paso
adelante para hacer que esos dispositivos sean más seguros. Combinado con el
núcleo de cómputo privado de Android, puede ejecutar funciones basadas en datos
directamente en el dispositivo para que sea privado para usted. Para compartir más sobre cómo
estamos haciendo que la informática sea más segura con Google, permítanme
pasarle la palabra a Jen.

[Aplausos] JEN FITZPATRICK: Todos los días, las
personas recurren a nuestros productos en busca de ayuda en momentos
grandes y pequeños. Lo fundamental para hacer esto
posible es proteger su información privada en
cada paso del camino. Incluso a medida que la tecnología se vuelve cada
vez más compleja, mantenemos a más personas seguras
en línea que cualquier otra persona en el mundo con productos
que son seguros de forma predeterminada, privados por diseño y que le
permiten a usted tener el control. Hoy, me enorgullece
compartir con ustedes nuestros últimos avances que hacen que
cada día sea más seguro con Google. Los ataques cibernéticos generalizados,
como Colonial Pipeline y la reciente
vulnerabilidad Log4J, amenazan con poner
en riesgo la información privada de las personas, interrumpir servicios críticos
como redes de energía y redes de telecomunicaciones,
y debilitar las democracias globales. Para evitar futuros
ataques, estamos elevando el listón para toda la
industria al ser pioneros en tecnología de ciberseguridad avanzada,
alertando a otros sobre los riesgos de seguridad dentro de
sus propios sistemas y soluciones de código abierto que
hacen que Internet sea más seguro.

Equipos especializados como Threat
Analysis Group y Project Zero contrarrestan a los actores de amenazas graves
y detectan vulnerabilidades en Internet. El año pasado, nuestro
Grupo de análisis de amenazas detectó que más de 40 000
usuarios estaban siendo atacados por actores respaldados por el gobierno. Alertamos automáticamente a
todos, aumentamos las protecciones
y bloqueamos los ataques. [Aplausos] Más recientemente, con
la guerra en Ucrania, observamos una oleada
de ataques distribuidos de denegación de servicio
contra sitios web que brindan información crítica, como
noticias actuales y recursos de evacuación.

Ampliamos nuestro
programa de defensa DDoS gratuito, Project Shield, para defender más de 180
sitios web ucranianos, incluidos los que pertenecen al
gobierno ucraniano, a grupos de noticias y de derechos humanos. Y debido a que gran parte de la
infraestructura tecnológica del mundo está peligrosamente desactualizada,
ahora estamos invirtiendo $ 10 mil millones para modernizar
sistemas e infraestructuras vulnerables, asegurar la
cadena de suministro de software y capacitar a 100,000 estadounidenses
en habilidades digitales, incluida la privacidad de datos
y la ciberseguridad a través del Certificado de carrera de Google.
Programa. Además de mantener seguras a las
empresas y organizaciones en todo el mundo,
incorporamos seguridad avanzada en todo lo que hacemos para
proteger a los usuarios individuales. En los últimos años, las
estafas de phishing han aumentado sustancialmente.

Y son responsables del
90 % de los ataques cibernéticos recientes. Nuestras protecciones integradas
interceptan estos intentos antes de que te alcancen. Por ejemplo, todos los días,
Gmail y Mensajes de Google bloquean más de 15 000 millones de
mensajes de spam y phishing. Google Play ahora escanea 125
mil millones de aplicaciones instaladas en busca de malware, lo que hace que
todo el ecosistema de aplicaciones sea más seguro. Y nuestra tecnología de navegación segura
integrada en Chrome y
otros navegadores importantes ahora protege 5 mil millones de
dispositivos de sitios peligrosos. Detectar y bloquear amenazas
a esta escala todos los días hace que nuestra protección impulsada por IA sea
insuperable y también permite que nuestros equipos
identifiquen nuevas áreas para proteger, razón por la cual
ahora estamos ampliando nuestras protecciones contra phishing comprobadas a
Documentos, Hojas de cálculo y Presentaciones de Google. Pronto, si está trabajando
en un documento compartido que contiene un
enlace sospechoso, lo alertaremos automáticamente y lo
llevaremos de vuelta a un lugar seguro. [Aplausos] No importa dónde ocurran,
todos los intentos de phishing comparten un solo objetivo: comprometer su
cuenta, a menudo usándola como una herramienta para propagar el
ataque a su red.

La protección de su cuenta
comienza con la creación de las tecnologías de autenticación más avanzadas
en todos los lugares donde inicie sesión. Los expertos en seguridad cibernética dicen que
la forma más importante de proteger su cuenta
y ayudar a prevenir ataques cibernéticos es usar la
autenticación multifactor. Sin embargo, a veces
tiene mala reputación por crear fricción adicional. Es por eso que hemos hecho que nuestra
verificación en dos pasos sea lo más fácil posible. Ya sea que esté en
Android o iOS, solo un toque en su
teléfono y estará dentro. No hay códigos de seis dígitos. [Aplausos] Hace más de 10 años, fuimos
la primera empresa de tecnología de consumo en ofrecer
verificación en dos pasos.

Y ahora somos los primeros
en activarlo de forma predeterminada. Solo el año pasado, inscribimos
150 millones de cuentas adicionales en la verificación de dos pasos. [Aplausos] Y estamos optimizando el flujo de inicio de sesión
y la experiencia de recuperación de la cuenta para que podamos
activar esta capa adicional de protección para todos. Para extender la seguridad de clase mundial
de su cuenta de Google a todas sus cuentas en línea,
creamos Iniciar sesión con Google. Todos los días, 400
millones de personas lo usan para acceder de forma segura con un solo clic
a todo, desde sitios de viajes
hasta aplicaciones de supermercado. Crear un
sistema de autenticación que sea seguro y fácil de
usar es un gran desafío. Quiero decir, ¿cuántas
veces hemos tenido que hacer clic en Olvidé mi contraseña? Gracias a años de
inversión en ingeniería en nuestro administrador de contraseñas, verificación en dos pasos
, claves de seguridad y, más recientemente,
Passkeys, hemos trazado el camino hacia un
futuro sin contraseñas.

[Aplausos] Y ahora estamos liderando
un esfuerzo de toda la industria para habilitar el inicio de sesión sin contraseña
en todos los dispositivos, sitios web y aplicaciones en cualquier plataforma. Estoy realmente orgulloso
del trabajo que hemos realizado para hacer que la autenticación segura sea
accesible para
todos en todas partes. Como todos hacemos más y más
compras en línea, mantener su
información de pago segura y protegida es de vital importancia. Hoy, me complace anunciar
el lanzamiento de tarjetas virtuales en Chrome y Android. Ahora, cuando utilice el autocompletado para
completar los detalles de su pago al finalizar la compra,
reemplazaremos su número de tarjeta con un número virtual distinto
, lo que reducirá el riesgo de fraude y robo de identidad. Para brindar a más personas acceso
a una forma más segura de pagar en línea, hemos trabajado en estrecha colaboración con Visa,
American Express, Capital One y Mastercard para
lanzar tarjetas virtuales a partir de este verano.

[APLAUSOS] Supervisamos constantemente la
seguridad de su cuenta de Google para brindarle tranquilidad. Ahora estamos agregando un
estado de seguridad en su foto de perfil. Entonces, si algo necesita su
atención, se lo haremos saber y luego lo guiaremos
a través de pasos simples para garantizar que su
cuenta esté segura. Somos implacables
a la hora de proteger su información personal con
la seguridad más avanzada del mundo, porque si
no es segura, no es privada. Pero proteger su
privacidad requiere que seamos igualmente rigurosos
en la creación de productos que sean privados por diseño. Y estoy emocionado de contarles
acerca de nuestros últimos avances en esta área. Hoy en día, la informática ya no
ocurre solo en una computadora o en un teléfono, sino en
su hogar, en su automóvil, en su muñeca y en la nube. Desbloquear
experiencias útiles personalizadas mientras se protege la privacidad del usuario
en este entorno cada vez más complejo presenta nuevos
desafíos técnicos. Basándonos en
investigaciones profundas y avances en IA, hardware
y computación en la nube, hemos diseñado un
nuevo enfoque técnico que llamamos computación protegida.

En esencia, Protected
Computing es un conjunto de herramientas de tecnologías en crecimiento que
transforma cómo, cuándo y dónde se procesan los datos para
garantizar técnicamente la privacidad y seguridad de sus datos. Nuestro enfoque se centra
en tres áreas. Primero, minimizamos
su huella de datos. Nuestro enfoque aquí es reducir
la cantidad de datos de identificación personal por completo: recopilar menos y eliminar
más, utilizando técnicas como el procesamiento de borde
y lo efímero. Si los datos no
existen, no pueden ser pirateados. En segundo lugar, desidentificamos los datos. Desde difuminar y aleatorizar
señales identificables hasta agregar
ruido estadístico, utilizamos una variedad de
técnicas de anonimización para eliminar su identidad
de sus datos para que ya no estén vinculados a usted. Y, en tercer lugar, restringimos el
acceso a través de tecnologías como el cifrado de extremo a extremo
y enclaves seguros.

Se trata de hacer que
sea técnicamente imposible para cualquier persona,
incluido Google, acceder a sus datos confidenciales. Este conjunto de herramientas de
diversas técnicas nos permite implementar la solución más segura e
inteligente posible y, a menudo, apilar
varias técnicas para proporcionar protecciones en capas. Hoy en día, la
informática protegida permite que Android sugiera la
siguiente frase en su texto mientras mantiene su conversación
completamente privada. Ayuda a Pixel a saber cuándo
mantener la pantalla activa mientras elimina continuamente las
señales ambientales a medida que se procesan. Y permite que Chrome
le avise de contraseñas comprometidas sin saber ni una sola.

[Aplausos] Más tarde hoy,
escuchará más acerca de cómo la informática protegida
está permitiendo nuevas experiencias ambientales en sus
dispositivos Android y domésticos inteligentes mientras mantiene su
información privada. Además de brindar
experiencias útiles, la computación protegida es
esencial para desbloquear el potencial de los datos
para beneficiar a la sociedad en general de una manera que
preserve la privacidad de todos. Por ejemplo, nuestro
equipo de Environmental Insights está explorando cómo, con
informática protegida, podemos proporcionar a los gobiernos locales

datos de ubicación y movimiento anonimizados y agregados dentro de sus ciudades para ayudar a
reducir su huella de carbono. La informática protegida
representa nuestro profundo compromiso con la innovación de nuevas
soluciones técnicas que hacen que la tecnología sea más
útil, segura y privada en todos los lugares donde se
desarrolla la informática.

Nadie más está implementando
un enfoque tan multifacético a nuestra escala. Y estoy emocionado de ver todas
las formas en que nuestros equipos aplicarán la computación protegida para
garantizar que cada día esté más seguro con Google. [Aplausos] Al final del
día, creemos que la privacidad es personal. Es por eso que continuamos creando
controles potentes que le permiten elegir lo que más le convenga. Para compartir más sobre
las nuevas formas en las que le damos el
control de sus datos, permítame pasárselo a Danielle. DANIELLE ROMAIN:
Nos sentimos privilegiados de que miles de millones de
personas confíen en productos como la Búsqueda, Chrome, Maps y
Android para ayudarlos todos los días.

Y trabajamos arduamente para ganarnos
esa confianza al brindarle herramientas que le permiten
controlar su privacidad y que lo ayudan a controlar
su experiencia en línea. Como mencionó Jen,
proteger su privacidad es fundamental para que cada
día sea más seguro con Google. Una forma importante en que
hacemos esto es ayudándolo a tener más control
sobre sus datos, incluidos los datos
utilizados para mostrarle anuncios. Nunca vendemos su
información personal a nadie ni usamos el contenido que almacena en
aplicaciones como Gmail, Google Photos o Drive con
fines publicitarios. Tampoco usamos
información confidencial como salud, raza, religión
u orientación sexual para anuncios personalizados, punto . Creemos que los mejores anuncios
son útiles, relevantes y seguros.

Así que más adelante este año,
lanzaremos Mi centro de anuncios para brindarle aún más
control sobre los anuncios que ve en YouTube,
Búsqueda y Descubrir. [APLAUSOS] Estamos ampliando nuestra
configuración de privacidad de anuncios existente. Ahora, a través de Mi
centro de anuncios, puede controlar directamente los datos que se utilizan
para personalizar sus anuncios.

Por primera vez,
puedes elegir ver más anuncios de las
categorías o marcas que te gustan. Por ejemplo, estoy interesado
en vehículos híbridos, así que elijo ver anuncios
de esa categoría. También puede optar por ver menos
anuncios de categorías o marcas que no le interesen. Podrá acceder a Mi
centro de anuncios a través de su cuenta de Google o directamente desde el anuncio. Pero no se trata solo de
administrar sus datos. También sabemos que las personas
quieren tener más control sobre su presencia en línea
para sentirse más seguras.

Así que tengo una pregunta
para todos ustedes. ¿ Cuántos de ustedes han buscado
su nombre en Google? DE ACUERDO. Hago la
búsqueda ocasional por mí mismo. Y a juzgar por la
reacción, puedo decir que no soy el único que
busca lo que otros pueden encontrar sobre mí en línea. En Google, si bien creemos firmemente
en el acceso abierto a la información, también
tenemos un profundo compromiso con la protección de las personas en línea. Es por eso que tenemos
políticas para eliminar ciertos tipos de
información de identificación personal de los resultados de búsqueda que
sabemos que las personas pueden preferir mantener en privado, como su
cuenta bancaria o números de tarjetas de crédito que podrían
usarse para fraude financiero.

Ahora nos basamos en esto
al presentar una nueva herramienta para acompañar las
políticas de eliminación actualizadas que le permite tener
aún más control de su presencia en línea. [APLAUSOS] Pronto, si encuentra resultados de búsqueda
que contienen sus datos de contacto, como su
número de teléfono, domicilio o dirección de correo electrónico que
desea eliminar, puede solicitar fácilmente su
eliminación de la Búsqueda de Google. [APLAUSOS] Por supuesto, eliminar esta
información de la Búsqueda de Google no la elimina de la web.

Pero este es un
paso importante para ayudar a proteger a las personas en línea. Esta función estará
disponible en los próximos meses en la
aplicación de Google y también podrá acceder a ella
haciendo clic en los tres puntos junto a los
resultados individuales de la Búsqueda de Google. Otra parte de
estar más seguro en línea es tener acceso a
información confiable. La Búsqueda de Google está construida
desde cero para ofrecer
información de alta calidad. Esto ha diferenciado a Google
desde el primer día. Y es algo en lo que
invertimos sin descanso. Y también le brindamos
herramientas para evaluar la confiabilidad de la
información que encuentra. Una de las herramientas que
lanzamos el año pasado, llamada Acerca de este
resultado, ya se ha utilizado más de
1600 millones de veces. Esta herramienta está disponible en los
resultados de búsqueda individuales, lo que lo ayuda a ver el
contexto importante sobre un sitio web incluso antes de visitarlo.

Pero queremos asegurarnos de que se
sienta en control de la información que
está consumiendo dondequiera que esté en línea. Por lo tanto, estamos haciendo que este
contexto útil sea más accesible a medida que explora la
web más allá de la búsqueda. Así que imagine sus
esfuerzos de investigación y conservación, y se encuentra
en un sitio web desconocido de una
organización de protección de la selva tropical. Antes de decidirse
a donar, le gustaría saber
si es confiable. Y con solo un
toque, la aplicación de Google pronto mostrará el
contexto relevante sobre el sitio web, incluida
la descripción del sitio, lo que dicen sobre sí mismos y
lo que otros dicen sobre ellos, ayudándolo a explorar
con confianza. Podrá ver contextos
como este en cualquier sitio web, próximamente en la
aplicación de Google en iOS y Android. [Aplausos] Como hemos hablado
hoy, en Google, mantenemos a más personas seguras
en línea que cualquier otra persona en el mundo con productos
que son seguros de forma predeterminada, privados por diseño y
que te dan el control.

Todo lo que hacemos está diseñado
teniendo en cuenta la seguridad, incluidas las plataformas
con miles de millones de usuarios, como la búsqueda y Android. Y hablando de
Android, el equipo ha estado creando
experiencias geniales en los muchos
dispositivos de tu vida. Y a continuación, Sameer estará
aquí para contarte más al respecto. Pero primero, saludemos
a nuestra fiesta de vigilancia en Londres. [REPRODUCIENDO MÚSICA] SAMEER SAMAT: Hola a todos.

Es fantástico estar de vuelta en
Shoreline para Google I/O. [Aplausos] A lo largo de los años, Android se ha
convertido en el sistema operativo más popular del mundo, brindando acceso,
conectividad e información a personas de todas partes
en sus teléfonos inteligentes. Solo el año pasado, los consumidores
activaron mil millones de nuevos teléfonos Android. Y como Prabhakar
nos mostró anteriormente, con los avances en el
aprendizaje automático, estas supercomputadoras
en nuestro bolsillo pueden ayudarnos a hacer más
que nunca. Si bien el teléfono sigue siendo la
forma de computación más popular, las personas agregan cada vez más
todo tipo de tecnologías conectadas a
sus vidas, como televisores, automóviles, relojes y más. E incluso si esos dispositivos provienen
de diferentes fabricantes, la gente espera que todo funcione en
conjunto sin problemas. Tiene que ser sencillo. Android siempre se ha tratado de
personas que eligen la tecnología que funciona mejor para ellos.

En un mundo de múltiples dispositivos
, creemos que esta apertura es aún más
esencial para crear la mejor experiencia para el consumidor. Entonces, hablemos de las
novedades de Android 13 para brindar todos los beneficios
de este futuro multidispositivo para todos. Hay tres grandes
temas en los que estamos enfocados. Primero, permitiéndole hacer más
con su teléfono en el centro. En segundo lugar, extenderse
más allá del teléfono a todas las formas
de computación que la gente ama, como relojes,
tabletas y más. Y tercero, hacer que
todos sus dispositivos funcionen mejor juntos para
resolver problemas y ayudarlo a lo largo del día.

Comencemos
hablando de teléfonos. Android 13 se basa
en nuestro lenguaje de diseño Material You para que tu
teléfono tenga aún más formas de adaptarse a tu estilo. Todos los íconos de su aplicación ahora pueden
incorporar su tema de color. Y hay un nuevo
control de medios que adapta su aspecto a la
música que estás escuchando. Me encanta cómo la
barra de progreso se mueve al ritmo. es genial Incluso puede personalizar
su experiencia configurando un
idioma diferente por aplicación. Entonces, si es multilingüe,
puede usar su aplicación de redes sociales en un idioma y su
aplicación bancaria en otro.

Y, por supuesto,
Android 13 viene repleto de docenas de nuevas
funciones de seguridad y privacidad. Pero la seguridad debe
ir más allá de su dispositivo. Cuando envía un mensaje desde
su teléfono al de otra persona, quiere asegurarse de que
sea privado y seguro. Es por eso que hemos trabajado con
operadores y fabricantes de dispositivos de todo el mundo para
actualizar la mensajería de texto SMS a un nuevo estándar
llamado RCS, que puede habilitar importantes
protecciones de privacidad como el cifrado de extremo a extremo. Este es un gran paso adelante
para el ecosistema móvil. Y estamos muy entusiasmados
con el progreso. De hecho, la
aplicación Mensajes de Google ya tiene quinientos millones de
usuarios activos mensuales con RCS y está creciendo rápidamente. Esperamos que todos los sistemas operativos móviles
reciban el mensaje y se actualicen a RCS para que
sus mensajes sean privados sin importar qué
dispositivo esté usando. Ahora, nuestros teléfonos
son partes esenciales de la forma en que nos comunicamos con
nuestros amigos, familiares y seres queridos. De hecho, en estos días,
solo hay dos cosas sin las que no salgo de casa: mi teléfono y mi billetera.

Entonces la pregunta es, ¿puede mi
teléfono reemplazar mi billetera? Bueno, hoy nos complace
presentar el nuevo Google Wallet. [APLAUSOS] Es una
billetera digital para Android que le brinda
acceso rápido y seguro a sus elementos esenciales cotidianos. Su Google Wallet almacena de forma segura
sus tarjetas de pago para que pueda tocar para pagar en cualquier lugar donde
se acepte Google Pay. Pero Wallet es para
mucho más que pagos. Es una manera de desbloquear más
del mundo que te rodea. Puede mostrar su identificación de estudiante
en el campus, abordar un vuelo o encender su automóvil. Incluso puede usarlo
como su pase de parque para explorar Walt Disney World.

Los elementos que contienen
información muy personal, como su tarjeta de vacunas,
se almacenan en su dispositivo y no se comparten con
nadie, ni siquiera con Google. Ahora, sabemos que es difícil
deshacerse de su billetera física si no tiene su
artículo más esencial: su identificación. Por eso, estamos trabajando con los estados
aquí en los EE. UU. y los gobiernos de todo el mundo para llevar las
identificaciones digitales a la billetera más adelante este año, comenzando
con las licencias de conducir. Puede compartir la
información en su identificación sin tener que darle
su teléfono a otra persona. Simplemente toque NFC
o use un código QR. Google Wallet se
implementará en dispositivos Android y Wear OS en todo
el mundo en las próximas semanas. [APLAUSOS] Ahora, ayudarlo a
comunicarse de manera segura con sus amigos y familiares y almacenar
su identidad digital es realmente útil. Pero nuestros teléfonos pueden ser
aún más esenciales en momentos difíciles de
la vida, como emergencias o desastres naturales.

Hace dos años, desarrollamos
los primeros algoritmos en un teléfono para detectar cuándo
estás en un accidente automovilístico y pedir ayuda automáticamente. Vamos a ver. [REPRODUCCIÓN DE VIDEO] – No recuerdo
nada del accidente. Me desperté. yo estaba boca abajo Y tenía
combustible diesel goteando sobre mí. Con la voz más poderosa que
tenía, grité, ayuda,
lo cual sabía que no tenía sentido. Pero escuché que la ayuda está en camino. El teléfono detectó el
accidente y llamó al 911. Hubo mucha alegría
cuando escuché a alguien decir, lo encontramos. Lo tenemos. Se me pone la piel de gallina
pensando en ello en este momento porque
no estaría aquí hablando contigo si no fuera por eso. La función de detección de accidentes automovilísticos
en ese teléfono me salvó la vida.

[FIN DE REPRODUCCIÓN] [Aplausos] SAMEER SAMAT: Historias como esta
nos han inspirado a hacer más, a hacer que la tecnología sea útil
cuando más se necesita. A finales de este año, comenzaremos a
traer Emergency SOS to Wear, para que pueda comunicarse instantáneamente con
un amigo o familiar de confianza , o llamar a los
servicios de emergencia directamente desde su reloj. También estamos expandiendo el
sistema de alerta de terremotos de Android a muchas de las regiones restantes de alto
riesgo en el mundo. Utiliza los
datos del acelerómetro de los teléfonos para determinar si se
está produciendo un terremoto y advertir a otros en
el área circundante, a menudo antes de que el
temblor los alcance. Puede bajarse de una escalera, ponerse a
cubierto o detener su automóvil. Estos segundos adicionales de
advertencia pueden salvar vidas. Nuestros
teléfonos pueden ayudarnos a hacer más de muchas maneras. Ya sea para ayudarlo a
comunicarse de manera segura con amigos, proteger
su identidad digital o brindarle ayuda
en momentos críticos, su teléfono es su
compañero digital más esencial.

Y lo que puedes hacer con
Android se vuelve aún más emocionante cuando vamos más allá del teléfono. Para contarte más,
aquí está Trystan. TRYSTAN UPTILL:
Junto con el teléfono, estamos trabajando arduamente para garantizar que
Android brinde una experiencia fantástica en todos los dispositivos
que son más importantes para usted, especialmente en sus
dispositivos personales, como relojes y tabletas. En I/O el año pasado,
anunciamos algunas actualizaciones importantes para Wear OS, incluido el
lanzamiento de nuestra plataforma conjunta con Samsung. Y qué año ha sido. Ahora hay más de tres
veces más dispositivos Wear OS este año que el
año pasado.

Y esto es solo el comienzo. Esté atento a los nuevos
relojes de Samsung, Fossil, Montblanc y más
a partir de este verano. El impulso se ha trasladado a
nuestra comunidad de desarrolladores, que están lanzando excelentes
experiencias de aplicaciones en Wear OS y haciendo que Watch sea aún
mejor para nuestros usuarios. Los favoritos como Spotify, Adidas
Running, Line y KakaoTalk han
llegado recientemente a la plataforma, y pronto habrá muchos más. Con un creciente ecosistema de
socios, desarrolladores y aplicaciones, Wear OS trae lo mejor
de Android a tu muñeca. Y este año, hay otra
pantalla más grande que entusiasma a los consumidores: las tabletas. Ahora nos acercamos a los
270 millones de usuarios activos en dispositivos de pantalla grande. [APLAUSOS] Android fue pionero en múltiples
tamaños y factores de forma para pantallas más grandes.

Y tenemos muchos
dispositivos fantásticos que llegan al mercado, como Samsung Galaxy Tab
S8 Ultra, Lenovo Tab P12 PRO y otros de socios
como Oppo y Xiaomi que se están construyendo sobre
las últimas versiones de Android. Increíblemente, ahora podemos obtener
experiencias similares a las de una tableta que caben en su bolsillo,
con dispositivos plegables que brindan todos los beneficios de
un dispositivo de pantalla grande con la portabilidad de un teléfono. Y Android es la única
forma de experimentarlo todo. Pero aún hay mucho que hacer. Así que este año hemos
estado trabajando arduamente para hacer que las tabletas Android sean increíbles. Pero en lugar de solo
contarte todas estas actualizaciones, ¿por qué no te las muestro? Desde el momento en que
enciende el dispositivo, puede ver que la
experiencia de Android se ha perfeccionado para la pantalla más grande. Una cosa que me
encanta son los cambios en el tono de notificación. Se ha ampliado para permitirle
ver más de un vistazo y tener el control
al alcance de su mano. También hay una nueva barra de tareas de la aplicación
que se encuentra en la parte inferior.

Puedes ver, si sigo adelante
y enciendo Google Photos, la barra de tareas todavía está allí. Y me da fácil acceso a
todas mis aplicaciones cuando las necesito. Esta pantalla más grande también hace que la
multitarea sea muy fácil. Digamos que quiero compartir una
foto de mis últimas vacaciones con un amigo. Puedo retomar la conversación,
elegir una foto, incluso editarla. Hacía bastante calor ese
día, como lo recuerdo. Y luego arrástrelo directamente. [APLAUSOS] Me encanta usar este par de
aplicaciones para ayudarme a divertirme. De hecho, si
pasas el dedo hacia la vista general, puedes ver que ya estoy ocupado
planeando mis próximas vacaciones. Ahora, estos cambios en el sistema operativo no
significan mucho si las experiencias de la aplicación para tabletas no son también excelentes.

Así que a partir de hoy,
actualizaremos más de 20 Google Apps para que se vean increíbles
en pantallas grandes y aprovechen al máximo
la funcionalidad adicional con mucho más por venir. Echemos un vistazo a algunas de
estas grandes experiencias nuevas. La versión para tableta
de YouTube Music pone más de la música que
amas al frente y al centro. Hemos optimizado Google Maps
para incluir información completa de un vistazo para ayudarlo a
navegar por el mundo que lo rodea. Y la aplicación de mensajes actualizada
utiliza una nueva vista de varias columnas para que puedas
administrar fácilmente todos tus textos y saltar rápidamente
entre conversaciones. Las aplicaciones de terceros también se ven muy bien
en las tabletas Android. Verá experiencias renovadas
en sus aplicaciones favoritas, como TikTok, Zoom,
Facebook y más. Y se ven geniales. Para ayudarlo a encontrar
estas nuevas aplicaciones para tabletas, estamos trabajando para mejorar el
descubrimiento en Google Play, junto con la introducción de
una nueva interfaz de usuario que aprovecha al máximo la pantalla más grande.

Como puede ver, estamos
creando excelentes experiencias para teléfonos, relojes, tabletas
y todo lo demás. El siguiente paso es hacer que
todos estos dispositivos funcionen bien entre sí. Así que aquí está Liza para contarles
más sobre lo que estamos haciendo para que todo
funcione mejor juntos. LIZA MA: El objetivo
de agregar más dispositivos a tu vida es
hacerlo más fácil, rico y conveniente. Pero eso solo sucede si
todo funciona a la perfección. Así que déjame mostrarte cómo Android
une tus dispositivos para que sean más útiles. Primero, debería poder disfrutar de
mis medios en cualquier superficie que tenga sentido en el momento.

Por ejemplo, si estoy
viendo un programa en mi tableta y quiero moverlo al televisor
para que mi esposo también pueda verlo, o si estoy escuchando música
con auriculares mientras estoy corriendo y quiero seguir
escuchándola en mi Bose. altavoz cuando llego a casa, el casting lo
hace muy fácil. Por lo tanto, debería estar en
todas partes, por lo que estamos trabajando
para ampliar las capacidades de transmisión a nuevos
socios y productos, como Chromebooks
o incluso su automóvil. Y quiero que mis mensajes
también se muevan a través de mis dispositivos. Por ejemplo, cuando estoy
trabajando en mi escritorio, mis conversaciones
deberían estar allí mismo, en la pantalla de la computadora portátil que
ya estoy usando. Este otoño,
ampliaremos Phone Hub para que pueda acceder directamente a todas las
aplicaciones de mensajería de su teléfono en su Chromebook.

Phone Hub
le brinda la aplicación exacta con la que está familiarizado porque se
transmite desde su teléfono. No es necesario instalar
un cliente de escritorio o mantener uno ejecutándose en una pestaña
que se pierde en su navegador. Para que pueda saltar entre chats,
enviar y responder mensajes, incluso agregar reacciones a las
fotos de sus amigos. Y aquí está una de mis
características nuevas favoritas. Copie algo en su teléfono
y péguelo en su tableta. Podría ser una URL, una
dirección o incluso una imagen o captura de pantalla. Es tan simple y útil. [APLAUSOS] Y así
debería funcionar un mundo multidispositivo.

Simplemente use la superficie que
sea más conveniente para lo que desea hacer. Pero lo que más me molesta es
configurar todos estos dispositivos en primer lugar. Desarrollamos Fast Pair para
encargarse de esa tarea por usted sin tener que administrar la
configuración o recordar dónde
podría estar oculto el botón de emparejamiento. Seguimos
ampliando Fast Pair para que su teléfono, su computadora portátil
y su televisor se emparejen fácil e instantáneamente
con sus auriculares y dispositivos inteligentes. Y queremos extender esta fácil
conectividad a todos los dispositivos de tu hogar. Ahí es donde entra Matter. Es un estándar abierto de la industria que se
lanzará este otoño. Matter conecta nuestro hardware Google Nest
, junto con las mejores marcas y cientos de
productos compatibles, como bombillas, cerraduras de puertas,
enchufes inteligentes y mucho más. Es una lista grande. Podrá
conectar rápidamente todos esos dispositivos habilitados para la materia
en segundos a su red doméstica, Google Home y sus
aplicaciones favoritas usando Fast Pair. Hay tantas
oportunidades nuevas en este mundo de dispositivos múltiples
, desde ayudarlo a hacer más con su
teléfono en el centro hasta extender la informática
más allá del teléfono y asegurarse de que todos sus
dispositivos funcionen mejor juntos.

Muchas gracias a nuestros
millones de desarrolladores y miles de millones de usuarios por hacer de
Android una plataforma increíble. Estamos emocionados de seguir
impulsándolo contigo, así que mantente atento a
la versión beta de Android 13 hoy. [APLAUSOS] Tenemos un montón de
excelentes socios y dispositivos participando, así que échale un vistazo
y envía tus comentarios. Ahora, antes de irme, hemos estado
hablando mucho sobre Fast Pair. Así que veamos a otra
pareja rápida, Lando y Daniel. Hemos enviado algunos
dispositivos a nuestros amigos de McLaren, los miembros más nuevos
de la familia Android. Así que veamos en qué
diversión se metieron. Y luego obtendremos
algunas actualizaciones interesantes del equipo de hardware de Google. [REPRODUCCIÓN DE VIDEO] – ¿Qué tenemos aquí? – Algunos juguetes de
nuestro nuevo patrocinador. ¿ Sabías que puedes jugar un juego
entre cualquier dispositivo Android? ¿ Quieres jugar un juego? – Está bien. – "Liga de cohetes". Inicie "Rocket League". – Sí. – Déjame mostrarte cómo se hace. – ¿Cómo aceleras? – ¿No estás hecho
para esto, compañero? – Oh. – Gol – El siguiente gol gana.

Oh, no. Ah, no. No. – Está bien. Transmítelo a la TV. – Está bien, hagámoslo. – Ay dios mío. – Si lo se. Soy nuevo en el juego de YouTube. – ¿Crees que
te sientan bien las bandanas? – Me gustó ese. – Verás, cuanto más publicas,
menos le gustas a la gente. – Sí. Por eso dejé de publicar. – Inteligente. – Sí. Muy bien, ¿a quién le
gustaría enviar un mensaje? Introduzca un nombre de grupo. El tío Buck y los chicos. Es perfecto. – Ah, me apunto. – ¿Qué está haciendo el Sr. Zak Brown? Zak, ¿estás ahí amigo? – Hola, Zak. – Chicos, ¿no deberían estar
entrenando o algo así? – Oh chico. Lo has roto. [FINALIZAR LA REPRODUCCIÓN] BRIAN RAKOWSKI: Acabas de
escuchar sobre el trabajo que estamos haciendo en
Google y Android para simplificar un mundo de dispositivos múltiples
para que todos tus dispositivos funcionen mejor juntos.

Hablemos a continuación sobre el
propio hardware de Google. Nos basamos en este
mundo multidispositivo para crear una
cartera de píxeles uniforme y cohesiva que reúne todos los
avances tecnológicos que has visto hoy en Google. Comenzaremos con los
teléfonos Pixel, donde tomamos toda la utilidad
e inteligencia de Google y creamos una experiencia
que se adapta a ti. El otoño pasado, presentamos
Google Pixel 6 y Pixel 6 Pro, una reinvención completa
de Pixel por dentro y por fuera. Es nuestro primer teléfono
con la tecnología de Google Tensor, una plataforma informática móvil que
desarrollamos en torno a los últimos modelos de inteligencia artificial y
aprendizaje automático de Google. Tensor nos brinda una gran
ventaja en Mobile AI.

Y es una base de hardware
sobre la que construiremos en los años venideros. Con
hardware, software e IA de última generación, Pixel 6 introdujo
nuevas y asombrosas capacidades telefónicas para ayudarte a tomar
fotos de calidad profesional y comunicarte con
personas en otro idioma, todo mientras mantienes tu
información personal privada con el
núcleo de seguridad de Google Tensor. Pixel 6 es un gran paso adelante
para la cartera de Pixel. Y ha sido genial ver
la respuesta de los usuarios de Pixel. Es el Pixel de venta más rápida
de la historia, a pesar de todas las limitaciones de suministro en la industria. Pixel 6 ya ha vendido más
que Pixel 4 y 5 combinados. [APLAUSOS] Así que mantengamos ese
impulso. Hoy, estoy emocionado de que Soniya
les muestre el nuevo Pixel 6A. [Aplausos] SONIYA JOBANPUTRA:
Gracias, Brian. Al igual que todos nuestros teléfonos de la serie A
, Pixel 6A ofrece la útil
experiencia personal de Pixel por el
precio inigualable de $449.

Así es. Realmente creemos que es el
mejor teléfono inteligente que hemos ofrecido por este precio. Y dejame decirte por qué. Pixel 6A comparte el mismo
lenguaje de diseño icónico introducido en Pixel 6, con una
apariencia única de dos tonos y biseles delgados que rodean nuestra
pantalla de 6.1 pulgadas perfectamente portátil. Y notarás
la barra de la cámara Pixel, que alberga nuestro sistema de
cámara trasera doble con una
lente principal y ultra gran angular de 12 megapíxeles. Y todo eso está encerrado en
nuestro marco de aluminio reciclado. Por supuesto, la verdadera
magia de Pixel 6A es lo que
puedes hacer con él. En años anteriores, la
serie A realmente aprovechó la
fortaleza de Google en inteligencia artificial para aprovechar al máximo el
hardware asequible para que pudiéramos ofrecer nuestras
funciones principales de Pixel a un precio bajo.

Y eso fue genial. La combinación de la
inteligencia de Google y un procesador de rango medio produjo increíbles teléfonos inteligentes
que nuestros usuarios adoran. Sin embargo, como
mencionó Brian, ahora tenemos nuestro propio Google Tensor SOC. Entonces, por primera vez,
desarrollamos un sistema de hardware común que escalamos
en toda la cartera de Pixel, desde nuestros
teléfonos insignia hasta nuestra serie A. ¿ Entonces que significa eso? Significa que Pixel 6A incluye
la misma conectividad 5G rápida que Pixel 6 y 6 Pro.

Utiliza exactamente la misma
arquitectura de seguridad con Titan M2 para una
protección líder en la industria que hace que el teléfono sea más
resistente a los ataques. Y lo más importante, Pixel 6A
usa el mismo Google Tensor SOC premium que nuestro Pixel 6 Pro. [APLAUSOS] Así es. Eso es un gran problema para
un teléfono a este precio. Con Google Tensor como el
cerebro dentro de Pixel 6A, nuestros
modelos de aprendizaje automático de última generación se ejecutan casi cinco veces
más rápido que Pixel 5A, por lo que podemos brindar un
mejor rendimiento y experiencias más ricas impulsadas por IA
por el mismo precio bajo.

Pixel 6A te brinda la misma
gran experiencia de Android que nuestro Pixel 6 Pro, así
como funciones exclusivas de Pixel en fotografía,
voz, seguridad y más. Comencemos con la fotografía. El sistema de la cámara tiene
Real Tone incorporado, por lo que sus fotos
reflejan de manera hermosa y precisa su propio tono de piel. También tiene Night Sight, para que
puedas tomar fotos increíbles con poca luz . Y sí, Pixel 6A incluye
Magic Eraser en Google Photos para eliminar esas distracciones
de tus fotos perfectas. Ahora, puede que haya otras
personas en la playa. Pero eso no significa que
los quieras en tus hermosas fotos. Con solo un toque, puedes hacer que
desaparezcan como por arte de magia. [APLAUSOS] Y miren esto. Hemos mejorado Magic
Eraser para que también pueda cambiar el color de los
objetos que distraen en su foto. Con un toque, los colores
y el sombreado del objeto se mezclan de forma natural. [APLAUSOS] Así que el foco está en este
tema, donde debe estar. Ahora, hablemos del habla. La fuerza de Tensor
y el aprendizaje automático permiten increíbles
funciones de voz en el dispositivo, como Live Caption, Recorder
y Live Translate.

Es como tener un
intérprete y traductor personal dondequiera que vaya. Incluso funciona en
modo avión, y la informática protegida garantiza que sus
datos de voz permanezcan privados con el procesamiento en el dispositivo. La otra semana,
estuve en mi banco local. Y noté que alguien luchaba por
comunicarse en inglés con el cajero del banco. Me recordó mi niñez
interpretando para mi abuela y ayudándola a navegar
una tarea diaria vital. El visitante del banco
sacó su teléfono y comenzó a hablar con
él en modo intérprete. Y así, la
barrera del idioma desapareció. El empleado del banco sabía exactamente
cómo ayudar a la persona. Lo que podría haber sido un
momento realmente frustrante se convirtió en uno de empoderamiento.

Ahora, romper las
barreras del idioma no debería ser solo para los
teléfonos inteligentes más caros. Debería ser para todos. Y gracias a Tensor,
podemos llevar la traducción en vivo a Pixel 6A. [APLAUSOS] Y, finalmente, todos
merecen tener la tranquilidad de saber que su teléfono está protegido. Por lo tanto, continuamos brindando
las mismas funciones de seguridad y protección que nuestros teléfonos premium. Junto con el
chip de seguridad Titan M2, hay un
sensor de huellas dactilares debajo de la pantalla para un desbloqueo seguro. Y obtendrá cinco años
de actualizaciones de seguridad, por lo que siempre tendrá
la protección más reciente.

Pixel 6A ofrece la experiencia central de
hardware y software de Google con la tecnología de Google
Tensor en fotografía, voz y seguridad. Y obtendrá todo esto
sin comprometer una batería para todo el día. Estamos muy emocionados de que
Pixel 6A esté disponible por solo $449. [APLAUSOS] Viene en tres colores. Así que puedes pedir uno el
1 de julio o recogerlo en la tienda el 28. De vuelta a ti, Brian. BRIAN RAKOWSKI: Gracias, Soniya.

Google se enorgullece de
crear tecnología útil para todos. Y con la serie A, la
experiencia del teléfono inteligente de Google está disponible para más personas. Pero para aquellos que quieren lo
último, lo mejor y lo más rápido, también estamos trabajando en nuestros
teléfonos Pixel 7 de próxima generación. Déjame darte una
vista previa para que puedas ver lo que viene este otoño. [APLAUSOS] Aquí hay un primer vistazo a
Pixel 7 y Pixel 7 Pro. Puede ver que hemos
ampliado el acabado de aluminio a toda la barra de la cámara para
la próxima evolución del lenguaje de diseño de Pixel. La carcasa y la barra de la cámara
están hechas de una sola pieza de aluminio 100% reciclado. Y el magnífico Pixel 7 Pro
y su sistema de triple cámara establecen un estándar completamente nuevo
para la fotografía, el rendimiento y el diseño.

Me encanta el contraste
de los diferentes materiales y la sencillez
del diseño. El aluminio pulido se ve
hermoso con el vidrio en la parte posterior del teléfono. En el interior, Pixel
7 y 7 Pro están diseñados para brindar la experiencia
más personal y útil que puede
obtener en un teléfono inteligente. Usarán la próxima generación
de nuestro Google Tensor SOC, lo que brindará aún más
avances importantes en IA y experiencias personalizadas útiles
en voz, fotografía, video
y seguridad. Y, por supuesto, ambos
teléfonos se enviarán con Android 13 y todas
las bondades que vienen con su último sistema operativo móvil.

Eso es todo lo que compartiremos sobre
Pixel 7 y Pixel 7 Pro hoy. Pero visite
Google Store en línea para obtener más detalles y nuevas
experiencias impulsadas por el tensor de Google en los próximos meses. [Aplausos] Ahora, los teléfonos excelentes
necesitan auriculares excelentes, por lo que nuestros Pixel Buds están
hechos para complementar a la perfección tu teléfono Pixel. AUDIENCIA: ¡Guau! ¡ Bultos de píxeles! ¡ Cortejar! BRIAN RAKOWSKI: Y
este verano, nos complace expandir la
familia Pixel Buds con una oferta de nivel Pro . Es un nuevo y potente juego de
auriculares llamado Pixel Buds Pro. [APLAUSOS] Echemos un vistazo a lo que
los hace tan especiales. Estos auriculares tienen toda
la utilidad y la inteligencia que esperaría de
Google integrados en el mejor hardware de audio móvil que
jamás hayamos diseñado. Y son los primeros Pixel Buds
con cancelación activa de ruido. [Aplausos] La cancelación de ruido es un
desafío técnico difícil porque debe
ser lo suficientemente inteligente como para tener en cuenta el ruido en
un amplio espectro de frecuencias y lo suficientemente potente
para una latencia súper baja.

Pixel Buds Pro ofrece uno de
los mejores rendimientos de cancelación de ruido en los
auriculares inalámbricos actuales porque están diseñados en torno a
un nuevo procesador de audio personalizado. Es un
chip de audio de seis núcleos que ejecuta algoritmos desarrollados por Google
ajustados por nuestro
equipo interno de ingeniería de audio. Utiliza un
motor de procesamiento neuronal para analizar el sonido externo
con una latencia extremadamente baja, cancelándolo en tiempo real
a través de altavoces personalizados. Ahora, los oídos de todos son únicos. Por lo tanto, no siempre es
posible que las puntas de los oídos formen un sello perfecto. Y eso puede provocar que el sonido se
filtre desde el exterior. Para contrarrestar esto, nuestra
cancelación activa de ruido utiliza una nueva tecnología de sello silencioso
para compensar las fugas de audio. Esto ayuda a maximizar
la cantidad de ruido que se cancela para que
obtengas un sonido premium inmersivo sin distracciones. A veces, sin embargo,
quieres escuchar lo que sucede a tu alrededor.

Para estas ocasiones,
existe el modo de transparencia. Deja entrar el sonido exterior
para que experimentes el mundo como si no estuvieras
usando auriculares. Pero los grandes auriculares no
solo te permiten escuchar cosas. Te permiten ser escuchado. Entonces, ya sea que esté
hablando por teléfono o asistiendo a una reunión al aire libre,
nuestros micrófonos de formación de haces utilizan algoritmos de supresión de ruido
que han sido entrenados
con aprendizaje automático. Se suprimirá el viento, el tráfico u
otros ruidos de fondo , y
su voz será clara sin importar dónde se encuentre. [Aplausos] El chip de audio personalizado también está
diseñado para la eficiencia energética para que pueda aprovechar al máximo
la batería. De hecho, Pixel
Buds Pro le brinda hasta 11 horas de
tiempo de escucha, o siete horas con la cancelación activa de ruido activada
. Para que pueda desconectarse del
ruido en ese largo vuelo. Al igual que todos nuestros Pixel
Buds, la serie Pro está diseñada para brindar una
experiencia útil y manos libres.

Así que puedes pedirle al Asistente
todo tipo de cosas, como indicaciones para llegar a pie, u
obtener traducción en tiempo real en 40 idiomas y mucho más. Pixel Buds Pro admitirá
conectividad multipunto para que sus auriculares sepan
cambiar automáticamente de un podcast en su teléfono
a una videollamada en su computadora portátil. Es mucho más fácil que
hacer clic en la configuración de Bluetooth. Y funciona entre sus
teléfonos, tabletas, computadoras portátiles y televisores compatibles. Y más adelante este año
actualizaremos Pixel Buds Pro para admitir audio espacial. Entonces, cuando veas
una película o un programa de TV en
teléfonos Pixel compatibles, estarás justo en el
medio de la acción.

[Aplausos] Por último, si alguna vez
pierdes un auricular, puedes usar Buscar mi dispositivo
para hacer sonar tus Pixel Buds Pro o ver dónde están, incluso
si solo perdiste uno de ellos. Los nuevos Pixel Buds Pro
vienen en cuatro colores. Estarán disponibles en línea
para pedidos anticipados el 1 de julio y a la venta el 28,
brindando la inteligencia de Google y la cancelación activa de ruido de primer nivel
por $ 199. Y aquí está Rick con
algunas actualizaciones más de Pixel.

[Aplausos] RICK OSTERLOH: Gracias, Brian. Tenemos mucho en
la tubería de Pixel, que representa inversiones
en todos los diferentes tipos de tecnologías: silicio personalizado
con Google Tensor, nuevas experiencias multidispositivo en
Android, como Sameer y Liza compartieron anteriormente,
investigación de IA de vanguardia, software útil y servicios, seguridad de datos potente
con Titan M2 y mucho más. Es una pila de tecnología increíble. Todas estas cosas
funcionan en conjunto para ofrecer nuestra visión
de la computación ambiental, brindando la ayuda que las personas
necesitan donde la deseen. En un mundo de múltiples dispositivos
, la gente no quiere pasarse la vida
lidiando con la tecnología. Un enfoque ambiental quita
la tecnología de su camino para que pueda vivir su vida mientras
obtiene la ayuda que necesita. No importa qué
dispositivo esté usando, en qué contexto se encuentre,
si está hablando, escribiendo o tocando. La tecnología en su vida
funciona en conjunto a la perfección. Para llegar allí, comenzamos
sentando las bases con computación protegida,
como escuchó de Jen. Con estos fundamentos de seguridad y
privacidad en su lugar, podemos ofrecer nuevas
experiencias personalizadas entre dispositivos.

A continuación, agregamos Google smarts: una capa de inteligencia
y capacidad de respuesta para que sus dispositivos no
solo funcionen mejor juntos. Trabajan mejor
juntos para usted. Estamos trabajando para lograr un mundo
en el que la puerta de su casa sepa cuándo cerrarse con llave, su televisor
se detenga solo cuando se levanta para tomar un refrigerio,
sus dispositivos sepan si deben enviar una llamada entrante
a su teléfono, a sus auriculares o a su reloj. Sobre la base de nuestra
visión de computación ambiental y nuestra
pila tecnológica de Google de extremo a extremo, podemos ampliar
lo que los dispositivos Pixel pueden hacer por usted ahora y en el
futuro para ser aún más útiles.

Así que déjame
mostrarte lo que viene. Comenzaremos con una
vista previa rápida del nuevo Google Pixel Watch. [APLAUSOS] Es el primer reloj construido por
dentro y por fuera por Google. Y llegará este otoño
con nuestro nuevo Pixel 7. Pixel Watch tiene un audaz
diseño de cúpula circular, una corona táctil y un hermoso acero inoxidable reciclado
con correas personalizables que se adhieren a la perfección. Y el reloj Pixel ofrece una
experiencia excepcional de Wear OS en tu muñeca. Cuenta con una interfaz de usuario de Wear OS mejorada
con navegaciones más fluidas y notificaciones inteligentes. Todo está diseñado
para ser tocado, habilitado para voz y visible
para que pueda estar más presente en casa, en el trabajo o mientras viaja. Puede pedirle ayuda al Asistente
para hacer las cosas y para obtener esos pequeños
fragmentos de información que necesita a lo largo del día. Y con Google Maps,
puede obtener indicaciones sobre la marcha, incluso sin su teléfono. Con el nuevo Google Wallet, también
puede dejar su billetera física en casa.

[APLAUSOS] Puedes tocar rápidamente
para pagar en la tienda o para viajar en metro. Y con la nueva
aplicación Google Home para Wear OS, puede apagar las luces,
ajustar el termostato o recibir una alerta cuando hay
una persona o un paquete en la puerta de su casa. Ahora, lo que más me gusta
del reloj es la profunda integración con
Fitbit, que es lo primero. [Aplausos] Llegará primero
al reloj Google Pixel para
experiencias de salud y fitness líderes en la industria. Puede obtener información sobre su
salud con la frecuencia cardíaca continua y el seguimiento del sueño. Puede ver los minutos de su zona activa
cuando hace ejercicio y realizar un seguimiento de sus
estadísticas y progreso con respecto a sus
objetivos personales de fitness. Google Pixel Watch es una
extensión natural de la familia Pixel, que brinda ayuda cuando
y donde la necesite. Estará disponible este otoño
y compartiremos muchos más detalles en los próximos meses. Ahora, junto con los dispositivos portátiles,
el equipo de Android ha logrado grandes avances
en el software de tabletas, como vio anteriormente.

Y hay
mucho que podemos hacer aquí cuando aplicamos la pila tecnológica de Google
con Tensor a una experiencia de Android de pantalla más grande. Así que quiero darles un
adelanto de algo en lo que estamos trabajando para 2023. Ahora, normalmente no
anunciaríamos un nuevo producto un año antes de que esté listo. Pero hay
tanta energía increíble en torno a las tabletas en la
comunidad de desarrolladores que queríamos que
todos ustedes se enteraran. Así que aquí hay un primer vistazo
a nuestra nueva tableta Pixel. [APLAUSOS] Es una tableta Android de última generación
con tecnología Google
Tensor diseñada para ser la compañera perfecta
para tu teléfono Pixel. La tableta une
su vida en movimiento con su vida en el hogar, y
funciona a la perfección con todos sus
dispositivos Pixel para brindar la experiencia más útil posible. La estamos diseñando para que sea
la tableta más útil del mundo y nuestro objetivo es que
esté disponible el próximo año.

[APLAUSOS] Entonces, para recapitular rápidamente, Pixel
6A y Pixel Buds Pro llegarán este verano. Y tendremos muchos más
detalles para compartir pronto sobre Pixel 7, Pixel 7 Pro,
Pixel Watch y la nueva tableta Pixel. Estamos avanzando hacia
tantas experiencias de hardware útiles en teléfonos,
dispositivos portátiles, audio, hogar inteligente y tabletas informáticas. Se suma a una
verdadera familia de dispositivos Pixel con diferentes
opciones para diferentes presupuestos y necesidades.

Con la computación ambiental
como nuestra estrella polar, esta cartera de Pixel es un
enfoque holístico del hardware diseñado pensando en ti. No puedo esperar a que
pruebes estas nuevas experiencias de hardware por ti mismo. Y puedes ver todo esto
en línea en Google Store. O puede visitar nuestras
tiendas físicas de Google en la ciudad de Nueva York. Junto con nuestra
ubicación original en Chelsea, agregaremos una segunda
en Williamsburg este verano. Así que por favor pase y
compruébelo si puede. [MÚSICA – HALO SOL, "COMIN' IN
HOTTA"] SUNDAR PICHAI: Hoy hablamos
sobre todas las tecnologías que están cambiando la forma en que usamos
las computadoras y accedemos al conocimiento.

Vemos dispositivos que
funcionan juntos a la perfección exactamente cuando
y donde los necesita y con
interfaces conversacionales que facilitan hacer las cosas. De cara al futuro,
existe una nueva frontera de la informática, que
tiene el potencial de ampliar todo
esto aún más, y es la realidad aumentada. En Google, hemos
invertido mucho en esta área. Hemos estado incorporando la
realidad aumentada en muchos productos de Google, desde Google Lens hasta
Multisearch, Scene Exploration y vistas inmersivas y en vivo
en Maps. Estas capacidades AR
ya son útiles en los teléfonos. Y la magia
realmente cobrará vida cuando puedas usarlos
en el mundo real sin que la tecnología
se interponga en el camino. Ese potencial es lo que
más nos emociona de AR, la capacidad de pasar el tiempo– [APLAUSOS] La capacidad de pasar el
tiempo enfocándonos en lo que importa en el
mundo real en nuestra vida real. El mundo real es
bastante asombroso. [Aplausos] Ciertamente
me parece así ahora mismo. Es tan bueno estar de
vuelta en Shoreline. Puedo decir que
todos ustedes también lo están disfrutando.

Es importante que
diseñemos de una manera que esté construida para el mundo real y que
no lo aleje de él. Y AR nos brinda nuevas
formas de lograr esto. Tomemos el lenguaje
como ejemplo. El idioma es tan fundamental
para conectarse entre sí, sin embargo, entender a alguien que
habla un idioma diferente o tratar de seguir una
conversación si es sordo o tiene problemas de audición
puede ser un verdadero desafío.

Veamos qué sucede cuando
tomamos nuestros avances en traducción
y transcripción y los entregamos en
su línea de visión en uno de los primeros prototipos que
hemos estado probando. Echar un vistazo. [REPRODUCCIÓN DE VIDEO] – Mi madre habla mandarín. Y hablo inglés,
lo cual es una cosa extraña. – Nos encantaría poder compartir
contigo un nuevo prototipo en el que hemos estado trabajando. Deberías estar viendo lo que estoy
diciendo recién transcrito para ti en tiempo real, una especie de
subtítulos para el mundo. – En lo que estamos trabajando
es en tecnología que nos permite romper las
barreras del idioma, tomando años de investigación y Google Translate
y llevándolo a Gafas. – ¿Puedes verme? – De hecho, te estoy mirando
directamente a los ojos. Y parece que
me estás mirando directamente. – Hacer que el acceso a la información
sea instantáneo e intuitivo. Al hacer eso, la tecnología
se desvanece en un segundo plano. Y estamos más conectados con
las personas y las cosas que nos rodean.

– Dar a las personas el don de
comunicarse con cualquier persona, sin importar el
idioma que hablen, creo que es
algo realmente poderoso. [FIN DE LA REPRODUCCIÓN] [APLAUSOS] SUNDAR PICHAI: Puedes verlo
en sus rostros, la alegría que surge al hablar con
naturalidad con alguien, ese momento de conexión para
comprender y ser comprendido. De eso se trata nuestro enfoque en el
conocimiento y la computación . Y es por lo que nos esforzamos
todos los días con productos creados para ayudar. Cada año, nos acercamos
un poco más a cumplir con nuestra
misión atemporal. Y aún nos queda
mucho más por recorrer. En Google, sentimos genuinamente una
sensación de entusiasmo por eso. Y somos optimistas de que
los avances que acaba de ver nos ayudarán a llegar allí. Gracias a todos los
desarrolladores, socios y clientes que se
unieron a nosotros hoy. Esperamos construir
el futuro con todos ustedes. Muchas gracias. [APLAUSOS] [REPRODUCIENDO MÚSICA].