Google Keynote (Google I/O ‘22)

[REPRODUCCIÓN DE VIDEO] – Comenzó con un problema,
y ​​era algo grande. – Había tanta
información en el mundo y, sin embargo, era muy
difícil encontrarla. – Entonces intentamos
resolver ese problema. Pero en el camino,
encontramos otras nuevas, como, por ejemplo, ¿cómo responder
a todos esos correos electrónicos? ¿ Cuál es la mejor manera
de llegar de A a B? ¿ Cómo consigo esa mirada? ¿ O cómo me deshago de eso? ¿ O esto? – Mi computadora acaba de fallar. – Nosotros construimos eso. De ahí surgió esto. Para detener esto, hicimos eso. Cuanto más miramos,
más encontramos. Encuentra un problema. Construya una solución. – Una crisis climática. – Nuestro objetivo es hacer que la
elección sostenible sea una elección más fácil . – Hay alguien que no puede
ver, no puede oír, realmente hacerlo accesible a
un grupo de personas tan amplio como sea posible. – Toma una selfie. – DE ACUERDO. Prepararse. – Sabemos que el
punto de partida es desigual, pero podemos generar
resultados equitativos y dar a todos igualdad de
condiciones. – De hecho, puedo
inspirarme en el mundo que nos rodea. – La tecnología tiene el poder de
mejorar la vida de todos.

Sólo hay que construirlo. [REPRODUCCIÓN DE MÚSICA] [FIN DE REPRODUCCIÓN] SUNDAR PICHAI: Gracias. Gracias. Está bien. Comprobación de micrófono, uno, dos, tres. ¿ Pueden oírme? AUDIENCIA: [INAUDIBLE] SUNDAR PICHAI: Está encendido. Después de dos años de iniciar
muchas reuniones en silencio, pensé que debía volver a comprobarlo. Está bien. Buenos días a
todos y bienvenidos.

De hecho, demosle
la bienvenida nuevamente. Es fantástico estar de vuelta
en el Anfiteatro Shoreline después de tres años fuera. Para… [APLAUSOS] Bueno, gracias por
acompañarnos y a los miles de desarrolladores, socios
y empleados de Google que están aquí con nosotros. Es fantástico verlos a todos. Y para los millones de
personas que se unen a nosotros en todo el mundo
en la transmisión en vivo, estamos muy felices de que también estén aquí. El año pasado, compartimos
cómo los nuevos avances en algunas de las áreas técnicamente más
desafiantes de la informática están haciendo que los
productos de Google sean más útiles en los
momentos importantes. Todo este trabajo está al servicio
de una misión eterna: organizar la
información del mundo y hacerla universalmente
accesible y útil.

Me entusiasma mostrarles cómo
estamos impulsando esa misión de dos maneras clave: profundizando nuestra
comprensión de la información para que podamos convertirla
en conocimiento y avanzando el
estado de la informática para que sea más fácil
acceder al conocimiento, sin importar quién o dónde estás. Hoy verá cómo el
progreso en estas dos partes de nuestra misión
garantiza que los productos de Google estén diseñados para ayudar, y comenzaré
con algunos ejemplos rápidos. Durante la
pandemia, Google se ha centrado en ofrecer
información precisa para ayudar a las personas a mantenerse saludables.

Durante el último año, la gente
utilizó la Búsqueda de Google y Maps para encontrar dónde podían
vacunarse contra la COVID casi dos mil millones de veces. También hemos ampliado nuestra
tecnología de pronóstico de inundaciones para ayudar a las personas a mantenerse seguras
frente a desastres naturales. Durante la
temporada de monzones del año pasado, nuestras alertas de inundaciones notificaron a
más de 23 millones de personas en India y Bangladesh,
y estimamos el apoyo a la
evacuación oportuna de cientos de miles de personas.

En Ucrania, trabajamos
con el gobierno para desplegar rápidamente
alertas de ataques aéreos. Hasta la fecha, hemos enviado
cientos de millones de alertas. En marzo estuve en Polonia,
donde millones de ucranianos han buscado refugio. La población de Varsovia ha
aumentado casi un 20% a medida que las familias acogen a refugiados
en sus hogares y las escuelas dan la bienvenida a miles
de nuevos estudiantes. Casi todos los empleados de Google
con los que hablé estaban hospedando a alguien. En países de todo el
mundo, Google Translate ha sido una herramienta crucial
para los recién llegados y residentes que intentan comunicarse entre
sí. Estamos orgullosos de cómo
está ayudando a los ucranianos a encontrar un poco de esperanza
y conexión hasta que puedan
regresar a casa nuevamente.

La traducción en tiempo real
es un testimonio de cómo el conocimiento y la
informática se unen para mejorar la vida de las personas. Más personas
que nunca utilizan Google Translate, pero aún nos queda trabajo por hacer para que
sea accesible universalmente. Hay una larga
lista de idiomas que hoy en día están subrepresentados en la
web, y traducirlos es un problema técnico difícil. Esto se debe a que los
modelos de traducción suelen entrenarse con textos bilingües. Por ejemplo, la misma frase
tanto en inglés como en español. Sin embargo, no hay
suficientes textos bilingües disponibles públicamente
para todos los idiomas. Entonces, con los avances en el
aprendizaje automático, hemos desarrollado un
enfoque monolingüe, donde el modelo
aprende a traducir un nuevo idioma
sin siquiera ver una traducción directa del mismo.

Al colaborar con
hablantes nativos e instituciones, descubrimos que estas traducciones
tenían la calidad suficiente para ser útiles. Hoy me complace
anunciar que agregaremos 24 idiomas nuevos
a Google Translate. [APLAUSOS] Esto incluye la primera
lengua indígena de América. Y en conjunto, estos idiomas
son hablados por más de 300 millones de personas. Avances como este están
impulsando un cambio radical en la forma en que accedemos al conocimiento
y utilizamos las computadoras; sin embargo, gran parte de lo que se
puede conocer sobre nuestro mundo va más allá del lenguaje. Está en la información física y
geoespacial que nos rodea. Durante más de 15
años, Google Maps ha trabajado para crear
representaciones ricas y útiles de esta información
para ayudarnos a navegar. Los avances en IA están llevando
este trabajo al siguiente nivel, ya sea ampliando nuestra
cobertura a áreas remotas o reinventando cómo explorar el
mundo de maneras más intuitivas. En todo el mundo, hasta la fecha hemos cartografiado
alrededor de 1.600 millones de edificios y más de 60 millones de
kilómetros de carreteras.

Anteriormente, algunas áreas remotas y rurales
eran difíciles de
cartografiar debido a la escasez de imágenes de alta calidad
y a distintos tipos de edificios y terrenos. Para abordar esto, estamos
utilizando visión por computadora para detectar edificios a
escala a partir de imágenes de satélite. Como resultado, hemos
multiplicado por cinco el número de edificios en
Google Maps en África desde julio de
2020, de 16 millones a casi 300 millones. [APLAUSOS] También hemos duplicado el
número de edificios cartografiados en India e Indonesia este
año y, a nivel mundial, más del 20% de los edificios en Google
Maps han sido detectados utilizando estas nuevas técnicas. Hemos ido un paso más allá y
hemos puesto a disposición del público el conjunto de datos de edificios en África. Organizaciones internacionales
como las Naciones Unidas y el Banco Mundial
ya lo están utilizando para comprender mejor la
densidad de población y brindar apoyo
y asistencia de emergencia. También estamos incorporando nuevas
capacidades a Maps. Utilizando avances en mapeo 3D
y aprendizaje automático, estamos fusionando miles de millones de
imágenes aéreas y a nivel de calles para crear una nueva representación de alta fidelidad
de un lugar.

Estas tecnologías innovadoras
se unen para impulsar una nueva experiencia en Maps
llamada vista inmersiva. Te permite explorar
un lugar como nunca antes. Vayamos a Londres
y echemos un vistazo. Qué bonita ciudad. Supongamos que planea visitar
Westminster con su familia. Puede acceder a
esta vista inmersiva directamente desde Maps
en su teléfono y puede desplazarse
por los lados. Aquí está la Abadía de Westminster. Y si estás pensando en
ir a ver el Big Ben, puedes comprobar si
hay tráfico, qué tan ocupado está e incluso
ver la previsión meteorológica.

Es Londres, así que
supongo que está lloviendo. Ahora, si buscas
comer algo durante tu visita, puedes visitar los
restaurantes cercanos y echar un vistazo al interior. [APLAUSOS] Lo sorprendente es que
esto no es un dron volando en el restaurante. Usamos renderizado neuronal
para crear la experiencia solo a partir de imágenes. Y Google Cloud
Immersive Stream permite que esta experiencia
se ejecute en cualquier teléfono inteligente. Esta función comenzará a
implementarse en Google Maps para ciudades seleccionadas a
nivel mundial este año. Otra gran mejora de
Maps son las rutas ecológicas. Lanzado el año pasado, le muestra
la ruta más eficiente en combustible, brindándole la opción
de ahorrar dinero en gasolina y reducir las emisiones de carbono.

Ya se han implementado rutas ecológicas en Estados Unidos y Canadá,
y la gente las ha utilizado para viajar 86
mil millones de millas, lo que ayudó a ahorrar aproximadamente medio
millón de toneladas métricas de emisiones de carbono, el
equivalente a sacar 100.000 automóviles de las carreteras. Me complace compartir
que ampliaremos esta función a más
lugares, incluida Europa, a finales de este año.

En este ejemplo de Berlín,
podrías reducir tu consumo de combustible en un 18%
tomando una ruta solo tres minutos más lenta. Estas pequeñas decisiones tienen
un gran impacto a escala. Con la expansión a
Europa y más allá, estimamos que el
ahorro de emisiones de carbono se duplicará para fin de año. [APLAUSOS] Y hemos agregado una
función similar a Google Flights. Cuando busca
vuelos entre dos ciudades, también le mostramos
estimaciones de emisiones de carbono, junto con otra información,
como el precio y el horario, lo que facilita la
elección de una opción más ecológica. Estas características ecológicas
en Maps and Flights son parte de nuestro objetivo de capacitar a
mil millones de personas para que tomen decisiones más sustentables
a través de nuestros productos, y estamos entusiasmados
con el progreso aquí.

Más allá de Maps, el vídeo se está convirtiendo en
una parte aún más fundamental de cómo compartimos información,
nos comunicamos y aprendemos. A menudo, cuando ingresas
a YouTube, buscas un
momento específico en el video y queremos
ayudarte a llegar allí más rápido. El año pasado, lanzamos
capítulos generados automáticamente para que sea más fácil pasar a la
parte que más te interesa. Los resultados son
excelentes para los creadores, porque les ahorra
tiempo al crear capítulos. Ahora estamos aplicando la
tecnología multimodal de DeepMind. Utiliza simultáneamente texto,
audio y video para generar automáticamente capítulos con
mayor precisión y velocidad. Con esto, ahora
tenemos el objetivo de multiplicar por 10 la cantidad de videos con
capítulos generados automáticamente, de ocho millones actuales a
80 millones durante el próximo año.

A menudo, la forma más rápida de tener
una idea del contenido de un vídeo es leer su
transcripción, por lo que también utilizamos modelos de reconocimiento de voz
para transcribir vídeos. Las transcripciones de vídeo ahora están
disponibles para todos los usuarios de Android e iOS. A continuación, llevaremos los
subtítulos traducidos automáticamente en YouTube a dispositivos móviles, lo que significa que los
espectadores ahora pueden traducir automáticamente los subtítulos de los videos en 16
idiomas y los creadores pueden aumentar su audiencia global. También ampliaremos los
subtítulos traducidos automáticamente al contenido ucraniano de YouTube el
próximo mes, como parte de nuestro esfuerzo más amplio para
aumentar el acceso a información precisa sobre la guerra. [APLAUSOS] Así como utilizamos la IA para
mejorar las funciones de YouTube, la estamos incorporando a
nuestros productos de espacio de trabajo para ayudar a las personas a ser
más eficientes. Ya sea que trabaje
para una pequeña empresa o una institución grande, es
probable que dedique mucho
tiempo a leer documentos. Tal vez sentiste
esa ola de pánico cuando te diste cuenta de que tenías un
documento de 25 páginas para leer antes de una reunión que
comienza en 5 minutos.

Google, cada vez que recibo un
documento o correo electrónico extenso, busco un TLDR en la parte superior. TLDR es demasiado
largo, no lo leí. Y nos hizo
pensar: ¿no sería mejor la vida si más
cosas tuvieran un TLDR? Es por eso que hemos introducido el
resumen automatizado para Google Docs. [APLAUSOS] Utilizando uno de los
modelos de aprendizaje automático, Google Docs
analizará y extraerá automáticamente los puntos principales. Esto marca un gran
avance para el procesamiento del lenguaje natural . Requiere comprensión
de pasajes largos, compresión de información
y generación de lenguaje, que solían estar fuera de las
capacidades incluso de los mejores modelos de aprendizaje automático. Y los documentos son solo el comienzo. Estamos lanzando resúmenes
para otros productos en Workspace. Llegará a Google Chat
en los próximos meses y proporcionará un resumen útil
de las conversaciones de chat, para que pueda
volver a un chat grupal y volver a ver
los aspectos más destacados. ¿ Qué hay de comer? [APLAUSOS] Lo que hay para el almuerzo es definitivamente
lo más destacado, en mi opinión. También estamos trabajando para llevar la
transcripción y el resumen a Google Meet.

Para que pueda ponerse al día con algunas
de las reuniones más importantes que se perdió. Por supuesto,
hay muchos momentos en los que realmente quieres estar en
una sala virtual con alguien, y es por eso que continuamos
mejorando la calidad de audio y video , inspirados
en el Proyecto Starline, que presentamos
en I/O el año pasado. Lo hemos estado probando
en las oficinas de Google para obtener comentarios y mejorar
la tecnología para el futuro y, en el proceso,
hemos aprendido algunas cosas que podemos aplicar ahora mismo
a Google Meet. Procesamiento de imágenes impulsado por aprendizaje automático inspirado en Starline
para
mejorar automáticamente la calidad de su imagen en Google Meet.

Y funciona en todo
tipo de dispositivos, para que luzcas lo mejor posible
dondequiera que estés. [APLAUSOS] También traeremos
iluminación virtual con calidad de estudio a Meet. Puedes ajustar la
posición de la luz y el brillo para que aún seas
visible en una habitación oscura o sentado frente a una ventana. Estamos probando esta función
para garantizar que todos luzcan como ellos
mismos, continuando el trabajo que hemos realizado con
Real Tone en los teléfonos Pixel en Monk Scale,
del cual les hablaremos en un momento. Estas son solo algunas de las formas en que la
IA está mejorando nuestros productos, haciéndolos más
útiles, más accesibles y ofreciendo
nuevas funciones innovadoras para todos.

Ahora, le
cedo la palabra a Prabhakar para que comparta el progreso que
estamos logrando en nuestro producto original
y más importante , la Búsqueda de Google. [APLAUSOS] PRABHAKAR RAGHAVAN:
Gracias, Sundar. La búsqueda de conocimiento por parte de las personas
a menudo comienza con una búsqueda. Y con el tiempo, hemos
trabajado arduamente para comprender los billones de preguntas
que la gente nos hace cada año para brindar la
información más útil posible. Pero la forma en que las personas
buscan información no debería limitarse a
escribir palabras clave en el cuadro de búsqueda. Es parte de la naturaleza humana
adquirir conocimiento a través de múltiples sentidos e
información a medida que avanzamos en el día.

Por ejemplo, si escucho un pájaro
piar fuera de la ventana, puedo señalarlo y preguntarle a
mi esposa: ¿qué clase de pájaro es ese? Y si bien es un enorme
desafío para las computadoras comprender la información
como lo hacemos nosotros, los avances en la tecnología están
ayudando a cerrar la brecha. Con tecnologías de inteligencia artificial como la
comprensión del lenguaje natural y la visión por computadora,
estamos transformando la búsqueda para que sea mucho más natural y
útil que nunca.

Imagina el futuro. Podemos buscar de cualquier
manera y en cualquier lugar y encontrar información útil
sobre lo que ve, escucha y experimenta de la
forma que le resulte más intuitiva. Esta es nuestra visión para
el futuro de la búsqueda y ya hemos
dado pasos hacia ella. Cuando Google comenzó,
nuestro gran avance fue comprender las
consultas basadas en texto. Con el tiempo, la gente
nos ha hecho preguntas más complejas y matizadas, y nuestra
inversión en la comprensión del lenguaje natural ha
mejorado significativamente nuestra capacidad para responderlas, incluso cuando
la consulta parece un acertijo. Este tampoco lo conozco. Es "Hachi: la historia de un perro". Esa es la respuesta. Pero para muchas preguntas,
puede ser más fácil hablar que escribir, razón por la cual
, hace más de una década, introdujimos la búsqueda por voz.

Ahora recibimos cientos de millones
de consultas de voz todos los días y la adopción es aún mayor
entre los nuevos usuarios de Internet. En India, por ejemplo,
casi el 30% de las consultas en hindi se hablan en hindi. Pero a menudo, ver
es comprender, por eso reinventamos la Búsqueda de Google
una vez más con Google Lens para ayudarte a buscar lo que
ves usando tu cámara directamente desde la barra de búsqueda.

La lente se utiliza ahora más de
ocho mil millones de veces al mes,
casi el triple que el año pasado. Ahora estamos redefiniendo la
Búsqueda de Google una vez más. Estamos combinando nuestra
comprensión de la información en múltiples modos para ayudarlo a
expresar sus necesidades de manera más natural que nunca. El mes pasado lanzamos la
búsqueda múltiple, una de nuestras actualizaciones más importantes de la búsqueda.

En la aplicación de Google,
ahora puedes buscar tomando una foto y haciendo una pregunta
al mismo tiempo. Puede tomar una foto de una
botella de agua a prueba de derrames y pedir una con arcoíris
para alegrar el día de sus hijos. O en mi caso, pude
tomar una foto de mi grifo que gotea y pedir la pieza para arreglarlo. Lo curioso
es que todavía no sé cómo se llama la parte. [RISAS] Pero esto es solo el
comienzo de lo que podemos hacer con Multisearch. Más adelante este año,
agregaremos una nueva forma de buscar información local
con Multisearch Near Me. Simplemente tome una fotografía o mantenga
presionada una que vea en línea y agregue "cerca de mí"
para encontrar lo que necesita entre los millones de
empresas locales a las que brindamos servicios en Google.

Near Me funcionará para una
búsqueda múltiple de todo, desde ropa hasta artículos para el hogar, pasando por
mis favoritos personales, comida y restaurantes locales. Entonces digamos que veo un
plato sabroso en línea. No sé qué contiene
ni cómo se llama, pero me está dando hambre. Con esta nueva
capacidad, puedo identificar rápidamente que es
japchae, un plato coreano, encontrar restaurantes cercanos que
lo sirvan y disfrutarlo en un instante. [APLAUSOS] Si bien todo esto
parece bastante simple, esto es lo que está sucediendo
bajo el capó. La comprensión multimodal de Google
reconoce las
complejidades visuales del plato y las combina con la
comprensión de mi intención: estoy buscando
restaurantes locales que sirvan japchae. Luego escanea millones de imágenes
y reseñas publicadas en páginas web y de nuestra comunidad activa
de colaboradores de Maps para encontrar resultados
sobre lugares cercanos. Multisearch Near Me
estará disponible a nivel mundial a finales de este año en
inglés y llegará a más idiomas con el tiempo.

[APLAUSOS] Hoy en día, esta tecnología
reconoce objetos capturados dentro de un solo cuadro,
pero a veces es posible que desees información sobre
una escena completa frente a ti. En el futuro,
con un avance que llamamos
exploración de escena, podrás usar la búsqueda múltiple
para mover tu cámara, hacer una pregunta
y obtener información al instante sobre múltiples
objetos en una escena más amplia. Dejame darte un ejemplo. Digamos que estás tratando de
elegir la barra de chocolate perfecta para tu amigo, que es un
poco conocedor del chocolate. Sabes que les gusta el
chocolate amargo y tienen aversión a las nueces. Y, por supuesto, quieres
regalarles algo bueno. Si fueras a la tienda hoy
a buscar el mejor chocolate amargo sin nueces,
estarías parado en el pasillo por un tiempo.

Mirarías cada barra,
descubrirías qué tipo de chocolate es, si no tiene nueces,
compararías y contrastarías las opciones y tal vez incluso
buscarías reseñas en línea. Pero gracias a Scene
Exploration, podrás escanear todo el
estante con tu cámara y ver información útil
superpuesta frente a ti. [APLAUSOS] Sí, información superpuesta para que
puedas encontrar exactamente lo que estás buscando. Intente hacerlo
solo con palabras clave. Así es como funciona. Scene Exploration
utiliza visión por computadora para conectar instantáneamente
los múltiples cuadros que componen la escena e identificar
todos los objetos dentro de ella. Al mismo tiempo,
aprovecha la riqueza de la web y el Gráfico de conocimiento de Google
para mostrar los
resultados más útiles. En este caso, qué barritas son
sin frutos secos, de chocolate negro y muy valoradas. La exploración de escenas es un
avance poderoso en la capacidad de nuestro dispositivo para
comprender el mundo como lo hacemos nosotros.

Y nos da un superpoder: la capacidad de ver
información relevante superpuesta en el contexto
del mundo que nos rodea. Podrías imaginarte usar
esto en una farmacia para encontrar un humectante sin aroma
o en la tienda de tu esquina para encontrar una
etiqueta de vino de propiedad negra para apoyar. AUDIENCIA: Así es. [APLAUSOS] PRABHAKAR RAGHAVAN: Esto es como
tener un Control-F sobrealimentado para el mundo que te rodea. Mirando más
allá, esta tecnología podría usarse más allá de las
necesidades cotidianas para ayudar a abordar los
desafíos sociales, como ayudar a los
conservacionistas a identificar especies de plantas que
necesitan protección o ayudar a los trabajadores de socorro en casos de desastre a
clasificar rápidamente las donaciones
en momentos de necesidad. Desde Multisearch Near
Me hasta Scene Exploration, los avances de los que hemos
hablado hoy están al servicio de
una visión más amplia para hacer que la búsqueda sea aún más
natural y útil.

Para que puedas buscar en todo tu
mundo, haciendo preguntas de cualquier forma y en cualquier lugar. Para cumplir esta
promesa, Google necesita satisfacer las
diversas necesidades de información de miles de millones de personas . Y es fundamental que se
vean reflejados en nuestros productos. Construir para todos es
un valor fundamental en Google. Tal vez recuerden que
en I/O el año pasado anunciamos Real Tone,
una iniciativa de varios años para crear experiencias de
cámara e imágenes más equitativas en Pixel 6. [APLAUSOS] Ahora estamos ampliando
nuestro compromiso con la igualdad de tonos de piel
en todos los productos de Google. Nos asociamos con el
profesor de Harvard, el Dr. Ellis Monk, quien pasó la
última década investigando el impacto de la raza, el
origen étnico y el tono de piel en la desigualdad social.

Y su investigación
y experiencia están dando forma a la forma en que abordamos la
inclusión en nuestros productos. [APLAUSOS] Antes de pasarle la palabra
a mi colega, Annie, para contarles
más sobre el trabajo que estamos haciendo en el espacio,
escuchemos al propio Dr. Monk. [REPRODUCCIÓN DE VIDEO] – A menudo, cuando se
trata de representación, estoy entre los
más oscuros que encontrarías en los medios, cuando sé
que hay personas mucho más oscuras , incluso de diferentes razas. – Los prejuicios cromáticos y el colorismo
son realmente un fenómeno global. La realidad son las oportunidades y las oportunidades de la vida:
todas estas cosas
están muy ligadas a su
composición fenotípica.

– Son hechos. Siento que desde que era
niña, si eras moreno, no te consideraban bonito. – Desde muy joven
sentí un fuerte sentido de la responsabilidad de profundizar más
en los temas del colorismo. Durante los últimos 10
años he estado trabajando en temas de desigualdad racial. Y desarrollé una
escala de tonos de piel de 10 puntos con el objetivo de asegurarme de
que todas las personas en todo el espectro de tonos de piel
se sientan representadas.

– ¿Sientes que
en este momento es fácil encontrar tu tono de piel? – Cuando escribimos "
tutorial de belleza", si solo vemos mujeres blancas, simplemente se
relaciona con el panorama más amplio de no estar representados. – Podemos eliminar estos
sesgos en nuestra tecnología desde una etapa muy temprana y
asegurarnos de que las tecnologías que tenemos funcionen igualmente
bien en todos los tonos de piel. Creo que esto es simplemente
un gran paso adelante. – Ser representado es un derecho. Si Internet realmente
es para todos, entonces todos deberían
estar representados. – Existe un gran potencial
para que la industria tecnológica adopte esta escala,
porque el mundo es un lugar mejor
cuando la tecnología funciona igualmente bien para todos. [FIN DE REPRODUCCIÓN] [REPRODUCCIÓN DE MÚSICA] ANNIE JEAN-BAPTISTE:
En Google, creamos productos para el mundo. Miles de millones de personas con diversos
orígenes y experiencias confían en nuestros productos todos los días. Como mencionó el Dr. Monk, el
tono de la piel es una de las muchas dimensiones importantes
que moldean la identidad y las experiencias de las personas.

Y todos merecemos
sentirnos vistos y validados. Hoy, nos
complace compartir cómo estamos comenzando a utilizar
la escala de tonos de piel de Monk para crear productos más inclusivos
en Google. Desarrollada por el Dr. Monk, la
báscula agrega un paso crítico a nuestro
desarrollo y pruebas de productos para garantizar que la tecnología que
impulsa nuestro futuro funcione bien para todos. Nuestra investigación ha demostrado
que más personas en los EE. UU. consideran que la escala Monk
refleja con mayor precisión su tono de piel, en comparación con el
estándar actual de la industria. Esto fue especialmente cierto para las
personas con tonos de piel más oscuros. Estamos probando la escala a nivel mundial
y en diferentes productos y entornos y continuaremos
mejorándola para reflejar a las personas en todas partes.

En Google, comenzamos a
utilizar Monk Scale para ayudar a mejorar la forma en que entendemos y
representamos el tono de piel en productos como Fotos y Búsqueda. Todos los días, millones de
personas buscan en la web esperando ver imágenes
que coincidan con la diversidad del mundo que los rodea. Hemos comenzado a
implementar mejoras en las imágenes en la Búsqueda de Google
para mostrar una variedad de tonos de piel para que personas
de todo tipo de orígenes puedan encontrar resultados más relevantes. Y para consultas de maquillaje,
como sombras de ojos cotidianas y maquillajes de novia, los
usuarios tendrán una nueva forma de filtrar por tonos de piel relevantes
para encontrar resultados más útiles.

No puedo decirles
la cantidad de veces que los tonos complementarios
de mi tono de piel no han estado disponibles. Por eso, personalmente, estoy
encantado de poder filtrar fácilmente
imágenes con las que puedo identificarme. A partir de nuestro
trabajo con Real Tone, también utilizamos Monk Scale
para mejorar las experiencias de imágenes en productos como Google Photos. Y a finales de este mes,
lanzaremos nuevos filtros de Tono Real que fueron diseñados para funcionar
bien en todos los tonos de piel y evaluados utilizando
la Escala Monk. Estos filtros fueron elaborados por una
amplia gama de creadores de imágenes de renombre , famosos
por sus representaciones hermosas y precisas de sus sujetos. Con los filtros Real Tone
, puedes aplicar la belleza y autenticidad
de la edición profesional a tus propias fotos
con solo unos pocos toques.

[APLAUSOS] Crear
experiencias más inclusivas es un compromiso a largo plazo
, que implica una estrecha colaboración
con marcas, editores e investigadores. Y es por eso que nos complace
anunciar que hoy abrimos el acceso a la
escala de tono de piel de Monk para que cualquiera pueda usarla como una guía de
tono de piel más representativa… [APLAUSOS] –en investigación y
desarrollo de productos. Al abrir
la escala, nuestro objetivo es mejorarla con el tiempo en
asociación con la industria. En los próximos meses,
también desarrollaremos una forma estandarizada
de etiquetar el contenido de las imágenes en la Búsqueda de Google.

Los creadores, marcas
y editores podrán utilizar un
esquema inclusivo para etiquetar imágenes con atributos como tono de piel,
color y textura del cabello. Todo esto es parte de
nuestro compromiso continuo para garantizar que la web sea tan
representativa como nuestro mundo. Y ahora, hablemos con
nuestro grupo de observación en Sao Paulo. [REPRODUCCIÓN DE MÚSICA] SUNDAR PICHAI: Gracias, Annie y
equipo, por un trabajo tan inspirador.

Y olá, Sao Paulo. Hasta ahora,
hemos hablado sobre cómo estamos avanzando en el acceso
al conocimiento como parte de nuestra misión, desde una mejor
traducción de idiomas hasta experiencias de búsqueda mejoradas
a través de imágenes y videos y exploraciones más ricas
del mundo usando Maps. Ahora nos
centraremos en cómo hacer que ese conocimiento sea aún más
accesible a través de la informática. El viaje que hemos emprendido con
la informática es apasionante. Cada paso del
escritorio a la web, a los dispositivos móviles, a los wearables
y a la informática ambiental ha hecho que el conocimiento sea más
útil en nuestra vida diaria. Por muy útiles que
sean nuestros dispositivos, hemos tenido que trabajar bastante
duro para adaptarnos a ellos. Siempre he pensado que las computadoras
deberían adaptarse a las personas, y no al revés. Por eso seguimos
esforzándonos para lograr avances aquí. Para compartir más sobre
cómo estamos haciendo que la informática sea más natural e
intuitiva con el Asistente de Google, aquí está Sissie.

SISSIE HSIAO: Gracias, Sundar. Es sorprendente lo rápido que la voz
se está convirtiendo en una forma tan común de acceder a la informática. Cada mes, más de 700 millones de dólares de
personas en todo el mundo realizan sus tareas cotidianas
con su Asistente. Pueden simplemente decir "Ok
Google" para obtener ayuda mientras viajan, en sus hogares e
incluso en el automóvil. Pero estas interacciones
todavía no son tan naturales como podrían ser. Primero, deberías poder
iniciar conversaciones fácilmente con tu Asistente. Por eso, hoy presentamos dos
nuevas opciones para que no tengas que decir "Hola Google" todo el tiempo.

[APLAUSOS] Primero, una nueva
función para Nest Hub Max llamada Look and Talk, que
comienza a implementarse hoy. Simplemente puedes mirar
directamente a tu dispositivo y pedir lo que
necesitas, como cuando haces contacto visual
para iniciar una conversación con otra persona. Una vez que te registras,
Look and Talk está diseñado para activarse cuando
tanto Face Match como Voice Match reconocen que eres tú. Y el vídeo de
estas interacciones se procesa completamente en el
dispositivo, por lo que no se comparte con Google ni con nadie más.

[APLAUSOS] Déjenme volver a encender la cámara
y mostrarles cómo funciona. ASISTENTE DE GOOGLE: El micrófono
y la cámara están nuevamente encendidos. SISSIE HSIAO: Al entrar
a la cocina para comenzar un fin de semana
con mi familia, puedo simplemente
mirar y preguntar, muéstrame algunas playas de Santa Cruz. ASISTENTE DE GOOGLE: Encontré
algunas playas cerca de Santa Cruz. [APLAUSOS] SISSIE HSIAO:
Muy bien, ¿verdad? ¿ Cuánto tiempo se tarda en
llegar al primero? ASISTENTE DE GOOGLE: En auto, el
viaje a Natural Bridges State Beach es de 51 minutos. [APLAUSOS] SISSIE HSIAO: Eso es
mucho más fácil que decir la
palabra candente una y otra vez. La capacidad de distinguir el
contacto visual intencional de una mirada pasajera requiere
seis modelos de aprendizaje automático que procesen más de 100
señales, como proximidad, orientación de la cabeza y dirección de la mirada,
para evaluar la intención del usuario, todo en tiempo real.

También probamos y
refinamos Look and Talk para que funcione en una variedad
de tonos de piel diferentes utilizando algunos de los mismos
principios de inclusión detrás de Real Tone en la
cámara Pixel 6 y Monk Scale. [APLAUSOS] También estamos entusiasmados de expandir
Frases rápidas en Nest Hub Max. Quick Phrases ya
te permite omitir la palabra activa para cosas como responder llamadas en
Pixel 6 y detener temporizadores en dispositivos Nest. Y en los próximos
meses, podrás pedirle a tu Asistente
muchas solicitudes comunes, como configurar alarmas,
preguntar la hora y controlar las luces
desde tu Nest Hub Max, todo sin decir la palabra clave.

[APLAUSOS] Muy bien, mira esto. Apaga la luz del salón. Eso fue muy fácil. Sólo dije lo que quería. Diseñado
pensando en la privacidad, tú eliges qué frases rápidas están
habilitadas para tu Nest Hub Max. Esas son dos formas en las
que cada vez es más fácil empezar a hablar
con el Asistente. También estamos mejorando la forma en que el
Asistente te entiende al ser más receptivo ya que
hablas con naturalidad. Si escuchas atentamente, las
conversaciones de las personas están llenas de silencios,
pausas y correcciones. Pero eso no impide que
nos entendamos. Y eso se debe a que las personas
escuchan activamente y pueden reaccionar a las señales de una conversación
en menos de 200 milisegundos. Los humanos manejan esto con mucha
naturalidad, pero hacer esto para conversaciones abiertas
a través del Asistente es
un problema realmente difícil.

Mover nuestros modelos de voz
para que se ejecutaran en el dispositivo hizo que las cosas fueran más rápidas,
pero queríamos ir más allá. El avance
se produce mediante la creación de
redes neuronales más completas que se ejecutan en el
chip Google Tensor, que fue creado para manejar
tareas de aprendizaje automático en el dispositivo de manera súper rápida. Déjame mostrarte una vista previa de
cómo se combinará todo esto. Por ejemplo, puedo tocar
y mantener presionados mis Pixel Buds y decir reproducir la
nueva canción de… ASISTENTE DE GOOGLE: Mhm. SISSIE HSIAO: Florencia
y algo. ASISTENTE DE GOOGLE: Entendido. Reproduciendo "Gratis" de Florence
and the Machine en Spotify.

[REPRODUCCIÓN DE MÚSICA] SISSIE HSIAO: Escuchaste cómo
tropecé al principio. Pero mi asistente me
animó amablemente a completar mi pensamiento. Y luego, incluso cuando me
equivoqué con el nombre del artista, el Asistente de Google
descubrió correctamente la canción que quería. Es sorprendente cómo
estas mejoras cambian la forma en que se siente
hablar con el Asistente. Puedes dejar de preocuparte por la
forma correcta de pedir algo y simplemente relajarte y
hablar con naturalidad. Así es como estamos
impulsando la informática con la conversación natural,
permitiéndole iniciar fácilmente una conversación
y hacer que pueda hablar
con naturalidad, todo para que pueda ser comprendido verdaderamente. Me entusiasma ver cómo nuestras
voces se convertirán en una forma más rápida y con manos libres de
hacer cosas en muchos tipos de dispositivos,
incluido un ecosistema de Android en crecimiento del que conocerán
en unos minutos.

Gracias y de vuelta a ti, Sundar. [APLAUSOS] SUNDAR PICHAI: Gracias, Sissie. Trabajamos continuamente
para mejorar nuestras capacidades conversacionales. La conversación y el
procesamiento del lenguaje natural son formas poderosas
de hacer que las computadoras sean más accesibles para todos. Y los grandes
modelos lingüísticos son clave para ello. El año pasado presentamos
LaMDA, nuestro modelo de lenguaje generativo para aplicaciones de diálogo
que pueden conversar sobre cualquier tema. Hoy nos complace
anunciar LaMDA 2, nuestra IA conversacional más avanzada hasta el momento.

Estamos al
comienzo de un viaje para hacer que modelos como
estos sean útiles para las personas. Y sentimos una profunda
responsabilidad de hacerlo bien. Y para avanzar,
necesitamos que las personas experimenten la tecnología
y proporcionen comentarios. Abrimos LaMDA a
miles de empleados de Google, quienes disfrutaron probándolo y
viendo de qué era capaz. Esto produjo importantes
mejoras de calidad y condujo a una reducción de respuestas
inexactas u ofensivas . Por eso hemos
creado AI Test Kitchen. Es una nueva forma de explorar las
funciones de IA con una audiencia más amplia .

Dentro de AI Test
Kitchen, hay algunas experiencias diferentes. Cada uno está destinado a darle
una idea de cómo sería
tener LaMDA en sus manos y usarlo para las cosas que
le importan. El primero se llama Imagínelo. Esta demostración prueba si
el modelo puede tomar una idea creativa que usted le
dé y generar descripciones imaginativas y
relevantes. Estos no son productos.

Son bocetos rápidos
que nos permiten explorar lo que LaMDA puede hacer contigo. Como ves, las
interfaces de usuario son muy sencillas. Digamos que estás escribiendo
una historia y necesitas algunas ideas inspiradoras. Quizás uno de tus personajes
esté explorando las profundidades del océano. Puedes preguntar cómo se
sentiría eso. Aquí, LaMDA describe la
escena en la Fosa de las Marianas. Incluso genera
preguntas de seguimiento sobre la marcha. Puedes pedirle a LaMDA que imagine
qué tipo de criaturas podrían vivir allí. Recuerde, no
programamos manualmente el modelo para temas específicos como
submarinos o bioluminiscencia. Ha sintetizado estos conceptos
a partir de sus datos de entrenamiento. Por eso puedes preguntar
sobre casi cualquier tema: los anillos de Saturno o
incluso imaginarte estar en un planeta hecho de helado. Mantenerse en el tema es un
desafío para los modelos lingüísticos. Digamos que está creando una
experiencia de aprendizaje. Desea que sea lo
suficientemente abierto como para permitir que las personas exploren hacia dónde los lleva la curiosidad,
pero sin salirse del tema.

Nuestra segunda demostración prueba
cómo le va a LaMDA con eso. En esta demostración,
hemos preparado el modelo para que se centre en el tema de los perros. Nuevamente comienza generando una
pregunta para iniciar una conversación. ¿ Alguna vez te has preguntado por qué a los perros les
encanta tanto jugar a buscar? Y si hace una
pregunta de seguimiento, obtendrá una respuesta con
algunos detalles relevantes.

Es interesante. Se cree que podría
tener algo que ver con el sentido del
olfato y la búsqueda de tesoros. Puedes tomar la conversación
como quieras. Tal vez tengas curiosidad
sobre cómo funciona el olfato y solo quieras
profundizar más. También obtendrá una
respuesta única para eso. No importa lo que preguntes,
intentará mantener la conversación sobre el tema de los perros. Si empiezo a preguntar sobre el
cricket, lo cual probablemente haría, el modelo devuelve el tema
a los perros de una manera divertida. Creo que los perros harían… [RISAS] Ahora bien, el desafío de permanecer
en el tema es complicado. Es un
área importante de investigación para crear aplicaciones útiles
con modelos de lenguaje. Y esta última demostración
es mi favorita, así que la haremos en vivo. Déjame entregárselo a Josh. [APLAUSOS] JOSH WOODWARD: Gracias, Sundar. Como equipo, hemos aprendido
mucho en este proyecto.

Y esta será la primera
demostración en vivo de LaMDA desde el escenario. ¿ Están todos listos
para ver cómo funciona? [APLAUSOS] Muy bien. Aquí estoy en la
aplicación AI Test Kitchen. Voy a abrir
esta demostración llamada List It. Ahora, List It
explora si LaMDA puede tomar un objetivo
o tema complejo y dividirlo en subtareas relevantes. Puede ayudarme a
descubrir lo que estoy tratando de hacer y generar
ideas útiles en las que quizás no haya pensado. Si te encantan las listas de tareas pendientes como a mí
, este es un sueño hecho realidad. Voy a tocar Iniciar. Y este es un proyecto en el que he estado
pensando mucho últimamente: plantar un huerto. Enviaré esto a LaMDA. Y ahí está. Sobre la marcha, se le ocurren
estos diferentes pasos y los desglosa en
esta lista de subtareas. Puedo ver cosas como hacer una
lista de lo que quiero cultivar, la ubicación. También puedo regenerar una lista sobre
la marcha para obtener aún más ideas. Ahora, lo interesante
de estos es que puedo acceder rápidamente a uno de ellos.

Digamos este, como
lo que podría crecer en la zona. Y puedes ver que
me dará más sugerencias. Puedo continuar,
desglosando esto, donde eventualmente
me da una lista de lo que podría querer plantar,
como tomates, lechuga o ajo.
Esta vez mantendremos el ajo fuera. Una de las otras
cosas que hace lambda no es solo desglosar listas,
sino que también puede generar una sugerencia. Así que aquí, cuando toco
generar una propina… oh,
en realidad, nunca antes se había visto esta.

Me dice que si tengo
un patio pequeño, me dará diferentes vegetales que
podría cultivar. Ahora, cuando pensamos
en productos como este y en experiencias como
esta, es mucho más que simplemente crear una lista
de vegetales para cultivar. Si vuelvo hacia arriba, podréis
ver todos los diferentes caminos en los que LaMDA me está ayudando a
pensar y dándome consejos
a lo largo del camino. Y así, toda esta
tarea parece mucho menos desalentadora. Volviendo a ti, Sundar. SUNDAR PICHAI: Gracias, Josh. Al igual que las otras demostraciones,
puedes ingresar todo tipo de objetivos, ya sea mudarte a una nueva
ciudad o aprender a tocar un instrumento. Estas experiencias
muestran el potencial de los modelos lingüísticos
para algún día ayudarnos con cosas como planificar,
aprender sobre el mundo y más.

Por supuesto, existen
importantes desafíos que resolver antes de que estos
modelos puedan ser realmente útiles. Si bien hemos mejorado la
seguridad, el modelo aún podría generar respuestas
inexactas, inapropiadas u ofensivas. Es por eso que solicitamos
comentarios en la aplicación, para que las personas puedan ayudar a
informar problemas. Y haremos todo
este trabajo de acuerdo con nuestros principios de IA. Nuestro proceso será
iterativo, abrirá el acceso durante los próximos meses
y evaluará cuidadosamente los comentarios de una amplia
gama de partes interesadas, desde investigadores de inteligencia artificial y
científicos sociales hasta expertos en derechos humanos .

Incorporaremos estos comentarios
en futuras versiones de LaMDA y compartiremos nuestros hallazgos a medida que avancemos. Con el tiempo, tenemos la intención de seguir
agregando otras áreas emergentes de IA a nuestra AI Test Kitchen. Y puedes aprender más aquí. Como acabas de ver, LaMDA 2 tiene
increíbles capacidades conversacionales. Para explorar otros aspectos
del procesamiento del lenguaje natural y la IA, recientemente
anunciamos un nuevo modelo. Se llama Pathways Language
Model, o PaLM para abreviar. Es nuestro modelo más grande hasta la fecha
y está entrenado en 540 mil millones de parámetros. PaLM demuestra un
rendimiento innovador en muchas
tareas de procesamiento del lenguaje natural, como generar
código a partir de texto, responder un problema matemático
o incluso explicar un chiste. Lo logra a
mayor escala. Y cuando combinamos esa
escala con una nueva técnica llamada Cadena de Pensamiento
, los resultados son prometedores. Las indicaciones de cadena de pensamiento
nos permiten describir
problemas de varios pasos como una serie de
pasos intermedios.

Tomemos un ejemplo
de un problema matemático escrito que requiere razonamiento. Normalmente, la forma de
utilizar un modelo es plantearlo con una
pregunta y una respuesta. Y luego empiezas a
hacer preguntas. En este caso ¿cuántas horas
tiene el mes de mayo? Como puedes ver, el modelo
no lo hizo del todo bien. Entonces, en las indicaciones de cadena de pensamiento
, le damos al modelo un
par de preguntas y respuestas. Pero esta vez,
explicamos cómo se obtuvo la respuesta , algo así como
cuando tu maestro te da un ejemplo paso a paso
para ayudarte a entender cómo resolver un problema. Ahora, si le vuelves a preguntar al modelo
cuántas horas hay en el mes de mayo,
u otra pregunta relacionada, en realidad responde correctamente. E incluso muestra su trabajo. [APLAUSOS] Las indicaciones en cadena de pensamientos
aumentan la precisión por un amplio margen.

Esto conduce a un
rendimiento de vanguardia en varios
puntos de referencia de razonamiento, incluidos los problemas matemáticos escritos. Y podemos hacerlo todo
sin cambiar nunca la forma en que se entrena el modelo. PaLM es muy capaz
y puede hacer mucho más. Por ejemplo,
podrías ser alguien que habla un idioma
que no está bien representado en la
web hoy en día, lo que dificulta la búsqueda de información. Aún más frustrante
porque la respuesta que estás buscando
probablemente esté disponible. PaLM ofrece un nuevo enfoque
que encierra una enorme promesa para hacer que el conocimiento sea más
accesible para todos. Permítanme mostrarles un
ejemplo en el que podemos ayudar a responder preguntas en un
idioma como el bengalí, hablado por 250 millones de personas. Al igual que antes,
incitamos al modelo con dos ejemplos de preguntas
en bengalí con respuestas tanto en bengalí como en inglés. Dicho esto, ahora podemos empezar a
hacer preguntas en bengalí. ¿ Cuál es la
canción nacional de Bangladesh? La respuesta, por cierto,
es "Amar Sonar Bangla".

Y PaLM también lo hizo bien. Esto no es tan
sorprendente porque se esperaría que ese contenido
existiera en bengalí. Pero también puedes
probar algo que tenga menos probabilidades de tener
información relacionada en bengalí, como por ejemplo, ¿cuáles son los
ingredientes de pizza más populares en la ciudad de Nueva York? Y el modelo nuevamente responde
correctamente en bengalí, aunque probablemente solo
provocó un debate entre los neoyorquinos sobre qué tan correcta
es realmente esa respuesta. Lo que es tan impresionante
es que PaLM nunca ha visto oraciones paralelas
entre el bengalí y el inglés. Nunca se
enseñó explícitamente a responder preguntas ni a traducir. El modelo reunió todas
sus capacidades para responder preguntas
correctamente en bengalí.

Y podemos extender la
técnica a más idiomas en otras tareas complejas. Somos muy optimistas sobre el
potencial de los modelos lingüísticos. Esperamos que algún día
podamos responder preguntas sobre más temas en cualquier idioma que
hables, haciendo que el conocimiento sea aún más accesible en la Búsqueda
y en todo Google. Todos los avances que
hemos compartido hoy son posibles sólo gracias
a nuestra continua innovación en nuestra infraestructura. Recientemente, anunciamos planes
para invertir 9 mil millones y medio de dólares en centros de datos y
oficinas en todo Estados Unidos.

Uno de nuestros centros de datos de última generación
se encuentra en el condado de Mayes, Oklahoma. Me complace
anunciar que lanzaremos el centro de aprendizaje automático disponible
públicamente más grande del mundo
para todos nuestros clientes de Google Cloud. Este centro de aprendizaje automático tiene
ocho partes de Cloud TPU V4 diseñadas a medida en la misma
infraestructura de red que impulsa los modelos neuronales más grandes de Google. Proporcionan casi
nueve exaflops de potencia informática en conjunto, lo que
brinda a nuestros clientes una capacidad sin precedentes para ejecutar
modelos y cargas de trabajo complejos. Esperamos que esto impulse la
innovación en muchos campos, desde la medicina hasta la logística, la
sostenibilidad y más.

Y hablando de
sostenibilidad, este centro ya funciona con un
90% de energía libre de carbono. [APLAUSOS] Esto nos está ayudando a
avanzar en nuestro objetivo de convertirnos en la primera
empresa importante en operar todos nuestros centros de datos y
campus a nivel mundial con energía libre de carbono las 24 horas del día, los 7 días de la semana para 2030. [APLAUSOS] Incluso mientras invertimos
en nuestros centros de datos, También estamos trabajando para innovar
en nuestras plataformas móviles para que pueda realizarse un mayor procesamiento
localmente en el dispositivo. Google Tensor, nuestro
sistema personalizado en un chip, fue un paso importante
en esta dirección. Ya se ejecuta
en Pixel 6 y Pixel 6 Pro y ofrece nuestras
capacidades de IA, incluido el mejor
reconocimiento de voz que jamás hayamos implementado, directamente en su teléfono.

También es un gran paso
adelante para hacer que esos dispositivos sean más seguros. Combinado con el
núcleo Private Compute de Android, puede ejecutar funciones basadas en datos
directamente en el dispositivo para que sea privado para usted. Para compartir más sobre cómo
estamos haciendo que la informática sea más segura con Google, permítanme
cederle la palabra a Jen. [APLAUSOS] JEN FITZPATRICK: Todos los días, la
gente recurre a nuestros productos en busca de ayuda en momentos
grandes y pequeños. Para que esto sea
posible, es fundamental proteger su información privada en
cada paso del camino.

Incluso a medida que la tecnología se vuelve cada
vez más compleja, mantenemos a más personas seguras
en línea que nadie en el mundo con productos
que son seguros por defecto, privados por diseño y que
le dan el control. Hoy, me enorgullece
compartir con ustedes nuestros últimos avances que hacen que
cada día sea más seguro con Google. Los ciberataques generalizados,
como Colonial Pipeline y la reciente
vulnerabilidad Log4J, amenazan con poner
en riesgo la información privada de las personas, interrumpir servicios críticos
como las redes de energía y telecomunicaciones
y debilitar las democracias globales. Para prevenir futuros
ataques, estamos elevando el listón para toda la
industria al ser pioneros en tecnología avanzada de ciberseguridad,
alertar a otros sobre los riesgos de seguridad dentro de
sus propios sistemas y soluciones de código abierto que
hacen que Internet sea más seguro.

Equipos especializados como Threat
Analysis Group y Project Zero contrarrestan a los actores de amenazas graves
y detectan vulnerabilidades en Internet. El año pasado, nuestro
Grupo de Análisis de Amenazas detectó que más de 40.000
usuarios estaban siendo atacados por actores respaldados por el gobierno.
Alertamos a todos automáticamente, aumentamos las protecciones
y bloqueamos los ataques. [APLAUSOS] Más recientemente, con
la guerra en Ucrania, observamos un aumento
de ataques distribuidos de denegación de servicio
contra sitios web que proporcionaban información crítica, como
noticias de actualidad y recursos de evacuación. Ampliamos nuestro
programa gratuito de defensa DDoS, Project Shield, para defender más de 180
sitios web ucranianos, incluidos aquellos que pertenecen al
gobierno, a grupos de noticias y de derechos humanos de Ucrania. Y debido a que gran parte de la
infraestructura tecnológica del mundo está peligrosamente obsoleta,
ahora estamos invirtiendo $10 mil millones para modernizar
sistemas e infraestructuras vulnerables, proteger la
cadena de suministro de software y capacitar a 100.000 estadounidenses
en habilidades digitales, incluida la privacidad de datos
y la ciberseguridad a través del Certificado de Carrera de Google.
Programa.

Además de mantener seguras a las
empresas y organizaciones en todo el mundo,
incorporamos seguridad avanzada en todo lo que hacemos para
proteger a los usuarios individuales. En los últimos años, las
estafas de phishing han aumentado sustancialmente. Y son responsables del
90% de los ciberataques recientes. Nuestras protecciones integradas
interceptan estos intentos antes de que lleguen a usted. Por ejemplo, cada día,
Gmail y Mensajes de Google bloquean más de 15 mil millones de
mensajes de spam y phishing. Google Play ahora analiza 125
mil millones de aplicaciones instaladas en busca de malware, lo que hace que
todo el ecosistema de aplicaciones sea más seguro. Y nuestra tecnología de navegación segura
integrada en Chrome y
otros navegadores importantes ahora protege 5 mil millones de
dispositivos de sitios riesgosos.

Detectar y bloquear amenazas
a esta escala todos los días hace que nuestra protección impulsada por IA sea
insuperable y también permite a nuestros equipos
identificar nuevas áreas para salvaguardar, razón por la cual
ahora estamos ampliando nuestras protecciones comprobadas contra phishing a Google
Docs, Sheets y Slides. Pronto, si estás trabajando
en un documento compartido que contiene un
enlace sospechoso, te avisaremos automáticamente y
te llevaremos de regreso a un lugar seguro. [APLAUSOS] No importa dónde ocurran,
todos los intentos de phishing comparten un único objetivo: comprometer su
cuenta, usándola a menudo como una herramienta para propagar el
ataque a su red. La protección de su cuenta
comienza con la creación de las tecnologías de autenticación más avanzadas
en todos los lugares donde inicie sesión.

Los expertos en ciberseguridad dicen que
la forma más importante de proteger su cuenta
y ayudar a prevenir ataques cibernéticos es utilizar la
autenticación multifactor. Sin embargo, a veces
tiene mala reputación por crear fricción adicional. Es por eso que hemos hecho que nuestra
verificación en dos pasos sea lo más fácil posible. Ya sea que estés en
Android o iOS, solo un toque en tu
teléfono y estarás dentro. Sin códigos de seis dígitos. [APLAUSOS] Hace más de 10 años, fuimos
la primera empresa de tecnología de consumo en ofrecer
verificación en dos pasos. Y ahora somos los primeros
en activarlo de forma predeterminada. Solo el año pasado, inscribimos
150 millones de cuentas adicionales en la verificación en dos pasos. [APLAUSOS] Y estamos optimizando el flujo de inicio de sesión
y la experiencia de recuperación de cuenta para que podamos
activar esta capa adicional de protección para todos. Para extender la seguridad de clase mundial
de su cuenta de Google a todas sus cuentas en línea,
creamos Iniciar sesión con Google. Cada día, 400
millones de personas lo utilizan para acceder de forma segura con un solo clic
a todo, desde sitios de viajes
hasta aplicaciones de comestibles.

Crear un
sistema de autenticación que sea seguro y fácil de
usar es un desafío enorme. Quiero decir, ¿cuántas
veces hemos tenido que hacer clic en ¿Olvidé mi contraseña? Gracias a años de
inversión en ingeniería en nuestro administrador de contraseñas, verificación en dos pasos
, claves de seguridad y, más recientemente,
claves de acceso, hemos allanado el camino para un
futuro sin contraseñas. [APLAUSOS] Y ahora estamos liderando
un esfuerzo en toda la industria para permitir el inicio de sesión sin contraseña
en todos los dispositivos, sitios web y aplicaciones en cualquier plataforma. Estoy realmente orgulloso
del trabajo que hemos realizado para que la autenticación segura sea
accesible para
todos en todas partes. A medida que todos hacemos cada vez más
compras en línea, mantener su
información de pago segura y protegida es de vital importancia.

Hoy me complace anunciar
el lanzamiento de tarjetas virtuales en Chrome y Android. Ahora, cuando utilice la función de autocompletar para
completar sus detalles de pago al finalizar la compra,
reemplazaremos su número de tarjeta con un número virtual distinto
, lo que reducirá el riesgo de fraude y robo de identidad. Para brindarle a más personas acceso
a una forma más segura de pagar en línea, hemos trabajado estrechamente con Visa,
American Express, Capital One y Mastercard para
implementar tarjetas virtuales a partir de este verano. [APLAUSOS] Monitoreamos constantemente la
seguridad de su cuenta de Google para brindarle tranquilidad. Ahora estamos agregando un
estado de seguridad en tu foto de perfil.

Entonces, si algo requiere su
atención, se lo haremos saber y luego lo guiaremos
a través de pasos simples para garantizar que su
cuenta esté segura. Somos implacables
en proteger su información personal con
la seguridad más avanzada del mundo, porque si
no es segura, no es privada. Pero proteger su
privacidad requiere que seamos igualmente rigurosos
al crear productos que sean privados por diseño. Y estoy emocionado de contarles
sobre nuestros últimos avances en esta área. Hoy en día, la informática ya no
ocurre sólo en una computadora o en un teléfono, sino en
tu casa, en tu automóvil, en tu muñeca y en la nube. Desbloquear
experiencias útiles personalizadas y al mismo tiempo proteger la privacidad del usuario
en este entorno cada vez más complejo presenta nuevos
desafíos técnicos. Basándonos en
investigaciones profundas y avances en inteligencia artificial, hardware
y computación en la nube, hemos diseñado un
nuevo enfoque técnico que llamamos Computación protegida.

En esencia, Protected
Computing es un creciente conjunto de herramientas de tecnologías que
transforma cómo, cuándo y dónde se procesan los datos para
garantizar técnicamente la privacidad y seguridad de sus datos. Nuestro enfoque se centra
en tres áreas. Primero, minimizamos
su huella de datos. Nuestro enfoque aquí es reducir por completo
la cantidad de datos de identificación personal: recopilar menos y eliminar
más, utilizando técnicas como el procesamiento de borde
y lo efímero. Si los datos no
existen, no se pueden piratear. En segundo lugar, desidentificamos los datos. Desde difuminar y aleatorizar
señales identificables hasta agregar
ruido estadístico, utilizamos una variedad de
técnicas de anonimización para eliminar su identidad
de sus datos para que ya no estén vinculados a usted.

Y, en tercer lugar, restringimos el
acceso mediante tecnologías como el cifrado de extremo a extremo
y enclaves seguros. Se trata de hacer que
sea técnicamente imposible que cualquier persona,
incluido Google, acceda a sus datos confidenciales. Este conjunto de herramientas de
diversas técnicas nos permite implementar la solución más segura e
inteligente posible y, a menudo, acumular
varias técnicas para proporcionar protecciones en capas.

Hoy en día, la
informática protegida permite a Android sugerir la
siguiente frase de su texto mientras mantiene su conversación
completamente privada. Ayuda a Pixel a saber cuándo
mantener la pantalla activa mientras elimina continuamente las
señales ambientales a medida que se procesan. Y permite que Chrome
le avise sobre contraseñas comprometidas sin conocer ninguna. [APLAUSOS] Más adelante hoy,
escuchará más sobre cómo la informática protegida
permite nuevas experiencias ambientales en sus
dispositivos Android y domésticos inteligentes, manteniendo al mismo tiempo la
privacidad de su información. Además de brindar
experiencias útiles, la Computación Protegida es
esencial para desbloquear el potencial de los datos
para beneficiar a la sociedad de manera más amplia de una manera que
preserve la privacidad de todos. Por ejemplo, nuestro
equipo de Environmental Insights está explorando cómo, con
informática protegida, podemos proporcionar a los gobiernos locales

datos de ubicación y movimiento agregados y no identificados dentro de sus ciudades para ayudar a
reducir su huella de carbono.

La informática protegida
representa nuestro profundo compromiso con la innovación de nuevas
soluciones técnicas que hagan que la tecnología sea más
útil, segura y privada en todos los lugares donde
se realiza la informática. Nadie más está implementando
un enfoque tan multifacético a nuestra escala. Y me entusiasma ver todas
las formas en que nuestros equipos aplicarán la informática protegida para
garantizar que estés más seguro cada día con Google. [APLAUSOS] Al final del
día, creemos que la privacidad es personal. Es por eso que continuamos creando
controles poderosos que le permiten elegir lo que es adecuado para usted. Para compartir más sobre
las formas más nuevas en las que le damos el
control de sus datos, permítame pasárselo a Danielle. DANIELLE ROMAIN:
Nos sentimos privilegiados de que miles de millones de
personas confíen en productos como Search, Chrome, Maps y
Android para ayudarlos todos los días. Y trabajamos arduamente para ganarnos
esa confianza brindándole herramientas que le permitan
controlar su privacidad y ayudarlo a controlar
su experiencia en línea.

Como mencionó Jen,
proteger su privacidad es fundamental para que cada
día sea más seguro con Google. Una forma importante de
hacerlo es ayudándole a tener más control
sobre sus datos, incluidos los datos
utilizados para mostrarle anuncios. Nunca vendemos su
información personal a nadie ni utilizamos el contenido que almacena en
aplicaciones como Gmail, Google Photos o Drive con
fines publicitarios. Tampoco utilizamos nunca
información confidencial como salud, raza, religión
u orientación sexual para anuncios personalizados, punto . Creemos que los mejores anuncios
son útiles, relevantes y seguros. Por eso, a finales de este año
lanzaremos Mi centro de anuncios para brindarle aún más
control sobre los anuncios que ve en YouTube,
Búsqueda y Discover.

[APLAUSOS] Estamos ampliando nuestra
configuración de privacidad de anuncios existente. Ahora, a través de Mi
centro de anuncios, puedes controlar directamente los datos utilizados
para personalizar tus anuncios. Por primera vez,
puedes elegir ver más anuncios de las
categorías o marcas que te gusten. Por ejemplo, me interesan los
vehículos híbridos, por lo que elijo ver anuncios
de esa categoría. También puede optar por ver menos
anuncios de categorías o marcas que no le interesan. Podrá acceder a Mi
centro de anuncios a través de su cuenta de Google o directamente desde el anuncio. Pero no se trata sólo de
gestionar sus datos.

También sabemos que la gente
quiere tener más control sobre su presencia en línea
para sentirse más segura. Entonces tengo una pregunta
para todos ustedes. ¿ Cuántos de vosotros habéis buscado
vuestro nombre en Google? DE ACUERDO. De vez en cuando hago una
búsqueda por mí mismo. Y a juzgar por la
reacción, puedo decir que no soy el único que
comprueba lo que otros pueden encontrar sobre mí en línea. En Google, si bien creemos firmemente
en el acceso abierto a la información, también
tenemos un profundo compromiso con la protección de las personas en línea. Es por eso que tenemos
políticas para eliminar ciertos tipos de
información de identificación personal de los resultados de búsqueda que
sabemos que las personas prefieren mantener en privado, como sus números de
cuentas bancarias o tarjetas de crédito que podrían
usarse para fraude financiero.

Ahora estamos aprovechando esto
al presentar una nueva herramienta que acompaña a las
políticas de eliminación actualizadas y que le permite tener
aún más control de su presencia en línea. [APLAUSOS] Pronto, si encuentra resultados de búsqueda
que contienen sus datos de contacto, como su
número de teléfono, dirección particular o dirección de correo electrónico que
desea eliminar, podrá solicitar fácilmente su
eliminación de la Búsqueda de Google. [APLAUSOS] Por supuesto, eliminar esta
información de la Búsqueda de Google no la elimina de la web. Pero este es un
paso importante para ayudar a proteger a las personas en línea. Esta función estará
disponible en los próximos meses en la
aplicación de Google y también podrá acceder a ella
haciendo clic en los tres puntos junto a los
resultados individuales de la Búsqueda de Google.

Otra parte de
estar más seguro en línea es tener acceso a
información confiable. La Búsqueda de Google se creó
desde cero para ofrecer
información de alta calidad. Esto ha diferenciado a Google
desde el primer día. Y es algo
en lo que invertimos incansablemente. Y también le brindamos
herramientas para evaluar la confiabilidad de la
información que encuentra. Una de las herramientas que
lanzamos el año pasado, llamada Acerca de este
resultado, se ha utilizado más de
1.600 millones de veces. Esta herramienta está disponible en
resultados de búsqueda individuales, lo que le ayuda a ver el
contexto importante de un sitio web incluso antes de visitarlo. Pero queremos asegurarnos de que
sienta que tiene el control de la información
que consume dondequiera que esté en línea. Por eso, estamos haciendo que este útil
contexto sea más accesible a medida que exploras la
Web más allá de la Búsqueda.

Así que imagine sus
esfuerzos de investigación y conservación y se encuentra
en un sitio web desconocido de una
organización de protección de la selva tropical. Antes de decidirse
a donar, le gustaría saber
si es confiable. Y con solo un
toque, la aplicación de Google pronto mostrará
contexto relevante sobre el sitio web, incluida
la descripción del sitio, lo que dicen sobre sí mismos y
lo que otros dicen sobre ellos, ayudándolo a explorar
con confianza.

Podrás ver contextos
como este en cualquier sitio web y próximamente en la
aplicación de Google tanto en iOS como en Android. [APLAUSOS] Como hemos hablado
hoy, en Google mantenemos a más personas seguras
en línea que nadie en el mundo con productos
que son seguros por defecto, privados por diseño y
que te dan el control. Todo lo que hacemos está diseñado
teniendo en cuenta la seguridad, incluidas las plataformas
con miles de millones de usuarios, como la búsqueda y Android.

Y hablando de
Android, el equipo ha estado creando
experiencias interesantes en todos los
dispositivos de tu vida. Y a continuación, Sameer estará
aquí para contaros más al respecto. Pero primero, saludemos
a nuestra fiesta de vigilancia en Londres. [REPRODUCCIÓN DE MÚSICA] SAMEER SAMAT: Hola a todos. Es genial estar de regreso en
Shoreline para Google I/O. [APLAUSOS] A lo largo de los años, Android se ha
convertido en el sistema operativo más popular del mundo, brindando acceso,
conectividad e información a personas en todas partes
a través de sus teléfonos inteligentes.

Sólo el año pasado, los consumidores
activaron mil millones de nuevos teléfonos Android. Y como Prabhakar
nos mostró anteriormente, con los avances en el
aprendizaje automático, estas supercomputadoras
en nuestro bolsillo pueden ayudarnos a hacer más
que nunca. Si bien el teléfono sigue siendo la
forma más popular de informática, las personas están añadiendo cada vez más
todo tipo de tecnologías conectadas a
sus vidas, como televisores, automóviles, relojes y más. E incluso si esos dispositivos provienen
de diferentes fabricantes, la gente espera que todo funcione en
conjunto sin problemas. Tiene que ser sencillo. Android siempre se ha centrado en que las
personas elijan la tecnología que mejor les funcione. En un mundo con múltiples dispositivos
, creemos que esta apertura es aún más
esencial para crear la mejor experiencia para el consumidor. Así que hablemos de las
novedades de Android 13 para llevar todos los beneficios
de este futuro multidispositivo a todos. Hay tres grandes
temas en los que nos centramos.

Primero, permitiéndole hacer más
con su teléfono en el centro. En segundo lugar, extenderse
más allá del teléfono a todas las formas
de informática que la gente ama, como relojes,
tabletas y más. Y tercero, hacer que
todos tus dispositivos funcionen mejor juntos para
resolver problemas y ayudarte durante todo el día. Empecemos
hablando de teléfonos. Android 13 se basa
en nuestro lenguaje de diseño Material You para que tu
teléfono tenga aún más formas de adaptarse a tu estilo. Todos los íconos de tu aplicación ahora pueden
incorporar tu tema de color. Y hay un nuevo
control multimedia que adapta su apariencia a la
música que estás escuchando. Me encanta cómo la
barra de progreso sigue el ritmo. Es genial. Incluso puedes personalizar
tu experiencia configurando un
idioma diferente para cada aplicación. Entonces, si eres multilingüe,
puedes usar tu aplicación de redes sociales en un idioma y tu
aplicación bancaria en otro. Y, por supuesto,
Android 13 viene repleto de docenas de nuevas
funciones de seguridad y privacidad.

Pero la seguridad debe
ir más allá de su dispositivo. Cuando envías un mensaje desde
tu teléfono al de otra persona, quieres estar seguro de que
sea privado y seguro. Es por eso que hemos trabajado con
operadores y fabricantes de dispositivos de todo el mundo para
actualizar los mensajes de texto SMS a un nuevo estándar
llamado RCS, que puede permitir importantes
protecciones de privacidad como el cifrado de extremo a extremo. Este es un gran paso adelante
para el ecosistema móvil. Y estamos muy entusiasmados
con el progreso. De hecho, la
aplicación Mensajes de Google ya tiene 500 millones de
usuarios activos mensuales con RCS y está creciendo rápidamente. Esperamos que todos los sistemas operativos móviles
reciban el mensaje y actualicen a RCS para que
sus mensajes sean privados sin importar qué
dispositivo esté usando.

Ahora, nuestros teléfonos
son partes esenciales de la forma en que nos comunicamos con
nuestros amigos, familiares y seres queridos. De hecho, hoy en día,
solo hay dos cosas sin las que no salgo de casa: mi teléfono y mi billetera. Entonces la pregunta es: ¿puede mi
teléfono reemplazar mi billetera? Bueno, hoy nos complace
presentarles el nuevo Google Wallet. [APLAUSOS] Es una
billetera digital para Android que te brinda
acceso rápido y seguro a tus elementos esenciales cotidianos. Tu Google Wallet almacena de forma segura
tus tarjetas de pago para que puedas tocar para pagar en cualquier lugar donde
se acepte Google Pay. Pero Wallet sirve para
mucho más que pagos. Es una forma de desbloquear más
del mundo que te rodea. Puede mostrar su identificación de estudiante
en el campus, abordar un vuelo o arrancar su automóvil. Incluso puedes usarlo
como pase al parque para explorar Walt Disney World.

Los elementos que contienen
información muy personal, como su tarjeta de vacunación,
se almacenan en su dispositivo y no se comparten con
nadie, ni siquiera con Google. Ahora sabemos que es difícil
deshacerse de su billetera física si no tiene su
artículo más esencial: su identificación. Por eso, estamos trabajando con estados
de EE. UU. y gobiernos de todo el mundo para llevar las
identificaciones digitales a la billetera a finales de este año, comenzando
con las licencias de conducir. Puede compartir la
información de su identificación sin tener que entregarle
su teléfono a otra persona. Simplemente toque NFC
o use un código QR. Google Wallet se
implementará en dispositivos Android y Wear OS en todo
el mundo en las próximas semanas. [APLAUSOS] Ahora, ayudarte a
comunicarte de forma segura con tus amigos y familiares y almacenar
tu identidad digital es realmente útil.

Pero nuestros teléfonos pueden ser
aún más esenciales en momentos difíciles de
la vida, como emergencias o desastres naturales. Hace dos años, desarrollamos
los primeros algoritmos en un teléfono para detectar cuándo
estás en un accidente automovilístico y pedir ayuda automáticamente. Vamos a ver. [REPRODUCCIÓN DE VIDEO] – No tengo ningún recuerdo
del accidente. Me desperté. Estaba al revés. Y
me goteaba combustible diesel. Con la voz más poderosa que
tenía, grité ayuda,
lo cual sabía que era inútil. Pero escuché que la ayuda está en camino. El teléfono detectó el
accidente y llamó al 911.

Hubo mucha alegría
cuando escuché a alguien decir: lo encontramos. Lo tenemos. Se me pone la piel de gallina al
pensar en ello en este momento porque
no estaría aquí hablando contigo si no fuera por eso. La función de detección de accidentes automovilísticos
de ese teléfono me salvó la vida. [FIN DE REPRODUCCIÓN] [APLAUSOS] SAMEER SAMAT: Historias como esta
nos han inspirado a hacer más, para que la tecnología sea útil
cuando más la necesita. Más adelante este año, comenzaremos a
incorporar Emergency SOS a Wear, para que puedas comunicarte instantáneamente con
un amigo o familiar de confianza , o llamar a los
servicios de emergencia directamente desde tu reloj. También estamos ampliando el
sistema de alerta de terremotos de Android a muchas de las
regiones de alto riesgo que quedan en el mundo. Utiliza
datos del acelerómetro de los teléfonos para determinar si se
está produciendo un terremoto y advertir a otras personas en
el área circundante, a menudo antes de que el
temblor los alcance. Puede bajarse de una escalera, ponerse a
cubierto o detener su automóvil.

Estos segundos adicionales de
advertencia pueden salvar vidas. Hay muchas maneras en que nuestros
teléfonos pueden ayudarnos a hacer más. Ya sea para ayudarle a
comunicarse de forma segura con amigos, proteger
su identidad digital o brindarle ayuda
en momentos críticos, su teléfono es su
compañero digital más esencial. Y lo que puedes hacer con
Android se vuelve aún más emocionante cuando vamos más allá del teléfono. Para contarte más,
aquí está Trystan. TRYSTAN UPSTILL:
Junto con el teléfono, estamos trabajando arduamente para garantizar que
Android brinde una experiencia fantástica en todos los dispositivos
que son más importantes para usted, especialmente sus
dispositivos personales, como relojes y tabletas.

En I/O el año pasado,
anunciamos algunas actualizaciones importantes para Wear OS, incluido el
lanzamiento de nuestra plataforma conjunta con Samsung. Y vaya año que ha sido. Este año hay más de tres
veces más dispositivos Wear OS que el
año pasado. Y esto es sólo el comienzo. Esté atento a los nuevos
relojes de Samsung, Fossil, Montblanc y más
a partir de este verano. El impulso se ha trasladado a
nuestra comunidad de desarrolladores, que está lanzando excelentes
experiencias de aplicaciones en Wear OS y haciendo que Watch sea aún
mejor para nuestros usuarios.

Favoritos como Spotify, Adidas
Running, Line y KakaoTalk han
llegado recientemente a la plataforma, y pronto habrá muchos más. Con un ecosistema en crecimiento de
socios, desarrolladores y aplicaciones, Wear OS trae lo mejor
de Android a tu muñeca. Y este año, hay otra
pantalla más grande que entusiasma a los consumidores: las tabletas. Ahora nos acercamos a los
270 millones de usuarios activos en dispositivos de pantalla grande. [APLAUSOS] Android fue pionero en múltiples
tamaños y factores de forma para pantallas más grandes. Y tenemos muchos
dispositivos fantásticos que están llegando al mercado, como el Samsung Galaxy Tab
S8 Ultra, Lenovo Tab P12 PRO y otros de socios
como Oppo y Xiaomi, todos ellos construidos con
las últimas versiones de Android. Increíblemente, ahora podemos obtener
experiencias similares a las de una tableta que caben en su bolsillo,
con dispositivos plegables que ofrecen todos los beneficios de
un dispositivo de pantalla grande con la portabilidad de un teléfono.

Y Android es la única
forma de experimentarlo todo. Pero aún hay mucho que hacer. Por eso, este año hemos
estado trabajando duro para hacer que las tabletas Android sean increíbles. Pero en lugar de simplemente
contarte todas estas actualizaciones, ¿por qué no te las muestro? Desde el momento en que
enciendes el dispositivo, puedes ver que la
experiencia de Android se ha perfeccionado para la pantalla más grande. Una cosa que me
encanta son los cambios en el tono de notificación. Se ha ampliado para permitirle
ver más de un vistazo y tener el control
al alcance de su mano. También hay una nueva barra de tareas de aplicaciones
que se encuentra en la parte inferior.

Puedes ver que si sigo adelante
y enciendo Google Photos, la barra de tareas sigue ahí. Y me brinda fácil acceso a
todas mis aplicaciones cuando las necesito. Esta pantalla más grande también hace que la
multitarea sea muy fácil. Digamos que quiero compartir una
foto de mis últimas vacaciones con un amigo. Puedo retomar la conversación,
elegir una foto e incluso editarla. Hacía bastante calor ese
día, según lo recuerdo. Y luego arrástrelo directamente hacia adentro. [APLAUSOS] Me encanta usar estos pares de
aplicaciones para ayudarme a hacer las cosas divertidas. De hecho, si
deslizas hacia arriba para ver la descripción general, podrás ver que ya estoy ocupado
planeando mis próximas vacaciones. Ahora bien, estos cambios en el sistema operativo no
significan mucho si las experiencias de las aplicaciones para tabletas no son también excelentes.

Por eso, a partir de hoy,
actualizaremos más de 20 Google Apps para que luzcan increíbles
en pantallas grandes y aprovechen al máximo
la funcionalidad adicional con muchas más por venir. Echemos un vistazo a algunas de
estas fantásticas nuevas experiencias. La versión para tableta
de YouTube Music pone más música que
te gusta en primer plano. Hemos optimizado Google Maps
para incluir información valiosa de un vistazo que le ayudará a
navegar por el mundo que le rodea. Y la aplicación de mensajes actualizada
utiliza una nueva vista de varias columnas para que puedas
administrar fácilmente todos tus mensajes de texto y saltar rápidamente
entre conversaciones. Las aplicaciones de terceros también se ven geniales
en tabletas Android. Verás experiencias renovadas
en tus aplicaciones favoritas, como TikTok, Zoom,
Facebook y más. Y se ven increíbles. Para ayudarlo a encontrar
estas nuevas aplicaciones para tabletas, estamos trabajando para mejorar el
descubrimiento en Google Play, además de presentar
una nueva interfaz de usuario que aprovecha al máximo la pantalla más grande.

Como puede ver, estamos
creando excelentes experiencias para teléfonos, relojes, tabletas
y todo lo demás. El siguiente paso es lograr que
todos estos dispositivos funcionen bien entre sí. Así que aquí está Liza para contarles
más sobre lo que estamos haciendo para que todo
funcione mejor en conjunto. LIZA MA: El objetivo
de agregar más dispositivos a tu vida es
hacerla más fácil, más rica y más conveniente. Pero eso sólo sucede si
todo funciona a la perfección. Déjame mostrarte cómo Android
reúne tus dispositivos para que sean más útiles. Primero, debería poder disfrutar de
mis medios en cualquier superficie que tenga sentido en ese momento. Por ejemplo, si estoy
viendo un programa en mi tableta y quiero pasarlo al televisor
para que mi esposo también pueda verlo, o si estoy escuchando música
con auriculares mientras corro y quiero seguir
escuchándola en mi Bose. altavoz cuando llego a casa, el casting lo
hace realmente fácil. Por lo tanto, debería estar en
todas partes, por lo que estamos trabajando
para ampliar las capacidades de transmisión a nuevos
socios y productos, como Chromebooks
o incluso su automóvil.

Y quiero que mis mensajes
también se muevan entre mis dispositivos. Como cuando estoy en
mi escritorio trabajando, mis conversaciones
deberían estar ahí, en la pantalla del portátil que
ya estoy usando. Este otoño,
ampliaremos Phone Hub para que puedas acceder directamente a todas las
aplicaciones de mensajería de tu teléfono en tu Chromebook. Phone Hub
te ofrece la aplicación exacta con la que estás familiarizado porque se
transmite desde tu teléfono. No es necesario instalar
un cliente de escritorio ni mantener uno ejecutándose en una pestaña
que se pierde en su navegador. Así podrás saltar entre chats,
enviar y responder mensajes, e incluso agregar reacciones a las
fotos de tus amigos. Y aquí está una de mis
nuevas funciones favoritas.

Copia algo en tu teléfono
y pégalo en tu tableta. Podría ser una URL, una
dirección o incluso una imagen o captura de pantalla. Es muy simple y útil. [APLAUSOS] Y así es como
debería funcionar un mundo multidispositivo. Simplemente use la superficie que
sea más conveniente para lo que desea hacer. Pero lo que más me molesta es
configurar todos estos dispositivos en primer lugar. Desarrollamos Fast Pair para
encargarnos de esa tarea por usted sin tener que administrar la
configuración o recordar dónde
podría estar oculto el botón de emparejamiento.

Seguimos
ampliando Fast Pair para que su teléfono, su computadora portátil
y su televisor se emparejen fácil e instantáneamente
con sus auriculares y dispositivos inteligentes. Y queremos extender esta sencilla
conectividad a todos los dispositivos de su hogar. Ahí es donde entra en juego Matter. Es un estándar industrial abierto que se
lanzará este otoño. Matter conecta nuestro hardware Google Nest
, junto con las mejores marcas y cientos de
productos compatibles, como bombillas, cerraduras de puertas,
enchufes inteligentes y mucho más.

Es una lista grande. Podrás
conectar rápidamente todos esos dispositivos habilitados para Materia
en segundos a tu red doméstica, Google Home y tus
aplicaciones favoritas usando Fast Pair. Hay muchas
oportunidades nuevas en este mundo de múltiples dispositivos
, desde ayudarlo a hacer más con su
teléfono en el centro hasta extender la informática
más allá del teléfono y asegurarse de que todos sus
dispositivos funcionen mejor juntos. Muchas gracias a nuestros
millones de desarrolladores y miles de millones de usuarios por hacer de
Android una plataforma increíble. Estamos entusiasmados de seguir
avanzando con usted, así que esté atento a
la versión beta de Android 13 hoy. [APLAUSOS] Tenemos un montón de
excelentes socios y dispositivos participando, así que compruébalo
y envía tus comentarios. Ahora, antes de irme, hemos estado
hablando mucho sobre Fast Pair.

Entonces, consultemos con otra
pareja rápida, Lando y Daniel. Hemos enviado algunos
dispositivos a nuestros amigos de McLaren, los miembros más nuevos
de la familia Android. Así que veamos en qué se
divirtieron. Y luego recibiremos
algunas actualizaciones interesantes del equipo de hardware de Google. [REPRODUCCIÓN DE VIDEO] – ¿Qué tenemos aquí? – Algunos juguetes de
nuestro nuevo patrocinador. ¿ Sabías que puedes jugar un juego
entre cualquier dispositivo Android? ¿ Quieres jugar un juego? – Está bien. – "Liga de cohetes". Inicie "Rocket League". – Sí. – Déjame mostrarte cómo se hace. – ¿Cómo aceleras? – ¿No estás hecho
para esto, amigo? – Oh. – Objetivo : el siguiente objetivo gana. Oh, no. Ah, no. No. – Está bien. Transmítelo al televisor.

– Está bien, hagámoslo. – Ay dios mío. – Si lo se. Soy nuevo en el juego de YouTube. – ¿Crees que
te sientan bien los pañuelos? – Me gustó ese. – Verás, cuanto más publicas,
menos gente te gusta. – Sí. Por eso dejé de publicar. – Inteligente. – Sí. Muy bien, ¿a quién
te gustaría enviarle un mensaje? Introduzca un nombre de grupo. El tío Buck y los chicos. Es perfecto. – Oh, estoy dentro. – ¿Qué está haciendo el Sr. Zak Brown? Zak, ¿estás ahí amigo? – Hola, Zak. – Chicos, ¿no deberían estar
entrenando o algo así? – Oh chico. Lo has roto. [FIN DE REPRODUCCIÓN] BRIAN RAKOWSKI: Acabas de
enterarte del trabajo que estamos haciendo en
Google y Android para simplificar un mundo de múltiples dispositivos
para que todos tus dispositivos funcionen mejor juntos. Hablemos a continuación del
hardware propio de Google. Estamos aprovechando este
mundo multidispositivo para crear una
cartera de Pixel coherente y perfecta que reúna todos los
avances tecnológicos que ha visto hoy en Google.

Comenzaremos con los
teléfonos Pixel, donde tomamos toda la utilidad
e inteligencia de Google y creamos una experiencia
que se adapta a ti. El otoño pasado, presentamos
Google Pixel 6 y Pixel 6 Pro, una reinvención completa
de Pixel por dentro y por fuera. Es nuestro primer teléfono
con tecnología Google Tensor, una plataforma informática móvil que
desarrollamos en torno a los últimos modelos de inteligencia artificial y
aprendizaje automático de Google. Tensor nos brinda una gran
ventaja en IA móvil. Y es una base de hardware
que seguiremos construyendo en los años venideros. Con
hardware, software e inteligencia artificial de última generación, Pixel 6 introdujo algunas
capacidades telefónicas nuevas e increíbles para ayudarte a tomar
fotografías de calidad profesional y comunicarte con
personas en otro idioma, todo mientras mantienes la privacidad de tu
información personal con el
núcleo de seguridad de Google Tensor.

Pixel 6 es un gran paso adelante
para la cartera de Pixel. Y ha sido fantástico ver
la respuesta de los usuarios de Pixel. Es el Pixel que más rápido se ha vendido
hasta la fecha, a pesar de todas las limitaciones de suministro en la industria. Pixel 6 ya ha vendido más
que Pixel 4 y 5 juntos. [APLAUSOS] Así que mantengamos ese
impulso. Hoy, estoy emocionado de que Soniya
les muestre el nuevo Pixel 6A.

[APLAUSOS] SONIYA JOBANPUTRA:
Gracias, Brian. Como todos nuestros teléfonos de la serie A
, Pixel 6A ofrece la útil
experiencia personal de Pixel por el inmejorable
precio de $449. Así es. Realmente creemos que es el
mejor teléfono inteligente que hemos ofrecido por este precio. Y dejame decirte por qué. Pixel 6A comparte el mismo
lenguaje de diseño icónico introducido en Pixel 6, con una
apariencia única de dos tonos y biseles delgados que rodean nuestra
pantalla de 6.1 pulgadas perfectamente portátil. Y notarás
la barra de la cámara Pixel, que alberga nuestro sistema de
cámara trasera dual con una
lente principal y ultra gran angular de 12 megapíxeles. Y todo eso está encerrado en
nuestro marco de aluminio reciclado. Por supuesto, la verdadera
magia del Pixel 6A es lo que
puedes hacer con él. En años anteriores, la
serie A realmente aprovechó la
fortaleza de Google en inteligencia artificial para aprovechar al máximo el
hardware asequible y poder ofrecer nuestras
funciones principales de Pixel por un precio bajo.

Y eso fue genial. La combinación de la
inteligencia de Google y un procesador de gama media produjo teléfonos inteligentes increíbles
que a nuestros usuarios les encantan. Sin embargo, como
mencionó Brian, ahora tenemos nuestro propio Google Tensor SOC. Entonces, por primera vez,
desarrollamos un sistema de hardware común que hemos ampliado
en todo el portafolio de Pixel, desde nuestros
teléfonos insignia hasta nuestra serie A. ¿ Entonces que significa eso? Significa que Pixel 6A incluye
la misma conectividad 5G rápida que Pixel 6 y 6 Pro. Utiliza exactamente la misma
arquitectura de seguridad que Titan M2 para una
protección líder en la industria que hace que el teléfono sea más
resistente a los ataques. Y lo más importante, Pixel 6A
utiliza el mismo Google Tensor SOC premium que nuestro Pixel 6 Pro. [APLAUSOS] Así es. Eso es un gran problema para
un teléfono a este precio. Con Google Tensor como
cerebro dentro del Pixel 6A, nuestros
modelos de aprendizaje automático de última generación funcionan casi cinco veces
más rápido que el Pixel 5A, por lo que podemos ofrecer un
mejor rendimiento y experiencias más ricas impulsadas por la IA
por el mismo precio bajo.

Pixel 6A te brinda la misma
excelente experiencia de Android que nuestro Pixel 6 Pro, además
de funciones exclusivas de Pixel en fotografía,
voz, seguridad y más. Empecemos por la fotografía. El sistema de cámara tiene
Real Tone incorporado, por lo que sus fotos
reflejan de manera hermosa y precisa su propio tono de piel. También cuenta con Night Sight, para que
puedas tomar increíbles fotografías con poca luz . Y sí, Pixel 6A incluye
Magic Eraser en Google Photos para eliminar esas distracciones
de tus imágenes que de otro modo serían perfectas . Ahora, puede que haya otras
personas en la playa. Pero eso no significa que
los quieras en tus hermosas fotos. Con solo un toque, podrás
hacerlos desaparecer como por arte de magia. [APLAUSOS] Y miren esto. Hemos mejorado Magic
Eraser para que también puedas cambiar el color de los
objetos que distraen en tu foto. Con un toque, los colores
y las sombras del objeto se mezclan de forma natural.

[APLAUSOS] Entonces la atención se centra en este
tema, donde debería estar. Ahora, hablemos del habla. La solidez de Tensor
y el aprendizaje automático permiten increíbles
funciones de voz en el dispositivo, como Live Caption, Recorder
y Live Translate. Es como tener un
intérprete y traductor personal dondequiera que vaya. Incluso funciona en
modo avión y la informática protegida garantiza que sus
datos de voz permanezcan privados con el procesamiento en el dispositivo.

La otra semana
estuve en mi banco local. Y noté que alguien tenía dificultades
para comunicarse en inglés con el cajero del banco. Me recordó mi infancia
interpretando para mi abuela y ayudándola a realizar
una tarea diaria vital. El visitante del banco
sacó su teléfono y empezó a hablar con
él en modo intérprete. Y así, la
barrera del idioma desapareció. El empleado del banco sabía exactamente
cómo ayudar a la persona. Lo que podría haber sido un
momento realmente frustrante se convirtió en uno enriquecedor. Ahora bien, romper las
barreras del idioma no debería ser sólo para los
teléfonos inteligentes más caros. Debería ser para todos. Y gracias a Tensor,
podemos incorporar la traducción en vivo al Pixel 6A. [APLAUSOS] Y, finalmente, todos
merecen tener la tranquilidad de saber que su teléfono está protegido. Por eso, seguimos ofreciendo
las mismas funciones de seguridad que nuestros teléfonos premium.

Junto con el
chip de seguridad Titan M2, hay un
sensor de huellas dactilares debajo de la pantalla para un desbloqueo seguro. Y obtendrá cinco años
de actualizaciones de seguridad, por lo que siempre tendrá
la protección más reciente. Pixel 6A ofrece la experiencia principal de
hardware y software de Google impulsada por Google
Tensor en fotografía, voz y seguridad. Y obtendrás todo esto
sin comprometer una batería que dura todo el día. Estamos muy emocionados de que
Pixel 6A esté disponible por solo $449. [APLAUSOS] Viene en tres colores. Así que podrás pedir uno
el 1 de julio o recogerlo en tienda el día 28. De nuevo contigo, Brian. BRIAN RAKOWSKI: Gracias, Soniya. Google se enorgullece de
crear tecnología útil para todos. Y con la serie A, la
experiencia de los teléfonos inteligentes de Google está disponible para más personas. Pero para aquellos que quieren lo
último, lo mejor y lo más rápido, también estamos trabajando en nuestros
teléfonos Pixel 7 de próxima generación.

Déjame darte un
adelanto para que puedas ver lo que viene este otoño. [APLAUSOS] Aquí hay un primer vistazo al
Pixel 7 y al Pixel 7 Pro. Puede ver que hemos
ampliado el acabado de aluminio a toda la barra de la cámara para
la próxima evolución del lenguaje de diseño de Pixel. La carcasa y la barra de la cámara
están fabricadas en una sola pieza de aluminio 100% reciclado. Y el magnífico Pixel 7 Pro
y su sistema de triple cámara establece un estándar completamente nuevo
en fotografía, rendimiento y diseño.

Realmente me encanta el contraste
de los diferentes materiales y la simplicidad
del diseño. El aluminio pulido luce
hermoso con el vidrio en la parte posterior del teléfono. En el interior, Pixel
7 y 7 Pro están diseñados para brindar la experiencia
más útil y personal que puedas
obtener en un teléfono inteligente. Utilizarán la próxima generación
de nuestro Google Tensor SOC, lo que brindará aún más
avances importantes en IA y experiencias personalizadas útiles
en voz, fotografía, video
y seguridad. Y, por supuesto, ambos
teléfonos se enviarán con Android 13 y todas
las bondades que vienen con su último sistema operativo móvil. Eso es todo lo que compartiremos
hoy sobre Pixel 7 y Pixel 7 Pro. Pero visite
Google Store en línea para obtener más detalles y nuevas
experiencias impulsadas por Google tensor en los próximos meses. [APLAUSOS] Ahora, los mejores teléfonos
necesitan excelentes auriculares, por eso nuestros Pixel Buds están
diseñados para complementar perfectamente tu teléfono Pixel. AUDIENCIA: ¡Guau! ¡ Píxeles! ¡ Cortejar! BRIAN RAKOWSKI: Y
este verano, estamos entusiasmados de ampliar la
familia Pixel Buds con una oferta de nivel Pro .

Es un nuevo y potente juego de
auriculares llamado Pixel Buds Pro. [APLAUSOS] Echemos un vistazo a lo que
los hace tan especiales. Estos auriculares tienen toda
la utilidad y la inteligencia que esperarías de
Google integradas en el mejor hardware de audio móvil que
jamás hayamos diseñado. Y son los primeros Pixel Buds
con cancelación activa de ruido. [APLAUSOS] La cancelación de ruido es un
desafío técnico difícil porque debe
ser lo suficientemente inteligente como para tener en cuenta el ruido en
un amplio espectro de frecuencias y lo suficientemente potente
para una latencia súper baja.

Los Pixel Buds Pro ofrecen uno de
los mejores rendimientos de cancelación de ruido en
auriculares inalámbricos actuales porque están diseñados en torno a
un nuevo procesador de audio personalizado. Es un
chip de audio de seis núcleos que ejecuta algoritmos desarrollados por Google y
ajustados por nuestro
equipo interno de ingeniería de audio. Utiliza un
motor de procesamiento neuronal para analizar el sonido externo
con una latencia extremadamente baja, cancelándolo en tiempo real
a través de altavoces personalizados. Ahora bien, los oídos de cada persona son únicos. Por lo tanto, no siempre es
posible que las puntas de los oídos formen un sello perfecto. Y eso puede provocar que se
filtre sonido desde el exterior. Para contrarrestar esto, nuestra
cancelación activa de ruido utiliza una nueva tecnología de sellado silencioso
para compensar las fugas de audio.

Esto ayuda a maximizar
la cantidad de ruido que se cancela para que
puedas obtener un sonido premium envolvente sin distracciones. A veces, sin embargo,
quieres escuchar lo que sucede a tu alrededor. Para estas ocasiones,
existe el modo transparencia. Deja entrar el sonido exterior
para que experimentes el mundo como si no estuvieras
usando auriculares. Pero unos buenos auriculares no
sólo te permiten escuchar cosas.

Te permiten ser escuchado. Entonces, ya sea que esté
hablando por teléfono o realizando una reunión al aire libre,
nuestros micrófonos con formación de haces utilizan algoritmos de supresión de ruido
que han sido entrenados
con aprendizaje automático. Se suprimirá el viento, el tráfico u
otros ruidos de fondo y
su voz será clara sin importar dónde se encuentre. [APLAUSOS] El chip de audio personalizado también está
diseñado para lograr eficiencia energética para que aproveches más
la batería. De hecho, Pixel
Buds Pro te ofrece hasta 11 horas de escucha
, o siete horas con la cancelación activa de ruido activada
. Para que puedas desconectarte del
ruido en ese largo vuelo. Como todos nuestros Pixel
Buds, la serie Pro está diseñada para brindar una
experiencia útil y manos libres. Por lo tanto, puede pedirle al Asistente
todo tipo de cosas, como indicaciones para caminar u
obtener traducción en tiempo real en 40 idiomas y mucho más. Pixel Buds Pro admitirá
conectividad multipunto para que sus auriculares sepan
cambiar automáticamente de un podcast en su teléfono
a una videollamada en su computadora portátil.

Es mucho más fácil que
hacer clic en la configuración de Bluetooth. Y funciona entre sus
teléfonos, tabletas, computadoras portátiles y televisores compatibles. Y a finales de este año
actualizaremos los Pixel Buds Pro para que admitan audio espacial. Entonces, cuando veas
una película o un programa de televisión en
teléfonos Pixel compatibles, estarás justo en el
medio de la acción. [APLAUSOS] Por último, si alguna vez
pierdes un auricular, puedes usar Buscar mi dispositivo
para hacer sonar tus Pixel Buds Pro o ver dónde están, incluso
si solo perdiste uno de ellos. Los nuevos Pixel Buds Pro
vienen en cuatro colores. Estarán disponibles en línea
para pedidos anticipados el 1 de julio y a la venta el 28,
ofreciendo la inteligencia de Google y cancelación activa de ruido de primer nivel
por $199.

Y aquí está Rick con
algunas actualizaciones más de Pixel. [APLAUSOS] RICK OSTERLOH: Gracias, Brian. Tenemos mucho en
proceso de Pixel, que representa inversiones
en todo tipo de tecnologías: silicio personalizado
con Google Tensor, nuevas experiencias multidispositivo en
Android, como las que compartieron Sameer y Liza anteriormente,
investigación de inteligencia artificial de vanguardia, software útil y servicios, potente
seguridad de datos con Titan M2 y mucho más. Es una pila tecnológica increíble. Todas estas cosas
funcionan en conjunto para ofrecer nuestra visión
de la informática ambiental, brindando la ayuda que las personas
necesitan dondequiera que la deseen. En un mundo con múltiples dispositivos
, la gente no quiere pasar su vida
preocupándose por la tecnología. Un enfoque ambiental elimina
la tecnología de tu camino para que puedas vivir tu vida mientras
recibes la ayuda que necesitas. No importa qué
dispositivo estés usando, en qué contexto te encuentres,
si estás hablando, escribiendo o tocando.

La tecnología en tu vida
funciona en conjunto a la perfección. Para llegar allí, comenzamos
sentando las bases con informática protegida,
como le dijo Jen. Con estos fundamentos de seguridad y
privacidad implementados, podemos ofrecer experiencias nuevas y personalizadas en
varios dispositivos. A continuación, agregamos la inteligencia de Google: una capa de inteligencia
y capacidad de respuesta para que sus dispositivos no
sólo funcionen mejor juntos. Funcionan mejor
juntos para usted. Estamos trabajando para lograr un mundo
en el que la puerta de entrada sepa cuándo cerrar con llave, su televisor se
detenga automáticamente cuando se levanta para tomar un refrigerio y
sus dispositivos sepan si enviar una llamada entrante
a su teléfono, sus auriculares o su reloj.

Basándonos en nuestra
visión de informática ambiental y nuestra
tecnología integral de Google, podemos ampliar
lo que los dispositivos Pixel pueden hacer por usted ahora y en el
futuro para que sean aún más útiles. Así que déjame
mostrarte lo que viene. Comenzaremos con una
vista previa rápida del nuevo Google Pixel Watch. [APLAUSOS] Es el primer reloj construido por
dentro y por fuera por Google.

Y llegará este otoño
con nuestro nuevo Pixel 7. Pixel Watch tiene un atrevido
diseño de cúpula circular, una corona táctil y un hermoso acero inoxidable reciclado
con correas personalizables que se acoplan perfectamente. Y Pixel Watch ofrece una
excelente experiencia Wear OS en tu muñeca. Cuenta con una interfaz de usuario mejorada de Wear OS
con navegaciones más fluidas y notificaciones inteligentes. Todo está diseñado
para que puedas tocarlo, habilitarlo por voz y verlo
para que puedas estar más presente en casa, en el trabajo o mientras viajas. Puedes pedirle ayuda al Asistente
para hacer las cosas y esa
pequeña información que necesitas a lo largo del día. Y con Google Maps,
puedes obtener direcciones mientras viajas, incluso sin tu teléfono. Con el nuevo Google Wallet, también
puedes dejar tu billetera física en casa. [APLAUSOS] Puedes tocar rápidamente
para pagar en la tienda o viajar en el metro. Y con la nueva
aplicación Google Home para Wear OS, puedes apagar las luces,
ajustar el termostato o recibir una alerta cuando hay
una persona o un paquete en la puerta de tu casa.

Ahora, lo que más me gusta
del Watch es la profunda integración con
Fitbit, que es lo primero. [APLAUSOS] Llegará primero
al reloj Google Pixel para disfrutar de
experiencias de salud y fitness líderes en la industria. Puede obtener información sobre su
salud con seguimiento continuo de la frecuencia cardíaca y del sueño. Puedes ver los minutos de tu zona activa
cuando haces ejercicio y realizar un seguimiento de tus
estadísticas y progreso en comparación con tus
objetivos personales de acondicionamiento físico. Google Pixel Watch es una
extensión natural de la familia Pixel y brinda ayuda cuando
y donde la necesite.

Estará disponible este otoño
y compartiremos muchos más detalles en los próximos meses. Ahora, junto con los dispositivos portátiles,
el equipo de Android ha logrado grandes avances
en el software de las tabletas, como vio antes. Y hay
muchas cosas que podemos hacer aquí cuando aplicamos la tecnología de Google
con Tensor a una experiencia de Android con pantalla más grande. Por eso quiero darles un
adelanto de algo en lo que estamos trabajando para 2023. Ahora bien, normalmente no
anunciaríamos un nuevo producto un año antes de que esté listo.

Pero hay
tanta energía increíble en torno a las tabletas en la
comunidad de desarrolladores que queríamos ponerlos a
todos al tanto. Así que aquí tienes un primer vistazo
a nuestra nueva tableta Pixel. [APLAUSOS] Es una tableta Android de próxima generación
con tecnología Google
Tensor diseñada para ser el compañero perfecto
para su teléfono Pixel. La tableta une
su vida en movimiento con su vida en casa,
trabajando a la perfección con todos sus
dispositivos Pixel para brindar la experiencia más útil posible. La estamos diseñando para que sea
la tableta más útil del mundo y nuestro objetivo es que
esté disponible el próximo año.

[APLAUSOS] Entonces, para resumir rápidamente, Pixel
6A y Pixel Buds Pro llegarán este verano. Y pronto tendremos muchos más
detalles para compartir sobre Pixel 7, Pixel 7 Pro,
Pixel Watch y la nueva tableta Pixel. Estamos avanzando hacia
muchas experiencias de hardware útiles en teléfonos,
dispositivos portátiles, audio, hogares inteligentes y tabletas. Se suma a una
verdadera familia de dispositivos Pixel con diferentes
opciones para diferentes presupuestos y necesidades. Con la informática ambiental
como nuestra estrella polar, este portafolio de Pixel es un
enfoque holístico para el hardware diseñado pensando en usted. No puedo esperar a que
pruebes estas nuevas experiencias de hardware por ti mismo.

Y puedes ver todo esto
en línea en Google Store. O puedes visitar nuestras
tiendas físicas de Google en la ciudad de Nueva York. Además de nuestra
ubicación original en Chelsea, este verano agregaremos una segunda
en Williamsburg. Así que,
si puedes, acércate y compruébalo. [MÚSICA – HALO SOL, "COMIN' IN
HOTTA"] SUNDAR PICHAI: Hoy hablamos
sobre todas las tecnologías que están cambiando la forma en que usamos
las computadoras y accedemos al conocimiento.

Vemos dispositivos que
funcionan juntos a la perfección exactamente cuando
y donde los necesita y con
interfaces conversacionales que facilitan la realización de las cosas. De cara al futuro,
existe una nueva frontera de la informática que
tiene el potencial de extender todo
esto aún más: la realidad aumentada. En Google hemos
invertido mucho en esta área. Hemos estado incorporando la
realidad aumentada en muchos productos de Google, desde Google Lens hasta
búsqueda múltiple, exploración de escenas y vistas en vivo e inmersivas
en Maps. Estas capacidades de AR
ya son útiles en los teléfonos. Y la magia
realmente cobrará vida cuando puedas usarlos
en el mundo real sin que la tecnología
se interponga en tu camino.

Ese potencial es lo que
más nos entusiasma de la RA, la capacidad de dedicar tiempo… [APLAUSOS] La capacidad de dedicar
tiempo a centrarnos en lo que importa en el
mundo real, en nuestra vida real. El mundo real es
bastante sorprendente. [APLAUSOS] Ciertamente eso me parece
a mí en este momento. Es tan bueno estar de
regreso en Shoreline. Puedo decir que
todos ustedes también lo están disfrutando. Es importante que
diseñemos de una manera que esté diseñada para el mundo real y que
no te aleje de él.

Y la RA nos brinda nuevas
formas de lograrlo. Tomemos
como ejemplo el lenguaje. El idioma es fundamental
para conectarse entre sí, pero comprender a alguien que
habla un idioma diferente o intentar seguir una
conversación si eres sordo o tiene problemas de audición
puede ser un verdadero desafío. Veamos qué sucede cuando
tomamos nuestros avances en traducción
y transcripción y los entregamos a
su vista en uno de los primeros prototipos que
hemos estado probando. Echar un vistazo. [REPRODUCCIÓN DE VIDEO] – Mi madre habla mandarín. Y hablo inglés,
lo cual es algo extraño. – Nos encantaría poder compartir
contigo un nuevo prototipo en el que hemos estado trabajando. Deberías ver lo que estoy
diciendo recién transcrito para ti en tiempo real, una especie de
subtítulos para el mundo. – En lo que estamos trabajando
es en tecnología que nos permita romper las
barreras del idioma, tomando años de investigación y Google Translate
y llevándolos a Glasses.

– ¿Puedes verme? – En realidad te estoy mirando
directamente a los ojos. Y parece que
me estás mirando directamente. – Hacer que el acceso a la información
sea instantáneo e intuitivo. Al hacer esto, la tecnología
pasa a un segundo plano. Y estamos más conectados con
las personas y las cosas que nos rodean. – Creo que darle a la gente el regalo de
comunicarse con cualquier persona, sin importar el
idioma que hable, es
algo realmente poderoso. [FIN DE REPRODUCCIÓN] [APLAUSOS] SUNDAR PICHAI: Puedes verlo
en sus rostros, la alegría que surge al hablar
naturalmente con alguien, ese momento de conexión para
comprender y ser comprendido.

De eso se trata nuestro enfoque en el
conocimiento y la informática . Y es por lo que nos esforzamos
todos los días con productos diseñados para ayudar. Cada año, nos acercamos
un poco más al cumplimiento de nuestra
misión eterna. Y todavía nos queda
mucho más por hacer. En Google, realmente sentimos
entusiasmo por eso. Y somos optimistas en cuanto a que
los avances que acaba de ver nos ayudarán a lograrlo. Gracias a todos los
desarrolladores, socios y clientes que se
unieron a nosotros hoy. Esperamos construir
el futuro con todos ustedes. Muchas gracias. [APLAUSOS] [REPRODUCCIÓN DE MÚSICA]

As found on YouTube

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *