[reproducción de música] Recibamos al vicepresidente
de Amazon Machine Learning el Dr. Swami Sivasubramanian Hola Bienvenidos a la segunda semana
de re:Invent Sin duda, ha sido
un evento emocionante con tantos
lanzamientos revolucionarios un brindis sin precedentes
al inicio del evento y toneladas de sesiones
a las que asistir hasta el momento La semana pasada
más de 200 000 espectadores vieron la primera carrera virtual
en directo durante los campeonatos AWS Deep Racer League re:Invent
en Twitch También tendrán
la oportunidad de escuchar a nuestros expertos
y a muchos clientes, como NASCAR McDonald's, Mobileye, Intuit y PwC
y de ver más de 50 sesiones sobre machine learning
durante el evento Me encanta ver el entusiasmo
de nuestros cliente en torno al machine learning
Es un testamento al potencial de la tecnología para cambiar
a empresas y sectores para mejor El machine learning es
una de las tecnologías más disruptivas
de nuestra generación Hoy, más de 100 000 clientes
usan AWS para machine learning desde la creación de una experiencia
personalizada para el cliente hasta el desarrollo
de medicamentos personalizados Estas herramientas ya no son
una inversión nicho Nuestros clientes están aplicando el machine learning
en el corazón de su negocio Ahora veamos algunos ejemplos Domino's Pizza usa el ML
con pedidos predictivos que ayudan a cumplir su objetivo
de enviar pizzas calientes y frescas en 10 minutos o menos
después de recibir el pedido Roche, la segunda empresa
farmacéutica más grande del mundo usa Amazon SageMaker para acelerar
la administración de tratamientos y adaptar las experiencias médicas
Kabbage, de American Express aplicó el machine learning
al proceso de solicitud de préstamos y superó a grandes bancos
estadounidenses al convertirse en el segundo prestamista más grande
del programa de protección de pagos para empresas en el país con una preservación estimada
de 945 000 empleos en todo EE.
UU. El Grupo BMW está usando
Amazon SageMaker para procesar analizar y enriquecer
más de siete petabytes de datos para predecir la demanda
tanto de modelos combinados como de equipos individuales
a escala mundial Con Amazon SageMaker Nike creó una función en Nike.net
de recomendación de productos para ofrecer una experiencia
de compra más relevante para los clientes mayoristas Y, por último, en el deporte Fórmula Uno aplica machine learning
a su proceso de diseño de autos para aportar nuevas perspectivas
sobre más de 550 millones de puntos de datos reunidos
en más de 5000 simulaciones Nuestros clientes
están innovando prácticamente en todos los sectores
¿Y por qué nos eligen? Nos eligen por nuestra amplia
y profunda variedad de servicios y por nuestro ritmo rápido
de innovación Veamos nuestras ofertas
de machine learning En la capa inferior de la pila
de machine learning proporcionamos capacidades
de machine learning para expertos Estas incluyen versiones optimizadas de los marcos más populares
de aprendizaje profundo como PyTorch, MXNet y TensorFlow Ofrecemos opciones de infraestructura
en todas las GPU y CPU y nuestra innovación en silicio
para entrenamiento e inferencia En la capa media de la pila
tenemos Amazon SageMaker que permite a desarrolladores
y científicos de datos entrenar e implementar modelos
de machine learning a escala SageMaker incluye
un amplio conjunto de capacidades muchas de las cuales
son nuevas y exclusivas de AWS Estos servicios están disponibles mediante un entorno
de desarrollo integrado para ML al que llamamos SageMaker Studio Muchas organizaciones
se están estandarizando en SageMaker para liberarse de la complejidad
que supone cada paso del flujo de trabajo
de desarrollo de ML para que sea más rápido
rentable y fácil de hacer En la capa superior
están nuestros servicios de IA donde estamos ayudando
a los clientes a adoptar el ML sin tener que crear
sus propios modelos desde cero Para visión, tenemos Rekognition
y para voz, proporcionamos texto a voz en Polly
y voz a texto con Transcribe y los clientes pueden crear
sus propios chatbots con Amazon Lex Para texto
proporcionamos procesamiento de lenguaje natural con Comprehend
traducción con Translate y extracción de documentos
e imágenes con Textract También hemos aplicado
los más de 20 años de experiencia de Amazon en ML
para prestar servicios como Amazon Personalize
para recomendaciones personalizadas Amazon Forecast para crear
previsiones de demanda personalizadas y Amazon Fraud Detector
para identificar el fraude en línea También hemos creado
soluciones de extremo a extremo como Contact Lens for Amazon Connect para análisis de centros de contacto
Amazon Kendra para búsquedas Amazon CodeGuru para revisión
de código automatizada y DevOps Guru para mejorar
la disponibilidad de la aplicación La semana pasada
presentamos servicios que están personalizados
para el sector industrial Como verán, estamos innovando
muy rápidamente para satisfacer las necesidades
de nuestros clientes Hace cuatro años en re:Invent 2016
lanzamos los primeros servicios de IA Polly, Lex y Rekognition Desde entonces, hemos lanzado
cientos de características como Amazon SageMaker
y 11 nuevos servicios de IA más seis que lanzamos
la semana pasada Este año ya hemos lanzado
más de 250 funciones y hemos entregado
más de 200 características al año en los últimos tres años Eso es muy importante
para una nueva área de tecnología que se mueve tan rápidamente Estamos construyendo
el conjunto más completo de productos de machine learning
porque darles a nuestros clientes las herramientas adecuadas
para inventar es necesario para desbloquear
el poder de esta tecnología Hace 15 años
cuando estaba haciendo la transición a mi primer trabajo
después de graduarme me di cuenta de que los creadores
estaban limitados por su tecnología En lugar de llevar a la práctica
sus ideas, estaban esperando que el departamento de TI consiguiera
el hardware o el software necesarios para crear sus aplicaciones Poco después de empezar en AWS
pude formar parte del lanzamiento de tecnologías increíbles
como Amazon S3 RDS y Dynamo, y vi cómo esto
transformó a todos los sectores porque los creadores por fin tenían
las herramientas adecuadas No es exagerado decir
que la informática en la nube ha permitido
a empresas emergentes y negocios lograr un nuevo nivel de éxito Hoy en día, el machine learning
ha llegado a un momento similar Hasta hace poco
solo estaba accesible para grandes empresas
y otras emergentes más actualizadas que tenían los recursos necesarios
para contratar a expertos para crear sofisticados modelos
de machine learning Pero la libertad para inventar
requiere que cualquier creador pueda cosechar los beneficios
de las tecnologías revolucionarias Y las propias tecnologías
permiten la experimentación y posibilidades ilimitadas Por eso, hoy estamos permitiendo
a todos los creadores independientemente del tamaño
de su empresa o su nivel de habilidad desbloquear la potencia
del machine learning Y a través de los comentarios
de nuestros clientes y nuestra propia experiencia
al implementar el ML en Amazon hemos aprendido mucho
sobre lo que se necesita para crear un entorno que promueva
la innovación sin límites En Amazon, solemos tener
principios a seguir como guías para equipos o proyectos Hoy voy a hablarles
de algunos de los principios que permiten la libertad de inventar También les compartiremos más
sobre el trabajo que estamos haciendo para darles
a los creadores el poder para aprovechar el ML
sobre la marcha Empecemos con lo primero
que necesitarán: cimientos sólidos Para permitir que más creadores
construyan e implementen el machine learning
estamos optimizando los cimientos sobre los que se fabrican los modelos:
los marcos y la infraestructura que se usan para acelerar
el proceso de entrenamiento y la implementación de estos modelos
y para reducir costos Tener cimientos sólidos es esencial para darles libertad
a los creadores para inventar Hoy, con la abundancia de potencia
de cómputo y los datos disponibles el machine learning está haciendo
cosas increíbles que jamás habíamos pensado
que eran posibles como autos de conducción automática
sistemas autónomos o máquinas que entienden lo que decimos Estas aplicaciones
de machine learning más avanzadas suelen usar el aprendizaje profundo
que consume una gran cantidad de entradas para lograr
una alta precisión La complejidad del modelo
y el tamaño del conjunto de datos para entrenamiento nos dice
que construir estos modelos puede requerir muchos recursos y puede tomar días
o incluso meses de entrenamiento Además, no hay un único marco
que todos los profesionales del machine learning
usen de forma universal Se suele crear
en tres marcos principales para el aprendizaje profundo
TensorFlow, PyTorch y MXNet Sabemos que la elección es importante
para nuestros clientes por eso invertimos en hacer de AWS el mejor lugar para ejecutar
los principales marcos Con nuestros contenedores
de aprendizaje profundo y nuestras AMI
para aprendizaje profundo nos aseguramos de que los clientes
siempre tengan las últimas versiones de los principales marcos
optimizadas para ejecutarse en AWS Hoy, el 92 % de TensorFlow
y el 91 % de PyTorch basado en la nube se ejecuta en AWS Y participamos activamente
en la comunidad para añadir nuevas funciones
a estos marcos, por ejemplo TorchServe el modelo predeterminado
de biblioteca de PyTorch fue creado y es mantenido por AWS
en colaboración con Facebook También estamos ampliando el uso
del aprendizaje profundo a nuevos públicos
así la fuente de talentos crece con proyectos
como la biblioteca Deep Java un conjunto de herramientas
de código abierto para Java Además de optimizar los marcos
una parte fundamental para implementar de forma eficiente
todos los modelos de machine learning como el aprendizaje profundo
es la infraestructura subyacente Cada proyecto de machine learning
es diferente y tiene diferentes necesidades
de cómputo Hemos creado la más amplia y profunda
selección de cómputos, redes e infraestructura de almacenamiento
para ayudar a nuestros clientes a cumplir con sus necesidades únicas
de rendimiento y presupuesto Estamos invirtiendo rápidamente
en esta área para seguir el ritmo de sofisticación
del machine learning al introducir
nuevos chips e instancias que mantienen bajos los costos
de entrenamiento e inferencia y permiten acelerar la innovación Una última incorporación
que permite que el entrenamiento sea más rápido y rentable
son las instancias P4d que brindar el máximo rendimiento
para entrenamiento de ML en la nube Cuentan con las últimas
GPU NVIDIA A100 y la primera red de 400 gigabit
por segundo en la nube Para la inferencia
lanzamos las instancias EC2 Inf1 basadas en AWS Inferentia Proporcionan el costo más bajo
por inferencia en la nube un costo hasta un 45 % menor
o un rendimiento hasta un 30 % mayor que las instancias
basadas en GPU comparables Después de migrar la mayoría
de instancias a Inf1, el equipo Alexa, observó una latencia de
extremo a extremo un 25 % más baja en cargas de trabajo de texto a voz
y clientes como Snap Finra, Autodesk y Conde Nast
usan instancias Inf1 para obtener un alto rendimiento
y una inferencia de ML de bajo costo Conde Nast, por ejemplo, observó
una reducción del 72 % en el costo que las instancias de GPU
implementadas previamente Juntos, este potente hardware
y los marcos optimizados proporciona cimientos sólidos
para innovar en el machine learning Hace poco, para entrenamiento,
Andy anunció dos nuevos esfuerzos El primero son las instancias
Amazon EC2 basadas en Habana Los aceleradores Habana Gaudi
de Intel ofrecen una relación precio-rendimiento un 40 % mejor
que las instancias EC2 actuales basadas en GPU para entrenar cargas
de trabajo de aprendizaje profundo Estarán disponibles
la primera mitad de 2021 El segundo es AWS Trainium un chip de entrenamiento
para ML personalizado de AWS que ofrece el entrenamiento
más rentable en la nube Disponible en 2021 Estamos creando Trainium
para proporcionar el mejor rendimiento al mejor precio
para entrenar cargas de trabajo de machine learning en la nube Los clientes dicen que necesitan
más que el mejor hardware para entrenar modelos grandes Veamos dos modelos
de aprendizaje profundo que son muy populares Mask-RCNN es un modelo
de visión artificial de vanguardia que usan nuestros clientes
para la conducción autónoma Requiere una importante cantidad
de datos de entrenamiento T5 es un modelo de lenguaje natural
que también es vanguardista y cuenta con 3000 millones
de parámetros Para acelerar su entrenamiento
se usa un entrenamiento distribuido Para modelos como Mask-RCNN con grandes conjuntos
de datos de entrenamiento se dividen los conjuntos de datos
en varias GPU lo que se conoce
como paralelismo de datos Al entrenar modelos como el T5 que son demasiado grandes
para las GPU más grandes y potentes se puede escribir código
para dividirlo en varias GPU lo que se conoce
como paralelismo de modelos Pero hacer esto es difícil
y requiere un alto nivel de experiencia
y experimentación que puede tomar semanas
incluso para profesionales expertos Así que nos preguntamos
cómo ayudar a nuestros clientes a hacer entrenamiento distribuido
bien y rápido Hoy me entusiasma anunciar
que con solo unas pocas líneas de código adicional en su PyTorch
y los scripts de TensorFlow Amazon SageMaker automáticamente
aplicará el paralelismo de datos o el paralelismo de modelos
para entrenar modelos más rápidamente [aplausos] El paralelismo de datos
con Amazon SageMaker permite entrenar un 40 % más rápido
Y, con el paralelismo de modelos lo que antes conllevaba semanas
de investigación de laboratorio y códigos de entrenamiento
con ajuste manual, ahora lleva horas ¿Qué significa esto
para nuestros clientes? Al usar estos motores
desafiamos a los equipos que trabajan en TensorFlow y PyTorch
a entrenar Mask-RCNN y T5 lo más rápido posible
Esto es lo que sucedió El año pasado dijimos que AWS tenía
el entrenamiento más rápido para Mask-RCNN, con 28 minutos
en TensorFlow y 27 en PyTorch Con nuestra optimización, recortamos
ese tiempo de entrenamiento casi un 75 %, con seis minutos
y 13 segundos para TensorFlow y seis minutos y 45 segundo
para PyTorch Nuestro tiempo de entrenamiento
con TensorFlow es un 23 % más rápido
que el anterior más rápido publicado por nuestros amigos de Mountain View Y con nuestras optimizaciones
como el paralelismo de modelos en T5 pasamos del desarrollo a un modelo
totalmente entrenado en PyTorch en menos de seis días Es el tiempo de entrenamiento más
rápido publicado para este modelo Antes, habría tomado semanas
que un desarrollador encontrara la forma óptima
de dividir el modelo Estamos muy entusiasmados
sobre las innovaciones que aportamos a los creadores
de esta área pero los profesionales expertos
aún dominan el aprendizaje profundo y es demasiado difícil
para la mayoría de la gente Eso me lleva a mi segundo principio Para que cualquier tecnología tenga
un impacto significativo los creadores deben tener
el camino más corto hacia el éxito Tener las herramientas
para que sus creadores puedan satisfacer y explorar
sus ideas rápidamente y sin barreras es un acelerador significativo
para su negocio Históricamente, el desarrollo
del machine learning era un proceso complejo y costoso.
Hay barreras para la adopción en cada paso del desarrollo del ML desde la recolección
y preparación de datos que requiere mucho tiempo
y no se diferencia Luego, hay que elegir
el algoritmo adecuado que a menudo se hace
por ensayo y error lo que conlleva tiempos largos
y costos mayores Luego está el ajuste del modelo
que puede ser un ciclo muy largo y requiere ajustar
miles de combinaciones diferentes Una vez implementado el modelo
hay que controlarlo luego escalarlo
y gestionarlo en producción Para complicar las cosas
muchas de las herramientas que los desarrolladores
dan por sentado al crear software tradicional
como depuradores administradores de proyectos
software de colaboración y demás están desconectados cuando se trata
del desarrollo del machine learning Para abordar estas barreras, en 2017
lanzamos Amazon SageMaker Creamos Amazon SageMaker
desde cero para brindarle a cada desarrollador
y científico de datos la capacidad de crear, entrenar
e implementar modelos de ML rápidamente y a costos más bajos
al proporcionar las herramientas necesarias para cada paso
del ciclo de vida de desarrollo de ML en un único servicio integrado
completamente administrado De hecho, hemos lanzado
más de 50 capacidades de SageMaker solo en el último año con el objetivo de hacer este proceso
más simple para nuestros clientes La respuesta de los clientes ha sido increíble
lo que hace que Amazon SageMaker sea uno de los servicios
de más rápido crecimiento de AWS Hoy, decenas de miles de clientes
usan Amazon SageMaker Se trata de clientes
de prácticamente cada sector como servicios financieros
atención sanitaria, medios, deportes venta minorista, automoción
y fabricación Estos clientes están viendo
resultados significativos de la estandarización de sus cargas
de trabajo de ML en SageMaker Veamos algunos de ellos La división de vehículos autónomos
de Lyft, Level 5 redujo el tiempo de entrenamiento
de días a horas T-Mobile permitió ahorrar tiempo
a los científicos de datos al etiquetar miles de miles
de mensajes a clientes para mejorar el servicio al cliente
con el uso de SageMaker Ground Truth Vanguard implementa cargas de trabajo
20 veces más rápido con SageMaker iFood, el líder en envío de comida
en línea de Latinoamérica usa Amazon SageMaker
para optimizar las rutas de entrega y reducir la distancia que recorren los socios en un 12 % La escala a la que iFood opera
12 %, es impresionante Y ADP redujo el tiempo
de implementación de los modelos de machine learning
de dos semanas a solo un día Como pueden ver, muchos clientes
son capaces de innovar rápidamente con SageMaker
Otro cliente que ha hecho cosas realmente fascinantes
con el machine learning es la NFL Empezamos a trabajar con la NFL
para crear Next Gen Stats como una nueva forma
de atraer a los aficionados Y recientemente, hemos ampliado
ese trabajo a la iniciativa Player Health and Safety
Para hablar más sobre esto y sobre cómo la NFL está ampliando
su uso de ML con SageMaker me gustaría presentarles
a Jennifer Langton de la NFL [aplausos] Me llamo Jennifer Langton Soy vicepresidenta sénior
de Salud e innovación de la National Football League
Si bien el deporte es mi profesión siempre ha sido
una parte central de mi vida En mi segundo año
como atleta universitaria una lesión de rodilla
me sacó del campo y lo que en ese momento era
uno de los mayores desafíos de mi vida, se convirtió
en una inspiración para mi carrera Conozco personalmente
el impacto que una lesión puede tener en la vida de un atleta y también el impacto que pueden tener
la tecnología y la innovación en el tratamiento
y la prevención de lesiones En la NFL, nuestra mayor prioridad es la salud y la seguridad
de nuestros jugadores Usamos los datos y la innovación
para proteger a nuestros jugadores y hacer nuestro juego más seguro La NFL ha usado a AWS
como su proveedor oficial de informática en la nube y ML
para Next Gen Stats desde 2017 Next Gen Stats ofrece estadísticas
de ubicación, velocidad y aceleración en tiempo real para cada jugador
en cada jugada y centímetro del campo Con tecnología de AWS, Next Gen Stats
mejora la experiencia del aficionado En re:Invent, el año pasado
creamos sobre esa gran plataforma con el anuncio de una nueva expansión una asociación que perseguirá
un objetivo audaz: hacer que el fútbol americano
y todos los deportes sean más seguros para los atletas que los practican Combinaremos conjuntos de datos
sobre rendimiento humano e información sobre fútbol
incluso horas de vídeo con la fuerte cultura
de innovación tecnológica de AWS para desarrollar un entendimiento
del juego y del rendimiento humano más profundo que nunca Nuestro objetivo es mejorar
la seguridad del jugador al poder predecir y, por lo tanto
evitar lesiones algún día Los servicios de IA
y machine learning de AWS combinados con los datos de la NFL acelerarán toda una generación
de nuevas perspectivas sobre lesiones, roles, el equipo
la rehabilitación y la recuperación Pero antes de seguir hablando
sobre nuestro objetivo común les hablaré del punto de partida
en nuestro camino hacia la innovación como liga que muestra lo mucho
que hemos logrado en poco tiempo En los últimos seis años
ingenieros biomecánicos designados conjuntamente por la NFL
y su Asociación de Jugadores han analizado las lesiones de campo
y han desarrollado pruebas de laboratorio para cascos
que replican los impactos que provocaron esas lesiones
en el campo Este trabajo ha sido una fuente
de información fundamental para el cambio de reglas
y la mejora del equipo de protección dos piezas centrales del esfuerzo
que hacemos para reducir las lesiones concretamente
las conmociones cerebrales Al usar vídeos de estos impactos
nuestros ingenieros biomecánicos han desarrollado una prueba
que representa cientos de variables como la dirección de la velocidad el origen del impacto, el tipo
de juego y el impacto entre otros Probamos el rendimiento de los cascos
que usan los jugadores de la NFL y luego creamos un sencillo gráfico
codificado por colores con los cascos de mejor rendimiento
en color verde más oscuro y los de peor
que están prohibidos, en rojo Esto ha generado un tremendo
cambio de comportamiento entre los jugadores de la NFL
en las últimas cinco temporadas Hemos pasado de tener
un tercio de los jugadores con cascos de alto rendimiento
a tener casi el 100 % Hemos proporcionado a los jugadores
un equipo de mejor rendimiento fomentado técnicas de juego seguras
e implementado cambios en las reglas Estos resultados, logrados
gracias a los datos y la innovación han impulsado
un progreso significativo en la seguridad de nuestros jugadores
en el campo Como resultado de este plan
para la reducción de lesiones observamos una disminución del 24 %
en conmociones cerebrales notificadas durante la temporada 2018
y la temporada 2019 La cifra de conmociones cerebrales
sigue siendo así de baja Esto validó nuestra intervención A eso nos referimos cuando hablamos
de nuestros impulsores clave los datos y la innovación
que han mejorado este deporte y seguirán haciéndolo
con la ayuda de AWS Juntos, también estamos desarrollando
un atleta digital un modelo de simulación virtual
de un jugador de fútbol americano que se puede usar para replicar
infinitos escenarios dentro de nuestro entorno de juego e incluye variaciones por posición
y hasta factores ambientales Al simular diferentes situaciones
dentro de un entorno de juego nuestro objetivo es fomentar
un mejor entendimiento de cómo tratar y rehabilitar
las lesiones a corto plazo y, finalmente, predecir y evitar lesiones en el futuro Al usar la función de vídeo
y los datos de Next Gen Stats estamos haciendo algo
que nunca se hizo en este deporte: desarrollar modelos
de visión artificial que identifican las fuerzas que causan
las conmociones, entre otras lesiones Gracias a Amazon SageMaker
estamos en las primeras fases de los modelos
de aprendizaje profundo para identificar y seguir
a un jugador en el campo un paso importante al entrenar
al sistema para detectar clasificar e identificar
las lesiones y colisiones importantes En el ejemplo del casco el volumen de nuevos datos
que el sistema genera y la velocidad
con la que podemos incorporar los nuevos datos
en las pruebas y los análisis podría expandir exponencialmente
nuestra capacidad de clasificar desarrollar y fomentar la adopción
de cascos de mejor rendimiento por parte de nuestros jugadores Con el tiempo, las técnicas
desarrolladas para detectar y evitar las conmociones cerebrales
también se ampliará y ayudará a reducir
una amplia gama de lesiones incluidas las lesiones
de tobillo y rodilla Esta tecnología nos permite entender
este deporte más profundamente para poder reinventar
el futuro del fútbol americano Acabamos de lanzar un desafío
para probar las soluciones que la NFL y AWS están creando.
Actualmente, hay un reto abierto
de visión artificial en marcha que permite que cualquier persona
con interés y capacidad forme parte
de nuestro importante trabajo Los datos y la información
recopilados a través de este proyecto tienen el potencial no solo
para revolucionar el fútbol americano sino también para ayudar a abordar
la prevención y la detección de lesiones en la sociedad
de forma más amplia El año pasado, la NFL
celebró su 100.° temporada y esperamos con ilusión
los próximos 100 años de fútbol Seguimos comprometidos
con la innovación en nombre de los jugadores
y los que vienen después de ellos Estoy muy orgullosa del trabajo
que estamos haciendo para ese fin El futuro del fútbol americano
con AWS es muy brillante [aplausos] Gracias, Jennifer
Me sorprende mucho ver el impacto que SageMaker puede tener para ayudar
a nuestros clientes a incorporar el ML como parte fundamental
de su estrategia Y a medida que se haga más fácil
para nuestros clientes crear entrenar e implementar un modelo
lo harán más seguido Intuit, por ejemplo, fue uno
de nuestros primeros clientes de SageMaker
y empezaron con el modelo de ML para ayudar a sus clientes
a aprovechar su deducción fiscal Hoy en día, el ML se ha vuelto
fundamental para su empresa y cubre muchas áreas,
desde detección de fraude hasta servicio de atención
al cliente, personalización y desarrollo de nuevas funciones
en sus productos Solo en el último año
han aumentado la cantidad de modelos implementados en toda
la plataforma en más del 50 % Este aumento del uso de la IA y el ML
trajo beneficios para el cliente que incluyen el ahorro 25 000 horas
con autoayuda y la reducción del tiempo de revisión
de los expertos a la mitad lo que mejoró
la confianza del cliente Y no es solo Intuit, lo vemos
en muchos de nuestros clientes Muchos de ellos, hoy en día
buscan escalar a cientos o incluso miles de modelos
en producción y a esta escala, los cuellos
de botella en el desarrollo de ML ya sea en la preparación de datos
o el entrenamiento entre otros, se amplifican más
y surgen nuevos retos Así que necesitábamos crear
nuevas herramientas en todo el flujo de trabajo de ML
para ayudar no solo con un modelo sino con cientos
o incluso miles de modelos Hoy les hablaré de estas herramientas Algunas las lanzamos la semana pasada
y otras son nuevas Empecemos con la preparación de datos
el primer paso para crear un modelo de ML, que conlleva
mucho tiempo y compromiso y que prácticamente no se diferencia
Según nuestros clientes constituye hasta el 80 % del tiempo
que dedican al desarrollo de ML La semana pasada anunciamos
Amazon SageMaker Data Wrangler una forma innovadora de preparar datos para ML
mucho más rápido mediante una interfaz visual
en SageMaker Studio Normalmente, para obtener datos
listos para aplicar a un modelo de ML
se deben recopilar datos en varios formatos
de diferentes fuentes lo que puede requerir que se creen
consultas complejas Con Data Wrangler, se pueden
seleccionar datos rápidamente de múltiples fuentes de datos
como Athena, Redshift Lake formation, S3
y SageMaker Feature Store Antes, se debía escribir código
para transformar los datos Pero con Data Wrangler
proporcionamos más de 300 transformaciones
de datos preconfigurados para que puedan transformar sus datos
sin escribir una sola línea de código A continuación, una vez transformados
los datos, es fácil de limpiar y explorar los datos al visualizarlos
en SageMaker Studio Estos elementos visuales
permiten identificar incoherencias en la preparación de datos
y diagnosticar problemas antes de implementar los modelos Por último, en lugar de que un equipo
de TI tenga que preparar los datos para la producción solo se deben exportar los datos
preparados a un bloc de notas o un script de código
con un solo clic SageMaker Data Wrangler
no solo se integrará con los orígenes de datos de AWS
sino que, próximamente se podrán seleccionar e importar
datos rápidamente a SageMaker desde Snowflake
Delta Lake de Databricks y MongoDB Atlas [aplausos] Al usar SageMaker Data Wrangler
con solo unos clics se puede completar cada paso
del proceso de preparación de datos y se pueden transformar los datos
sin procesar en características Hablando de características, en el ML
las características representan atributos o propiedades relevantes que su modelo usa
para el entrenamiento o la inferencia donde se realizan las predicciones Para desarrollar esto un poco más
veamos a Intuit que en su modelo
de ayuda contextual TurboTax que intenta proporcionar la orientación fiscal más relevante
para un declarante fiscal las características
pueden incluir información como en qué paso estoy
de la declaración o cuáles son mis declaraciones
de impuestos del año anterior Usa características en lotes grandes
para entrenamiento e inferencia por lo que deben estar disponibles
en tiempo real para las predicciones Antes, Intuit almacenaba funciones
para entrenamiento por lotes en un almacén de datos
y funciones en tiempo real en otro Esto significa que se requieren meses
de codificación y mucha experiencia para dar coherencia a las funciones
e Intuit llegó con ese desafío Juntos, creamos
un almacén de características que sirve como repositorio
de entrenamiento para características donde la latencia
no es tan importante y brinda acceso a las funciones
en tiempo de ejecución donde la latencia sí es importante También habilitó la capacidad
de detección y reutilización de características, lo que aceleró
el desarrollo del modelo y mejoró la productividad
del empleado de datos Para resolver este problema
para nuestros clientes de SageMaker hemos lanzado SageMaker Feature Store que permite almacenar, descubrir
y compartir funciones de forma segura para evitar tener que recrear
las mismas funciones para diferentes aplicaciones de ML Esto ahorra meses
de esfuerzo de desarrollo Features Store ofrece características
en grandes lotes para entrenamiento y también características
con una latencia en milisegundos de un solo dígito para la inferencia
Y hace todo el trabajo duro de mantener estas características
en sincronización y coherencia Se pueden usar elementos visuales
para buscar las características y para compartir
y colaborar con otros Como verán, SageMaker Data Wrangler
y Features Store hacen que sea más fácil agregar datos
y preparar y almacenar funciones Esta es una parte importante
del proceso de machine learning porque las predicciones de un modelo
son tan buenas como lo sean los datos y las características que se usan por eso también necesitamos
comprender mejor el sesgo en los datos
que usan nuestros modelos y por qué nuestros modelos
hacen una determinada predicción Pero, hoy en día, es muy difícil
obtener esta visibilidad Requiere mucho esfuerzo manual y el entramado de muchas soluciones
de código abierto Nuestros clientes nos pidieron
que les facilitáramos este proceso Hoy lanzamos Amazon SageMaker Clarify que ayuda a mejorar sus modelos de ML al detectar posibles sesgos
en todo el flujo de trabajo de ML [aplausos] Para hablar más sobre el trabajo
que estamos haciendo nos acompaña a la Dra.
Nashlie Sephus
una de nuestras líderes en AWS que está enfocada
en el sesgo algorítmico y la equidad [aplausos] Gracias, Swami
He estado abocada a las tecnologías de machine learning
como científica y consumidora y he desarrollado una pasión personal por mitigar el sesgo en la tecnología
e identificar posibles puntos ciegos Como científica que trabaja
sobre el sesgo y la equidad en Amazon veo de primera mano
los desafíos de hacer esto y la creciente necesidad
de poder hacerlo bien Mitigar el sesgo del modelo
y comprender por qué este hace una predicción
ayuda a los científicos de datos a crear mejores modelos
de machine learning También ayuda a los consumidores
de predicciones de machine learning a tomar mejores decisiones
en función de esa información El sesgo puede aparecer en cada etapa
del flujo de trabajo de ML Incluso con las mejores
intenciones posibles y mucha experiencia
eliminar el sesgo en los modelos
de machine learning es difícil El sesgo podría iniciarse
desde los datos de entrenamiento cuando no es representativo No tener suficientes dramas
para el entrenamiento de un modelo de recomendación de programas de TV
puede sesgar el resultado También sucede con los desequilibrios
en las etiquetas de datos y al seleccionar un subconjunto
de esos datos de entrenamiento También se generan sesgos
por una deriva del modelo en el que este hace
predicciones con datos diferentes de los datos
sobre los que se entrena Por ejemplo, un cambio sustancial
en las tasas hipotecarias podría hacer que un modelo
de préstamo esté sesgado Hoy, aportar perspectivas al sesgo
de datos de todo el flujo de trabajo de ML es un proceso tedioso
para los científicos de datos y desarrolladores de machine learning He pasado mi carrera trabajando
en este problema y es difícil Estoy entusiasmada de presentar
una función de la que formé parte desde el primer día
SageMaker Clarify SageMaker Clarify proporciona
una solución integral que ayuda a mitigar el sesgo en el ML
y proporciona transparencia en todo el proceso
del machine learning Todo funciona
en SageMaker Studio y se integra con otras herramientas de SageMaker
en el proceso de creación del modelo Veamos cómo funciona Durante la preparación inicial
de datos en SageMaker Data Wrangler SageMaker Clarify permite especificar
atributos de interés como la ubicación o la ocupación y ejecuta un conjunto de algoritmos
para detectar la presencia de sesgos SageMaker Clarify proporciona
un informe visual con una descripción de las fuentes
y la gravedad del posible sesgo para que se puedan tomar medidas
para mitigar Después de haber entrenado
al modelo de estos datos Clarify se asegurará de que no haya
desequilibrios en los modelos como denegaciones de servicios
más frecuentes de un grupo sobre otro
y le proporcionarle un informe visual de los diferentes tipos de sesgo
para cada atributo Con esta información se pueden volver a etiquetar
los datos y corregir el desequilibrio Una vez que el modelo se implementa
existe un informe que muestra la importancia de cada entrada
para una predicción específica Esto puede ayudar a los consumidores de su modelo de machine learning
a comprender mejor por qué un modelo está haciendo
una predicción determinada Por ejemplo, un analista de negocios
que quiera entender qué es lo que impulsa
una predicción de demanda prevista Si bien los datos iniciales
o el modelo pueden no haber estado sesgados, los cambios del mundo real
pueden provocar sesgos con el tiempo SageMaker Clarify cuenta
con SageMaker Model Monitor que envía notificaciones si el modelo desarrolla sesgos
o si los cambios en el mundo real pueden hacer que el modelo les dé
diferentes pesos a las entradas En ese caso, se vuelve a entrenar
el modelo con nuevos datos La reducción del sesgo continuará
siendo un desafío en el machine learning pero SageMaker Clarify proporciona
herramientas para abordarlo Gracias [aplausos] Gracias, Nashlie Nos emociona traerles a los clientes
esta importante función A medida que los clientes
escalan el ML, administrar el tiempo y el costo es fundamental
Si bien la preparación de datos consume una gran parte
del tiempo que toma crear modelos de machine learning
entrenar a esos modelos con los datos puede ser un proceso costoso a escala Por eso, los científicos de datos
y los profesionales del ML quieren maximizar de forma natural
sus recursos El entrenamiento en sí
tiene diferentes fases como el preprocesamiento de datos
el entrenamiento y la finalización Un posible cuello de botella
en la optimización de sus recursos puede ocurrir
cuando el preprocesamiento de datos termina siendo un proceso intensivo
y el núcleo de la CPU está ocupado mientras que la GPU, que se usa
para la fase de entrenamiento y es el recurso más caro del sistema está prácticamente inutilizada Hoy no hay una forma estándar
de identificar los cuellos de botella como en el desarrollo de software
con generadores de perfiles Los clientes hoy necesitan combinar
un conjunto de herramientas abiertas muchas de ellas, únicas para el marco
de ML que están usando Para abordar esto el año pasado
presentamos SageMaker Debugger que identifica automáticamente
problemas complejos en los entrenamientos de ML
Los clientes querían usar Debugger para obtener información
de perfil más detallada para optimizar sus recursos Hemos añadido una nueva capacidad
a SageMaker Debugger que proporciona un perfil profundo
para el entrenamiento de la red neuronal que ayuda
a identificar cuellos de botella y a maximizar los recursos
para el entrenamiento [aplausos] Con los perfiles profundos
en Debugger se pueden visualizar
diferentes recursos del sistema como GPU, CPU, redes y memoria de E/S
en SageMaker Studio Con esto se puede analizar
su uso y realizar cambios en función de las recomendaciones
del generador de perfiles o no Se pueden generar perfiles
en cualquier punto del entrenamiento SageMaker Debugger permite ahorrar
tiempo valioso y reduce los costos Como pueden ver
ML comprende múltiples pasos que tienen lugar en secuencia
y otros en paralelo Y unir estos flujos de trabajo
es una gran tarea En el software tradicional
las canalizaciones de integración continua
e implementación continua, CI/CD se usan para automatizar
la implementación de flujos y mantenerlos actualizados
pero en el machine learning las herramientas de estilo CI/CD
casi no se usan porque, donde existen
son muy difíciles de configurar y administrar Para abordar esto hemos lanzado
Amazon SageMaker Pipelines el primer servicio de CI/CD
con propósito y fácil de usar de ML para todos los desarrolladores
y científicos de datos Con solo unos clics
en SageMaker Pipelines se puede crear un flujo de trabajo
de machine learning que reduce los meses
de programación a solo unas horas SageMaker Pipelines
se ocupa del trabajo pesado al administrar las dependencias
y seguir el flujo de trabajo Casi todo lo que se puede hacer
en SageMaker puede aportar algo
al flujo de trabajo en Pipelines Además, estos flujos de trabajo
se pueden compartir y reutilizar
dentro de la organización Las plantillas y las canalizaciones
de implementación de modelos los ayudan a empezar rápidamente Una vez creados, estos flujos
se pueden visualizar y administrar fácilmente en SageMaker Studio lo que le permite comparar
el rendimiento del modelo Para mostrarles cómo funcionan
todas estas nuevas características me gustaría invitar al Dr.
Matt Wood
para ver una demostración [reproducción de música – aplausos] Gracias, Swami, y buenos días Con capacidades como Data Wrangler
Feature Store, Clarify y Pipelines, y las nuevas funciones
de generación de perfil nunca ha sido tan fácil crear
entrenar e implementar modelos de ML en Amazon SageMaker
Al trabajar juntas estas capacidades les permiten
a los desarrolladores y científicos de datos centrarse
en lo importante, para crear modelos de ML de alta calidad
que mejoren con el tiempo sin toda la parte pesada
indiferenciada SageMaker elimina el barro
de crear modelos de machine learning y deja solo los diamantes
Pero ¿qué es un gran modelo? Observemos la creación de un modelo que usa información
de pistas y artistas para crear
la lista de reproducción perfecta Primero, se necesitan muchos datos
y muchos tipos de datos diferentes Cuantos, más mejor SageMaker permite conectarse
y cargar datos de fuentes como S3 y Redshift con solo unos clics
en SageMaker Studio SageMaker puede usar estos datos
para entrenar un modelo Los modelos aprenden patrones
complejos y, a menudo, sutiles para permitir mapear entradas
a las salidas previstas Necesitamos toneladas de metadatos
de las canciones de la biblioteca longitud, pulsaciones por minuto
género, calificaciones y más, para usar como entrada Luego, necesitaremos
un sólido conjunto de funciones Los datos sin procesar
no suelen proporcionar información suficiente u óptima
para entrenar a un gran modelo Así que, para maximizar la señal
y reducir el ruido y los datos debemos convertirlo y transformarlo
en funciones mediante un proceso conocido
como "ingeniería de funciones" Por ejemplo, el ritmo y el género
podrían combinarse en una súper función más abstracta:
la "bailabilidad" Pero crear funciones
puede llevar un montón de tiempo Algunos clientes calculan que toma
alrededor del 80 % del tiempo crear los modelos de machine learning Pero podemos usar
Data Wrangler para convertir transformar o combinar
datos tabulares sin procesar en funciones
en una fracción del tiempo sin escribir una sola línea de código Con un solo clic
podemos guardar estas características en SageMaker Feature Store que nos permite
agregar y quitar características casi como lo haría
con un repositorio de código fuente El servicio nos permite crear
varias versiones de características y podemos añadir descripciones
y buscar nuestras características lo que ayuda a entenderlas
y reutilizarlas para otros modelos Se pueden recuperar conjuntos
de datos enteros para entrenamiento o, una vez implementado el modelo
recuperar las funciones usadas para las predicciones
de baja latencia de forma individual Una predicción tal puede ser
que quiero escuchar más canciones con alta "bailabilidad"
como Dancing Queen, de ABBA Todo con una latencia
de un solo dígito de milisegundos No es necesario intentar recalcular
estas características sobre la marcha una y otra vez Se puede hacer una sola vez
en Data Wrangler y luego usarlas desde Feature Store Los grandes modelos se pueden aplicar
en muchas situaciones diferentes si están entrenados con un conjunto
de funciones y datos equilibrado Usaremos SageMaker Clarify para garantizar que los datos
de entrenamiento estén equilibrados es decir, que los valores posibles
de características y etiquetas estén bien representados en los datos y que la precisión
del modelo de entrenamiento sea más o menos la misma
en todos los subconjuntos de datos como pueden ser
diferentes géneros musicales Por ejemplo, si hubiera
una preponderancia de música blues en el conjunto el modelo probablemente crearía
muchas listas de blues Y está bien
si solo se quiere escuchar blues pero el modelo será más útil si usamos un conjunto
de características equilibrado que represente docenas
de diferentes géneros al entrenarlo Aquí podemos asegurarnos
de que así sea y de que nuestro modelo
haga buenas predicciones dentro de un amplio rango
de géneros musicales También podemos usar Clarify
para inspeccionar cada predicción y entender el rol que cumple
cada característica en esa predicción Esto nos permite comprobar
que el modelo no dependa demasiado de características que sabemos
que están subrepresentadas Algo fantástico
del machine learning es que los modelos
pueden mejorar con el tiempo no solo a partir de la disponibilidad
de nuevos datos sino también de la incorporación de los aprendizajes que vemos
en herramientas como Clarify y las funciones de generación
de perfiles y depuración para identificar de forma sistemática
fuentes de error o lentitud y eliminarlas de nuestro modelo
Con este enfoque podemos condensar cientos de miles
de horas de experiencia real en unos cuantos reentrenamientos y nuestros modelos pueden mejorar
mucho más rápido Y como queremos mejorar
nuestro modelo continuamente reconstruyéndolo una y otra vez podemos aprovechar
la automatización en Pipelines la nueva capacidad
de integración continua e implementación continua
en SageMaker lo que nos permite automatizar
todo el proceso de creación de ML y reproducirlo perfectamente
con un solo clic Esto no solo acelera el tiempo
de creación del primer modelo sino que reduce el tiempo
entre las mejoras del modelo para lograr mejores modelos
más rápidamente Hemos reunido en SageMaker
todas las herramientas que los desarrolladores conocen bien
como editores visuales, depuradores generadores de perfiles y CI/CD
en un entorno de desarrollo disponible para machine learning Estamos ansiosos por ver
para qué usarán ustedes SageMaker Los dejo nuevamente con Swami
Muchas gracias [reproducción de música – aplausos] Gracias, Dr.
Wood Otro lugar donde vemos mucho
la implementación del machine learning es el borde Cada vez más aplicaciones
como robots industriales vehículos autónomos
y cajas automatizadas requieren modelos de ML que funcionen
con cámaras inteligentes robots, equipos y más Sin embargo, operar modelos de ML
en el borde es un desafío debido a la limitación en memoria
de computación y conectividad También lleva meses ajustar un modelo
a mano para optimizar el rendimiento Además, muchas aplicaciones de ML requieren que se ejecuten
varios modelos en un solo dispositivo Por ejemplo
un robot de navegación automática necesita un modelo de detección
de objetos para detectar obstáculos un modelo de clasificación
para reconocerlos y un modelo de planificación
para legitimar las acciones adecuadas Una vez que un modelo
se implementa en producción su calidad puede disminuir
porque los datos del mundo real usados para hacer predicciones
a menudo difieren de los datos usados para entrenar al modelo
lo que genera predicciones imprecisas En 2018, anunciamos
Amazon SageMaker Neo que facilita la implementación
de modelos en dispositivos de borde Si bien Neo aborda la implementación
para un solo modelo los desarrolladores aún debían lidiar
con la administración de modelos en todas las flotas
de dispositivos de borde y crear mecanismos para monitorear
su rendimiento y precisión Esto se hizo más difícil
al implementar más ML en el borde y por eso estamos invirtiendo más
en esta área para aportar toda la potencia
de SageMaker a dispositivos de borde Hoy nos complace anunciar
Amazon SageMaker Edge Manager que ofrece administración de modelos
para dispositivos de borde para permitir preparar, ejecutar
monitorear y actualizar modelos de machine learning
en flotas de dispositivos de borde [aplausos] SageMaker Edge Manager aplica
optimizaciones de rendimiento que pueden hacer que el modelo
funcione hasta 25 veces más rápido en comparación con el ajuste manual
Edge Manager se puede integrar fácilmente a sus aplicaciones
de borde actuales mediante API y lenguajes de programación comunes Se puede comprender
el rendimiento de los modelos en cada dispositivo en toda la flota a través de un único panel de control Por último, Edge Manager
monitorea continuamente cada instancia del modelo
en toda la flota de dispositivos para detectar disminuciones
en la calidad del modelo Con estos servicios
estamos ofreciendo la más completa solución de extremo a extremo
para el desarrollo de ML con Amazon SageMaker todo integrado en un panel
de vidrio con SageMaker Studio Si bien herramientas como SageMaker
hacen que la creación y el escalado de modelos de ML sea más accesible
a los científicos de datos y desarrolladores
con habilidades de machine learning hay muchas más personas
que carecen de las habilidades o el tiempo para crear modelos pero pueden beneficiarse
de la información que puede brindar
ejecutar un modelo de ML Las buenas ideas pueden llegar
de cualquier parte de la organización por eso es necesario invertir
en hacer que el ML esté más disponible
para más creadores Una de las formas de hacer esto
es a través de SageMaker Autopilot Tradicionalmente, crear modelos de ML requería una opción binaria Por un lado, se pueden preparar
las características de forma manual seleccionar el algoritmo
y optimizar los parámetros del modelo para tener un control total
del diseño del modelo y comprender todo el pensamiento de creación Pero esto requiere
una gran experiencia en ML Si no se tiene esa experiencia
se podría usar AutoML para obtener un enfoque automatizado
de la generación de modelos Pero eso proporciona
muy poca visibilidad sobre cómo se creó el modelo El año pasado
lanzamos SageMaker Autopilot para abordar este intercambio Entrena y ajusta automáticamente
los mejores modelos del ML para clasificación o regresión
en función de sus datos y proporciona control y visibilidad para crear un primer modelo
en minutos Solo se deben cargar los datos
de entrenamiento, y Autopilot los transforma al formato correcto
para entrenamiento de ML Luego, selecciona el mejor algoritmo
para la predicción que se está intentando hacer
entrena hasta 50 modelos diferentes y los clasifica en una tabla líder
de modelos en SageMaker Studio para poder elegir qué modelo usar Luego se puede implementar el modelo
en producción con un solo clic Los desarrolladores ahora
pueden saber cómo se creó un modelo AutoML En el último año, hemos invertido para hacer que Autopilot sea más útil
y aumentamos su precisión en más del 20 % y redujimos el
tiempo de entrenamiento en un 40 % Si bien SageMaker Autopilot
hace que el machine learning sea más accesible
a desarrolladores y creadores hay muchos desarrolladores de bases
de datos y analistas de datos que trabajan en bases de datos
y almacenes de datos a quienes todavía les resulta
demasiado difícil y tedioso obtener información
significativa de esos datos Aunque son expertos en SQL
puede que no conozcan Python y dependen de que los científicos
de datos creen los modelos para ellos para que puedan añadir inteligencia a sus aplicaciones
para obtener información Incluso cuando tienen un modelo hay un largo e implicado proceso para mover los datos
del origen al modelo y de vuelta a la aplicación para que puedan añadir
inteligencia a sus aplicaciones El resultado es
que el machine learning no se está usando
tanto como podría usarse Nos preguntamos cómo podíamos
traer el machine learning a este creciente grupo
de desarrolladores de bases de datos y analistas de datos Hemos incorporado Amazon SageMaker
y otros servicios de ML directamente a las herramientas
que los desarrolladores analistas de datos y analistas
comerciales usan todos los días Estas son bases de datos, almacenes
lagos de datos y herramientas de BI Nuestros clientes usan
distintos tipos de almacenes de datos relacionales, no relacionales
almacenes y servicios analíticos para diferentes casos de uso Por eso, tenemos
una gama de integraciones para ofrecer a los clientes opciones
para entrenar sus modelos con datos y con resultados
de inferencia desde el almacén sin tener que exportar
y procesar esos datos Pasemos a las bases
de datos relacionales Los clientes usan Amazon Aurora
como una base de datos relacional para aplicaciones empresariales
SaaS y aplicaciones web y móviles Históricamente, agregar
machine learning desde Aurora a una aplicación era muy complicado Los científicos de datos
debían crear y entrenar un modelo luego había que escribir el código
para leer datos de la base de datos luego llamar a un servicio de ML
para ejecutar el modelo luego el resultado debía
reformatearse para la aplicación y finalmente había que cargar
los resultados en la aplicación Este proceso ya es malo si se trabaja
con una única base de datos pero si se están usando
servicios de datos múltiples como una base de datos de clientes
y un administrador de pedidos el trabajo es mayor
y hay más para integrar Para facilitar que los clientes
integren el ML en aplicaciones con tecnología
Aurora lanzamos Aurora ML
que realmente simplifica el uso de ML en aplicaciones
mediante una consulta SQL Digamos que quiere
analizar las opiniones de los clientes e identificar
los comentarios negativos Ya no tiene
este proceso de varios pasos.
Ahora ejecuta una consulta SQL
y luego Aurora pasa los datos a Amazon Comprehend y luego los resultados
vuelven a Aurora listos para usar Esta integración facilita la
aplicación de ML por parte de los desarrolladores
de base relacionales Los analistas de datos
usan Amazon Athena que es un servicio de consulta
de interacción sin servidor para analizar datos en Amazon S3
con SQL estándar Y quieren aplicarle ML
para obtener más información Por eso, lanzamos Amazon Athena ML Ahora tienen más de 12
algoritmos de ML integrados proporcionados por SageMaker
directamente en Athena para predicciones basadas en ML
para sus datos en S3 En segundos, los analistas ejecutan
inferencias para predecir ventas detectar actividades sospechosas
o clasificar usuarios en cohortes invocando modelos de ML preentrenados
con consultas SQL simples Le hemos mostrado cómo usar
modelos preentrenados en Amazon Aurora y Athena pero ¿y si no tuviera que preocuparse
de seleccionar un modelo? Nuestros clientes todos los días
usan Amazon Redshift para procesar exabytes de datos
y potenciar sus cargas de análisis Los clientes quieren
que sus analistas aprovechen el ML con sus datos en Redshift sin tener contar con las habilidades o el tiempo para usar el ML.
Así que nos preguntamos cómo podemos facilitarles esto
a nuestros clientes de Redshift Hoy me enorgullece anunciar
Amazon Redshift ML una integración de Amazon SageMaker
Autopilot en Amazon Redshift para que los usuarios
de almacenes de datos apliquen ML a sus datos [aplausos] Veamos cómo funciona Empieza con una instrucción SQL
para crear un modelo Y una vez ejecutada los datos seleccionados se exportan
de Redshift a Amazon S3 y desde allí se ocupa
SageMaker Autopilot Realiza la limpieza de datos
y el preprocesamiento luego crea un modelo y aplica
el mejor algoritmo Toda la interacción entre Amazon
Redshift Amazon S3 y Amazon SageMaker
es abstracta y se produce automáticamente.
Una vez entrenado un modelo está disponible como una función SQL directamente en el almacén
de datos de Redshift Los clientes la usan para aplicar
el modelo de ML a sus datos en consultas,
informes y paneles En nuestro ejemplo de pérdida
de clientes pueden ejecutar la función SQL
de pérdida de clientes en datos de nuevos clientes
para identificar qué clientes están más en riesgo y luego proporcionar esta información
a ventas y marketing Además de hacer ML más accesible
para los analistas de datos resulta que combinar ML con ciertos tipos de modelos de datos también produce mejores predicciones Las bases de datos de gráficos
se usan con frecuencia para almacenar relaciones complejas entre datos y un modelo de gráficos Incluidos gráficos de conocimiento
usados por motores de búsqueda gráficos de modelos de enfermedad
e interacciones génicas y la relación entre las compras
y las transacciones financieras para los motores de recomendación
y para detectar fraudes Amazon Neptune es un servicio de base
de datos de gráficos administrado que facilita crear y ejecutar
aplicaciones que funcionan con este tipo
de gráficos Nuestros clientes nos dicen que
desean aplicar ML a las aplicaciones que usan
datos de gráficos para construir cosas como
mejores motores de recomendación y generar mayor precisión
para detectar los fraudes Pero les falta el tiempo
o las habilidades Por eso, hoy anunciamos
Amazon Neptune ML para predicciones rápidas y precisas
para aplicaciones de gráficos [aplausos] Neptune ML hace el trabajo duro
al elegir los datos del gráfico necesarios para entrenar Elige automáticamente el mejor modelo
de ML según los datos exponiendo las capacidades de ML
a través de consultas de gráficos con plantillas para permitir
a los desarrolladores personalizar los modelos de ML
para escenarios avanzados Y con algoritmos de ML creados
para los datos de gráficos con SageMaker y Deep Graph Library se puede mejorar en más del 50 %
la precisión de la predicción en comparación con las técnicas
de ML tradicionales Estamos muy entusiasmados Estamos integrando la potencia de ML en nuestros propios productos,
e integramos SageMaker en los productos de los partners
también Hemos integrado SageMaker
Autopilot en Domo Sisense y Qlik, con Tableau
y Snowflake el año que viene [aplausos] En mayo de este año, añadimos ML a Amazon QuickSight, el servicio de BI integrable
y ampliable para la nube QuickSight ML Insights se integra
con Amazon SageMaker Autopilot para que los analistas de negocio
detecten anomalías y hagan predicciones sin problemas Clientes como Expedia Group,
Tata Consultancy Services y [PH] Ricoh Company, ya se
benefician de la experiencia de ML lista para usar con QuickSight Y tiene una función llamada
"narración automática" que usa información de ML para decirles a los clientes
la historia del panel de control con lenguaje sencillo A los clientes les encantan
las narraciones entendibles Y nos dijeron que quieren
interactuar también con sus paneles de control hacer preguntas sobre el negocio
en lenguaje sencillo y escrito cuando las respuestas no se
encuentran en las pantallas de datos del panel de control La semana pasada Andy anunció
Amazon QuickSight Q para resolver este problema Q es una herramienta de aprendizaje
profundo en Amazon QuickSight que permite a usuarios empresariales
hacer preguntas en lenguaje natural y obtener respuestas al instante Para contarnos más, me gustaría
invitar a Dorothy Li para que explique cómo funciona Q [aplausos] ¡Hola a todos! Amazon QuickSight Q es una herramienta de aprendizaje
profundo basada en QuickSight que se construye con ML
de última generación y técnicas de procesamiento
de lenguaje natural que permiten hacer preguntas
de datos en lenguaje sencillo y obtener respuestas al instante Profundicemos las capacidades de Q Veamos la situación de un líder
de ventas que busca los conocimientos
de su panel de control para la planificación
del próximo año Mi panel de control muestra
un resumen de los datos Ventas por estado y producto
y algunas tendencias anuales Pero, ¿y si quisiera entender algo que no está en el panel,
como ventas específicas para California y Nueva York,
los de mayor rendimiento? Para hacerlo, en general necesitaría
recortar un ticket o enviar un email al equipo de BI
y esperar una respuesta La mayoría de los equipos de BI
tienen poco personal por lo que esa respuesta podría
demorar días o semanas.
Ahora, con Q, puedo simplemente
escribir mis preguntas en QuickSight y obtener respuestas “Muéstrame las ventas semanales
en California el año pasado” y Q proporciona una respuesta
en solo unos segundos “Veamos cómo se comparan
con Nueva York” Y Q muestra una buena comparación
de las dos líneas de tendencia Es interesante ver que en marzo las ventas en California
tuvieron un gran pico que probablemente el año pasado
los llevó al 1er puesto en ventas Dado que Q usa comprensión de
lenguaje natural puede preguntar lo mismo
de varias maneras Intentemos hacer la misma
pregunta de otra forma "Ingresos semanales para California
frente a Nueva York en 2019" Y obtengo la misma respuesta Los usuarios en diferentes
funciones del negocio en ventas, marketing y finanzas suelen tener su lenguaje específico Para entender las frases cotidianas
en estas diferentes funciones de la empresa, nos asociamos
con cientos de equipos en Amazon para recoger un gran volumen
de datos del mundo real y entrenar los modelos de Q
para entender estas frases y los usuarios no deben
aprender algo nuevo Hacen preguntas de forma natural
y obtienen respuestas Sigamos con el ejemplo de ventas California era nuestro territorio
de mejor rendimiento Quiero profundizar más y hallar las categorías de productos
más vendidos en California Lo único que tengo que hacer
es preguntar a Q qué categorías son las más vendidas
en California este año ¡Ah! Son utensilios de cocina
y productos para exterior pero es difícil ver qué productos
están rezagados ¿Y si mostramos un gráfico de barras? Aquí, veo que los videojuegos
tienen un bajo rendimiento Fue muy fácil obtener
esta información Los primeros pasos con Q
son increíblemente fáciles Una vez que ha conectado Q
con sus datos existentes genera automáticamente
una capa de conocimiento que captura el significado
y la relación de sus datos para que pueda hacer preguntas
en lenguaje natural en cuestión de minutos No solo datos específicos o del panel
sino de todos sus datos Y los primeros pasos
son solo el principio Q usa modelos de ML
para mejorar continuamente sin experiencia de ML Es increíble reinventar BI con aprendizaje automático
con Amazon QuickSight Q Gracias a todos [aplausos] Gracias, Dorothy.
Para que
la tecnología impacte tiene que resolver problemas
empresariales reales de extremo a extremo
y Amazon QuickSight Q es un ejemplo del impacto que ML puede tener cuando se lo aplica
a una necesidad empresarial real Y los clientes más exitosos
son aquellos que combinan expertos del dominio
y expertos técnicos para pasar de la idea
a la implementación ¿Cuál es un buen problema de ML? Si pensamos en problemas buenos
de ML son típicamente las áreas
ricas en datos con impacto en el negocio
pero que no se han podido resolver lo suficiente con métodos
tradicionales Estas sinergias se encuentran
en áreas como recomendaciones de productos,
mejora de revisiones de código aportar una mayor eficiencia
a procesos manuales predicciones más rápidas y precisas
y detección de fraudes Una vez identificados estos casos
de uso comunes creamos servicios de AI
que permiten a las empresas añadir inteligencia rápidamente
a estas áreas sin necesidad de conocimiento
de ML Algunos clientes también preguntan
si en lugar de tener que juntar estos productos
puntuales ellos mismos con código en nuestros servicios
de AI no podríamos resolver el problema
de manera integral Y es por eso que lanzamos
cosas que lo hacen Amazon Connect es un ejemplo.
Un centro de contacto en la nube con transcripción de voz automática análisis de opiniones con ML
mediante Contact Lens Amazon Kendra es una solución
de búsqueda inteligente integral que puede conectarse a múltiples
silos de datos internos y usa ML para crear
un índice preciso que se puede buscar con consultas
en lenguaje natural Y no se requiere experiencia en ML.
Los clientes pueden crear
y personalizar su índice e interfaz de búsqueda sin escribir
una línea de código Y estamos ampliando el soporte para más de 40 fuentes
de datos adicionales mediante la biblioteca de conectores
de Amazon Kendra incluidos Atlassian, Jira GitLab,
Slack y Box Estamos lanzando además
el aprendizaje incremental que aprende del comportamiento
del usuario para mejorar sus resultados
a nivel individual Lanzamos Amazon CodeGuru que permite
a los desarrolladores usar ML para brindar revisión
de código automatizada y dar orientación y recomendaciones sobre cómo arreglar fallos
muy difíciles de encontrar y localizar la línea de código
más costosa al crear perfiles de aplicaciones
automáticamente mientras están funcionando
y hacer recomendaciones sobre cómo reducir la latencia la competencia de la CPU, etc.
Y acabamos de lanzar DevOps Guru
para mejorar fácilmente el rendimiento y la disponibilidad
operacionales de una aplicación Nuestros clientes también
nos piden ayuda para resolver otro problema
empresarial que es la detección de anomalías Resulta que ML es muy bueno en identificar señales sutiles
en muchos datos ruidosos Y hay datos en un amplio
espectro de sectores donde ML puede aplicarse
para ayudar a comprender y detectar anomalías antes
de que sea muy tarde Organizaciones de todos los tamaños
usan datos para monitorear tendencias y cambios en sus métricas
de negocio en un intento por encontrar
anomalías inesperadas como una caída en las ventas
de un producto o un aumento repentino en ventas
potenciales cualificadas Para detectar estas anomalías
se usan métodos tradicionales como establecer umbrales fijos,
que conducen a falsas alarmas resultados no siempre factibles
y anomalías no detectadas.
El costo de no hallar estas anomalías de manera oportuna puede ser alto Por ejemplo, si un minorista
pone un precio incorrecto a un producto en un sitio
de comercio electrónico ese producto podría agotarse
completamente antes de que alguien note que
hay un pico en las ventas Nuestros clientes preguntaron cómo podían hacer que este proceso
de detección de anomalías en el negocio fuera más sencillo Y me entusiasma anunciar la solución Amazon Lookout for Metrics [aplausos] Usa ML para detectar anomalías en todas las métricas operacionales y empresariales de serie temporal,
como rendimiento de ingresos transacciones de compra y tasas
de retención de clientes Lookout for Metrics detecta
cambios inesperados en sus métricas con alta precisión al aplicar el algoritmo correcto
a los datos correctos Es muy fácil funcionar bien
con Lookout for Metrics porque tiene 25 conectores integrados
para análisis de datos Identifica la anomalía y también ayuda a encontrar la causa
de estas anomalías para que pueda tomar medidas rápidas
para solucionar un problema o para reaccionar
ante una oportunidad Y sigue mejorando con el tiempo
con los comentarios Los clientes minoristas obtienen
información de los ingresos al monitorear el punto de venta
o los datos del historial de clics una empresa de tecnología
publicitaria puede optimizar el gasto al detectar picos o caídas
en métricas como el alcance las impresiones y los clics
en los anuncios Ahora, veamos cómo funciona Recupera automáticamente
los datos para monitorear del origen de datos seleccionado
de varias fuentes incluidos varios servicios populares
de AWS como S3, Redshift el RDS, CloudWatch y muchas otras aplicaciones Saas,
como Salesforce Marketo, Amplitud, Zendesk y otros El servicio inspecciona los datos
y entrena modelos de ML para encontrar anomalías
con el mejor algoritmo Da puntaje y clasifica las anomalías
automáticamente en función de su gravedad
y ayuda a buscar las causas de las anomalías
detectadas.
Y por último, también prepara
un análisis de impacto y le envía una alerta en tiempo real
a través de su canal preferido También puede activar
una función Lambda cuando se detecta una anomalía Por ejemplo, si algo se vende
rápidamente en su sitio debido al precio incorrecto,
podría activar una acción para retirar el producto del sitio
hasta inspeccionar más Lookout for Metrics
usa sus comentarios para optimizar su algoritmo
continuamente y mejorar su precisión con el tiempo Puede ver y revisar los detalles de las anomalías en la consola de AWS
o recuperarlos a través de una API Amazon Lookout for Metrics tiene
casos de uso para todos los sectores pero los clientes desean soluciones personalizadas y específicas
a sus sectores Y por eso, me gustaría invitar
de nuevo al Dr.
Matt Wood [reproducción de música – aplausos] Gracias, Swami El aprendizaje automático impulsa
niveles de reinvención únicos de forma virtual en cada sector Por ejemplo, iHeartMedia
usa el ML en AWS para recomendar a sus oyentes
música en tiempo real en todas sus plataformas de medios
y entretenimiento O, en el sector automotor,
Lyft recopila petabytes de datos y los analiza con Amazon
SageMaker para mejorar los sistemas de conducción autónoma En finanzas, J.P.
Morgan mejora
su experiencia bancaria al personalizar las interacciones
con sus clientes con coaching en tiempo real
y recomendaciones para los agentes de centros
de contacto para atender mejor a sus clientes Y vemos que la reinvención ocurre
en la fabricación industrial donde se usan datos en la nube y en los nodos del borde para replantearse virtualmente
todos los procesos de diseño en la línea de producción de la cadena de suministro
al producto final Los procesos industriales
están compuestos de pasos pero, a diferencia del software,
son monolíticos Están muy fuertemente acoplados lo que significa que un problema
del equipo o del proceso en cualquier lugar de la línea
puede tener efectos grandes Así, mantener el rendimiento
y los objetivos de costos en fabricación y procesos es un equilibrio difícil de lograr Es fundamental monitorizar
estos sistemas y que las alertas tempranas
se dan cuando ocurre algo Gran parte de esto se gestiona
mediante control de procesos con umbrales fijos Pero son frágiles y no aprovechan la gran cantidad de datos disponibles
en los sistemas industriales Anunciamos nuevos servicios
centrados en la industria que permiten a los clientes
aplicar ML para hallar equilibrio y mantenerlo
en procesos industriales lo que hace más fácil, seguro y más rápido el monitoreo
y la evaluación de todo incluidas fabricación, energía
y agricultura Juntos, estos servicios
ayudan a disminuir la dificultad de mantener
el equilibrio Les contaré brevemente cuáles son y luego les mostraré
cómo trabajan juntos Hay muchas empresas industriales
que saben que podrían ahorrar tiempo
y dinero si pudieran usar estos datos para mejorar
el mantenimiento predictivo Pero algunos clientes
no tienen sensores instalados o son sensores antiguos
o poco sensibles Y no saben cómo tomar
los datos de los centros y enviarlos a la nube o crear los modelos de ML que detectan un problema
antes de que ocurra Para ayudar, la semana pasada
lanzamos Amazon Monitron una solución integral para monitoreo
de equipos Monitron viene con tres cosas Un conjunto de sensores,
y tengo una aquí conmigo Un dispositivo gateway de red
y una app móvil para seguir y resolver los fallos automáticos
detectados por Monitron Son sensores inalámbricos
de funcionamiento simple que están diseñados con una batería
de 3 años de duración Miden la vibración en 3 direcciones
y la temperatura y se pueden montar fácilmente
al equipo con epoxi Los sensores pueden montarse
en distintas piezas, como motores cajas de engranajes, compresores,
turbinas, ventiladores y bombas y toman mediciones de vibración y temperatura de inmediato Los datos de temperatura
y de vibración se envían automáticamente desde
los sensores al gateway de red, que luego transfiere las mediciones
a la nube Puede ver las lecturas del sensor directamente en la aplicación móvil Monitron también crea un modelo
de ML con los datos del sensor y lo usa para definir el rendimiento
operativo de referencia Si hay una anomalía en los datos
del sensor Monitron alerta a los técnicos
con avisos push a la app Es una solución sencilla e integral
para el mantenimiento predictivo que no requiere conocimientos previos
de ML Y eso es muy importante Hace que sea mucho más fácil
para las empresas realizar el mantenimiento predictivo
en sus equipos Otras empresas nos cuentan que tienen sensores modernos
que funcionan bien y no quieren construir
modelos de ML basados en sus datos Pero sí quieren enviarnos los datos,
usar nuestros modelos y recibir las predicciones
a través de la API para poder integrarlas
con sus sistemas Tenemos algo para esto
grupo de clientes también Es Amazon Lookout for Equipment Un servicio de detección de anomalías
para maquinaria industrial Con Lookout for Equipment,
se envían los datos a AWS y se almacenan en S3 El servicio puede analizar datos
de hasta 300 sensores por máquina industrial,
y usa modelos de ML para identifica alertas tempranas
que podrían ser una señal de fallos inminentes de la máquina El servicio señala el sensor
o los sensores que indican las anomalías
lo que le permite responder más rápido antes de que la línea
se complique Y si encuentra anomalías, el servicio
las enviará a través de la API para hacer el mantenimiento Lookout for Equipment detecta
anomalías Se puede integrar con su software
de monitoreo existente IoT SiteWise o sistemas de datos
industrial como OSISoft también puede configurar
acciones automatizadas cuando se detectan anomalías
como crear un ticket de incidencia o enviar una alarma automatizada que notifica de cualquier problema
inmediatamente Los clientes también piden ayuda con la visión artificial para mejorar
los procesos industriales Estos procesos se mueven rápidamente y pueden requerir monitoreo constante
para mantener el control de calidad Determinar si una pieza ha sido
fabricada correctamente o si está dañada, puede afectar la calidad del producto
y la seguridad operativa Puede hacerse manualmente pero es muy difícil hacerlo
con precisión y escalarlo en una línea
en movimiento rápido Así que la semana pasada lanzamos
Lookout for Vision un nuevo servicio que detecta
defectos y anomalías con visión artificial en imágenes Se empieza con tan solo 30 imágenes para fijar un buen estado
de referencia para piezas de máquina
o productos fabricados Luego, podrá enviar imágenes
para cámaras en la línea para identificar anomalías Lookout for Vision
detectará las diferencias entre el buen estado conocido
y cualquier diferencia Detecta abolladuras
en una pieza fabricada una fisura en una pieza,
formas irregulares o colores poco uniformes
en un producto Si se detectan anomalías
puede recibir alertas en el panel de control
de Lookout for Vision donde resaltará la parte de la imagen que difiere de la línea de base Los modelos de ML
de Lookout for Vision son tan sofisticados que manejan
variaciones del ángulo de la cámara y la iluminación de los cambios
en el entorno de trabajo En una línea industrial se deben tomar decisiones
en segundos No hay tiempo para enviar
esa información a la nube y esperar la respuesta Muchas empresas industriales
intentan usar cámaras inteligentes que permiten procesar vídeo
en el sitio en el borde Pero muchas cámaras inteligentes
de hoy en día no son lo suficientemente potentes para ejecutar modelos sofisticados
de visión artificial Y muchas empresas
con las que hablamos no quieren quitar todas las cámaras que acaban de instalar
y poner otras diferentes Por eso creamos
AWS Panorama Appliance un nuevo dispositivo de hardware
que permite a las organizaciones añadir visión artificial
a las cámaras inteligentes locales Y funciona de esta manera Simplemente se enchufa
Panorama Appliance y se lo conecta a la red Panorama empieza a reconocer
y captar transmisiones de vídeo de las cámaras existentes
en la instalación Luego, puede procesar transmisiones de hasta 20 cámaras simultáneas y operar modelos de visión artificial
en esas transmisiones Y si es necesario tener más se pueden comprar más
Panorama Appliances Tenemos modelos prediseñados
dentro de Panorama que se ocupan de la visión artificial y que hemos optimizado
por sector Y los tenemos para el sector
de fabricación construcción, minorista, seguridad,
y muchos otros Y también puede crear sus modelos
en SageMaker y luego implementarlos en Panorama que se integra perfectamente
con el resto de servicios de aprendizaje automático y
de IoT El dispositivo en sí es pequeño, pero
creado para uso industrial Tengo uno aquí conmigo Tiene clasificación IP62, que implica
que es resistente al polvo y al agua No tiene la resistencia
de un Snowboard Edge pero tampoco es frágil Tiene una unidad de altura y medio rack de ancho
con puntos de chasis así que puede montarlo
en un armario o gabinete Tiene varios puertos de redes GigE
para redundancia o para conectar cámaras
de varias subredes La gente está muy emocionada de tener visión artificial
en el borde pero nos han dicho que piensan comprar las próximas cámaras
inteligentes que según dicen los fabricantes hay que integrarles algo más para ejecutar modelos más potentes
de visión artificial directamente en esos dispositivos También brindamos un nuevo
AWS Panorama SDK que permite a los proveedores
crear nuevas cámaras que ejecutan modelos más sofisticados
de visión artificial en el borde Este SDK y las API asociadas se pueden usar para añadir más
potencia de visión a las cámaras Hemos optimizado la memoria
y latencia de los modelos para usar modelos más potentes en lo que es a menudo
un espacio muy limitado Panorama SDK se integra
con otros servicios de AWS Se pueden crear y entrenar modelos
en SageMaker y luego implementarlos con un clic
en todos los dispositivos que también se integrarán con SageMaker Edge Monitor
y servicios de IoT como SiteWise para la integración
con los sistemas existentes Y vemos con los partners la emoción de los integradores
de sistemas proveedores de software
y proveedores de silicio que trabajan en la próxima generación
de cámaras con nosotros Es muy emocionante Todas estas nuevas capacidades
están diseñadas para ayudar a los clientes
en fabricación industrial a mejorar sus procesos
de principio a fin Veamos cómo trabajan juntos en una línea de fabricación Construir miles de millones
de un producto por año que muchos llevamos siempre
en los bolsillos y ha cambiado significativamente
la manera de crear y comunicar El humilde lápiz número dos.
Como muchos procesos industriales la fabricación de lápices
tiene bajo margen y gran volumen y está automatizada en parte pero todavía requiere
varios pasos manuales Así que veamos la línea
de fabricación del lápiz Los compresores grandes crean
las obleas de lápiz y máquinas a gran escala
insertan el grafito, pintan y luego afilan el lápiz Las máquinas industriales como estas
tienen muchos sensores individuales Amazon Lookout for Equipment permite agregar y analizar
los datos de este equipo con modelos de ML entrenados
con datos propios pero que no requieren experiencia
en ML para aplicarlos Los modelos de ML pueden identificar
señales de alerta tempranas de problemas operativos futuros
al monitorear el comportamiento como cuántas repeticiones por minuto
se considera normal para una máquina Estos son los típicos problemas
que si se detectan temprano podrían evitar costosos tiempos
de inactividad Cuando el modelo de ML detecta
un posible problema como una caída repentina
en la tasa de repeticiones de la máquina de oblea de lápiz,
el servicio envía alertas de texto para que los ingenieros inspeccionen el equipo y detecten problemas
antes de que ocurra el desastre y toda la línea se vea afectada
y tengan que detenerla Incluso con estos datos del sensor,
en líneas como esta suele haber puntos ciegos El equipo sin sensores instalados o las cintas transportadoras
que mueven productos entre equipos pueden presentar
posibles puntos de fallo Monitron le permite eliminar
estos puntos ciegos al ampliar la cobertura
de los sensores con una solución de monitoreo
de máquinas integral Se pueden instalar sensores
Monitron en máquinas para empezar a eliminar estos
puntos ciegos en minutos Como en esta máquina
de afilar lápices Una vez instalados los sensores,
se empiezan a recopilar datos como la vibración y la temperatura
que luego se analizan automáticamente y las alertas tempranas
que se desvían de la norma se indican al personal in situ
a través de una aplicación móvil en una solución completa
de monitoreo y corrección que no requiere habilidades de ML ni de AWS para configurarla
y hacerla funcionar La calidad es fundamental
en líneas como esta Incluso pequeñas imperfecciones
en cada paso pueden ser un riesgo y son más costosas de solucionar
al avanzar en la línea.
Amazon Lookout for Vision usa ML para evaluar la calidad en cada paso
de la línea en forma automática Su visualización de 30 imágenes
de referencia le permite identificar incluso
defectos sutiles, como muescas, desalineaciones y rayones,
y enviar alertas y notificaciones tan pronto como se identifiquen,
antes de replicarse en la línea y afecten a lotes enteros
de productos Amazon Lookout for Vision procesa
las imágenes de los lápices de las cámaras en la cinta y el modelo las analiza para detectar
defectos en tiempo real Cada vez que detecta
una punta sin alinear lo registra y notifica la tasa
de defecto en un panel en línea para poder tomar medidas
como el mantenimiento o el apagado de una línea para impedir rápidamente
que haya más defectos Pero, estas líneas no existen
de forma aislada Están rodeadas por equipos
de personas pilas de inventario, otras líneas y decenas de otros equipos
y vehículos en movimiento Además de monitorear cada proceso muchos clientes tienen cámaras para ayudar a monitorear el entorno
en su conjunto Con AWS Panorama Appliance estas cámaras son mucho más útiles Ahora se puede procesar vídeo in situ
con baja latencia Se puede contar y monitorear
el inventario y analizar su movimiento en todo el sitio o monitorear los cambios del proceso
o el impacto para hacer mejoras Panorama puede ayudar a transformar las cámaras en las instalaciones
para usar visión artificial y monitorear todos estos procesos eliminar atascos y hacer mejoras a la cadena
de suministro general Con servicios como Lookout
for Equipment, Monitron Lookout for Vision y Panorama puede usar el ML para añadir
monitoreo y análisis integrales a sus procesos industriales,
ya sea que fabrique autos teléfonos móviles, produzca
y envase comida coseche, genere energía o incluso produzca
miles de millones de lápices Veremos de qué manera
los clientes industriales reinventan sus procesos
mediante ML con estos servicios La fabricación industrial
se transforma muy rápido Y lo mismo ocurre
con la atención de salud Un buen ejemplo es ver lo que
Moderna ha hecho este año más o menos, en realidad
en los últimos 9 meses Construyeron un conjunto totalmente
digital de fabricación en AWS para secuenciar su más reciente
candidato de COVID-19 que acaban de enviar, y que tiene
una efectividad del 94 % Y lo hicieron en AWS
en cuarenta y dos días en lugar de los típicos
veinte meses Novartis usa el lenguaje natural para mejorar su capacidad
de detectar eventos adversos una parte crucial de llevar fármacos
de forma segura al mercado Cerner usa SageMaker para consultar
datos de pacientes anonimizados y construir complejos
modelos de ML y predecir la insuficiencia
cardíaca congestiva hasta quince meses antes
de los síntomas clínicos Pero incluso con toda esta innovación unir datos alojados en silos y diferentes formatos para crear esta visión completa de los pacientes o de participantes de ensayos
es muy difícil Y este es el objetivo de las empresas
de atención de salud Y aún no lo tienen Estos datos suelen estar distribuidos
en varios sistemas como registros médicos electrónicos,
sistemas de laboratorio y existen en decenas de formatos
incompatibles A menudo incluyen información
no estructurada contenida en las historias clínicas
como notas clínicas documentos como informes
de laboratorio en PDF reclamaciones de seguros,
o imágenes médicas y todo debe ser organizado
y normalizado antes de poder empezar
para analizarlo Y recopilar y preparar
todos estos datos para su análisis exige semanas
o meses a las organizaciones Puede implicar la revisión manual
de registros de salud individuales para identificar y extraer
información clínica clave como diagnósticos, medicamentos
o procedimientos de notas documentos, imágenes,
grabaciones formularios, antes de normalizarlos
para que se los pueda buscar Es costoso y requiere mucho tiempo
para hacerlo bien por lo que este tipo de análisis
sigue estando fuera del alcance para casi todas las empresas de salud
y ciencias biológicas Todos los proveedores, pagadores,
y empresa de ciencias biológicas intentan resolver el problema
de analizar estos datos Porque si lo hacen, pueden tomarse
mejores decisiones para los pacientes funcionar de forma más eficiente
y entender las tendencias Me complace anunciar el lanzamiento
de Amazon HealthLake Un nuevo servicio que permite
a las organizaciones de salud transformar y analizar petabytes
de datos de salud y ciencias biológicas en la nube HealthLake transforma los datos
para entender y obtener información médica valiosa
de manera automática de datos dispares sin procesar
como recetas procedimientos y diagnósticos Se reinventa un proceso
que era manual con errores y costoso HealthLake organiza los datos
en orden cronológico para ver tendencias como el avance
de la enfermedad en el tiempo dando a las organizaciones de salud
nuevas herramientas para mejorar la atención
e intervenir antes Las organizaciones de salud
pueden consultar y buscar datos crear modelos de ML
con Amazon SageMaker e identificar patrones, anomalías
y tendencias de previsión HealthLake también admite estándares
de interoperabilidad como FHIR, que es un formato estándar para habilitar intercambio de datos
entre sistemas de salud en un entorno uniforme y compatible Veamos un ejemplo de cómo
se puede aplicar HealthLake a uno de las afecciones crónicas
más comunes, la diabetes La detección y el control tempranos
de la diabetes son fundamentales para prevenir
el empeoramiento de la enfermedad y puede conducir a mejoras tangibles
en la calidad de vida Los datos pueden ayudar
con un diagnóstico más temprano y un mejor control del tratamiento Las organizaciones de salud reciben
muchos datos de pacientes diabéticos Para un solo paciente, hay cientos
de miles de datos de salud las recetas, los análisis de sangre
y de las notas de los médicos Y todo se almacena en distintos silos en docenas de formatos diferentes
y tipos de archivo Es un esfuerzo hercúleo
para las organizaciones de salud organizar toda esta información
de cada paciente y normalizarla para su análisis Pero con HealthLake, podemos juntar
todos estos datos en minutos con lenguaje natural mapeo de ontología
y comprensión médica HealthLake puede cargar
recetas e identificar si se ha recetado a un paciente
un fármaco como la metformina identificando con precisión el nombre, la dosis y la frecuencia
de uso del medicamento Se puede agregar la información
que brinda un sistema de monitoreo de glucosa en sangre HealthLake puede cargar estos datos
estructurados de forma continuada HealthLake también extrae
información importante de las notas médicas, formularios
de seguro e informes de laboratorio y luego la añade al lago de datos para que se pueda consultar
con una nomenclatura estándar Por separado, son las piezas
del rompecabezas dispersas en diferentes silos Combinadas, tenemos una imagen
mucho más clara de la salud Con HealthLake podemos unir cientos de millones de datos
de millones de pacientes para tener una imagen de todos
los pacientes diabéticos Estos datos recopilados en HealthLake
y armonizados son inmensamente más útiles Veamos qué podemos hacer
con estos datos para obtener más conocimientos
sobre estos pacientes Podemos identificar un subconjunto
de pacientes con diabetes no controlada
y niveles altos de azúcar en sangre como médicos podemos ajustar
el tratamiento y evitar complicaciones graves
al manejar mejor la enfermedad Para hacerlo, consultamos los datos
en la consola de HealthLake para identificarlos al usar
términos médicos estándar como medicamentos, diagnósticos,
o niveles de azúcar en sangre Podemos usar Amazon QuickSight
para crear un panel y visualizar estos datos para obtener
una imagen más completa Podemos comparar a estos pacientes con otros en una situación similar
para identificar tendencias y monitorearlos para comprender mejor cómo sus factores de riesgo
cambian con el tiempo en función de las intervenciones
o iniciativas de salud pública También podemos crear futuros
modelos predictivos Podemos usar SageMaker
para pronosticar el número de nuevos casos de diabetes
anuales al contar con millones
de datos de salud que permiten identificar
tendencias de salud fácil y rápidamente
en los pacientes.
Lo que supieron ser datos dispares
y no estructurados ahora se encuentran estructurados,
son fáciles de leer y de buscar Y para los profesionales de la salud,
de seguros y ciencias biológicas HealthLake los ayuda a obtener
más valor de sus datos de salud al eliminar los problemas asociados
con el almacenamiento la normalización, la organización y la comprensión de sus datos para que puedan responder
preguntas importantes que ayudan a sus pacientes y mejoran
la calidad de su atención Para hablar más sobre la aplicación
del ML para reducir la complejidad
y brindar mejor atención me gustaría invitar a Elad Benjamin director general de Radiology
Informatics en Philips para hablar más sobre su trabajo.
Muchas gracias [aplausos] Hola a todos.
Soy Elad Benjamin director general de Radiology Informatics
Business en Philips Si uno piensa en una atención
de salud óptima ¿cómo la imaginamos? Para mí y muchos otros
la clave es la calidad ¿Y qué es la calidad en la atención
de salud? Es la combinación óptima de costo
precisión y velocidad El objetivo de la medicina
es llegar al diagnóstico y administrar el tratamiento
en el menor tiempo posible sin errores y con el menor Tenemos la oportunidad de acercarnos
a ese objetivo al sintetizar los datos
de nuevas formas Y hoy hablaré específicamente
sobre análisis de datos aprendizaje automático
y visión artificial Parte de la dificultad
en el sector de salud es la abundancia de datos
que se generan la diversidad y cantidad de fuentes
de imágenes, monitoreos y genómica Los médicos deben trabajar
con esos silos de datos y cada vez les es más difícil
diagnosticar y tratar.
En Philips, ayudamos a enfrentar
los desafíos de varias maneras Uno es HealthSuite, una capa base,
una plataforma de datos en la nube que consolida
registros de pacientes de datos de equipos de monitoreo
de uso hogareño o personal información de empresas de seguros
u organizaciones de salud El lago de datos de HealthSuite
se ejecuta en AWS y junta un gran volumen
de datos clínicos al tiempo que cumple la normativa HealthSuite incluye decenas
de servicios de AWS desde el borde hasta la nube que proporcionan la base de la nube
para IoT y conectividad remota para sistemas de diagnóstico
inteligentes análisis operativo para optimizar
los flujos de trabajo telediagnóstico escalable para puntos
de atención remotos y emergentes y PACS en la nube para diagnóstico Comparto un ejemplo específico
dentro de HealthSuite acabamos de anunciar el nuevo servicio de entrenamiento
Analyze AI Es un servicio multiusuario
con funcionalidad para enviar y administrar AI basada
en CPU o GPU, ML y trabajos de aprendizaje profundo Amazon SageMaker funciona como
motor de ejecución en segundo plano El servicio de formación
permite a los usuarios configurar entornos personalizados y objetivos informáticos permitidos Ayuda a enviar y gestionar
trabajos de ejecución larga al conectar con un repositorio
y al asociar su ejecución con los objetivos y entornos En radiología, para avanzar
en el diagnóstico preciso Philips está aplicando herramientas
de ML y AI para mejorar los sistemas
de diagnóstico obteniendo el primer
diagnóstico correcto mediante diagnósticos inteligentes
y pertinentes clínicamente flujos de trabajo optimizados,
al conectarlos e integrarlos para impulsar eficiencia operativa,
al integrar datos de imágenes monitoreo, laboratorio, genómica,
y longitudinales para crear pautas de atención
claras al ayudar con la toma de decisiones en momentos cruciales
de la vida del paciente Creamos modelos de ML
con Amazon SageMaker para extraer información
de los datos Y podremos usar Amazon Transcribe
Medical a futuro y Amazon Comprehend Medical
para integrar fuentes de datos adicionales y almacenarlos
en un lago de datos en AWS Usar los servicios de ML y AI de AWS
para agilizar la construcción el entrenamiento y la implementación
nuestros modelos tiene sentido AWS crea estos servicios
para ejecutarse a escala y ser rentables, y liberar
a los científicos de datos para centrarse en actividades
de mayor valor Phillips y AWS tienen el objetivo
de desmitificar AI y los datos y acelerar su uso para extraer
nuevos conocimientos de los datos de salud
y mejorar la atención Irrumpimos en la atención sanitaria al unir la información correcta,
con las herramientas adecuadas para tomar las decisiones correctas
para los pacientes y que los médicos hagan
lo que mejor saben hacer Cuidar de esos pacientes.
Esperamos ver una mayor integración
de servicios de AI y ML en toda la organización de Philips Hay un número de áreas de negocio que se beneficiarán de la adopción
acelerada de AI incluida terapia guiada por imágenes
y cuidados del sueño respiratorios y monitoreo remoto del paciente El desbloqueo de datos con ML y AI apoyará el cambio fundamental
de la atención en cantidad a una atención basada en valor
y diagnóstico preciso Muchas gracias [aplausos] Gracias, Elad El último principio del que hablaré es dar a los creadores la capacidad
de aprender continuamente La formación y educación especialmente en áreas emergentes
como ML permite a los equipos seguir el ritmo
de las nuevas tecnologías y fomenta la innovación
en toda la organización En Amazon, uno de nuestros
principios de liderazgo es aprender y ser curiosos Alentamos a todos, y esto
incluye los creadores a probar cosas nuevas, aprender
nuevas tecnologías y mantener la curiosidad
del mundo que nos rodea Este es uno de los motivos de que
Amazon esté a la vanguardia en la adopción de tecnologías
como ML antes incluso de que fuera
ampliamente conocida En el principio de la adopción
del ML creamos la universidad de ML que usamos durante más de 6 años
para nuestros ingenieros en ML Para ayudar a otros a beneficiarse
de este contenido lo hemos puesto gratis a disposición
para que todos aprendan y lanzamos una certificación
para ML en AWS Los desarrolladores están encantados Ante esta demanda, desarrollamos
contenido en cursos en línea en sitios
como Udacity, Coursera y edX para compartir las aplicaciones de ML con más personas Así, conceptos de ML más complejos como el aprendizaje por refuerzo,
el aprendizaje profundo y los GAN son más accesibles con nuestros dispositivos educativos como DeepRacer, DeepLens,
y DeepComposer Con los años, programas
como DeepRacer nuestro auto de carreras
de escala 1:18 con aprendizaje de refuerzo,
crearon una base de fans y los equipos continúan ofreciendo
nuevas experiencias a nuestras ligas DeepRacer Y más de 150 clientes globales formaron a miles de desarrolladores incluidos Capital One,
Moody’s, Accenture DBS Bank, JP Morgan
Chase, BMW y Toyota Han realizado eventos
para su personal Veamos la diversión que vivimos
con DeepRacer el año pasado y veamos qué nos trae
DeepRacer este año [aplausos] [motores acelerando] [motores acelerando y
reproducción de música tecno] ¿En qué me estoy metiendo? [reproducción de música tecno] Bienvenido a otro
AWS DeepRacer Underground [reproducción de música tecno] ¡Oh, guau, esto es increíble! [reproducción de música tecno] [motores acelerando] Vamos, vamos, vamos [motores acelerando-
reproducción de música tecno] [aplausos] Algunas cosas emocionantes
de DeepRacer En los últimos años ML ha recorrido un camino
realmente largo Las barreras se han reducido
significativamente y los creadores pueden aplicar rápido ML a sus desafío más grandes
y apremiantes Y la aparición de la pandemia
lo dejó muy en claro Nuestros clientes necesitaban
moverse más rápido que nunca antes para responder
al mundo cambiante Aplicaron ML para crear nuevas formas de interacción con clientes,
de trabajo y aprendizaje y de automatización de procesos
para reaccionar más rápido Aplicaron ML para rastrear
la enfermedad encontrar nuevas formas
de atender a los pacientes y de acelerar el descubrimiento
de vacunas Pudieron hacerlo porque sus creadores
estaban libres para aprovechar el potencial
del ML Libres para construir
la tecnología más avanzada Ayudar a tener esa libertad es lo que
apasiona a nuestro equipo Es lo que impulsa
nuestra propia innovación y nos permite lanzar funciones nuevas
casi todos los días.
Lanzamos tantas cosas nuevas
durante re:Invent que entre Andy y yo no pudimos
anunciarlas todas Así que no se pierdan las más
de 50 sesiones de ML que tenemos disponibles
durante todo el evento Gracias y que disfruten
lo que resta de re:Invent [reproducción de música].