Así funciona la voz de Stephen Hawking: «Utilizo la tecnología para comunicarme y vivir»

Me encantaría que llegara un momento en el que no tuviéramos que
pensár en los discapacitados como en otra categoría Intel ha tenido una
relación estrecha con Stephen Hawking durante más de dos décadas empezó cuando nuestro
co-fundador el doctor Gordon Moore conoció al profesor Hawking en un evento en ese momento le prometió que intel
soportaría todas sus necesidades informáticas, durante el resto de su
vida. Debido a esta relación hace unos cuatro años, el profesor Hawking se puso en contacto con el doctor Moore, Y le preguntó, si había algo que Intel pudiera hacer No sólo
en términos de crear una nueva máquina Sí no también para cambiar por
completo la forma que tenía para comunicarse Quería algo que se pareciera y si sintieran como lo
que ya tenía Hawking utilizaba un sistema
muy antiguo; así quería mucho trabajo que hacer.

Podríamos decir que es
un sistema que funciona en tres partes la primera parte, es el sensor
que mide algún movimiento que realiza el profesor Hawking
específicamente en este caso él tiene un sensor de proximidad que está en sus
gafas y permita que, cada vez que mueve el pómulo el sensor de proximidad se activa, y la señal se envía una
plataforma de software que funciona en su ordenador windows la segunda pieza es la plataforma de
software. Lo que hace este sistema Es actuar como un conductor
entre el sensor y Windows así que tiene un teclado virtual
y una simulación de ratón que le permite escribir con
el teclado en un interfaz temporizado.

Puede visualizar un cursor que va por cada letra y cuando llega a la letra deseada el puede mover su pómulo
y activar la letra Ésta se escribe y hay un predictor
de palabras. Así que cuando pone el suficiente número de letras aparece la palabra directamente El ve que aparece la palabra
en el predictor de palabras y puede seleccionarla una vez más con
el interface de tiempo. y una vez lo ha escrito todo puede activar el sistema de
lenguaje sintetizado y esta es la tercera parte del
sistema. Este sistema es muy interesante porque es una voz
robótica, que Stephen ha acabado por identificar como su propia voz Stephen usa su máquina como lo
haríamos cualquiera de nosotros prepara y da las elecciones, y navega por internet Contesta e-mails, hace
todas estas cosas. Así que, cuando empezamos a observarle
bien mientras realizaba estas tareas nos dimos cuenta de que llevaba mucho tiempo hacer
cualquiera de estas cosas. Por que ahora con el simulador de ratón tiene que empezar a bajar hasta llegar a la línea que le interesa Y ahí activa el sensor y
después empieza a ir hacia la derecha hasta que llega al punto que quiere y entonces activa el sensor de nuevo es un proceso muy lento.

Estábamos buscando por ejemplo mejorar de verdad que el sistema de predicción de
palabras si lo piensas, él dice que no quiere cambiar el interfaz
del teclado, pero si quieres ir más rápido sin cambiar el interface del teclado lo único que puedes hacer es tener que teclear menos letras Eso se traduciría en más velocidad
puede empezar a teclear y el sistema puede predecir la siguiente palabra sólo por
el contexto del contenido de la frase sin tener que teclear ninguna letra de
esa palabra porque la gente es muy predecible y si adaptas el sistema puedes adivinar bastante que es lo
siguiente qué van a decir El daba muchacha feed-back
incluso cosas como los menús Qué items del menú tenían que ser
acelerados dentro de los módulos para todo ese tipo de cosas nos daba feed-back por supuesto cada vez que lo usaba
encontraban un error Así que estaba también en el proceso de validación. Lo que le decidimos hacer fué básicamente construir una especie de
plataforma abierta que nos permite integrar nuevos tipos de innovación y esto eventualmente tendrá la ventaja de permitir que otros usuarios lo utilicen.

Por
ejemplo uno de los pacientes con los que trabajamos podía mover su dedo no podría presionar el botón, porque no
tenía suficientes fuerza pero podía moverlo levemente
lo que no podía mover era su cara al final de un período de dos semanas
fuimos capaces de construir un anillo basado en un acelerómetro, que puede
detectar el movimiento y se ha integrado al software
que ya tenemos. Creamos toda la documentación necesaria para que la
gente lo descargara Se descargara el sensor y lo probará Y fue increíble.
Mucha gente me escribió diciendome que podían activarlo desde una cámara
y utilizar el sistema tal y como era cualquier persona que esté
construyendo una tecnología relevante ya sea un predictor de palabras, un sensor o lo que sea Puede lanzar su innovación en el
mercado muy rápidamente.

Todo lo que tiene que hacer es integrar
esa parte, integrarla en el sistema y entonces obtiene la habilidad
impactar a mucha gente Todos tenemos distintos tipos de limitaciones Porque ahora, estamos inmersos en situaciones en las que conducimos y queremos enviar mensajes y llamar. Y vamos
ajetreados mientras intentamos hacer estas cosas. Con la tecnología
móvil surgió la necesidad de diferentes tipos
de tecnologías adaptadas Al hecho, de que todos nosotros
tenemos algún tipo de discapacidad mientras intentando superar
nuestro muro a la vez que usamos tecnología ¿cómo creamos tecnologías que contemplan estas limitaciones? Y, literalmente, cambiar el mundo para ser uno de experiencias muy personalizadas para todo el mundo.

Y todos
reciben su versión de una experiencia personalizada a través de los avances
de los sensores la creación de nuevos sensores o la adaptación y tecnologías de
inteligencia artificial, que aprenden solas. Una vez hagamos eso podemos empezar a pensar en el mundo como un lugar en el que se puede crear
una experiencia personal para cada individuo y no separar entre los que tienen alguna discapacidad y los que no la tienen.

As found on YouTube