
Durante los últimos días se está hablando bastante en redes sociales de algo llamado GPT-3, un nuevo modelo informático lanzado en el mes de junio que ha dejado a muchos boquiabiertos porque es capaz de, entre otras cosas, programar código básico como un desarrollador más o traducir textos en inglés común a lenguaje jurídico sin tener que dar pauta alguna más que pedir que lo haga. Pero lo más llamativo es que ni siquiera sus creadores sabían que era capaz de hacer eso ni lo programaron para ello. Este último invento de OpenAI, una ‘startup’ californiana de inteligencia artificial impulsada por Elon Musk y asociada a Microsoft, ha vuelto a poner el foco de las revoluciones tecnológicas en la IA. Pero ¿qué y cómo hace exactamente todo esto?
Por si es la primera vez que oyes hablar de GPT, que no sería algo demasiado raro, debes saber que se trata de la tercera versión del modelo de procesamiento de lenguaje natural (NLP) de OpenAI, un tipo de inteligencia artificial que se centra, básicamente, en estudiar y aprender lenguaje natural para luego poder crear textos complejos y, como explica el experto, divulgador y ‘youtuber’ centrado en ‘machine learning’ Carlos Santana, ser capaz de «adivinar la siguiente palabra». Vale, esta es la definición básica y rápida que podríamos asemejar a lo que hacen los asistentes como Alexa o Siri, pero detrás de este caso hay muchísimo más. «Se trata del modelo más grande de este tipo creado hasta la fecha. Su punto más interesante es que ha sido preentrenado con más de 175.000 millones de parámetros».
A lo que se refiere Santana con esto (y solo tocando de forma superficial las partes más técnicas del detallado proyecto que se cuenta en este ‘paper’) es que la clave de esta máquina ‘mágica’ está en que cuenta con 175.000 millones de parámetros conseguidos de una pantagruélica base de datos de textos de internet que ayudan a aprender y desarrollarse a este modelo. Lo hace a tal nivel que ni siquiera se sabe todo lo que es capaz de hacer ni casi cómo lo hace, y son los propios usuarios los que al probar y testar el modelo en una consola lo van descubriendo. Una versión de los citados asistentes o el ‘autocompletar’ de nuestros móviles, pero a un nivel brutalmente mayor.
La verdadera revolución es el ‘deep learning’
Tanto para Santana como para Gonzalo, el GPT-3 es un nuevo ejemplo de una revolución más profunda y compleja que lleva años despuntando, aunque normalmente no se conozca demasiado sobre ella. «Es un paso más en el proceso de aplicación del ‘deep learning’ al procesamiento del lenguaje natural, que es ciertamente una revolución en nuestro campo. Lo ha cambiado todo: el rendimiento de los sistemas, el enfoque unificado para casi cualquier problema de NLP, que es un paso firme hacia la comprensión del lenguaje, más allá de aprender correlaciones entre palabras y clases de un problema determinado», apunta Gonzalo.
Santana, por su lado, señala que lo ocurrido con las posibilidades de realizar cálculos o programar de GPT-3 es lo que se conoce en esta rama de conocimiento como ‘one shoot learning’. El razonamiento es que si las redes neuronales son similares al cerebro humano deberían poder, como hace el ser humano, aprender a clasificar un objeto sin verlo miles de veces, incluso cuando lo ve por primera vez, usando la memoria de aprendizaje anterior. El GPT-3 muestra que cuando recibe un ‘imput’ que no conoce acude a su mastodóntica memoria para encontrar una respuesta acorde, aunque nunca lo hayan programado para ello. Pero ¿es este desarrollo algo definitivo y puede incluso competir con el cerebro humano? Todo apunta a que de momento no.