Más artículos
GPT-3: ¿qué tecnología "se esconde" detrás de esta enigmática sigla cada vez más usada?

GPT-3: ¿qué tecnología "se esconde" detrás de esta enigmática sigla cada vez más usada?

GPT-3: ¿qué tecnología "se esconde" detrás de esta enigmática sigla cada vez más usada?
Puede resolver tareas propias del lenguaje tales como escribir un texto o responder una pregunta, y retos matemáticos, como sumar o restar
Por Nicolás Rodríguez (*)
15.09.2020 11.44hs Tecnología

Hace algunas semanas el grupo OpenAI, compañía de investigación de inteligencia artificial (IA) y entre cuyos fundadores se encuentra el empresario Elon Musk, lanzó la tercera iteración de su modelo GPT (Generative Pretained Transformer).

Tras una inversión aproximada de 4.6 millones de dólares y aún solo siendo una beta (un desarrollo incompleto), GPT-3 sacudió cada rincón de Internet, generando opiniones y emociones contrapuestas entre referentes gobales a la hora de hablar de inteligencia artificial. Pero, ¿en qué consiste GPT-3?

A modo general, se trata de un modelo de lenguaje basado en el aprendizaje automatizado. Un programa que busca predecir las palabras que proceden de determinada entrada o texto gracias a haber aprendido de datos anteriores.

Ese proceso de aprendizaje llamado entrenamiento, radica en "alimentar" al algoritmo con muchos ejemplos, lo que le permite, a través de diferentes métodos matemáticos, identificar y generalizar patrones subyacentes en la información. A partir del contexto que le provee el usuario, el modelo puede estimar cuál es la respuesta más probable en base a las reglas que ha inferido de toda la información que ha visto.

GPT-3 fue entrenado con datos procedentes de cinco lugares: el 60% proviene de Common Crawl, una organización que recopila información de todo Internet desde hace ocho años; un 22% de WebText2, una colección de texto extraído de diferentes páginas web y que ha sido limpiado por humanos; y el 18% restante procede de diversos libros y la mismísima Wikipedia.

En total, suman aproximadamente 500 billones de tokens (secuencias de palabras separadas usualmente por una coma) y el contenido incluye desde novelas o blogs hasta líneas de código en diferentes lenguajes de programación. Sin embargo, la pregunta del millón es si GPT-3 es realmente inteligente o solo se trata de una inteligencia aparente.

La inteligencia artificial adquiere diversas formas al implementarse en una empresa.
La inteligencia artificial adquiere diversas formas al implementarse en una empresa.

Los orígenes de GPT-3

Históricamente, gran parte de los llamados "robots" operaron gracias a la programación tradicional que les indicaba el qué, cómo y cuándo. Así, era posible que una máquina caminara, mantuviera una conversación o clasificara productos, siendo su comportamiento tan rudimentario y confinado como el conjunto de reglas o líneas de código creadas por el programador.

Alcanzar comportamientos realmente complejos era directamente proporcional al descomunal esfuerzo humano en codificar dicha conducta, lo que que en definitiva imposibilitaba el avance hacia lo que consideramos inteligencia en un sentido humano.

No obstante, todo cambiaría en la década del ‘60 cuando Frank Rosenblatt, un psicólogo estadounidense, crea el perceptrón, la primera neurona artificial y un punto de inflexión para el aprendizaje automatizado.

Contrario a lo esperable, su investigación se mantuvo enterrada durante casi veinte años, debido principalmente a las infundadas críticas de Marvin Minsky (científico del MIT y galardonado con el Premio Turing en 1969) y Seymour Papert (matemático y científico informático, también del MIT), que sostenían que dicho modelo era limitado y prácticamente inútil.

Ya en los 80’, y en medio del auge de la investigación en redes neuronales dentro la comunidad científica, los principios del perceptrón tomaron una notable relevancia al ser repensados y aplicados en estructuras más complejas, dando paso a una tendencia aún vigente: capas con múltiples neuronas artificiales interconectadas.

Gran parte de nuestro mundo está gobernado por sistemas que heredan esta historia y sin los cuales sería imposible imaginar una modernidad donde los automóviles de Tesla se manejan solos, Facebook reconoce a tus amigos o Siri te recomienda un restaurante.

Competencia con la inteligencia humana

Ahora bien, se podría decir que nuestra capacidad intelectual es una propiedad emergente de la complejidad de nuestro cerebro, siendo la sinapsis (enlace o comunicación entre neuronas) un proceso biológico crucial tanto para la percepción como pensamiento.

Gracias a los avances en el campo del aprendizaje profundo, las máquinas cuentan con análogos a neuronas y sinapsis, llamados redes neuronales artificiales y parámetros, respectivamente.

La interacción de tales componentes permite que un modelo sea capaz de aprender a reconocer caras humanas, generar texto o identificar el sentimiento en un tweet, y de ahí emana el interés en que los modelos sean cada vez más profundos (o sea, con más capas de neuronas) y con más parámetros.

GPT-3 sobresale en esto último: tiene 175.000 millones de parámetros, algo así como cien veces la cantidad de parámetros que GPT-2 y al menos nueve veces más que Turing-NLG, el segundo modelo más grande en el mundo.

Es aquella cantidad uno de los componentes claves de su rendimiento y la que le permite adaptarse, generalizar y consumir robustamente la enorme colección de datos para su entrenamiento, resultando en una IA tremendamente flexible, abarcativa y por decir lo menos, sorprendente. No obstante, ¿es suficiente para hablar de una aproximación a una inteligencia artificial general, aquella capaz de realizar con éxito cualquier tarea humana?

GPT-3 no sólo puede resolver tareas propias del lenguaje tales como escribir un texto o responder una pregunta, sino que puede además resolver tareas matemáticas (tales como sumar o restar), identificar una secuencia o incluso programar rudimentariamente.

Pareciera ser, a primera vista, que la carrera por la inteligencia general se reduce a lograr modelos más profundos y con más parámetros, ya que después de todo, GPT-3 no es otra cosa que GPT-2 con esteroides.

Sin embargo, pese la tendencia actual, no hay que olvidar que las mayores revoluciones en IA vinieron de la mano de nuevas y más eficientes construcciones, por lo que el alcanzar una inteligencia artificial general parecería radicar en un tema cualitativo antes que cuantitativo.

La inteligencia artificial crece en el ámbito de las tareas repetitivas.
La inteligencia artificial crece en el ámbito de las tareas repetitivas.

El esfuerzo por salir del laboratorio y tocar la calle

Muchas veces al pensar en los usos de la IA, se puede caer en el error de infravalorar el esfuerzo que supone integrar a los modelos en nuestro caótico y complejo mundo real. Una de las mayores críticas a GPT-3 es el contenido racista o sexista que frecuentemente genera, lo que, inicialmente, imposibilita destinarlo a un público general.

Lejos de ser una crítica a sus creadores, este ejemplo es más bien el relevamiento de una confusión entre dos áreas complementarias pero inherentemente diferentes: investigación y aplicación. Una tiene como objetivo expandir el límite del conocimiento humano en un sentido amplio, mientras que la otra busca resolver problemas prácticos específicos.

Si lo pensamos con un ejemplo de la industria automotriz, quizás la distinción sea más clara. ¿Es el motor la esencia de un automóvil deportivo? Por supuesto. ¿Basta con saber de motores para construir un deportivo?

De ninguna manera; aunque seamos capaces de diseñar y fabricar un motor, necesitaríamos que, por ejemplo, toda la carrocería del automóvil fuese capaz de aguantar sus prestaciones.

¿Podemos utilizar el mismo motor en otros vehículos? Totalmente, siempre y cuando respetemos ciertas pautas. ¿Podemos fabricar automóviles sin fabricar los motores? Sí, y un ejemplo sería McLaren, la prestigiosa marca de súper-deportivos que ha utilizado motores Mercedes.

En ese sentido, GPT-3 no es más que un V12 de tres mil caballos de fuerza, un monstruo con un rendimiento bruto descomunal capaz de ir de cero a cien en tres segundos. El motor lo suministra OpenAI. Está en nuestras manos adaptarlo y darle valor como parte de una solución integral.

La inteligencia artificial, esa que es inteligente en la práctica, es inagotable en las manos correctas: con un poco de ingenio se pueden generar nuevos insights; la optimización de un sistema; o un producto disruptivo.

Sin lugar a dudas tenemos un largo camino por recorrer, pero toda gran aventura comienza con la mente en el lugar correcto. ¿Llegaremos alguna vez a concebir una inteligencia artificial a la altura de la humana?

¿Estará GPT-3 a la altura de las expectativas? No hay cómo afirmarlo. No sabemos qué nos depara el futuro, pero seguro seguiremos aportando como lo venimos haciendo desde hace cuarenta años, ahí, donde los límites de lo conocido se vuelven difusos y la innovación es el precio de entrada.

(*) Científico principal de datos de R/GA Buenos Aires.