DEBATE

El creador de ChatGPT pidió regular la inteligencia artificial por temor a que "cause un daño significativo a la sociedad"

La IA generativa desata pasiones y muchos están preocupados por su impacto potencial en muchas profesiones, con posibles recortes masivos de empleos
TECNOLOGÍA - 17 de Mayo, 2023

Sam Altman (en la foto), el director ejecutivo de OpenAI, creador de la interfaz ChatGPT, dijo el martes ante un panel del Senado de los Estados Unidos que la regulación de la inteligencia artificial (IA) es "crucial" para limitar los riesgos del uso de esta tecnología.

Altman, la última figura surgida del Silicon Valley, instó al Congreso a imponer nuevas reglas a las grandes empresas de tecnología, a pesar de las profundas divisiones políticas que bloquearon la legislación destinada a regular Internet.

"Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes", estimó el empresario de 38 años.

"Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante", apuntó al testificar sobre el impacto de la IA ante un subcomité judicial del Senado.

El lanzamiento de ChatGPT, en noviembre, aumentó el interés del público, pero también de las empresas, por la llamada IA generativa, es decir, aquella capaz de crear contenidos, textos, imágenes, sonidos o videos.

La IA generativa está desatando pasiones y muchos están preocupados por su impacto potencial en muchas profesiones, con posibles recortes masivos de empleos, y fundamentalmente en la sociedad en su conjunto.

Un marco regulatorio para la inteligencia artificial

"OpenAI se fundó con la creencia de que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea serios riesgos", reconoció Altman.

"Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad", dijo. "Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. (...) Y queremos trabajar con el gobierno para evitar que eso suceda".

El empresario recordó que si bien OpenAI, la entidad que desarrolló ChatGPT, es una empresa privada, está controlada por una organización sin fines de lucro, lo que la obliga a "trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en IA".

Altman ha expresado su apoyo al establecimiento de un marco regulatorio para la IA, preferiblemente a nivel internacional. "Sé que parece ingenuo proponer algo así, parece muy difícil" de lograr, pero "hay precedentes", aseguró, citando el ejemplo de la Agencia Internacional de Energía Atómica (OIEA).

Altman admitió que probablemente la IA afectará al mercado laboral, pero se mostró optimista en que a la larga, la tecnología generará mas empleos nuevos de los que destruirá. "Somos tremendamente creativos", confió el empresario.

Una invitada al evento, la directora de Privacidad y Confianza de IBM, Christina Montgomery, citó su propio puesto como ejemplo de un trabajo que no existía antes del desarrollo de la IA.

La inteligencia artificial y la bomba atómica

Altman también se mostró abierto a la sugerencia de que el Gobierno desarrolle laboratorios independientes para comprobar la fiabilidad de los modelos de inteligencia artificial, y que le darían una nota similar a la calificación nutricional de los alimentos. El responsable de OpenAI admitió que sus productos todavía cometen errores, pero que con el tiempo se volverán más y más fiables.

Uno de los senadores impulsores de la audiencia, el republicano Josh Hawley, aseguró que la inteligencia artificial es "una de las innovaciones más significativas de la historia", pero que todavía no está claro si será más parecida a la invención de la imprenta o a la de la bomba atómica.

Los congresistas defendieron que, si bien es cierto que se necesita regulación pública, las empresas de IA como OpenAI no tienen que esperar al Congreso para instaurar mecanismos que permitan controlar el desarrollo de la tecnología para mitigar los daños.

A comienzos de mes, el Gobierno estadounidense anunció que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación de la inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances en la tecnología sirven al bien común. Los centros se unirán a los 18 institutos de investigación sobre IA que ya están en funcionamiento en el país.

Además, la Casa Blanca anunció que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante la reunión de "hackers" Defcon, que se celebrará en Las Vegas a comienzos de agosto.

Durante la convención, miles de participantes analizarán si estos sistemas están alineados con la Carta de Derechos de la IA que ha propuesto el Gobierno estadounidense, y que incluye principios como la privacidad de los datos de los usuarios o la protección contra los algoritmos discriminatorios.

Te puede interesar

Secciones