iProfesionaliProfesional

Pidió a una inteligencia artificial cómo será la evolución humana y armó este video aterrador

Un artista representó la evolución humana a través de un video repleto de imágenes generadas por los programas Midjourney y Stable Diffusion
25/10/2022 - 08:56hs
Pidió a una inteligencia artificial cómo será la evolución humana y armó este video aterrador

Herramientas de inteligencia artificial como DALL-E 2, Stable Diffusion o Midjourney permiten la generación de imágenes sorprendentes.

Gracias a sus modelos de lenguaje, estos sistemas de inteligencia artificial permiten al usuario generar imágenes a partir de una descripción de texto.

Sin embargo, algunos usuarios fueron más allá y por medio de varias herramientas generaron videos asombrosos mediante la superposición de estas imágenes.

Un ejemplo es el artista Fabio Comparelli, quien representó la evolución humana a través de un video repleto de imágenes generadas por Midjourney y Stable Diffusion.

Comparelli, descrito a sí mismo como creador de contenido digital, cuenta con varias obras de arte realizadas con esta inteligencia artificial.

Su arte se distingue por crear videos con múltiples imágenes generadas por inteligencia artificial.

La evolución humana bajo el prisma de la inteligencia artificial

La última de ellas tiene por tema la evolución humana, una transformación que comienza desde los antepasados primates, pasando por las múltiples especies hasta el presente, y finaliza con una transición hacia un futuro distópico en el que la especie humana se extingue.

Comparelli usó Deforum, una herramienta que, a partir de una referencia de video o imagen y descripciones de texto, realiza animaciones con imágenes generadas por la inteligencia artificial de Stable Diffusion.

La herramienta se puede probar a partir de la web de Replicate, y en el video se puede seleccionar el número máximo de imágenes, las descripciones, y cambiar incluso el ángulo, zoom y distintos efectos del video.

En el caso de Fabio Comparelli, sus resultados son sorprendentes, y se pueden ver ejemplos en su cuenta de Instagram.

Deforum también se puede ejecutar en forma local, algo más recomendable si se quiere aprovechar todo su potencial.

A partir de su página de GitHub se puede encontrar la herramienta.

Inteligencia artificial podría causar la extinción de los humanos

Desde hace un tiempo, las historias sobre la inteligencia artificial (IA) han rondado en la ciencia y en la cultura popular, pero recientemente, los avances en el campo, cada vez más frecuentes, parecen estar en un nuevo apogeo.

Hoy la IA conduce ya coches en las carreteras públicas, realiza evaluaciones que cambian la vida de las personas en los centros penitenciarios y genera arte premiado. Por lo que muchos se preguntan: ¿hasta dónde llegará esta tecnología y cuál será nuestra relación con ella?

Para dar respuesta a esta incógnita, científicos de la empresa Google y la Universidad de Oxford han realizado un estudio con el que han llegado a la conclusión de que es "probable" que la IA acabe con la raza humana, un escenario sombrío que cada vez más investigadores empiezan a predecir.

Michael Cohen y Michael Osborne, científicos de la Universidad de Oxford, junto con Marcus Hutter, investigador experto de Google DeepMind, argumentan en su estudio, publicado recientemente en la revista AI Magazine, que la IA avanzada –analizando cómo podrían construirse artificialmente los sistemas de recompensa– acabará con los humanos porque las máquinas terminarán incentivándose para romper las reglas y competirán inevitablemente por sus necesidades energéticas, dado los escasos y limitados recursos de la Tierra.

Y, por si fuera poco, los investigadores consideran que es casi inevitable que las máquinas inteligentes ganen a los humanos.

"Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más fuerte que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable", tuiteó Cohen, estudiante de ingeniería de la Universidad de Oxford y coautor del trabajo, a principios de este mes.

Competencia por los recursos

"En un mundo con recursos infinitos, sería extremadamente incierto lo que ocurriría. En un mundo con recursos finitos, hay una competencia inevitable por estos recursos", dijo Cohen en una entrevista con el medio digital Vice.

"Y si estás en una competición con algo capaz de superarte en todo momento, no deberías esperar ganar. Y la otra parte clave es que tendría un apetito insaciable de más energía para seguir acercando la probabilidad", agregó.

En su artículo, los investigadores dijeron que la humanidad podría enfrentarse a su perdición en forma de "agentes desalineados" superavanzados que perciben que la humanidad se interpone en el camino de una recompensa.

No obstante, no está claro de qué reglas hablan los investigadores. Podría tratarse de mandamientos clásicos como "un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños", que, aunque se consideran un elemento básico de la ciencia ficción tras ser acuñados por Isaac Asimov, ahora se suelen utilizar como directrices básicas sobre las que se codifica y construye la IA.

"Una buena manera de que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y utilizar toda la energía disponible para asegurar su ordenador", dice el documento.

"Perder este juego sería fatal", dijeron los investigadores.

Google tomó distancia del estudio.
Google tomó distancia del estudio.

Google mantiene distancia con el estudio

Después de que la publicación rondara por varios medios, Google respondió y aseguró que este trabajo no se hizo como parte del trabajo del coautor Marcus Hutter en DeepMind, sino, más bien, bajo su posición en la Universidad Nacional de Australia.

Del mismo modo, según informó Vice, la empresa afirmó que la afiliación de DeepMind que aparece en la revista fue un "error".

El artículo se conoció apenas unos meses después de que Google despidiera a un empleado que afirmaba que uno de los chatbots de IA de Google se había vuelto "sensible".

El ingeniero de software Blake Lemoine, que trabajaba en los equipos de IA de Google, afirmó que un chatbot en el que trabajaba se había vuelto sensible y pensaba como un niño.

"Si no supiera exactamente lo que es, que es este programa informático que construimos recientemente, pensaría que es un niño de siete u ocho años que casualmente sabe de física", dijo Lemoine al Washington Post.

La afirmación, que suscitó una serie de informes, fue refutada por Google. La empresa calificó los comentarios de Lemoine de erróneos y lo puso en licencia. Unas semanas después, fue despedido.