• 19/12/2025
ALERTA

El botón que patentó Google para apagar toda la inteligencia artificial si amenaza a los seres humanos

Los expertos afirman que en caso de haber una emergencia no es seguro que los robots puedan ser "desactivados facilmente" con este sistema
17/06/2016 - 14:09hs
El botón que patentó Google para apagar toda la inteligencia artificial si amenaza a los seres humanos

La ciencia ficción lo ha planteado en varias ocasiones: ¿qué sucedería si las computadoras y los robots se rebelaran contra los seres humanos?

Tal vez la guerra entre máquinas y humanos que mostraba James Cameron en su película "Terminator" (1984) haya sido la inspiración de Google, que decidió patentar una tecnología que intenta proteger a la raza humana en caso de que la tecnología amenace su seguridad e integridad.

La solución de Google consiste en un "botón rojo de emergencia", que sería capaz de "apagar" toda la inteligencia artificial, según una investigación recientemente publicada por el Instituto de Investigación en Inteligencia de Máquinas (MIRI, por sus siglas en inglés), de la Universidad de Berkeley, en California, EE.UU.

Aunque, según los expertos, que estudian la posibilidad de que las máquinas se tornen peligrosas para los seres humanos, no es seguro que todos los robots puedan ser "desactivados fácilmente" con este sistema.

¿Fuera de control?
Los responsables del proyecto son Laurent Orseau, científico de la compañía de inteligencia artificial de Google, Deep Mind, y Stuart Amstrong, de la Universidad de Oxford en Reino Unido. Ambos sostienen que es "improbable" que los robots "actúen óptimamente todo el tiempo".

Este "botón rojo" será capaz de desconectar la inteligencia artificial instantáneamente, en caso de tornarse peligrosa para los humanos.

Y algunos de los recientes inventos tecnológicos cuestionan cada vez más esta posibilidad.

O al menos ponen a las máquinas contra las cuerdas, probando sus posibilidades de reacción en caso de que puedan atacar a los seres humanos.

El robot que creó el artista y especialista en robótica Alexander Reben, de la Universidad de Berkeley, es un buen ejemplo.

Se trata de una máquina capaz de decidir si infligir o no dolor a las personas, clavando una aguja en el dedo cuando así lo determinara.

El objetivo de Reben es ahondar en el debate sobre los posibles peligros de la inteligencia artificial para los seres humanos.

"Yo estoy demostrando que (los robos dañinos) ya son una realidad. Tenemos que confrontarla", explica Reben, quien considera que el "interruptor de apagado" que está desarrollando Google podría ser útil, tarde o temprano.

"¿Cómo un robot no sería capaz de desactivar ese botón, si es tan inteligente?", se pregunta el especialista, que define su robot "dañino" como un "experimento filosófico".

"El robot toma una decisión que yo, como su creador, no puedo predecir. No sé si llegará o no a hacerme daño", explica.

Inteligencia artificial "segura"
Según Orseau y Amstrong, el objetivo del "gran botón rojo" de apagado sería "evitar que la máquina siga una secuencia dañina de acciones para el ser humano o para el medio ambiente".

El potencial peligro de las máquinas inteligentes para los seres humanos es una preocupación creciente de científicos y especialistas en robótica.

El fundador de Tesla, Elon Musk, lo ha comentado más de una vez.

Pero la inteligencia artificial ya forma parte de nuestra vida diaria, cada vez en mayor medida.

Y muchas veces su "inteligencia" puede llegar a superarnos.

Los creadores del "botón rojo" mencionan ejemplos como el de un robot que aprendió a detener el juego Tetris para evitar perder. Y esto podría extrapolarse a otras situaciones más dañinas para los seres humanos.

A Orseau le parece comprensible que a la gente le preocupe el futuro de la inteligencia artificial.

"Es sano estar preocupado. Pero, hoy día, el nivel de nuestro conocimiento no requiere que lo estemos", afirma Orseau.

Un gran reto
Sin embargo, según el científico, "ningún sistema es infalible; es una cuestión de hacerlo tan bueno como sea posible. Y éste es uno de los primeros pasos".

Noel Sharkey, profesor de inteligencia artificial de la Universidad de Sheffield, en Reino Unido, está de acuerdo.

"Tomar conciencia de la seguridad es esencial para (el desarrollo de) casi todos los sistemas informáticos, algoritmos y robots", le dice a la BBC.

Según Sharkey, es igualmente importante "la capacidad de desconectar el sistema en un instante, ya que siempre es posible para un sistema de aprendizaje por refuerzo encontrar atajos para eliminar el operador".

Temas relacionados