iProfesionaliProfesional

Cuáles son los riesgos de añadir IA a las blockchain según Vitalik Buterin

Según Vitalik Buterin, creador de Ethereum, existen innumerables riesgos sobre "fusionar" la inteligencia artificial (IA) con la tecnología blockchain
Por IM
06/02/2024 - 09:24hs
Cuáles son los riesgos de añadir IA a las blockchain según Vitalik Buterin

Vitalik Buterin, cofundador de Ethereum, recientemente advirtió a los desarrolladores sobre los riesgos existentes de fusionar la inteligencia artificial (IA) con la tecnología blockchain. Dichas preocupaciones las volcó en una publicación de su blog el 30 de enero. Desde iProfesional te contamos cuáles son los riesgos señalados por el empresario del mundo cripto.

¿Cuáles son los riesgos de añadir inteligencia artificial a la tecnología blockchain?

Vitalik Buterin, en una publicación en su blog realizada el 30 de enero, clasificó sus preocupaciones con respecto a la inteligencia artificial, advirtiendo a los desarrolladores sobre implementar aplicaciones novedades en contextos de "alto valor" y "alto riesgo".

"Es importante tener cuidado: si alguien construye, por ejemplo, un mercado de predicción o una stablecoin que utiliza un oráculo de IA, y resulta que el oráculo es atacable, eso es una gran cantidad de dinero que podría desaparecer en un instante", advirtió el especialista.

En esta línea, el experto explico que un área en la que la IA era viable era permitir que esta participe en mecanismos como los mercados de predicción a una escala micro, la cual sería inviable para los seres humanos.

Según Vitalik Buterin, existen varios riesgos de incorporar la IA a la tecnología blockchain
Según Vitalik Buterin, existen varios riesgos de incorporar la IA a la tecnología blockchain

Asimismo, esta también podría utilizarse en interfaces de billeteras cripto para usuarios, ayudándoles a comprender e interactuar de forma segura con las cripto, explicando las transacciones y firmas como también detectando posibles estafas.

"Mi opinión personal es que las interfaces de IA pura probablemente son demasiado arriesgadas en este momento, ya que aumenta el riesgo de otros tipos de errores, pero la IA que complementa una interfaz más convencional está volviéndose muy viable", aseguró.

Según el experto, la iniciativa con mayor grado de riesgo sería utilizar la IA para efectivizar el cumplimiento de las reglas o gobernanza de los sistemas cripto, ya que los modelos de inteligencia artificial abierto podrían ser vulnerables a ataques de terceros.

Esto se debe a que los hackers pueden inspeccionar su código y optimizar ataques contra ella. En cambio, la IA de código cerrado proporciona "seguridad mediante la oscuridad". Sin embargo, estos modelos no ofrecen transparencia sobre cómo funcionan ni garantías de que sean imparciales.

a
En los modelos de IA abiertos, los hackers pueden acceder al código del programa

Según Buterin, el mayor desafío será la creación de una IA descentralizada utilizando cripto y blockchain que otras aplicaciones puedan aprovechar. "Los más difíciles de hacer correctamente son las aplicaciones que intentan utilizar blockchains y técnicas criptográficas para crear un ‘singleton’: una única IA descentralizada y confiable en la que alguna aplicación confiaría para algún propósito".

En este sentido, señala que estas aplicaciones tienen promesas para la "funcionalidad" como también para mejorar la seguridad de la inteligencia artificial, evitando los riesgos de centralización asociados con enfoques "convencionales".

¿Cuáles serían los usos "beneficiosos" de la IA?

La categoría más "viable", según Buterin, serían aquellas en la que la inteligencia artificial actúa como un "jugador en un juego". Es decir, a un nivel alto, esta categoría captura aplicaciones en la que la fuente última de los incentivos proviene de un protocolo con entradas humanas.

Un claro ejemplo sería un mecanismo basado en bockchain en el que se puede hacer cumplir las reglas sobre cuánto la IA puede usarse para predecir los resultados de un determinado evento, y un mecanismo basado en blockchain puede hacer cumplir las reglas sobre cuánto la IA, o la persona que la utiliza, debe ser recompensada o penalizada basada en su suposición.