• 20/12/2025
ALERTA

Creadores de inteligencia artificial y la Casa Blanca llegan a un acuerdo para regularla. ¿Quién no lo firmó?

El acuerdo implica que estas compañías se comprometan a implementar medidas preventivas para evitar la propagación de modelos perjudiciales de la IA
27/07/2023 - 10:14hs
Creadores de inteligencia artificial y la Casa Blanca llegan a un acuerdo para regularla. ¿Quién no lo firmó?

La Casa Blanca alcanzó un acuerdo con líderes destacados en el campo de la inteligencia artificial (IA) como Amazon, Google, Meta, Microsoft y OpenAI, a excepción del magnate Elon Musk.

Esto representa un paso significativo hacia la protección y seguridad de la sociedad frente a los posibles riesgos asociados con la distribución de modelos de inteligencia artificial dañinos.

El acuerdo, considerado un "compromiso voluntario" por la Casa Blanca, implica que estas compañías líderes se comprometan a implementar medidas preventivas para evitar la propagación de modelos de IA perjudiciales en el ámbito mundial, lo que resalta un avance más en las regulaciones de las tecnologías.

Una de las claves del acuerdo es el compromiso de las empresas de realizar exhaustivas comprobaciones internas y permitir auditorías externas sobre los nuevos modelos de inteligencia artificial antes de que se lancen al público, según informó el medio digital Wired.

Aspectos destacados en el acuerdo sobre inteligencia artificial

  • Detección y corrección de posibles sesgos o discriminaciones en los resultados generados por los modelos de IA.
  • Identificación y resolución de vulnerabilidades de ciberseguridad.
  • Evaluación de los riesgos asociados con posibles daños sociales más amplios que podrían surgir como consecuencia del despliegue de estas tecnologías.

Ben Buchanan, asesor especial de la Casa Blanca sobre inteligencia artificial, reiteró la responsabilidad que tienen las empresas sobre la seguridad y calidad de los servicios ofrecidos a los usuarios.

Las compañías tienen el deber de garantizar que sus productos son seguros antes de presentarlos al público, comprobando la seguridad y capacidad de sus sistemas de IA, declaró Buchanan el 20 de julio durante una conferencia informativa.

Además de Amazon, Google, Meta, Microsoft y OpenAI, también se sumaron al acuerdo las empresas iniciales Inflection y Anthropic. Estas dos compañías, desarrolladoras de competidores de ChatGPT de OpenAI, también se comprometieron a participar en el proceso de promover prácticas seguras y responsables en el desarrollo y lanzamiento de sus productos de inteligencia artificial.

Con este acuerdo se espera que la industria de la IA pueda dar un paso hacia adelante en el fomento de la transparencia, la ética y la seguridad en el desarrollo de modelos avanzados de IA, protegiendo así los intereses y bienestar de los usuarios en general.

Transparencia y seguridad de la inteligencia artificial

El acuerdo incluye un enfoque detallado en la identificación y mitigación de riesgos, abarcando áreas críticas como la privacidad y las amenazas biológicas potenciales que podrían surgir del mal uso de la inteligencia artificial.

Para promover la transparencia y la seguridad, las organizaciones se comprometieron a informar públicamente sobre las limitaciones de sus sistemas y los posibles riesgos tanto para la seguridad como para la sociedad en general.

Una parte crucial del acuerdo se centra en el desarrollo de sistemas de marcas de agua que permitan la identificación de contenido generado por inteligencia artificial, tanto en forma de audio como imágenes. De hecho, OpenAI ya ha integrado marcas de agua en sus creaciones generadas por el modelo Dall-E, y Google trabaja en una tecnología similar.

Esto se presenta como una solución para abordar el creciente desafío en las redes sociales sobre discernir entre lo que es contenido real y lo que resulta ser falso, especialmente en un contexto en el que las campañas políticas recurren cada vez más a la inteligencia artificial generativa en vísperas de las elecciones estadounidenses de 2024, según informó el diario estadounidense The New York Times.