iProfesional

Ante el auge de la inteligencia artificial, quieren regular su "funcionamiento ético" por ley

Un proyecto presentado por diputados radicales busca modificar la actual Ley de Ciencia y Tecnología para proteger a quienes se puedan sentir "amenazados"
02/05/2023 - 18:32hs
Ante el auge de la inteligencia artificial, quieren regular su "funcionamiento ético" por ley

Ante el auge de la inteligencia artificial (IA), los diputados radicales Jimena Latorre y Facundo Manes presentaron en la Cámara baja un proyecto de ley que busca regular el "funcionamiento ético" de estos sistemas y apunta a la "protección" de quienes eventualmente se puedan sentir "amenazados" por este desarrollo tecnológico.

Los legisladores destacan que, de avanzar con una normativa en este sentido, Argentina sería pionera en Latinoamérica. El objetivo no es regular la IA, sino disminuir potenciales impactos negativos en, por ejemplo, el uso de datos personales.

Latorre, autora de la iniciativa, reconoció que es posible que "a la Sociedad Argentina de Inteligencia Artificial les resulte chocante en el sentido de que otra vez el Estado va a entrometerse en una actividad privada", pero esta "no es solo una actividad privada, hoy atraviesa muchos de los desarrollos y de las posibilidades de progreso, porque no tan solo hay que ver los riesgos sino los muchísimos beneficios que trae".

Para la mendocina, "es lógico que haya este tabú respecto a las regulaciones; luego de tantos años de gobiernos intervencionistas se pone en cierta duda las bondades que puede traer que el Estado intervenga regulando esto". Sin embargo, son los organismos internacionales los que han recomendado que los gobiernos avancen regulando el uso ético de la IA, resaltó.

"No se trata de poner palos en la rueda o de burocratizar el desarrollo de la IA, sino de establecer principios básicos que determinen parámetros éticos", explicó y apuntó que esta ley no sería "un régimen nuevo, sino una modificación a la legislación actual", más específicamente a la Ley de Ciencia y Tecnología (25.467), sancionada en 2001.

Sobre ese aspecto, la radical consideró que "es necesario hacer un aggiornamento de esta ley" de modo que "dé seguridad jurídica" y ante "la necesidad de proteger ciertos datos y derechos de la ciudadanía" porque a veces "algunos avances de desarrollos van en contra de la libertad y protección de datos".

Para la diputada Jimena Latorre, "es lógico que haya este tabú respecto a las regulaciones"

"Esta es una ciencia que cambia rápidamente, entonces poner en una ley cuáles específicamente serían los riesgos o los procedimientos, quedaría en desuso en dos o tres años", subrayó.

Ante la recomendación internacional, la diputada señaló que "nosotros somos un país subdesarrollado y apelamos para muchos de nuestros desarrollos de inversiones a organismos multilaterales de crédito. Si nosotros no tenemos nuestra normativa adecuada a los parámetros internacionales, no vamos a tener la oportunidad de que esos mismos organismos financien".

"No es que el proyecto viene a legislar los proyectos, ya estamos conviviendo con los desarrollos de la IA", aclaró y dijo que espera que en el eventual debate del proyecto puedan participar las "voces autorizadas" que "son las de aquellos que hoy están en estos desarrollos y los están estudiando", pero también "los sectores de la sociedad que tengan temores sobre el avance de la IA".

Inteligencia artificial: valores y principios

En concreto, el proyecto incorpora el artículo 3 bis a la Ley de Ciencia y Tecnología, el cual establecería que "el Sistema de Ciencia, Tecnología e Innovación de la Nación, a fin de regular el funcionamiento ético de los sistemas de Inteligencia Artificial (IA)", se regirá por los valores y principios de "diversidad e inclusión". En este sentido, se define que "el avance de la IA deberá asegurar la participación de todas las personas o grupos, con independencia de su raza, color, ascendencia, género, edad, idioma, religión, opiniones políticas, origen étnico o social, condición económica o cualquier otra forma o condición que pudiera alterar el respeto a la diversidad e inclusión social".

Y también sobre los principios de "paz y justicia": "El progreso de la IA deberá asegurar la paz y la justicia entre naciones y no podrá menoscabar la libertad de los seres humanos, ni reducir su autonomía de decisión. Tampoco podrá poner en riesgo la seguridad individual o colectiva, ni dividir o enfrentar a las personas y los grupos, o amenazar la coexistencia entre los seres humanos, los demás seres vivos y el medio ambiente".

Otro de los cambios estipula que "los sistemas de IA, en cualquier etapa de su ciclo de vida, deberán ser registrados conforme a los procedimientos previstos por el GACTEC (Gabinete Científico y Tecnológico)", el cual será la autoridad de aplicación y "ordenará detener los avances de la investigación, desarrollo o aplicación cuando considere que se vulneran los principios y valores éticos".

El diputado Manes presentó en la Cámara baja un proyecto de ley que busca regular el "funcionamiento ético" de la IA

"El procedimiento seguido por la autoridad de aplicación a ese fin será transparente y objetivo; y deberá demostrar en forma fehaciente el perjuicio o amenaza que representa para el individuo, comunidad o para todo el país", aclara el articulado y agrega que "asimismo, deberá establecer instancias de apelación y respetar los derechos de los investigadores, tecnólogos, programadores o cualquier persona, empresa u organización que se encuentre realizando avances con IA".

Finalmente, el texto incorpora otro artículo a la Ley 25.467 que determina que "toda persona física o jurídica que se considere amenazada o perjudicada por un sistema de IA podrá realizar la denuncia ante la Secretaría de Ciencia, Tecnología, e Innovación Productiva para la revisión del sistema de IA".

En los argumentos de la iniciativa, de la cual es coautor el neurocientífico Manes, presidente de la Comisión de Ciencia y Tecnología -cabecera del proyecto-, los legisladores de la UCR recordaron que "el concepto de una máquina capaz de procesar información y tomar decisiones por sí misma se remonta a los años ‘50, cuando los científicos empezaron a trabajar en la idea de crear ‘máquinas de pensamiento’ que pudieran imitar la inteligencia humana".

"En las décadas siguientes, la IA comenzó a tomar forma como una disciplina autónoma, con el desarrollo de algoritmos y modelos matemáticos que permitían a las computadoras aprender y adaptarse a diferentes situaciones y tareas. En particular, el concepto de ‘redes neuronales’ comenzó a surgir en la década de 1960 como una forma de modelar la actividad del cerebro humano en una computadora, lo que permitió a los científicos desarrollar modelos de aprendizaje automático y reconocimiento de patrones", repasaron.

De esta manera, "a medida que la tecnología avanzó, la IA comenzó a ser utilizada en aplicaciones prácticas, como la clasificación de imágenes, el reconocimiento de voz y la automatización de tareas complejas en la industria y los negocios".

"Con el advenimiento de la era digital y la digitalización masiva de datos en la década de los 2000, la IA volvió a tomar impulso, con el desarrollo de nuevas técnicas de aprendizaje profundo y el aumento de la capacidad de procesamiento de las computadoras. Actualmente, los sistemas de IA se utilizan en una amplia variedad de aplicaciones, desde asistentes virtuales y robots autónomos hasta diagnósticos médicos y análisis financiero, siendo un campo en constante evolución y expansión", remarcaron Latorre y Manes.

En ese sentido, los diputados concluyeron que "esta evolución debe realizarse siguiendo como lineamiento básico la búsqueda de beneficios para la humanidad. Para ello, resulta necesaria una legislación que encuadre el ciclo de vida completo de las IA sobre los más altos estándares éticos".