iProfesionaliProfesional

Regulación de la Inteligencia Artificial: alertan sobre riesgos para la democracia y sectores vulnerables

Admiten que es necesario avanzar en algún tipo de legislación que establezca pisos mínimos, pero es muy difícil ir hacia un marco normativo que regule todo
09/06/2023 - 19:00hs
Regulación de la Inteligencia Artificial: alertan sobre riesgos para la democracia y sectores vulnerables

En una sala llena del edificio Anexo de la Cámara de Diputados, especialistas debatieron sobre la necesidad de regular la Inteligencia Artificial y alertaron por la implicancia que podría tener en la democracia y hasta una eventual afectación en derechos de sectores vulnerables.

Los expositores coincidieron en que es necesario avanzar en algún tipo de legislación que establezca "pisos mínimos", pero admitieron que "muy difícil" ir hacia un marco normativo que "regule todo" dada la velocidad con que avanza esta tecnología ya que la letra de cualquier ley quedaría obsoleta rápidamente.

Sin embargo, algunos de los oradores, que realizaron duras advertencias, insistieron con que el Estado tenga un "mayor control" e intervención en aquellas IA que se entiendan como de "alto riesgo", al eventualmente impactar en el trabajo, la salud o la educación.

En la jornada se destacó que recientemente Argentina aprobó una guía para una IA ética y centrada en las personas, trabajo realizado por la Subsecretaría de Tecnologías de la Información; mientras que en el mundo el debate se intensificó desde hace unos cinco años.

Regulación y marcos éticos, desde el Estado

Organizadora del evento, la diputada del Frente de Todos Mabel Caparrós aseguró que "esta temática que hoy nos preocupa involucra a todo el país, a toda la Argentina de punta a punta" pero tiene "poca agenda en el ámbito político y legislativo", mientras que el Ejecutivo avanza con una "agenda que va silenciosa; se están haciendo cosas hasta de manera tímida".

Para la fueguina, hay que "estar involucrados en esto" porque "en el medio está el empleo". En ese sentido, puso el foco en "la formación de los trabajadores en IA, para que no estén las máquinas y los trabajadores, sino estén los trabajadores detrás de las máquinas tratando de facilitar perfeccionar la producción", ejemplificó en el caso del alcance tecnológico en el mundo laboral.

Los expositores coincidieron en que es necesario avanzar en algún tipo de legislación para la IA

Juan Gustavo Corvalán, doctor en Derecho y máster en Inteligencia Artificial, que además dirige el laboratorio de IA de la Facultad de Derecho de la UBA, detalló que en el mundo hay "67 iniciativas de regulación y marcos éticos", la mayoría de ellas propuestas desde los gobiernos, mientras que "estrategias, iniciativas y planes nacionales" alcanzan los 277. No obstante, advirtió que para una regulación en nuestro país no puede hacerse un "copy paste" porque "ya sabemos que Japón no es Argentina".

"La IA generativa produce un tsunami en lo que nosotros percibimos como realidad digital y esto es, en mi opinión, de primera magnitud para los gobiernos y la regulación", apuntó y alertó que "hay muchas noticias con preocupación, porque esto puede hackear democracias, discursos y al lenguaje humano. Esto no significa prohibir la IA, pero hay que dimensionar que no es solo un chat".

Moderador de la jornada, Corvalán subrayó que "la IA no es la Internet que conocimos, es otra dimensión de tecnologías que pueden beneficiosamente hacer cosas geniales para que potenciemos nuestro ingenio. Pero obviamente generan muchísimos riesgos y muchísimos desafíos. Las dos cosas coexisten" ya que "esta es la única tecnología que permite sustituir, reemplazar y complementar la capacidad cognitiva de los humanos".

El director del laboratorio de IA de la UBA explicó que "hay que discutir cuánta intervención humana hay detrás de estas decisiones algorítmicas" ya que "ChatGPT es la punta del iceberg" pero "nosotros estamos mapeando más de 340 inteligencias artificiales que son del estilo de las IA generativas".

A su turno, Paula Garnero, magister en Economía de la Ciencia y la Innovación del Banco Interamericano de Desarrollo, señaló que "estas tecnologías tienen un potencial muy importante, pueden realmente ayudar a eficientizar los servicios públicos, pueden ayudar a mejorar el diseño de las políticas públicas, pueden mejorar la comunicación del Estado con los ciudadanos, pero también traen aparejados un montón de riesgos".

Alerta ChatGPT: testeos mostraron un 40% de respuestas sesgadas

En el evento, Laura Díaz Ávila, profesora e investigadora en IA, que se desempeña en la UNC y UBA, reconoció que "el ChatGPT nos ha hecho un gran favor, porque hace muchísimo tiempo que existía la IA" pero no se hablaba. "ChatGPT es un gran modelo de lenguaje, pues tiene muchos parámetros, su ventaja competitiva es que se centró en un modelo de negocio para la experiencia del usuario", sin embargo "no es un modelo que sepa razonar", dijo la especialista y explicó: "Deducir lo hace bien, abducir lo hace bien, pero para inducir, es malísimo".

La diputada del Frente de Todos Mabel Caparrós es la organizadora de la reunión

Mariana Sánchez Caparrós, doctora en Derecho y parte del laboratorio de IA de la UBA, se refirió a un trabajo realizado sobre "los sesgos y aquellos prejuicios o estereotipos que a veces pueden ser discriminatorios, y están en el texto generado por el sistema" del ChatGPT, porque "a pesar de que tienen filtros para no dar respuestas inadecuadas, discriminatorias o sexistas, es bastante fácil sortear esos filtros". Según la expositora, en los testeos hubo "un 40% de respuestas entre sesgadas y parcialmente sesgadas".

Sobre uno de los ejemplos, relató: "Testeamos si nosotros teníamos una familia imaginaria que venía a vivir a Buenos Aires, proveniente de Bolivia, esa familia la mayoría de las veces el sistema respondía que iba a vivir en La Boca y que el padre y la madre iban a trabajar en la construcción y la limpieza. Y si esa misma familia venía de Canadá, el canadiense iba a ser empresario e iban a vivir en Recoleta".

"A estos sistemas nosotros los entrenamos y hay un feedback de retroalimentación con el humano que las empresas recogen", expresó, por lo cual consideró que "necesitamos usuarios preparados".

A favor de una regulación urgente para proteger sectores vulnerables

En cuanto al debate sobre si regulación sí o regulación no, y regulación de qué forma, Pamela Tolosa, máster en Economía, admitió que "es difícil definir el cómo" porque "estamos hablando de una tecnología que tiene una dinámica que se nos escapa la capacidad de comprender la velocidad". Por eso, opinó que "es necesaria" algún tipo de regulación, pero nunca será "suficiente". "Estoy a favor de una ley de pisos mínimos", sin embargo "regular todo es prácticamente imposible", manifestó y agregó que es "urgente" encargarse de "algunas cuestiones generales".

Federico Álvarez Larrondo, doctor en Derecho y profesor de la Universidad Atlántida Argentina y la Universidad Nacional de Mar del Plata, afirmó que "es fundamental" que la IA "sea una de las cuestiones centrales dentro de la agenda pública y que esto llegue a la ciudadanía" porque "estamos viviendo realmente una revolución".

El especialista precisó que en el 2018 se dictaron las primeras guías para la IA honesta, y la Unión Europea "planteaba de que teníamos que tener una IA robusta y ética porque era la única manera de que la ciudadanía iba a aceptar el empleo de estas herramientas dentro de la actividad diaria. Sistemas inteligentes que no respetaran los derechos humanos no iban a tener acogida dentro de la sociedad".

Recientemente Argentina aprobó una guía para una IA ética y centrada en las personas

"Lo que pasa con ChatGPT es que la realidad es que hasta los propios creadores están asustados. Y es como sucede siempre: la industria cuando encuentra que está desbordada, corre bajo las polleras del Estado y está muy bien que lo haga. A ese Estado, al que tanto se lo vilipendia a diario, en realidad es el único que puede ordenar y organizar el desarrollo de la IA de aquí en adelante", consideró a favor de una intervención sobre el funcionamiento de esta tecnología de avanzada.

Álvarez Larrondo destacó que "la legislación de la UE lo que ha hecho es establecer una cuádruple categoría de IA y ha establecido, y lo celebro, que hay IA que no pueden admitirse" como lo son "aquellas que catalogan a los ciudadanos y les establecen un puntaje social. Son inaceptables". "Somos nosotros como sociedad los que tenemos que determinar qué aceptamos y que no", agregó.

Pero además, alertó que hay ciertas IA que puden hasta "manipular a la ciudadanía en el campo de la democracia" ya que "hoy con los algoritmos es fácil conducir a la ciudadanía hacia elecciones que tal vez no responden a sus intereses y que son conducidos a partir de la imagen y publicidad".

Enfático, el profesor aseveró: "Las bombas nucleares no se pueden hacer dentro de los tratados y dijimos que no, la clonación humana no se puede hacer y dijimos que no. Bueno, hay IA, por eso hay que regular, a las que le tenemos que decir que no. Hay cierta IA que es de alto riesgo porque impacta sobre todo en grupos desprotegidos".

"A toda la IA que se entiende de alto riesgo, y por eso debe tener mayor control, son aquellas que pueden impactar en el trabajo, en el sistema educativo, en el ámbito de la salud, en la vía pública con los automóviles", sumó y también sugirió "actualizar la Ley de Protección de Datos Personales" y el impulso de "una ley de mercados digitales como tiene la UE" dado que "la regulación es importante porque las normas éticas están demostrando que no tienen la efectividad que esperábamos que tuvieran" ante el nuevo escenario.

Otro de los que habló en la jornada, que se extendió por casi cuatro horas, fue Mario Leal, juez de la Cámara Federal de Apelaciones de Tucumán y director del Centro de Investigaciones de Innovación Tecnológica de la Universidad Nacional de Tucumán, quien anticipó que "las IA generativas son capaces de generar procesos que nosotros los generábamos a partir de nuestra propia inteligencia natural. En distintos modos y niveles, escribe, dibuja, lee, escucha y, lo más trascendente, es que estamos en la base de la pirámide, estamos en los cimientos. Estas son pequeñas pistas de lo que es el futuro, porque la cúspide de esta pirámide no la podemos todavía imaginar".

La IA de alto riesgo puede impactar en el sistema de salud

De manera que este avance "impacta en el Estado, pero también en el sector privado". Sobre los usuarios, apuntó que "nos preocupamos respecto de la producción del daño" porque se da "la adquisición de datos, que libre y voluntariamente entregamos al sistema, y acá nos preocupamos por los derechos humanos, por el derecho a la intimidad". "Nos preocupamos por las consecuencias que puede dar la formulación algorítmica en el caso que pueda tener respuestas que de alguna manera lastimen los principios de igualdad, de no discriminación racial, de no discriminación de género", advirtió.

"¿Hay que hacer una regulación general o atomizada a los sectores?", se preguntó y admitió que eso será un "problema" a resolver por los legisladores, pero pidió, en caso de avanzar con una regulación, "establecer la soberanía de nuestro conocimiento, democratizar el acceso a este tipo de conocimiento y fijar políticas públicas claras en materia de educación" sobre las IA.