SEGURIDAD

Accenture: "La inteligencia artificial actual se considera débil"

Deteccion de patrones y anomalías, respuesta automática a incidentes, procesamiento de texto son herramientas de uso habitual en las organizaciones
TECNOLOGÍA - 04 de Marzo, 2019

Las tecnologías de inteligencia artificial (IA) se desarrollan con rapidez y cada vez son más asequibles, aunque podrían usarse con propósitos malintencionados.

Estas mismas tecnologías aportan un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de Internet.

Los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos.

Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos para que, por ejemplo, vean cosas que no existen. En un contexto como éste, los delincuentes podrían burlar cámaras de seguridad o afectar a un vehículo autónomo.

Alberto Alexis Sattler, director de tecnología de Accenture, explicó a iProfesional cómo los cibercriminales utilizan la inteligencia artificial para sus actividades.

- Las tecnologías de inteligencia artificial se desarrollan con rapidez y cada vez son más asequibles. Pero ¿podrían usarse con propósitos malintencionados?

- Si, como sucede en muchas tecnologías, los conocimientos se pueden utilizar con propósitos malintencionados. La IA actual se considera débil, ya que un conjunto de servicios de Machine Learning que emulan inteligencia en un área muy especifica, luego pueden ser utilizados individualmente aplicándolos en áreas para los cuales no fueron pensados.

- ¿Se puede engañar a los algoritmos de la inteligencia artificial, por ejemplo, para que vean cosas que no existen?

- Un algoritmo en particular si puede ser engañado a través de la información que percibe del entorno, pero en general una solución de IA no tiene un solo algoritmo sino varios por ese mismo motivo.

Mas aún, si es importante la confiabilidad del mismo. Por ejemplo, un algoritmo de computer vision puede ser engañado reemplazando el objeto de reconocimiento por una foto plana.

Para evitarlo se agregara una cámara lateral, de manera que reconozca el perfil del objeto, o un sensor de profundidad que asegure que la imagen tiene volumen, y asi sucesivamente hasta que engañar el algoritmo sea tan dificil que desaliente intentarlo.

Otra posibilidad de engañar es durante su entrenamiento. Dado que la mayoria de los algortimos de IA utilizan Machine o Deep Learning, esto implica que necesitan ser previamente entrenado con muchisima informacion.

Con lo que esta informacion podria alterarse en forma malintencionada para que posteriormente la IA "no vea" algunos casos, o no informe ciertas anomalias.

- ¿Estas técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos phishing o ciberestafa, que involucra reunir y usar los datos personales de las víctimas?

- Desafortunadamente es una posibilidad. De todas maneras, la mayoría de las compañías de seguridad y ciberseguridad ya están analizando y estudiando las nuevas alternativas que se generan a través de la utilización de técnicas de automatización inteligente. Y no solo eso, sino también las nuevas posibilidades que surgen incorporando IA dentro de los virus, troyanos, y otros tipos de software relacionado.

- En los próximos años, las máquinas serán más capaces de recolectar e implementar estos datos por sí mismas. Los sistemas de IA también son cada vez más capaces de generar contenido de audio y video verosímil por su cuenta. ¿Esto facilitará que quienes tengan malas intenciones?

- En general, si se respetan las recomendaciones de seguridad habituales, la verosimilitud de una voz sintetizada no debería facilitar situaciones ilícitas. Dado que hoy ya hay personas reales intentando todo tipo de actividades por teléfono y los usuarios están atentos a cuando se solicita información indebida o es algún tipo de estafa.

Es posible que la automatización genere mayor cantidad de estos intentos y la proliferación de este tipo de agentes, pero esto a la larga podría ser contrarrestado fácilmente por otros algoritmos o agentes de IA que lo detecten y anulen o adviertan al respecto.

- ¿Qué medidas deben tomar las organizaciones para prevenir estos usos malintencionados?

- Tenemos la otra cara de la moneda, los mismos algoritmos que pueden utilizarse en forma malintencionada, se utilizan para detectar, prevenir y combatir ciberataque e intentos malintencionados.

Deteccion de patrones y anomalías, respuesta automática a incidentes, procesamiento de texto e imágenes son herramientas ya de uso habitual en las organizaciones para prevenir.

Por supuesto, todo este marco tecnológico debe acompañarse con programas de capacitación y difusión, esta es una practica muy corriente en las empresa y que debe continuar actualizándose para incluir los temas de IA.

- ¿Qué principios deben adoptar las organizaciones al diseñar, desarrollar o utilizar la inteligencia artificial? Por ejemplo, los derechos humanos.

- Este tema es de amplio debate actualmente, ya sea desde el punto de vista gubernamental como de organizaciones como "Partnership on AI" (en el cual participan Microsoft , IBM, Intel, Google,etc) , Centre for the Fourth Industrial Revolution, el Leverhulme Centre que se encuentran explorando el impacto y los beneficios de la IA aplicada.

Nuestra empresa, puntualmente, ha definido un marco ético de aplicación llamado Responsible IA que focaliza en:

- Evaluar el impacto social de implementar AI en determinados entornos y procesos.

- Ciberseguridad.

- Transparencia: en las decisiones asistidas por algoritmos de AI deben poder ser explicadas a un ser humano.

-  Responsabilidad: definir claramente la responsabilidad ante un error de los algoritmos.

- Evitar desvios: en el entrenamiento de AI deben asegurarse los principios de igualdad, diversidad y no discriminación.

- Proteccion de los datos.

Te puede interesar

Secciones