iProfesionaliProfesional

La visualización de los datos da sentido a esa enorme cantidad de información para poder llegar una conclusión, actuar y tomar decisiones
13/03/2017 - 15:17hs

Cualquier persona que intente mantenerse al día con las últimas novedades del mundo tecnológico seguramente habrá notado que, por lo general, cada tres o seis meses aparece un nuevo “buzzword” que provoca furor entre el público (especialmente nosotros, los “nerds”) causando el surgimiento de múltiples productos y servicios relacionados a él.

Hoy, ese “buzzword”, probablemente sea la realidad virtual, o los "Self-driving cars", pero previamente ya habían aparecido otros “buzzwords” como “Internet of Things”, y antes de eso “Data Visualization”, “Big Data” o conceptos como el “Cloud Computing”. 

Sin embargo, eso no significa que todo lo que se invente sean cosas nuevas y revolucionarias, ya que por lo general son una evolución de tecnologías, procesos o trends que ya venían siguiendo un determinado curso.

Un claro ejemplo de esto son los formatos de storage, desde los primeros discos duros de IBM, o las cintas magnéticas hasta los más reconocidos diskettes de 8”, 5 1/4, 3 1/2, ZIP drives, o CD-ROMs, DVD-ROMs, DVD-ROMs Dual-Layer, Blu-Rays, etcétera.

Muchas de estas cosas ocurren porque paralelamente hay otras tecnologías que también van evolucionando, desde los CPU que pueden manejar mayor cantidad de datos y con más rapidez, o los videojuegos que necesitan incorporar gráficos de mayor calidad que pesan más, hasta las conexiones de Internet que se vuelven más veloces gracias a la evolución (y posterior incorporación) de un nuevo hardware de red, o videos con una nitidez y colores increíbles.

Esto provoca que se necesiten mejores pantallas para poder verlos, y placas gráficas que puedan procesar esos gráficos. Y a medida que la tecnología vaya avanzando, la cantidad de datos que se necesitarán transmitir y procesar serán cada vez mayores, lo cual naturalmente llevará a la invención de nuevas tecnologías que puedan guardar cada vez más datos, o transmitirlos más rápidamente, o procesarlos de forma más eficiente. 

No estoy diciendo nada nuevo, ni nada que ya no conozcamos todos. Este es un círculo vicioso que nos termina beneficiando a todos. Y es algo que continuará creciendo y evolucionando de manera prácticamente exponencial, a medida que transcurra el tiempo.

De igual manera, este tipo de avances presenta otro tipo de problemas. Por ejemplo, a medida que vayan apareciendo e incorporándose nuevos productos de Internet of Things, y a su vez cada vez más objetos tengan la capacidad de enviar o recibir datos, muchas empresas se encontrarán con el dilema de que tienen bases de datos que son cada vez más difíciles de procesar, y con datos que son cada vez más difíciles de entender.

Por eso si hablamos de Big Data hoy, no podemos dejar de hablar de Data Visualization para darle sentido a esa enorme cantidad de información, y visualizarla de manera correcta para poder llegar una conclusión, actuar y tomar decisiones en base a esa información.

Sin embargo, en algún punto, cuando se llega a niveles ridículos de algo, hay ciertas cosas que se vuelven imprácticas. Volviendo al ejemplo anterior de los discos de storage, hoy muy pocas personas tienen grabadoras de Blu-Ray, y hasta los que sí han comprado una, prefieren enviar y recibir datos de manera digital, 100% online. Simplemente es más conveniente.

El avance en paralelo en la velocidad de las conexiones de Internet hizo que la necesidad de tener que utilizar discos de storage hoy sea poco práctica.

Empresas como Apple han entendido esto mucho antes que otras, y fueron de los primeros en decidir no incorporar más lectoras/grabadoras de DVD en sus computadoras. Muchas otras empresas recién hoy están siguiendo sus pasos.

Entre las tecnologías que vienen evolucionando a pasos agigantados, aunque no tan agigantados como muchos se imaginan (no se preocupen, todavía estamos a unos cuantos años de que se pueda hacer un “Terminator”), se encuentran conceptos como Computer Vision, Machine Learning, Algorítmos Genéticos y RNAs (Redes Neuronales Artificiales), hijas del campo más grande conocido como Inteligencia Artificial.

Hoy, industrias como FinTech (Financial Technology) han adoptado la IA para hacer posible el HST (High-Speed Trading), en donde tienen que procesar millones de datos y seguir tendencias prácticamente en tiempo real, mediante la realización de micro-transacciones.

Es un mundo en donde se invierten millones de dólares en tirar fibra óptica oceánica, dedicada para unir Londres con Nueva York para poder acceder a la información unos meros milisegundos más rápido. Unos milisegundos que para estas empresas representan cientos de miles, o muchas veces millones de dólares.

Es un mundo donde los humanos no pueden actuar ni tomar decisiones, ya que el volumen de datos es demasiado grande, y ocurre demasiado rápido. Todo queda en manos de un algoritmo. Una vez puesto en marcha, todo el proceso está automatizado.

Otras empresas como Netflix y Amazon utilizan su Big Data en combinación con algoritmos de IA para poder realizar mejores recomendaciones a sus usuarios, haciendo que estos vean películas por más tiempo, o que compren más productos.

Eventualmente, muchas empresas notarán que dejar el volumen de datos que manejan en manos de humanos es demasiado grande como poder actuar a tiempo, o para poder encontrar patrones que serían imperceptibles para la mente humana. Es por eso, que es esencial entender que lejos de destruirnos, en el futuro la Inteligencia Artificial se convertirá en uno nuestros aliados más importantes.