Por: Hermann Vega, gerente de Ingeniería TI
¿Sabes lo que pasará mañana, basándote solo en tus datos?
De las 11 empresas más valiosas del mundo, 10 consideran a los “datos” como un insumo esencial para sus negocio y gran parte de su día a día giran en torno a la explotación de los “datos”.
Los datos hoy, equivalen a lo que en el pasado era el petróleo, es decir, se extraen, se refinan, se explotan, y permiten generar nuevas económicas, y por lo tanto nuevos negocios.
Las nuevas tecnologías y metodologías nos han permitido avanzar hacia la descentralización y democratización de datos, es decir, ya no es necesario ser un experto TI para analizarlos y concluir acciones. Pero, trabajar únicamente con los datos que tenemos no es suficiente. Tenemos que sumar los datos que no tenemos, ya que hoy se generan muchos más datos fuera que dentro de las empresas, en términos de volumen, calidad y a gran velocidad. Con la tendencia actual se estima que para 2025 las personas vamos a ser capaces de crear 463 exabytes de información al día, y con el desarrollo de la tecnología 5G y el internet de las cosas (IoT), computo a gran escala (nube) esto sólo va a aumentar.
¡Los datos le están importando a todo el mundo!
Es por esto que los datos deben ser nuestro segundo idioma, es decir, debemos aprender a leerlos, escribirlos, sus vocablos, interpretarlos, usarlos en nuestros argumentos, generar conocimiento, comunicarlos y por sobre todo, generar valor para la compañía.
Para comenzar esta aventura, debemos entender qué son y cómo funcionan los algoritmos, los sesgos de la información, cómo confiar en las muestra de datos (busquen sobre Abraham Wald y el sesgo de la supervivencia) y por sobre todo, hacerse estas preguntas:
Hoy a las gerencias les importa saber lo que pasará, a esto lo llamamos ”análisis prescriptivo”. Debemos dejar en segundo plano los análisis descriptivos o “informes de lo que pasó”, para dar paso al análisis prescriptivo, es decir, lo que pasará. El nuevo paradigma y pensamiento que debemos cultivar, es pasar de lo descriptivo a lo prescriptivo.
Debemos comenzar a dejar en segundo plano las grandes bases de datos transaccionales o multidimensionales o Datawarehouse, que nos permiten una analítica de negocios, para pasar a concentrarnos en los Datalake que nos facilitan la gestión de datos estructurados y no estructurados, a una gran escala de persistencia y que probablemente en el futuro sea más simple aún de procesar. No digo que debemos eliminar los datawarehouse, pero sí debemos aprovechar ambos elementos en complemento, manteniendo siempre fuertes elementos que permitan un alto estándar de seguridad de la información.
La economía de datos, es la ciencia de administrar recursos de información excesivas, datos y metadatos, estructurados y no estructurados, procesos de carga batch ETL e ingesta de datos en base a streaming near realtime. Son todos conceptos que debemos entender y manejar.
Con todo esto, podemos ser más productivos sin incrementar nuestros costos, podemos tener más profundidad de análisis, alcance y rapidez en toma de decisiones -nunca antes vista en la humanidad-. En la actualidad es posible procesar grandes volúmenes de información en cosa de milisegundos, llegando en análisis y prescripción a un nivel de micro granularidad y no sólo predecir en base a grandes segmentos, esto se traduce a soluciones más personalizadas, ya que en estos tiempos no todos los clientes son iguales, se puede escalar rompiendo el paradigma del “one size, fits all”, en término de datos.
Como conclusión e invitación: