Decideo con los grandes nombres del Big Data en España

El pasado 20 de abril tuvimos la gran oportunidad de ser parte de Futurizz 2016. Epicentro donde se dieron cita los principales exponentes del Big Data en España para dar a conocer sus perspectivas y mejores prácticas relacionadas a la gestión, protección de la información y transformación digital. Esta fue una oportunidad para entender también qué está haciendo el sector privado y público en temas de Big Data, qué papel juega la Ciberseguridad en el futuro de la gestión de grandes cantidades de datos, y por su puesto, conocer algunos ejemplos de empresas y herramientas que son referencia en este tema a nivel mundial.

Francisco Javier Antón, Presidente de la Fundación Big Data, dio inicio a la sesión y como punto de partida resaltó el papel que deben jugar los expertos del Big data en un ecosistema en el que la multicanalidad está creciendo exponencialmente, y en el que los entornos de economías colaborativas se han convertido en tema principal al generar modelos de negocio disruptivos. Estamos viviendo una realidad en que empresas de determinados sectores están conquistando sectores ajenos a los suyos.

Tras la introducción no se hizo esperar una pregunta que ayudaría a contextualizar y preparar una gran sesión:

¿Cuál es el panorama actual del Big Data en España?
Una radiografía general hecha por Antón mostró que el panorama está en su mejor momento. El entorno del Big Data crece al 13% anual y las TIC están creciendo alrededor del 8% anual. A nivel de empleo la demanda de especialistas y conocedores del Big Data está superando el 50% con respecto a otras profesiones. Estas cifras no son sólo positivas para España, también lo son en el entorno europeo.

¿Qué están haciendo las empresas para que esto esté sucediendo?
La respuesta la tenía Sonia Casado, Managing director de Accenture Digital – Analytics, que subió al escenario para contar su perspectiva desde los estudios que Accenture ha venido desarrollando frente al Big Data. Según estos estudios al menos una tercera parte de las compañías está involucrada con la transformación digital. Por ejemplo, la movilidad, el Cloud, el paso de lo físico a lo virtual y claramente el uso de los datos para dar paso a esa transformación. Sin embargo los resultados muestran que al otro lado de la moneda existen organizaciones que tienen la tecnología y gran cantidad de datos pero se estancan en la pregunta ¿Qué hago con ellos?.

Casado señaló que en esa transformación digital está tomando fuerza un concepto que es el Fast Data. Este hace referencia al tiempo que tardan las organizaciones en capturar la información y al tiempo que se necesita para tomar una decisión. Se está pasando de un esquema de Captura, Almacenaje y Análisis de la Información para luego tomar una Decisión a un esquema en el que a la vez que la empresa es capaz de capturar la información, también es capaz de tomar una decisión acortando los tiempos de Reporting.

Dato: El 80% de las empresas pasan de tener soluciones a ecosistemas que integren toda la información proveniente de diferentes fuentes internas y externas. Los entornos Open Source con API’s son claves para esto.

Luego la representante de Accenture trajo a colación otros dos conceptos clave a la sesión: Machine Learning e Inteligencia Artificial. Señala que la generación de información crece de manera exponencial y para ser capaces de tener control e información relevante, el 70% de los equipos que trabajan alrededor del Big Data están aplicando de forma cada vez más sistemática técnicas de Machine Learning e Inteligencia Artificial.

Como conclusión a este estudio realizado por Accenture, hay tres factores a destacar que reflejan muy bien el panorama actual de las empresas a nivel global frente al Big Data:

1. Todas las empresas que han invertido en iniciativas de Big Data tienen un grado de satisfacción alto.
2. Donde se está haciendo más foco es alrededor al conocimiento del cliente, en relación a la personalización de las operaciones y comunicaciones con éste.
3. Todas las compañías están continuamente aprendiendo a implementar este tipo de iniciativas y cada vez lo están haciendo más con la ayuda de terceros.

¿Y cuál es el caso de España? ¿Se reflejan estos mismos factores a nivel local?
En la sesión, Decideo, tuvo la oportunidad de conocer a Javier Rodríguez, Gerente de Arquitecturas Big Data y Arquitecturas de Integración de GFI, quien explicó cuál es el panorama en la península ibérica. Desde la experiencia de estudios realizados por GFI, Rodríguez señaló que las empresas locales se enfocan principalmente a tener un conocimiento profundo del cliente, un análisis profundo de la competencia y, por último, pero no menos importante, conocimiento profundo del propio producto.

Además nos contó desde un análisis de los estudios realizados por GFI cuáles eran los principales retos que tenían las empresas locales frente al Big Data:

• Obtener datos de calidad: La empresas españolas tienen el reto de hacer una limpieza del 50% al 70% de sus datos ya que la calidad de éstos nunca es ideal. Hay datos que se deben organizar y tratar para que se vuelvan útiles en un modelo predictivo.
• Generar diferentes fuentes de datos: Generalmente las empresas se centran en sólo una fuente para recopilar datos y la más común es el departamento financiero.
• Enfocarse primero en el qué y luego en el cómo: Por lo general las empresas lo hacen al revés, primero se enfocan en el cómo y luego en el qué, y cuando sucede esto los proyectos que se generan nacen desde la perspectiva tecnológica, es decir que las empresas invierten simplemente porque el Big Data está de moda y no se responde a las preguntas, para qué realmente está invirtiendo, cuál es el verdadero problema o qué se quiere hacer con esos datos. Es necesario identificar lo que es relevante desde el punto de vista del negocio.

En este punto de la sesión está claro que el Big Data tiene un espacio reservado para las agendas estratégicas de las empresas, hay retos, pero aún así se está logrando un crecimiento del 13% anual del sector. Sin embargo estas cifras no sólo las genera el sector privado español, el sector público tiene un papel importante y tiene mucho que contar.

Roberto Sánchez, Director General de Innovación y Promoción del Ayuntamiento de Madrid, nos contó que el Big Data además de ser un motor de la transformación económica influenciará la forma en que las administraciones se dirigen a los ciudadanos. ¿A qué se refiere? Sánchez señala que las ciudades son un elemento esencial en el mundo del Big Data porque son unas de las principales fuentes de datos de las que se van a disponer. Con todo lo asociado a los cambios tecnológicos que se producen en grandes ciudades, estas tienen a disposición una serie de herramientas que son capaces de producir y almacenar datos a gran escala, que se pueden usar mediante técnicas de análisis para aporta servicio de diversas formas, muchos de ellos personalizados.

Cuenta Sánchez que Madrid es una ciudad que se vincula a las plataformas de Open Data, las cuales almacenan y ponen grandes cantidades de datos a disposición de emprendedores y cualquier empresa que los quiera utilizar. Por una parte la ciudad se convierte en generadora de oportunidades y por otro aceleradora del cambio.

Dato: La UE espera que el Open Data, uno de los elementos asociados Big Data, representará un 0,25% del PIB Europeo hacia el 2020. Según datos suministrados por Roberto Sánchez, Director General de Innovación y Promoción del Ayuntamiento de Madrid

Uno de los éxitos que tiene en el ayuntamiento de Madrid es que cuentan con un Portal de Datos Abierto que da información de diferente tipo en tiempo real. Lo que ha dinamizado la generación de muchas aplicaciones. La densidad del tráfico de prácticamente todas las calles de Madrid, la calidad del aire y el flujo de los autobuses del consorcio de transporte, son ejemplos del tipo de información que se encuentra disponible en tiempo real para todo el mundo.

Nosotros queremos posicionar un modelo de ciudad abierto a las nuevas tecnologías, en el que los datos utilizados y recopilados en la ciudad sean usados por cualquiera para poder realizar aplicaciones, que la ciudad se convierta en una CityLab, en el que promovemos la innovación y seamos un auténtico demostrador de tecnologías y a través de espacios para el encuentro de emprendedores.”, señala Roberto Sánchez.

Como demostración a ese modelo de ciudad que proyecta el ayuntamiento de Madrid, Sánchez presentó uno de los proyectos que se desarrollaron en conjunto con el Banco BBVA España:

• Se realizó un estudio para conocer las dinámicas del comercio turístico en la ciudad y el cual describe cómo se comportan los ciudadanos a la hora de comprar. El piloto se hizo basado en el uso de TPV (Terminal punto de Venta) y cajeros automáticos vinculados al banco, y cuyo resultado fue un informe en el que se tienen el mapeo relacionado al flujo del turismo asociado a las compras.

Con esto vimos que además de las empresas las grandes ciudades están atentas a las dinámicas del entorno, tienen un ecosistema interno de datos que no sólo crece, si no que también se analiza y se transforma en un activo fundamental para el crecimiento socio económico de las sociedades.

Pero ¿todo es así de perfecto? La verdad es que no. En un entorno donde la información se ha convertido en el principal activo para muchas compañías, se han creado paralelamente una serie de amenazas para robarla, dañarla o simplemente destruirla.

José Antonio Rubio, Profesor de la Universidad Juan Carlos I, fue invitado al escenario e hizo reflexionar a todos los participantes sobre de la importancia de la Ciberseguridad en un entorno en que los ataques hacia nuestra información pueden estar liderados por la propia competencia. Nadie está a salvo y mucho menos si tienes lo que otros desean.

Rubio nos dice que tanto las entidades privadas como las públicas cada año reciben más ataques y muchos de ellos se van sofisticando. Lo paradigmático es que los atacantes se enfocan en actuar a través de amenazas que en principio las organizaciones ya deben tener solventadas, generalmente no se realizan ataques sofisticados como se cree. La falta de contraseñas de administrador seguras y envío de información sensible no cifrada son algunos ejemplos de estas amenazas de vulnerabilidad básica.

Dato: El 25% porciento de las organizaciones tardan en darse cuenta que han sido atacadas 1 año según cifras presentadas por José Antonio Rubio, Profesor de la Universidad Juan Carlos I

¿Qué está haciendo España en materia de seguridad?
Entre algunos ejemplos que dio el profesor Rubio se destacan los siguientes. El ICMAT, Instituto de Ciencias Matemáticas junto con CSIC, Consejo Superior de Investigaciones Científicas, están estudiando el análisis de riesgos adversarios, es decir, cómo mediante inteligencia artificial modelar el comportamiento de atacantes inteligentes. Atacantes que una vez que han visto las defensas que yo tengo, deciden de manera inteligente el ataque van a lanzar. Esto ya está implantado en redes de metro, aeropuertos e inclusive en la lucha contra la piratería marítima.

Por otro lado la Universidad Rey Juan Carlos I ha trabajado fuertemente en el desarrollo de algoritmos de fusión biométricos lo cual se aplica en la seguridad transfronteriza. Campo en el que se ha buscado fusionar las medidas de seguridad físicas con medidas de seguridad digitales, y según Rubio, España es uno de los países punteros en esta materia.

No sólo a nivel público se está trabajando fuertemente, también hay empresas privadas que están liderando en temas de monitorización de amenazas, análisis de Big Data, patrones de conducta, entre otras cosas. Lo anterior ha convertido a España es un país puntero en temas de Ciberseguridad, que trabaja fuertemente en el sector de I+D+I.”, afirma José Antonio Rubio.

Ante este panorama tan positivo que nos planteó le quisimos preguntar al profesor ¿Cuánto invierte España en Ciberseguridad?. Sin dar una cifra, comentó que aún no se está invirtiendo lo suficiente, sin embargo recalca que en estos temas no se tiene que dejar mucho dinero, simplemente es saber en qué se tiene que invertir, qué medidas, qué desarrollos, qué tecnologías son lo que van a hacer que mi día a día sea más tranquilo.

Nota: El reglamento europeo de protección de datos contempla obligar a las organizaciones a notificar las brechas de seguridad.

Con esta respuesta el profesor Rubio finalizó su participación y en este punto cerramos las temáticas transversales del Big Data que se tenían preparadas en esta versión de Futurizz 2016. Sin embargo esto era solo el comienzo.

Decideo, junto con más profesionales y expertos fuimos testigos de cómo estas mejores prácticas se han convertido en casos referentes en el mundo laboral. Herramientas, aplicaciones y otras soluciones de negocio que fueron presentadas por empresas como Universum, Touchvie, Stampery y Google, las cuales nos hicieron sentir que el Big Data está en su mejor momento. Si quieres conocer en detalle información de las presentaciones has clic en los boletines anexos.

Con esto finalizó nuestro cubrimiento en este gran evento que reunió a grandes exponentes en el tema. En Decideo decimos con seguridad que fue una gran jornada, fue un gran aprendizaje, y lo mejor, fue gran un momento para compartir con nuestros lectores las mejores prácticas que se aplican en la organizaciones de esta parte del mundo.

¿Cuál es tu opinión sobre los temas tratados en la jornada de Big Names in Big Data de Futurizz 2016? Déjanos tus comentarios.

Anexo - Universum

DATIFICATION
Rafael Garavito, International Business Development Manager de Universum junto a Rocío Rodríguez Caballero, Manager Recruiting and Employer Branding en EY.

Este es un caso realizado por EY en conjunto con Universum, cuyo objetivo era responder a la pregunta: ¿Qué puede hacer a EY diferentes del resto de compañías?, y a partir de la respuesta definir cuál es el principal atributo de atracción que los jóvenes en España reconocen en EY.

El estudio parte del análisis de la información construida por Universum de un colectivo que asciende a 19 mil personas. Para este estudio en particular de EY la muestra fue filtrada y enfocada 4 mil jóvenes.

A partir de esto realizaron un análisis detallado de toda la información recopilada para identificar qué atributos destacan los jóvenes de EY con respecto a otras marcas, definir cuáles coinciden, pero lo más importante potenciar esos atributos con las que querían impactar a los jóvenes, no solo desde su vinculación sino en el desarrollo profesional dentro de EY. Para retenerles y cumplir con los objetivos estratégicos de la compañía.

Anexo - Tochvie

CINEMA PROJECT
José Luis Florez, CEO de Touchvie

Tochvie es una aplicación que sorprende. El problema que busca solventar es la limitación que se tienen al querer interactuar con los contenidos de las películas y series.

Este gran proyecto, va dirigido a aquellas personas para las cuales el cine tiene una conexión con las cosas que le gustan. Por ejemplo, la moda, los viajes, los coches y un sin fin de opciones. Touchvie sabe que el cine es un motor de pasiones y aspiraciones, de esta manera busca llegar a públicos distintos.

¿Cómo funciona? Con base a lo que el usuario está viendo, la App inmediatamente puede capturar información relevante. Touchvie hace una búsqueda rápida en 20 categorías, entre las cuales están: Quién es el actor, qué ropa lleva, que objetos hay en escena, dónde podemos comprar esos objetos que aparecen en escena. Todo lo anterior independientemente del dispositivo, de la productora o el canal en el que el contenido se está mostrando.

Florez nos cuenta que comenzaron haciendo pruebas con 60 películas, hoy cuatro meses después tienen 1100 películas compatibles con la App. La prioridad es ligarlo en principio a las películas que tiene el catálogo de Netflix en USA.

Cerrando su presentación Jose Luis Florez señala que el objetivo inmediato es tener una gran cobertura de medios, tener colaboración directa con las productoras y tener Touchvie en el salón de todas las casas.

Anexo Stampery

TIPS FROM THE TOPS
Luis Cuende, CTO de Stampery.

Otras de las sorpresas fue la presentación de Stampery. Una solución que descrita por Luis Cuende, uno de los cofundadores y CTO de la compañía, reemplaza la confianza en humanos por matemáticas.

Un tema interesante ya que Cuende señala las empresas pueden invertir millones de dólares en herramientas y controles técnicos pero siempre está el factor humano que puede verse vulnerado y es ahí donde términos poco sonados como Block Chain entran a jugar en el entorno del Big Data. Y esto es una revolución porque optimiza y da seguridad a un montón de procesos donde la confianza es un problema.

Porque, según Cuende, al final los humanos de cara al trabajo somos muy ineficientes en general, tenemos problemas en casi todo, por tanto viene un futuro en el que no tengamos que confiar en los humanos y no va hacer falta que estos tengan que hacer tareas, por ejemplo comenzaremos a tratar más seriamente la inteligencia artificial.

Anexo Google

Big data: The current picture
Nacho Coloma, Solution Enginner Google Cloud Platform 

Nacho nos dice que los algoritmos de Matching Learning en Goolge están teniendo un crecimiento exponencial en los últimos años, no solamente en aplicaciones como Google fotos, sino que se puede encontrar en cosas como Google Translate donde por ejemplo la importancia se enfoca a no tener que traducir palabra por palabra, si no que dado un sin número de posibilidades de texto que ingrese, el traductor entiende el concepto del idioma origen y lo traduce correctamente al español, al francés o al idioma que haya definido el usuario.

Este tipo de algoritmos han tenido tanta importancia que han aterrizado en aplicaciones más potentes desarrolladas por Google como por ejemplo BiqQuery, una herramienta de Big Data perfecta para empresas que gestionan grandes cantidades de información y lo más importante quieren realizar patrones de consulta específicas en cortos periodos de tiempo.

Pero ¿Qué es? y ¿Qué hace BigQuery?. Es un sistema se puede cargar gran cantidad de información y a partir de ahí consultarla sin ningún tipo de limitación.

Nacho explica que en el mismo Google se utiliza para contestar preguntas que ellos consideran complicadas. Señala que en esta compañía internamente se están recopilando datos desde todas sus aplicaciones y que han llegado a un punto donde deben hacerse preguntas sobre esa información y necesitan herramientas que les permitan hacer ese tipo de preguntas en un tiempo y esfuerzo razonables.

Un ejemplo es que Google tienen Logs de sus sistemas y de sus servidores, pero el problema es que tienen millones de éstos, y muchas veces quieren encontrar cuáles son los servidores que están yendo lento o no están funcionando bien. “Esto es un problema de Big Data, necesitábamos de algo que nos diera una respuesta en tiempo razonable. Que no fueran horas o días. Que pudiera definir la ciudad o en determinado horario, que me permitiera hacer preguntas en un horario flexible. Esto es lo que permite hacer Big Query.”, afirma Nacho Coloma.

¿Cuál es el momento oportuno para pasar mi información a BigQuery? Ante esta pregunta Nacho indica que si el tiempo de respuesta de cualquier consulta tarda más de 12 segundos, es importante plantearse ver herramientas de Big Data como BigQuery. Señala que el tiempo típico de respuesta en BigQuery están entre unos 6 y 12 segundos, si la respuesta está en caché, suele tardar 1 o 2 segundos.

Dato curioso. La base de datos más grande almacenada por un tercero que no es Google sobre BigQuery tiene 38 petabytes de información. La consulta más grande tiene 2 petabytes de información.