Alexa Skills: el futuro de las Voice-Brands

La voz es una manera de compartir información, pero también sentimientos“.

Este es el planteamiento de Amazon a través de ALEXA.

Pero, ¿qué es ALEXA? O mejor dicho, ¿quién es?

ALEXA es un asistente virtual creado por Amazon: algo así como Siri o Cortana pero con voz y cuerpo propios. Sí amigos, ALEXA tiene forma física (y no una, sino varias: con pantalla táctil o sin ella, a modo de gran micro o mini-altavoz…), lo que nos permite acoplarlo en cualquier rincón de nuestro hogar, o integrarlo en dispositivos rutinarios como un frigorífico (LG), un reloj, un móvil (HTC) o un vehículo (BMW).

El lanzamiento de estos sistemas de voz interactivos o asistentes virtuales constituye un nuevo “Magic Moment”. Algo parecido a lo que vivimos con la aparición de Internet (las 3Ws) o  con la era del móvil en los 2000s. Si bien estos sistemas de voz no harán desaparecer los otros (como ha ocurrido en estos otros momentos), lo que sí harán será generar nuevos MOMENTOS en la relación con el cliente.

Imaginemos un escenario de búsqueda de vuelos. El momento móvil y el momento voz jugarán papeles diferentes: el móvil se centrará en una búsqueda genérica “buscar vuelos Londres Amsterdam“, mientras que el momento voz jugará un papel vital en la decisión final y en la etapa de fidelización: “ALEXA, búscame un vuelo KLM Londres-Amsterdam mañana a las 3pm

¿Por qué ahora?

Actualmente, existen 50 billones de búsquedas de voz al mes. Gracias a esto, Amazon ha experimentado un crecimiento del 428% en el volumen de skills programadas en ALEXA, con un total de 10 MM de dispositivos ALEXA vendidos. La previsión es que para 2020 se produzcan 200B de búsquedas por voz.

¿Qué son las “skills” de ALEXA y cómo crear una experiencia de usuario relevante a través de este sistema de voz?

Las “skills” de ALEXA son funcionalidades dentro del sistema que permiten al usuario interactuar con contenidos de distintos proveedores: marcas, radios online, sitios e-commerce. Según un estudio de Amazon: en el 34% de los casos, el dispositivo se utiliza para poner música en el hogar, en el 31% de los casos, para controlar “smart lights” u otros dispositivos conectados con ALEXA. En la actualidad, solo el 10% de los hogares utiliza ALEXA para añadir elementos al carrito de la compra en Amazon.

¿Está ALEXA disponible en España?

Aún NO, pero no le falta mucho. Los lanzamientos en cada mercado requieren la programación de un nuevo lenguaje. La última incorporación ha sido Francia y España llegará en el Q4 de 2018.

Una vez en Europa, ¿cómo integrarlo en el Customer Journey de las marcas?

En UK algunos ejemplos de skills relevantes han sido la BBC, Sky News, Domino’s, JustEat, etc. A través de estas skills y con un único login de usuario, ALEXA será capaz de:

  • conectarse a nuestra cuenta de Amazon Pay y comprar unos tickets de cine por nosotros
  • hacer compras vía in-skill purchase en nuestras apps favoritas (ya sea una compra puntual o por medio de una suscripción)

Las posibilidades de skills a crear son infinitas: desde e-commerce para retailer stores, pasando por reservas de taxi, online gaming, language virtual academies, radios online, recetario virtual… en este amplio abanico, y con un buen dossier de programación, las oportunidades de creación de contenido son INIFINITAS.

Y aquí no acaba todo… ¿queréis saber más? ¡Tendréis que esperar al próximo post!

Feliz semana 🙂

the-best-amazon-alexa-skills-make-the-most-out-of-your-echo-smart-speaker

Read More

Como analistas digitales ¿utilizamos bien los Dashboards, informes y KPIs?

El pasado 23 de junio estuvimos en un evento único de analítica digital en Madrid: MeasureCamp.

Entre las charlas a las que acudimos, destacamos las de Diego Semprún y Asier de la Torre de Webtrekk, que cuestionaron la utilidad de los KPIs, los informes y dashboards.

¿Qué aprendimos?

  1. Escoger pocos KPIs pero que estén alineados con los objetivos de negocio
  2. Cambiar los informes y KPIs en base a performance
  3. Usar patrones de comportamiento, segmentos y targets
  4. Simplificar el trabajo

Hoy en día, los clientes ven una relación directa entre el tráfico y las ventas:

analítica digital e commerce.jpg

Sin embargo, la realidad dista mucho de este modelo, ya que nuestro tráfico no funciona a modo de “embudo” donde los usuarios acaban convirtiendo en la misma interacción. Los modelos digitales funcionan más como un “colador” ya que las visitas se escapan en múltiples interacciones. Esta visión la cubrimos parcialmente con los user flows, donde analizamos el posible comportamiento del usuario y como “re-captarlo” a través de los distintos canales si no realiza una conducta deseada. Por ejemplo, combinando tráfico on site, Email y Facebook ads.

User Flow de MRM //MCCann

Sin embargo, seguimos produciendo un número enorme de insights pero sólo utilizamos unos pocos en la decisión. Y esto acaba siendo frustrarte tanto para los analistas como para el cliente.

modelo generalizado de la analitica web 2018.jpg

Uno de los motivos que Diego menciona es la desconexión entre las herramientas de analítica y otros departamentos, lo que acaba produciendo un efecto de “teléfono escacharrado”.

Para solucionarlo, propone salir de nuestra zona de comfort, cuestionando los datos más allá de los informes que nos proporcionan nuestras herramientas del día a día. Debemos hacer un análisis enriquecido y segmentado que nos permita actualizar en base a datos, para poder cambiar la experiencia de los usuarios. Esto incluye la gestión y adaptación de audiencias y campañas a nuestras estrategias digitales.  Por lo tanto una estrategia basada en datos dinámicos.

nuevo modelo de herramientas de analítica digital 2018.jpg

Para ello se plantea un nuevo modelo de trabajo que une el razonamiento estratégico con tácticas comerciales en 4 fases:

  1. Enriquecer: utilizar la analítica para encontrar a los usuarios que nos interesan.
  2. Analizar: identificar patrones de comportamiento para incluir o excluir si nuestras acciones impactan a nuestros usuarios.
  3. Segmentar: detectando el patrón de comportamiento, segmentamos en base a necesidades de negocio, momentos de consumo, etc. Por ejemplo, así lo contó David Boronat, de Multiplica.segmentar datos analitica digital dabid boronat multiplica.jpg
  4. Activar: campañas on y off desde la analítica. Personalizar nuestros activos digitales, ajustar la inversión y las campañas en base a los usuarios segmentados. Esto es lo que intentamos resolver con el user flow que mencionábamos al principio. Con el conjunto de datos de cada usuario, impactarle en un escenario diferente con distintos mensajes, canales y objetivos.

Al final debemos  pensar  que medimos personas, no canales, ni números.

MeasureCamp Madrid 2018

Si estas leyendo este blog es porque tienes alguna conexión con el mundo de la analítica digital. La mayoría de los que trabajamos en este sector nos etiquetan o, mejor dicho, nos etiquetamos de #frikis. Y esto ¿por qué? te podrás preguntar. Principalmente  porque es un mundo muy especializado pero que conecta varias disciplinas. Conecta el CRM con el CRO,  el SEO con Social Media, la publicidad tradicional con la compra programática. En concreto, conecta a gente de diferentes sectores en uno que persigue los mismos objetivos. Y prueba de ello somos el equipo de Analytics de MRM formado por abogados, periodistas, economistas, ingenieros o psicólogos.

Desde las distintas disciplinas buscamos detectar y optimizar los objetivos de nuestros clientes hasta impactar en la estrategia global. Y si lo conseguimos es cuando ocurre la magia y nos venimos arriba. Contamos las historias como si la vida en ello nos fuese, y ahí puedes sentir el “frikismo” de los analistas digitales.

La verdad que pocas veces tiene la suerte uno de acudir a un evento como el que el equipo de MRM estuvo el sábado 23 de junio en Madrid. Y si estás leyendo esto pero no has oído hablar del MeasurCamp ¡es tu día de suerte!.

Con un formato de “deconferencia” donde se va más a hablar que a escuchar  y con presencia en EEUU, Europa y Australia ocurre el MeasureCamp. Llevábamos desde 2016 esperando a que se volviese a dar cita en Madrid el evento y no nos lo perdimos.

36376269_10160515231230207_3587930015955681280_n.jpg

Pudimos asistir a varias charlas sobre herramientas de medición,  DMPs aplicados a casos de negocio,  las diferencias de un E-commerce con la Banca,  los problemas del SEO, del CRO y  UX y sobre la gestión y comunicación de Dashboards y KPIs. Y en estas últimas tomamos algunas notas que os contamos en este post.

Una anécdota es que había ciertas #keywords que no debían pronunciarse; palabras tabú como DMP o gurú, y si se mencionaban había que pagar cierta cantidad con la finalidad de recaudar para una buena causa.

Webtrekk lo resume de maravilla este post, que además fue uno de los patrocinadores principales y del que pudimos aprender un montón.

¡Nos vemos en el próximo evento!

 

 

 

 

 

Actualizar la Retención de Datos en menos de 1 minuto

 

Comply-with-GDPR-2

Google Analytics lleva avisándonos tiempo, pero el tiempo se agota y es hora de actualizar la política de retención de datos para que ésta no caduque.

El proceso es muy simple y tardarás menos de 1 minuto por propiedad.

  1. Inicia sesión en Google Analytics.. Recuerda que debes ser administrador para poder editar la propiedad.
  2. Entra en @ ADMINISTRAR (la rueda abajo a la izquierda).
  3. En la columna PROPIEDAD, haz clic en Información de seguimiento > Retención de datos.

data retention step 1

4. Retención de datos de usuarios: selecciona Sin fecha de caducidad automática

5. Restablecer con cada actividad nueva: desactivaremos esta opción para evitar que se restablezca un periodo limitado.

El resultado se verá así.

Capture

Es necesario hacerlo en todas las propiedades que tengamos, a nivel vista no es necesario.

Et Voilá!

Recuerda hacerlo en cada propiedad de la que seas administrador antes del 25 de mayo 2018.

 

AMP para email, el nuevo correo más interactivo

Google anuncia un plan para modernizar el correo electrónico: AMP para email. Uno de sus objetivos es crear una experiencia más “atractiva, interactiva y accionable”.  Desde ya los desarrolladores pueden trabajar en su explotación.

Y antes de continuar con la nueva novedad de Google, hay que recordar que un AMP es una especie de HTML mejorado cuya función principal es acelerar el tiempo de carga de las webs que lo utilizan, especialmente pensado para dispositivos móviles.

Desde su llegada en 2015, AMP se ha convertido en un elemento indispensable para lograr buenos resultados en las búsquedas desde el móvil. AMP para Email ¿se convertirá en un elemento indispensable para las campañas de Email Marketing?

Captura

Uno de los principales objetivos del Email Marketing es generar leads de calidad y al mismo tiempo, conseguir el mayor número para aumentar las conversiones y ventas. Por tanto, hoy día son las landing pages las que ofrecen los contenidos, formularios, invitaciones, descuentos… con el fin de generar e incrementar los leads.

Lo que ocurre es que Google pierde el rastro del usuario cuando abandona el email. Los datos que puede obtener relacionados con la actividad en una web externa son limitados e incluso a veces inexistentes, dependiendo de sí disponen de un acuerdo con Google y, aun así, el nivel de detalle es bajo. Por el contrario, con AMP para email, Google pretende que los usuarios no abandonen la aplicación de correo electrónico al acceder a diferentes contenidos y que toda la actividad suceda bajo la atenta mirada de Google.

Al integrar AMP en email los usuarios podrán consumir directamente todo el contenido sin necesidad de salir del correo. Algunas de las mejoras que aporta son:

  • Contenido actualizado en tiempo real
  • Mayor interactuación con el contenido del email
  • Ahorrar tiempo
  • Acceder a funcionalidades extras en el propio email

En definitiva, con AMP para email serán necesarios menos clics en la ruta de conversión y, por tanto, se deberían conseguir más conversiones. Sin embargo, ¿cómo responderán los proveedores de servicios de correo electrónico a AMP para email? Algunas empresas como Pinterest y Booking ya lo están utilizando.

Su adopción y uso probablemente crecerá si ayuda a los consumidores y a las marcas. Estaremos expectantes a sus reacciones.

¿Cómo afectará la GDPR a la medición vía cookies? How will the GDPR impact cookie-based tracking?

Así es, estamos envueltos en un sinfín de noticias sobre cómo la nueva legislación europea en materia de protección de datos va a impactar, no solo a los CRMs europeos, sino también, las posibles consecuencias en la medición digital basada en cookies.

Os dejamos un overview del posible impacto y algunas soluciones que se nos han ocurrido para contrarrestar los efectos de la GDPR, para cuya entrada en virgor quedan 76 días desde la publicación de este post.

WARNING: El post está en inglés 🙂 Enjoy!

How does the GDPR impact online tracking? How to comply with the GDPR? And how does the new GDPR impact Cookie Policies?

  • When cookies can identify an individual via their device, it is considered personal data. Or, any data that can be used to identify an individual either directly or indirectly (whether on its own or in conjunction with other information) is personal data.
  • Cookies for analytics, advertising and functional services, such as survey and chat tools will be subjected to the GDPR, meaning that:

-Implied consent is no longer sufficient as well as ‘By using this site, you accept cookies’ messages.

-It must be as easy to withdraw consent as it is to give it and, sites will need to provide an opt-out option.

-Cookie measurement will be restricted to user’s consent, meaning that no cookie tracking will be allowed prior to that explicit consent.

CapturaTYPES OF COOKIES IMPACTED:

  • TEMPORARY COOKIES:  The cookie is erased when the user closes the browser or exits the site. They are considered as first-party cookies and are part of the programming of the website. These cookies do not track any user’s data, not being subjected to the GDPR.
  • PERSISTENT COOKIES: The cookie does not disappear after a user exits a site. They are also known as “tracking cookies” as they are used to study user behavior over a certain period of time through the cookies tracked. They are considered as first-party cookies. These cookies track user’s data (which may be considered as personal data in certain cases), being subjected to the GDPR.
  • THIRD-PARTY COOKIES: Are the ones that are placed on a user’s hard disk  by a website from a domain other than the one a user is visiting. They are also known as “tracking cookies” as they are used to study user behavior over a certain period of time through the cookies tracked. These cookies track user’s data (which may be considered as personal data in certain cases), being subjected to the GDPR.

POSSIBLE IMPACTS OF THE GDPR:

NEW USERS arriving to any site will receive the Cookies Policy disclaimer (* new users or +3months returning users). Analytics cookies won’t be fired until the user accepts to be cookie-tracked.

If the user does accept the Cookies Policy:

1.The visit will be tracked since the consent.

2.If the consent implies re-loading the destination page or the consent takes place when changing from the destination page to any other page within the same site, the Source and Medium from which the traffic comes from may be lost, attributing a massive volume of traffic to the Direct source. Any cookies CAN be fired once the user accepts the Cookies Policy.

If the user does not accept the Cookies Policy:

The analytics cookie could still be tracked via Google Analytics if anonymizing the user’s IP, so no personal data is tracked through analytics cookies. In this case, those cookies tracking personal data CANNOT be fired.

If the user leaves the site prior to the Cookies Policy consent:

No analytics information will be tracked, meaning that, from an analytics perspective, the user leaving the site before being tracked could only be counted through the Cookie Policy provider (i.e. Evidon). The number of times that the Cookies Policy disclaimer was shown must be provider by the tech. partner in charge.

A COUPLE OF IDEAS TO FACE THE GDPR IMPACT:

If the consent implies re-loading the destination page or the consent takes place when changing from the destination page to any other page within the same site, the Source and Medium from which the traffic comes from may be lost, attributing a massive volume of traffic to the Direct source.

How to reassign traffic to the original Source via GTM?

1.Track cid (client id) and utmscr through custom dimensions defined on a dataLayer.push.

2.Incorporate the dataLayer.push as part of the GTM tag container placed in the website.

3.Define the custom dimensions above in both Google Analytics and GTM.

4.Edit the UA-General tracking tag for the website on GTM using the Advanced Settings functionality, adding a Custom Field with the “CampaignSource” dimension and using utmscr custom dimension as the proposed dynamic value.

If the user does not accept the Cookies Policy, the analytics cookie could still be tracked via Google Analytics if anonymizing the user’s IP, so no personal data is tracked through analytics cookies.

How to anonymize Ips with Google Analytics?

The IP anonymization feature in Analytics sets the last octet of IPv4 user IP addresses and the last 80 bits of IPv6 addresses to zeros in memory shortly after being sent to the Analytics Collection Network. The full IP address is never written to disk in this case.

Configure the _anonymizeIp as TRUE when creating the object.

<!– Google Analytics –>

//www.google-analytics.com/analytics.js

window.ga=window.ga||function(){(ga.q=ga.q||[]).push(arguments)};ga.l=+new Date;

ga(‘create’, ‘UA-XXXX-Y’, ‘auto’);

ga(‘set’, ‘anonymizeIP’, true);

ga(‘send’, ‘pageview’);

<!– End Google Analytics –>

Thanks for reading 😉

Anonimizar la IP con Google Analytics

Con las nuevas legislaciones en vigor, los clientes se han puesto cada vez más exigentes en “ocultar” cualquier atisbo de data personal en sus analíticas.

Esta corriente de “anonimización” del data ha entrado con fuerza en Alemania y, poco a poco, se va contagiando al resto de países de la UE. ¿Cómo nos afecta? Esencialmente, en todo. Principalmente, en la recopilación del data que nos permite construir lo que conocemos como PERSONAS, o grupos de usuarios con características afines: si cada vez nos es más difícil recopilar los datos en torno a estas características comunes, más baja es nuestra capacidad de construir clusters o grupos de usuarios con los que relacionarnos de una forma más eficaz.

En todo caso, ¡estamos preparados para la anonimización del dato! Así hemos hecho esta semana habilitando la funcionalidad “anonymizeIp” de Google Analytics.

Si bien es cierto que esta funcionalidad no es algo tan nuevo como parece (lleva en vigor desde 2010), las estrictas normativas en torno a la recogida de datos, nos hacen rescatarla a día de hoy.

¿En qué consiste? Esta función toma la parte final de las IPs de los usuarios que navegan un site y configura los últimos dígitos a “0”, colocando en anonimato al usuario final antes de comenzar el tratamiento y el almacenamiento de los datos en Google Analytics.

Cuando se habilita la máscara de IP, Analytics elimina el último octeto de la dirección IP del usuario antes de utilizarla y de almacenarla. Esto reduce ligeramente la precisión de los informes geográficos.

IPAnonFailoverAnalysis

¿Cómo lo hacemos? Para convertir en anónima la dirección IP de todos los hits que se envían desde un solo objeto de seguimiento, puedes configurar el campo anonymizeIp en TRUE cuando se crea dicho objeto.

<!– Google Analytics –>
//www.google-analytics.com/analytics.js

window.ga=window.ga||function(){(ga.q=ga.q||[]).push(arguments)};ga.l=+new Date;
ga(‘create’, ‘UA-XXXX-Y’, ‘auto’);
ga(‘set’, ‘anonymizeIP’, true);
ga(‘send’, ‘pageview’);

<!– End Google Analytics –>

Para el caso de haber migrado el código de GA a gtag.js o de haber generado recientemente el código de GA para una página web, la anonimización quedaría de la forma siguiente:

gtag('config', 'GA_TRACKING_ID', { 'anonymize_ip': true });

Si solo queremos anonimizar la IP de los usuarios para una determinada acción (i.e. un evento onclick), podemos hacerlo a través de la función ‘set’ o al enviar una página vista a Google Analytics:

Para analytics.js:
ga('send', 'pageview', {
  'anonymizeIp': true
});
Para gtag.js:
gtag('event', 'your_event', { 'anonymize_ip': true });

¿Qué hay de nuevo… Twitter?

¡Arrancamos el año! Y lo hacemos de la mano de Twitter, con alguna de las novedades que trae para 2018. Hace solo unas horas hemos estado online con ellos y esto es lo que nos han desvelado:

  • TOP TWITTER STORIES:

No va a ser fácil para las marcas colarse en esta selección de “las historias que te has perdido en Twitter” que la compañía quiere mandar con carácter semanal a sus usuarios. La idea es concentrar en un email, los mejores tweets de la semana, con link directo a los perfiles de los usuarios que los postean y a los que sigues.

¿Será capaz alguna marca de generar tal engagement como para formar parte de los emails semanales de Twitter? ¿U optarán por la versión “patrocinada” en el email? ¡Veremos!

top twitter stories.JPG

  • CONVERSATIONAL ADS:

¿Por qué quedarse únicamente con los mini botones de Like, RT y Reply pudiendo usar CTAs de gran tamaño para “orientar la respuesta del usuario” ante un tweet? La idea es incorporar en los tweets (por cierto… ¡da igual que Twitter haya abierto la veda a más de 100 caracteres… la recomendación sigue siendo “the shorter, the better!). Lo dicho, la idea es incorporar en los tweets 3 CTAs con diversas opciones accionables: 1.) reclamar el RT del usuario, incorporando automáticamente los hashtags necesarios en el RT, 2.) personalizar los CTAs para enviar al usuario a una determinada landing de destino, 3.) generar una encuesta a través de tweets (con hashtag de por medio) para incrementar buzz y notoriedad.

apple pay.JPG

  • VIDEO WEBSITE CARDS:

Este tipo de contenido, permite incluir una pieza de video + un link a una landing page de tal manera que, cuando el usuario clica en el link a la página de destino, el video ya iniciado se mantiene en la parte de arriba de la pantalla creando una “dual screen experience” o lo que es lo mismo, una experiencia multi-pantalla.

video website card.JPG

  • EMOJI CUSTOM AUDIENCES:

¡A este nivel hemos llegado! A segmentar audiencias vía el uso de emoticonos. Y no solo a segmentar, sino a suplir hashtags por emojis como follow-up de una conversación o de una campaña publicitaria. Esta fue la estrategia seguida por FOX en el lanzamiento de la Segunda Temporada de The Mick: dividida en una fase de pre-lanzamiento, kick-off y streaming de los capítulos de la serie, consiguieron picos de conversación durante la Premiere televisiva de la serie.

  • 360º VIDEO TWEETS:

Otro de los Case Studies de la temporada fue el de Mountain Dew, con un increíble video 360º para el lanzamiento de su VR Experience “The Professor Presents: #GotHandles. Una forma de hacer “Marketing Inmersivo” a través de Twitter.

  • CHATBOT THROUGH DMs:

Esta fue la estrategia seleccionada por SAMSUNG con el objetivo de reinventar el “One-to-One Marketing“. ¿Cómo? Lanzando un tweet a la comunidad que incentivara a los usuarios a abrir un canal privado de conversación con la marca a través de DMs. ¿El objetivo? Que el usuario encuentre el televisor que mejor se adapta a sus necesidades basándose en una conversación one-to-one predeterminada (las preguntas están prefijadas) y una recomendación “personalizada” del televisor perfecto. ¿El resultado? El 89% de quienes iniciaron la conversación con la marca, completaron el proceso.

  • REAL-TIME COVERAGE:

Las últimas novedades de Twitter van encaminadas a convertise en la Red Social MÁS REAL-TIME de todas, desbancando a Periscope o a Vine como “streaming apps”. Si no lo creéis, preguntadle a KFC, ¡que lanzó un sandwich al espacio!

Dentro de este mismo contexto, cada vez son más las marcas que se “aprovechan” de los eventos en directo para promocionarse a través de acuerdos de patrocinio. He aquí un ejemplo con McDonalds.

connect with whats happening.JPG

  • ONE-TO-ONE AUTOMATIC TWEETS WITH USERS:

Por último, os traemos el caso de Apple Music, como ejemplo de “buenas prácticas” en las relaciones one-to-one con los usuarios de Twitter. A través de mensajes automáticos enviados previamente al inicio de su programa “Carpool Karaoke“, incrementaron exponencialmente el volumen de descargas de los podcasts, siendo todo un éxito de one-to-one marketing.

 

 

Noticias de fin de año, de la mano de las Redes Sociales: ¡Feliz 2018!

¡Amigos! Acabamos un GRAN año para MRM // McCANN y para este Departamento. Aprovecho estas líneas para dejaros algunos links de interés sobre las últimas novedades en Redes Sociales que he podido rescatar.

Prometemos un 2018 lleno de info., con más posts y más contenido (¡perdón! La carga de los últimos meses no nos ha dejado actualizar el Blog todo lo que quisiéramos).

Lo dicho… ¡Feliz 2018!

Departamento de CRM, Analytics & BI de MRM // McCANN, España.

  • Facebook Ads ya está conectado con las cuentas de marca de WhatsApp. Más info.
  • Twitter, más Real Time que nunca. Más info.
  • ¿Tienes menos de 13 y  T E M U E R E S por usar Facebook? ¡Llega Messenger Kids! El reclamo de Facebook para engatusar a los más pequeños y bajar la media de edad de sus usuarios globales. Más info.
  • La nueva funcionalidad de Instagram que te recomienda lo que a tus amigos les gusta. ¿Acierto o error? Más info.
  • Los nuevos super-targeted ads de Pinterest alcanzan un +50% de incremento en el %CTR y una disminución del 20% en el CPC pero… ¿qué marcas usan realmente Pinterest? Más info.

  • Y si no te ha gustado nada de nada este post… siempre podrás “silenciarnos” (un ratito). Más info.

*************************** S E E Y O U N E X T Y E A R *******************************

Visualize Your World llega a Madrid con las tendencias en Business Intelligence

Ayer tuvimos la oportunidad de asistir al encuentro anual Visualize Your World, en Madrid. Una de las mayores citas sobre tendencias en Business Intelligence organizada por Qlik, líder en Visual Analytics.

IMG_20171019_231409.jpg

Durante la jornada, analistas y expertos en el sector del Big Data han compartido sus propias experiencias, y nos han contado muchas de las novedades que presenta Qlik, siendo las más destacadas las siguientes:

Hybdrid Cloud Analytics: Es el avance hacia una analítica en nube híbrida. Los datos tienen su origen en la nube y cada vez más clientes apuestan por la analítica visual a través de plataformas cloud. Para ello han adoptado una arquitectura de microservicios que permitirá expandir el análisis fluido de los datos.

En 2017 las empresas ya planean llevar algún proyecto de BI a la nube, y Qlik quiere acompañarlas en esta transición, donde poder disfrutar de los datos en cualquier lugar y forma.

User Group Iberia: es un punto de encuentro entre usuarios de Qlik donde se podrán compartir experiencias y conocimientos entre usuarios avanzados.

El objetivo es hacer reuniones frecuentes y poder ver casos de usos de otros usuarios, best practices e incluso soluciones a diferentes problemas. En definitiva, un foro donde los clientes puedan sentarse a hablar de igual a igual y poder desarrollar el futuro.

Durante su primer año quieren conseguir 200 usuarios, y nos comentaban que está teniendo muy buena aceptación entre los clientes, tan solo se acaba de anunciar y han conseguido ya unos 50.

La integración de Analítica Avanzada y GeoAnalytics: Qlik a través de sus APIs ofrece la integración con otras tecnologías de generación y procesado de lenguaje natural y analítica predictiva. Con esta nueva funcionalidad, se pueden añadir mapas con localización geográfica automática y descubrir la historia completa de los datos. Además, permite combinar datos de diferentes fuentes como, por ejemplo, los datos geográficos de la nube de Qlik GeoAnalytics, con datos sobre tiendas.

Por otro lado, además de las novedades de Qlik, estuvieron en el evento clientes y partners de empresas de sectores muy variados.

Comenzó con la mesa redonda entre profesionales de Air Europa y Sodexo.

IMG_20171019_101616.jpg

En el caso de Air Europa operan 80.000 vuelos anuales. Dichos vuelos y clientes generan muchísimos datos. Sin embargo, en un primer momento Air Europa tiene un enfoque muy tradicional, con mucho reporting y poca analítica. Y es aquí cuando entra en escena Qlik. En una transformación hacía la visualización de los datos, ya que no disponían de herramientas analíticas adecuadas para afrontar la situación.

Buscaban agilidad en el desarrollo, capacidad de data discover y autoservicio, pues usuarios con poco bagaje técnico podían construir sus propios análisis. Lo que consiguieron tras la introducción de Qlik fue la disminución del número de errores a la hora de comprar, y el posterior incremento de las ventas.

Por otro lado, desde Everis trataron uno de los temas que más interés está generando últimamente: la GDPR, la nueva ley de protección de datos. Se trata de una especie de LPD pero con una potencia tecnológica muy potente.

El principal objetivo es que los ciudadanos tomen el control de sus propios datos dentro de la Unión Europea. En el caso del Brexit también tendrán que cumplirla hasta que salgan de la Unión Europea. Y lo único que se sabe de su legislación es que las multas serán ilimitadas.

Con la nueva GDPR, surge la figura del DTO, un hombre/mujer que se dedica a auditar el cumplimiento de la GDPR.

En definitiva, cualquier proyecto que estamos llevando a cabo ahora, debería desarrollarse de acuerdo al nuevo ámbito de Ley de Protección de Datos.

IMG_20171019_231526.jpg

Por otro lado, Cloudera nos hablaba de la importancia de combinar datos de terceros para tener una visión 360 del cliente, y transformar datos complejos en insights de negocio.

Seguidamente, llegó el momento de Mercanza, es una empresa experta en la implantación de soluciones de inteligencia de negocio. Nos contó su caso con la compañía Roca, donde cruzaron datos de diferentes fuentes para ver porque en una de sus sedes los resultados de ventas eran tan bajos. Entonces cruzaron los datos de contratos de los trabajadores, con datos de cuando fichaban al llegar al trabajo, y la conclusión fue que un 65% de la plantilla iba a trabajar, el resto no. Enseguida se solucionó el problema.

Por la tarde, Entelgy Digital nos habló de las Smart Cities, que, gracias al Internet de las cosas son es posible. Nos contó su caso de éxito enfocado, sobre todo, a los runners de Madrid. Con datos de los últimos años sobre la contaminación de los diferentes barrios y áreas de Madrid, incluso mostrando los diferentes parques, a horas distintas, visualizaban en Qlik cuál era el parque/zona más idónea para ir a correr. Aquí se combinaron datos de diferentes fuentes.

La última ponencia sobre Tendencias en Analytics, remarcó la importancia de los datos de diferentes fuentes, en formatos muy variados y en grandes volúmenes y su necesidad de unificarlos en una misma herramienta que nos permita desgranar todos y cada uno de ellos, para llegar a lo más importante. De lo general a lo particular.

En definitiva, el mundo está cambiando y cada vez es más complejo. Los ciudadanos toman el control sobre sus propios datos. La tecnología da solución a los problemas, pero también genera muchos otros.

En 2017 se genera un zettabite de datos. Cada segundo se publican 797 fotos en Instagram y se hacen 231 transacciones con Paypal. Y así podríamos seguir sumando datos; sin embargo, el verdadero valor de los datos está en el uso que hacemos de ellos para que sean útiles y aporten valor al negocio. La inteligencia aumentada es la clave para seguir mejorando.