Yandex Metrica: el complemento ideal para todo analista

Con el paso de los años, Google se ha situado como el motor de búsqueda de referencia para la mayor parte de los usuarios que navegan por internet, convirtiéndose así en el buscador más utilizado a nivel global. No sucede así en Rusia, donde Yandex abarca una cuota de mercado superior (60%).

Aunque por el momento no cuente con una penetración significativa en el resto de Europa, el hecho de contar con una versión inglesa a nivel global – yandex.com – presenta un gran potencial para un futuro.

Yandex ofrece multitud de servicios alternativos, al igual que Google, como podrían ser servicio de correo electrónico, herramientas para webmaster y su propia herramienta de analítica web, Yandex Metrica, que poco tiene que envidiar de Google Analytics.

¿Qué es Yandex Metrica?

Como decíamos anteriormente, Yandex Metrica es una herramienta de analítica web creada por el principal buscador ruso. Al igual que sucede con éste, la herramienta de analítica está disponible tanto en ruso como en inglés, además, es completamente gratuita. Para acceder tan solo necesitas una cuenta de Google, Facebook o Twitter, aunque si deseas aprovechar todo lo que ofrece,  deberás crearte una cuenta con Yandex.

Entre sus características más destacables, encontramos una gran variedad de funcionalidades centradas en el usuario y su comportamiento en la web, por las que hay que pagar en otros servicios conocidos del sector.

Gracias a estas utilidades, con Yandex Metrica podemos realizar un análisis más exhaustivo del paso del usuario por nuestra web, además de mejorar la usabilidad y optimizar o mejorar aquellos aspectos que no funcionen, potenciando así la posibilidad de obtener conversiones.

Con esto no queremos decir que sea un sustituto de Google Analytics, sino el complemento perfecto para poder ahondar en aquellos aspectos que esta herramienta no cubre. Ambas recogen información de forma similar, aportándonos la cantidad de sesiones, el tiempo de permanencia, las fuentes de tráfico… Además de permitirnos aplicar filtros, segmentos, crear paneles personalizados y un largo etcétera.

paneles-yandex-metrica

Principales ventajas de Yandex Metrica

Yandex Metrica nos ofrece una serie de utilidades muy interesantes a la hora de conocer con detalle cómo ha interactuado el usuario con nuestra web, además de permitirnos mejorar aquello en lo que flaquea para poder atraerle como queramos. Entre éstas encontramos:

  1. Web Visor

Esta tecnología permite reproducir y analizar el paso de los usuarios por la web mostrando sus acciones tal y como ocurrieron, mediante la grabación en vídeo de toda su sesión. De este modo podemos ver qué sucede en cada página, dónde hace clic el visitante, cómo es la navegación… todo menos la introducción de contraseñas en campos habilitados para ello.

Web Visor también nos permite conocer la duración de la visita, así como el país de procedencia, sistema operativo o término de búsqueda empleado para encontrarnos. También dispone de un sistema de filtrado de visitas. Como limitación, destacar que el usuario debe pasar al menos 15 segundos en la web para que sus movimientos sean grabados. Además, únicamente guarda información de las últimas dos semanas, con un máximo de 1.000 sesiones diarias.

yandex-webvisor2-1024x326.jpg

  1. Maps: link map, click map y scroll map

Esta herramienta es el complemento perfecto de Web Visor, ya que además de mostrar datos de navegación, indica movimientos de ratón, así como el scroll realizado en la página. De esta forma, podemos conocer los patrones de comportamiento que siguen los usuarios a la hora de navegar.

  • Link MapResalta y organiza los enlaces de la web por escala de color, de los más clicados (rojo) a los menos populares (verde).
  • Click Map – Consiste en un mapa de calor que muestra en qué lugares se han producido los clics, y cuáles son los más clicados, permitiendo así definir qué es importante o prescindible en nuestra web. Se diferencia de la herramienta anterior porque muestra indica todos los puntos en los que el usuario hace clic, sin importar si es un enlace o no.click_map.png
  • Scroll Map – Nos enseña hasta qué punto un usuario hace scroll mediante un mapa de calor. De esta forma es más sencillo evaluar la calidad e importancia de los contenidos, así como ayudarnos a decidir cómo enfocar los próximos para obtener mejores resultados.yandex-scrollmap.jpg
  1. Tracking o seguimientos automáticos del funcionamiento de formularios

Una de las funcionalidades mejor desarrolladas por Yandex, realiza un análisis de cómo los usuarios interactúan con los formularios, y muestra diferente información al respecto, como el porcentaje de usuarios que abandona, en qué punto se  genera mayor rebote, la dedicación en cada campo, etc.

yandex-form-analytics

  1. Alertas ante posibles caídas del sitio web

E aquí una característica realmente útil, que nos permite conocer instantáneamente si la web se ha caído. Gracias a esta funcionalidad, la herramienta nos envía una notificación por email o SMS si la página está caída o tiene algún problema de disponibilidad.

  1. Keywords

Podemos recuperar las keywords originales por las que el usuario ha accedido a nuestra web, ya que muestra aquellos términos que Google Analytics incluye dentro de (not set).

  1. Tasa de rebote

Yandex Metrica sigue unos criterios diferentes a la hora de categorizar algo como rebote: no cuenta como tal si el usuario ha permanecido más de 15 segundos en la página. Por otra parte, establece un límite de 10 segundos de modo que si se recarga la página en menos de ese tiempo, únicamente se contabiliza una sesión, a diferencia de lo que sucede con Google Analytics.

Dicho esto, y teniendo en cuenta la importancia que supone el conocer la actividad y comportamiento de los usuarios en la web con el fin de optimizar el site y ofrecer una mejor experiencia de navegación, Yandex Metrica es una opción a tener en cuenta, con la que poder realizar un análisis más profundo de nuestra web y mejorar los resultados de cara al futuro.

MRM TALK: ¿qué es un BOT y cómo se diseña?

Hoy hemos asistido a uno de los MRM Talk del mes de enero en MRM // McCann. Y os preguntaréis ¿qué es MRM Talk? Son ponencias sobre temas de interés para los trabajadores de la agencia. Gracias a estas charlas, podemos ampliar nuestros conocimientos sobre diferentes ámbitos y enriquecernos con ello.

En el MRM Talk del pasado jueves tuvimos el placer de conocer a Álvaro Gonzalo y a Camino Moraleda, profesionales de la empresa Commons (http://www.commons.fm/). Vinieron a contarnos qué es un bot y cuáles son sus fases de creación.

Commons, firma de inteligencia artificial, desarrolla chatbots con diferentes personalidades. Para su creación tienen en cuenta las siguientes fases: conceptualización, UX, programación, creación de la personalidad, testeo y finalmente el análisis, seguimiento y mejoras. Todo ello para dar un servicio de calidad al cliente y que el bot se adecúe lo máximo posible a sus exigencias. Trabajan con clientes como Mahou San Miguel, Vodafone, Mapfre, Correos e Iberdrola, entre muchos otros.

Los chicos de Commons comenzaron haciendo una pequeña introducción sobre la importancia de los bots, y sobre todo, acerca de su demanda, que es cada vez mayor.

¿Qué es un bot?

Son programas informáticos, de automatización de procesos, capaces de imitar comportamientos humanos. A través de ellos podemos automatizar acciones, como por ejemplo: hacer un pedido online.

El bot en sí mismo es un programa de conversación online dotado de un código lingüístico amplio, capaz de dar respuesta a las preguntas de los usuarios cuando interactúan con el ChatBox de la marca. Lo más importante es dotar al bot de una estructura conversacional clara, jerarquizada y estable capaz de cubrir las posibles necesidades de información del usuario.

Además de los ChatBots de las webs de marca, muchos canales sociales como Facebook tienen integrada ya este funcionalidad a través de su Messenger App.

¿Cómo se crea un bot?

Desde Commons nos han contado cuáles son las fases de creación de un ChatBot:

1. Conceptualizar: diseñar el briefing del ChatBox con el cliente dejando muy claro cuál es el objetivo que se quiere conseguir con el bot.

2. Diseñar el UX: plantear TODOS los escenarios conversacionales posibles, ver los perfiles de los usuarios y el contenido a incluir en la estructura conversacional del bot, ya que hay infinitas posibilidades. Se necesita recabar y estructurar toda la información a la que dará respuesta el bot para definir los flujos funcionales.

3. Programar el bot.

4. Crear una personalidad: un bot es simplemente un modelo, por tanto para que se diferencie del resto le daremos una personalidad u otra, de acuerdo a las exigencias definidas con anterioridad. Será muy importante la semántica. El principal objetivo es crear respuestas diferentes para que las conversaciones sean lo más personalizadas posibles. Por ejemplo: si se ha formulado una pregunta que el bot no es capaz de entender, habrá que dotarle de respuestas múltiples del tipo: “lo siento, no te he entendido”; “¿cómo dices?” “me resulta difícil entender esta pregunta”…

5. Llevar a cabo una prueba o testeo: aquí comprobaremos si el bot funcionará bien o no. Se encontrarán errores, se verá si es eficiente o no, cuál es su usabilidad, qué capacidad  de respuesta tiene y si cumple con las expectativas del cliente.

Aquí es cuando se puede mejorar el bot antes de lanzar en vivo, y solo así nos aseguraremos sí el mensaje del bot va a ser eficaz y va a cumplir con los objetivos. En esta fase, hay que ser muy precisos.

6. Analizar, realizar un seguimiento e incorporar mejoras: según los problemas que se hayan tenido (si los hubo), se buscan soluciones para finalizar con el proceso de creación del bot. Siempre mejorando la experiencia del usuario.

Gracias al análisis, veremos que los ChatBots nos permiten recuperar información detallada de las conversaciones mantenidas con los clientes finales (los usuarios). Por tanto, entenderemos mejor las necesidades del usuario, y podremos orientar nuestras estrategias a lo que demandan.

La información a recabar es muy diversa, siempre de acuerdo a la política de privacidad, y permite indagar en aspectos como la preferencia de marca, la relevancia e interés de los usuarios por los diferentes productos, etc.

En definitiva, las empresas quieren trabajar cada vez más con bots ya que pueden relacionarse con el usuario de forma más fácil. No sería necesaria la descarga de una aplicación y su posterior registro. Es un proceso mucho más sencillo y rápido. Sin embargo, esto no significa el fin de las aplicaciones, es evidente que seguirán existiendo y los bots serán formas complementarias de ponerse en contacto con los usuarios.

 

Así ha transcurrido el año 2016, según Google Trends

¡Feliz 2017!

Para dar la bienvenida a un año tan esperado, qué mejor que cerrar el 2016 con la última publicación de Google sobre las tendencias de búsqueda más populares en el año que recién acaba.

A través de un emotivo video, el potentísimo buscador ha repasado un año de guerras, atentados terroristas, elecciones y pérdidas de importantísimos personajes de nuestra historia y, en especial, de la historia de la música. VER VIDEO

Las búsquedas más populares repasan nuestra adicción por la tecnología, con el iPhone7 encabezando el ranking de terminales más buscados, el boom de las Apps móviles con motivo del lanzamiento de Pokémon Go y las esperadísimas elecciones en Estados Unidos con la victoria de Trump.

Durante el 2016, los hábitos alimenticios también han cambiado: la “quinoa” se ha convertido en la búsqueda estrella en el sector alimentación y la marca de cerveza Budweiser se corona como la más buscada en el año que cierra.

El deporte también ha tenido cabida en lo más buscado de 2016: las búsquedas por la keyword Powerball se disparan y las Olimpiadas ocupan un puesto privilegiado en lo que ya es recuerdo del año anterior.

En cine, triunfa la comedia de superhéroes: Deadpool y Suicide Squad son las películas más googleadas del 2016. Netflix disfruta de una inmejorable imagen de marca gracias a la producción de series como Stranger Things, mientras que el canal HBO se posiciona en el ranking de búsquedas a través de su imparable Game of Thrones.

Como acontecimientos históricos, el Brexit británico, el tiroteo de Orlando o los atentados de Niza no nos dejan indiferentes. Lo que sí parece pasar desapercibido a las búsquedas de los internautas en 2016 ha sido la guerra en Siria, que no aparece posicionada en el top 10 de búsquedas a través de Google News.

Para lo que siempre hay tiempo, es para las propuestas de ocio viral: “how to make slime” y “mannequin challenge” ocupan las primeras posiciones del ranking en esta categoría.

Por último, el año 2016 se despide de artistas como Prince o David Bowie, quienes no nos acompañarán en el nuevo año, aunque su música, lo haga para siempre. VER VIDEO

Vote for Trump! La campaña que ha espameado las analíticas del mundo

Hace unos días, viendo las analíticas de algunos de los clientes para los que prestamos el servicio de análisis web, me encontré con el curioso “Caso Trump”, o lo que es lo mismo, cómo la campaña del ya confirmado nuevo Presidente de Estados Unidos, se ha apoyado en el spamming digital para reforzar la notoriedad de la marca “Trump”.

Tal ha sido el impacto, que los webmasters y analistas de medio mundo (yo, entre ellos) se están preguntando cómo han podido llegar claims de campaña “Vote for Trump!” a dimensiones del tipo “Idioma” dentro de Google Analytics.

google-vote-for-trump-analytics-spam-1478695943

Otra de las cosas curiosas que rodean el “Caso Trump” es la URL de la que parece proceder el spam: secret.google.com, lo que también ha motivado que Google entre al trapo.

Pero… ¿quién está detrás de este escándalo digital? La realidad es que las URLs originales que están referenciando tráfico bajo el nombre de página: secret.google.com y el idioma: You are invited! Enter only with this ticket URL. Copy it. Vote for Trump! son, entre otras thenextweb.com y abc.xyz, webs que, a su vez, redirigen a:

Captura3.JPG

¿Os suena? ¡Esta URL de tamaño interminable no es sino un fragmento de la canción Money, de Pink Floyd! PLAY ME

En definitiva, los autores de esta genialidad (por llamarla de alguna manera), son los conocidos spammers dueños de ilovevitaly.com, concretamente, se atribuye el mérito al conocido Vitaly Popov, al que se le atribuyen muchos otros casos de “ghost spam“.

¿Cómo es posible? Igual que los desarrolladores web suelen enviar datos desde entornos de prueba a nuestras analíticas a través del Protocolo de medición, los spammers, utilizan estas mismas técnicas para hackear las analíticas webs.

how-does-ghost-spam-hit-google-analytics-measurement-protocol

¿Podemos hacer frente a este tipo de spam? Sí, es posible, aunque complicado. Este tipo de spammers van a existir siempre, y sus técnicas les permiten colarse en nuestras estadísticas más de lo que nos gustaría. Filtrar la información para unas referencias determinadas muchas veces no sirve de nada, pues recurren a dominios .xyz diferentes para evitar ser cazados.

No obstante, se nos ocurren algunas soluciones que iremos compartiendo durante los próximos días. ¡Atentos!

  Fuentes: https://www.ohow.co/es/   |   https://twitter.com/WolfOfSEO/status/796050167099224064  |   https://www.seroundtable.com/google-vote-trump-analytics-spam-22966.html

Bitext y la importancia del text mining

En el desayuno del pasado viernes 18 de noviembre, hemos tenido la oportunidad de conocer a Mykola Sochynskyi, profesional de la empresa Bitext.

Bitext, empresa fundada en 2008 en Madrid, empezó a hacer consultoría para dar servicios a sus clientes en relación a la lingüística. Desde entonces crecieron en personal y negocio, tanto, que la demanda ha requerido una reciente apertura en San Francisco (EE.UU.)

Trabajan con sus clientes desde la postventa hasta el servicio con todas las encuestas. Antes lo codificaban manualmente y ahora los clientes (diferentes sectores) usan la herramienta de Bitext.

Trabajan con 25 idiomas y se comprometen a tener un 90% de precisión, toda su tecnología está basada en el análisis gramatical de las frases. Los diccionarios son totalmente customizables y pueden ser ampliados.

Todos los resultados arrojados en las encuestas son estructurados donde existen campos importantes como sentiment topic, sentiment text, una puntuación dada y el polarity bien si es positivo o negativo. Además, van un paso más con las categorías, esto permite al cliente saber cuál es la parte de la empresa que mejor o peor se comporta. Esta categorización puede ser definida bien por el propio cliente o bien subcontratada por la empresa Bitext.

Para el análisis de los resultados utilizan Qlik Sense con el fin analizar los datos de una manera más visual para tomar las mejores decisiones en el menor tiempo posible.

pc_bitext

Myko afirma que el sector donde más rentabilidad se puede obtener es Market Research.

Sin duda, una herramienta con mucho potencial donde tiene un importante rol cuando el cliente se pone en el centro de la empresa. Escuchar, analizar y entender al cliente, es lo principal para que nuestro negocio esté a las alturas de las expectativas del mercado.

Os dejamos el link de la empresa por si queréis echar un vistazo:

https://www.bitext.com/

El nuevo Penguin de Google y otros cambios en el Algoritmo

¿Sabías qué…?

  • Google cambia su algortimo unas 500 veces al año, lo que equivale a un cambio cada 17.5 horas
  • La última novedad en dicho algoritmo afecta a la optimización de contenidos para versiones móviles. El tan comentado “Mobile First” es una realidad desde el pasado 4 de noviembre
  • La versión 4.0. de Penguin ha llegado para quedarse. El pasado 23 de septiembre, Google pone fin al spam web y la posibilidad de escalar posiciones SEO a través de enlaces artificiales

 

Mobile First (4 de noviembre, 2016)

Cada vez más las búsquedas de información de los usuarios se llevan a cabo a través de dispositivos móviles. Google lo sabe, y por ello, desde el pasado 4 de noviembre, los índices de posicionamiento en este buscador estarán basados en rastreos de contenido móvil.

En su día, Google afirmó que la actualización del algoritmo, que afecta directamente al posicionamiento SEO de nuestras páginas webs, sería neutra, esto es, sin impacto visible ni penalizaciones para aquéllos sites mobile-unfriendly. No obstante, conviene tener el sitio web optimizado tanto para el contenido que se muestra en escritorio, como aquél dirigido a dispositivos móviles.

Puedes valerte de Google Search Console para comprobar si tu página tiene un diseño optimizado para móviles.

¡Pista! Tu página se ganará la etiqueta “optimizado para móviles” si cumple los siguientes criterios:

  • Uso de softwares comunes en dispositivos móviles (¡adiós al Flash!)
  • Uso de textos legibles sin usar zoom
  • Contenido y botones adaptados a las dimensiones de la pantalla móvil

 

Penguin 4.0. (23 de septiembre, 2016)

Aunque Penguin se lanzara en 2012, la actualización de este año conlleva importantes consideraciones:

  • Tiempo real: cuando tu webmaster efectúe cambios y mejoras en Internet, los datos de Penguin serán refrescados en tiempo real, lo que quiere decir que, cualquier actualización será mucho más rápida e indexados los nuevos cambios de forma casi inmediata
  • Mayor granularidad: o lo que es lo mismo, refuerzo de la lucha contra los sitios con enlaces artificiales: el rastreo de los mismos hará caer en posicionamiento SEO a aquéllos sitios que se hayan valido de enlaces falsos para conseguir escalar en posiciones: esos enlaces, dejarán de contar en el índice de posicionamiento.

***********************************************************************

El papel de una agencia de medios: qué es y cómo funciona un departamento de trafficking digital

Segundo día de nuestros Digital Talks en MRM // McCANN. Hoy arrancamos los Desayunos de los viernes con Miguel Sancho y Víctor Terreros, Traffic Managers en Magna Solutions, del Grupo IPG.

Miguel, ¿qué es una agencia de medios y cómo funciona?

  • Una agencia de medios es el intermediario en la compra de espacios publicitarios entre un anunciante y un soporte publicitario. La agencia de medios (front office) recibe el presupuesto del anunciante y el objetivo de la campaña y reparte, entre los distintos departamentos de compra de medios dicho presupuesto, para adquirir los espacios en los distintos soportes, tanto digital como offline (back office).

¿A qué se dedica el departamento de trafficking y qué papel desempeña en la compra de medios?

  • El equipo de tráfico de una agencia de medios pone a disposición de la agencia de medios la tecnología y el conocimiento necesario para que la campaña se sirva en el ecosistema digital y devuelva los resultados del funcionamiento de la campaña.

¿Qué métricas consideráis para medir el funcionamiento de una campaña?

  • Las impresiones (veces que el anuncio se ha servido en un espacio publicitario) y los clicks (interacciones del usuario con el anuncio) son las métricas más habituales pero, hace un año y medio aproximadamente, los AdServers (las tecnologías que se utilizan para traficar una campaña y medir resultados) incorporan a sus filas la métrica de impresiones vistas: esta métrica es una fórmula calculada que tiene en cuenta la posición del anuncio dentro del soporte y el tiempo de exposición (la IAB define la visibilidad de la pieza a partir de 1 segundo de exposición).

¿Cómo es posible esta medición?

  • La medición es posible a través de las cookies: fragmentos de código incorporados en el ordenador del usuario a través del navegador empleado. Esto significa que cuando hablamos de cookies únicas, hablamos de tantos navegadores y dispositivos como use la gente. Esto en cierto modo distorsiona métricas, como el alcance de una campaña.

¿Están los AdServers corrigiendo de estas desviaciones de audiencia?

  • Sí, otra de las novedades de los últimos años es la incorporación de los informes cross-device, que ya tienen todas las plataformas de anuncios de Google: DoubleClick Campaign Manager, DoubleClick Bid Manager, and DoubleClick Search. Estos informes son viables gracias al login del usuario en múltiples dispositivos. Por ejemplo, el usuario logado en apps de Google: gmail, google maps, etc. será medido como un único usuario en su exposición publicitaria.

¿Es cierto que los AdServers utilizan información personal para segmentar su publicidad?

  • Desde junio de este año, el AdServer de Google (aunque Facebook ya lo hacía), permite rastrear las cuentas abiertas en esta compañía y cruzarlas con búsquedas, y resultados de impacto publicitario para “mejorar la eficiencia publicitaria”.

¿Cómo afectan los ad-blockers a los presupuestos publicitarios?

  • Los ad-blockers son nefastos para los presupuestos publicitarios. La pieza se sirve, o sea, cuenta como impresión por la que el anunciante paga, pero el usuario nunca llega a verla. Esto afecta negativamente tanto a presupuestos, CTRs, etc. Lo que se está intentando es “reorientar” las cookies de tercera parte a cookies de primera o segunda, esto es, que sean nativas del contenido del soporte, para evitar el impacto de los ad-blockers.

Miguel, ¿cuál es el futuro de la compra de medios?

  • La programática enfocada a plataformas móviles, y las redes orientadas a Performance, así como las plataformas que permitan acciones especiales.

Curiosidades del buscador de Google: el rastreo de imágenes

Si quieres quedar como un auténtico entendido en lo que a búsquedas en Internet se refiere, presta atención a este post.

Hace poco me ponían a prueba: “Eva, me van a llevar de cena de navidad a este sitio, ¿a qué no adivinas dónde es?” No hay nada que me guste más que un reto digital. Y, cómo no, Google siempre tiene la solución: su funcionalidad de búsqueda por imágenes.

Para utilizar una imagen como criterio de búsqueda, sigue los siguientes pasos:

  1. En images.google.com o en cualquier página de resultados de imágenes, haz clic en Buscar por imagen Buscar por imagen.
  2. Haz clic en Subir una imagen.
  3. Haz clic en Seleccionar archivo.
  4. Busca la imagen en el ordenador y selecciónala.

captura

Si utilizas Chrome o Firefox 4 (o versiones posteriores), también puedes arrastrar imágenes de tu ordenador al cuadro de búsqueda.

Y, por último, si de lo que dispones es de la URL donde esté alojada la imagen, simplemente copia la URL en el buscador y ¡voilá!

Cuando utilizas una imagen como elemento de búsqueda, podrás obtener los siguientes resultados:

  • Imágenes similares
  • Sitios que incluyen la imagen
  • Resultados de otros tamaños de la imagen utilizada para la búsqueda

¡Pista! Si te han adjuntado la imagen directamente desde Internet a un correo, normalmente uno de los atributos de la imagen será la URL de la que procede… ¡fíjate bien en estos elementos para rastrearla!

¡OJO! Cuando utilizas una imagen como elemento de búsqueda, cualquier imagen o URL que subas se almacenará en Google, aunque se dice, se cuenta y se rumorea, que solo utiliza estas imágenes y URLs para mejorar sus servicios y productos.

 

Visualize your world (with data)

Evento Qlik

El Barroco surgió a principios del siglo XVII, poco a poco se fue extendiendo hasta ser revalorizado a finales del siglo XIX. Pasó por años donde se le acuñaba un sentido peyorativo, aunque finalmente logró hacerse un hueco entre los artistas de la época.

Lejos de hacer comparativas que puedan ofender a los amantes del arte, la visualización de datos sigue la misma tendencia que la expuesta en el primer párrafo: aparición de los primeros gráficos hace mucho tiempo para darle la importancia merecida más tarde pero siempre han tenido una función relevante.

 Una de las primeras representaciones gráficas para mostrar datos multidimensionales fue la realizada en 1869 por C.J. Minard que construyó el siguiente mapa donde se muestra el avance y posterior retirada del ejército de Napoleón en la campaña rusa de 1812-1813.

Gráfico 1. Avance y retirada del ejército napoleónico durante la campaña rusa 1812-1813

mapa_ejercitonapol

Fuente: E.R Tuftle en The Visual Display of Quantitive Information

Así pues, fue considerado como uno de los “mejores gráficos jamás realizados”. Éste, y los desarrollados hasta el día de hoy, muestran la importancia de saber representar la información de manera clara y sencilla. Transmitir la información necesaria para que el público pueda tomar decisiones en cuestión de segundos. Este es el objetivo de herramientas como Qlik que ayer, día 19 de octubre de 2016, celebró en Madrid el evento “Visualize your world”.

portada_vyw

Al principio se desarrolló como la mayoría de los eventos de este tipo, una parte comercial donde muestran las características que hacen única la herramienta como su motor asociativo, donde todos los datos están asociados.

Y su capacidad de trabajar en memoria lo cual permite una mayor agilidad de cálculo.

Para mostrar estas características se realizó una demo con un cuadro de mando de los Precios de Combustibles en las gasolineras de España con datos públicos del Ministerio de Industria. “Descubrieron” que no existen gasolineras Repsol ni en Ceuta ni en Melilla.

Por otro lado, estuvimos viendo la preparación de los datos donde se pueden calcular dimensiones de operaciones sin necesidad de entrar en el SetAnalysis.

Siguiendo con la parte más comercial, ya ha salido la versión Beta de Qlik Sense 3.1 que cuenta la novedad de la integración de los motores de R y Python.

Diferentes oponentes prosiguieron con casos de uso pero sin entrar en detalle. La empresa Accenture tuvo una ponencia de su modelo de negocio donde su motto en el entorno analítico es Disruption is happening (un cambio a la hora de realizar las cosas).

trestendencias

Tres tendencias fueron reconocidas por la consultora:

  • Digitalización: está en todos los sitios, no sólo móviles si no en coches, ascensores…
  • Liquid Expectations: un estudio de la misma empresa demostró que el 62% de los CEO manifestaron que no estaban conforme con la gestión de sus clientes. El 49% afirmó que no estaba en sus manos. ¿Por qué? Porque nuestra demanda se está expandiendo. Nuestra demanda, no sólo se centra en un sector, sino que es transversal a todas las industrias.
  • Intelligence: los datos son el poder digital, pero éstos no aportan valor. Lo que aporta realmente valor es el análisis de los datos. Por ello, es muy importante la capacidad de proyectar grandes volúmenes de datos visualmente, en gráficos.

Después de esto, aprovechando el descanso para el café, nos acercamos al estand de nuestro proveedor. Nos contaron que los mapas van a ser los elementos indispensables en cualquier cuadro de mando. Mapas que nos permitan bucear en los datos para descubrir correlaciones entre variables que jamás hubiéramos imaginado (Alerta: cuidado con las correlaciones espurias).

Existe la extensión de Qlik Maps (https://vimeo.com/111139445) que permite insertar varias capas y medidas para conseguir un mayor enriquecimiento en el Data Discovery. #notfree

Las siguientes charlas vinieron de la mano de Qlik. Presentaron novedades como la incorporación de infografías dinámicas a partir de html con el motor de Qlik sense.

Los próximos pasos para 2017 será Hybrid, un entorno colaborativo en Qlik. Además, Qlik Branch, Qlik Market serán incorporadas para la utilización de extensiones sin necesidad de descargas.

Mostraron una app desarrollada por ellos llamada Qlik Social donde es posible descargar contenido de twitter con el fin de analizar el impacto social de la marca.

qliksocial

Y QlikSenseBot un robot capaz de responder a tus preguntas a través de Telegram.

qliksensebot

Finalizaron con la importancia del Data Storytelling. Ha ganado notoriedad en los últimos años y es que cada vez son más los profesionales que tienen que tomar decisiones basadas en hechos en el menor tiempo posible.

adobe-summit-data-storytelling-22-638

En definitiva, fue un evento interesante donde no estuvo tan centrado en la venta del producto sino en el uso potencial para conseguir lo que nosotros y C.J. Minard queremos: mostrar la máxima información en el menor espacio y tiempo posible.

Digital Talks: Diego Duque nos habla de “física estadística” aplicada a Marketing

Inauguramos los Desayunos de los viernes en MRM // McCANN con Diego Duque, investigador pre-doctoral en la Universidad UNED.

Diego ha hecho un parón en su “simulación de procesos térmicos en la dinámica de nanofluidos” para hablarnos de Física Estadística: una rama de la Física que mediante la Teoría de la Probabilidad, es capaz de deducir el comportamiento de los sistemas macroscópicos constituidos por una cantidad estadísticamente significativa de componentes equivalentes a partir de ciertas hipótesis sobre los elementos que los conforman (elementos microscópicos).

Esto que suena “a chino” para quienes no recordamos los modelos estadísticos de la Universidad, viene a poner en relevancia la importancia de las predicciones estadísticas para explicar cualquier fenómeno social del s. XXI: “la ciencia estadística aplicada a los fenómenos sociales, es la ciencia del siglo” – Diego Duque.

En el siglo XXI ya no es posible entender una disciplina sin la interconexión entre ésta y otras muchas: los problemas del siglo XXI exigen soluciones interconectadas. Véase el problema del cambio climático; que hace tiempo solo era campo para la meteorología. Ahora intervienen en su estudio economistas, matemáticos, físicos… cualquier impacto social o del entorno tiene su impacto en el resto de campos de estudio.

Esto es debido a que cualquier fenómeno,como la sociedad misma, es un sistema complejo, esto es, imaginemos un desierto de dunas, cada una de las cuáles está formada por un conjunto de componentes o granos de arena. La definición de la duna como tal no viene de cada grano de arena por sí solo, sino por el conjunto de todos ellos. Asimismo, la duna nunca está en una situación estática, por estar golpeada por el viento pero, entre los granos de arena, existe una auto-organización que mantiene la duna en relativo equilibrio. Existe una lucha constante por mantener el equilibrio en ese sistema; al igual que ocurre en la sociedad.

Otro de los campos de los que habla Diego Duque para entender la sociedad de hoy en día es la Sociofísica. En este caso, se estudian las interacciones colectivas a partir de promedios predecibles. “Lo importante no es conocer los caprichosos actos individuales“. Un ejemplo claro es “la ola mejicana” o lo que es lo mismo, fijémonos en las olas generadas en los estadios de fútbol: estructuralmente son idénticas de campo a campo, con independencia de la espontaneidad con que se produce. Asimismo, la ola no cambia por el comportamiento individual de un elemento de la misma: es el comportamiento del conjunto lo relevante del estudio.

En Marketing, los promedios predecibles son también importantes: ¿cómo diseño mi ruta publicitaria en exteriores? ¿qué contenido debo enviar a mi público objetivo? ¿cómo targetizo mi base de datos para distribuirla en segmentos de mayor o menor eficiencia? Al cliente único se le deja de dar importancia y nos centramos en el colectivo: es la masa lo relevante. Sin el rebaño, la predicción sería imposible. “Se puede controlar al rebaño, y no a la oveja en su individualidad“.

article_13971661063

Cierto es que a día de hoy la absoluta individualización de la comunicación publicitaria es un ideal pero, si llegásemos hasta el punto de máxima personalización, para hacer que nuestros clientes se sientan “especiales”; “únicos”, dejamos de dar importancia al potente sentimiento de pertenencia al grupo, surgiendo el debate de, ¿a qué dar mayor relevancia: al sentimiento de individualidad o de colectividad?