Archivo de la etiqueta: business intelligence

¿Cómo puede ayudar el Big Data a mi empresa?

bTodos los días aparecen gran cantidad de artículos sobre Big Data; que si menganito lo está haciendo, que si Fulano ya lo ha hecho, que si el Big Data salvara el mundo… Cómo casi siempre en cuestiones cruciales se echa en falta una explicación clara y sencilla sobre las ventajas que aporta esa tecnología en concreto. Y decimos bien sobre las ventajas, antes incluso sobre qué es o como funciona. En un mundo como el nuestro, con tantas opciones e información es más importante saber qué es lo que una tecnología puede aportarnos antes de meternos en detalles sobre su esencia o funcionamiento.

A continuación, detallo algunas de las principales ventajas que el Big Data puede aportar a tu empresa:

 

Conexión con la realidad: Incorporando, analizando y relacionando múltiples fuentes de datos que están más allá de la limitada información de carácter económico financiero, que se maneja en las empresas, abrimos un canal de conexión que nos permite evaluar cómo se relacionan las distintas partes que componen la realidad con mayúsculas de nuestra empresa.

Hasta ahora cualquier análisis que pudiéramos realizar se basaba en la información contenida en nuestros sistemas de gestión, casi siempre transaccionales. Estos registran cadenas de eventos o procesos, que comienzan cuando un cliente nos hace un pedido y terminar cuando se le entrega un producto o un servicio. Casi todo lo que ocurre antes y después y sobre todo fuera de los circuitos administrativos de nuestra empresa permanece inaccesible y por tanto imposible de analizar y sobre todo de relacionar con aspectos clave de nuestra empresa como el comportamiento de las ventas. Lamentablemente dado que las empresas no son entes aislados, sino que operan en un entorno, gran parte las cuestiones cruciales a tener en cuenta se encuentra fuera de esta limitada esfera.

Con las soluciones de Big Data podemos crear un puente entre en la empresa y el mundo, mediante un sistema de análisis que recoja en tiempo prácticamente real todo tipo de datos de fuentes dispares e integrarlas con la información de nuestros sistemas, teniendo un pulso continuo sobre nuestro entorno.

Capacidad de respuesta: Incorporando de forma automática y en tiempo real grandes flujos de información relevante, podemos detectar problemas y amenazas mucho antes de que estas afecten al balance de nuestra empresa, lo mismo podemos decir de las oportunidades.

Un sistema de Big Data bien articulado ha de ser capaz de ir rastreando todo ese flujo de datos en busca de correlaciones y hechos significativos que nos permitan anticiparnos a los cambios que suceden en nuestro entorno y a los potenciales problemas que se puedan originar dentro de nuestra empresa.

Interacción: Al integrar más información proveniente de terceros en nuestros sistemas, tenemos la oportunidad de establecer unos marcos de interacción mucho más dinámicos y fluidos, generando mensajes y acciones que den respuesta a hechos concretos.

Este aspecto es especialmente útil para las actividades de marketing y ventas ya que nos permite crear canales de comunicación directos con nuestros clientes potenciales y actuales. Con un mejor seguimiento de todas las acciones de marketing e iniciativas comerciales que realicemos. Una de las grandes fallas del marketing es la incapacidad real y efectiva de medir la eficacia de las campañas acometidas. Con las soluciones de Big Data esta brecha consigue estrecharse de forma significativa.

Comprensión: Integrando todas las fuentes de relevantes en un único repositorio de datos junto con toda la información contenida en nuestros sistemas de negocio tenemos por fin la capacidad de entender el funcionamiento de nuestra empresa y establecer consecuencias causales, determinar flujos de acontecimientos y en definitiva entender mejor como nuestra empresa responde a los cambios en nuestros entorno y como nuestras acciones son capaces de generar cambios en nuestros clientes, proveedores y en nuestro público en general.

Fidelización de clientes: Este último punto es una consecuencia casi inevitable de un correcto desarrollo de los puntos anteriores. Recopilando información de forma continua acerca de nuestros clientes y su entorno, utilizándola para comprenderlos mejor y dar una respuesta más rápida y efectiva a sus necesidades, estamos en una posición inmejorable para establecer con ellos un relación más duradera y fructífera para ambas partes.

Es un axioma conocido en el mundo de la empresa que casi siempre se invierten importantes cantidades de recursos en incorporar clientes potenciales sin desarrollar adecuadamente nuestra cartera actual.  Con las soluciones de Big Data contamos las herramientas necesarias para corregir este defecto.

Creación de ventajas competitivas: Si algo distingue el Big Data del BI tradicional es sus capacidades de analítica avanzada. Con una adecuada configuración y dirección, el sistema explora todo el torrente datos buscando patrones y correlaciones, que permiten aflorar realidades ocultas difícilmente detectables de otra forma.

En otras palabras, nos permite ir más allá de donde llega nuestra intuición, mostrándonos aspectos relevantes de nuestro negocio, que podemos aprovechar para generar ventajas competitivas.

Al ser el Big Data un mundo tan vasto y con tantas aplicaciones he optado por ser lo más genérico posible, ofreciendo un conjunto de ventajas globales que puede obtener cualquier empresa y que por fuerza deberían de traducirse en casos de uso concretos para cada caso. No obstante, si interesado en conocer de forma más que ventajas concretas puede generar para tu empresa, estaré encantando de hablar contigo.

Espero que el artículo te haya resultado interesante. Un saludo.

ERP, industria 4.0 y redes M2M

iot

¿Qué es la industria 4.0? En la adaptación al cine de la novela “Yo robot”, de Isaac Asimov, en mitad de una persecución vemos como el protagonista se introduce en una fábrica de coches. La fábrica está totalmente automatizada, no vemos ni una persona en las zonas de ensamblaje o almacenamiento. Asistimos al ensamble completo de un un producto tan complejo como un coche sin ninguna clase de intervención humana directa. Tal vez este modelo productivo que nos plantea la película, sea una hipérbole, pero viendo esa escena nos podemos hacer una idea más aproximada de los que es la industria 4.0 que leyendo las farragosas definiciones que circulan por la web.

En definitiva es la transformación digital aplicada al mundo de la fabricación. La automatización llevada hasta su último extremo en el que las máquinas realizan todo el proceso productivo. Pero la industria 4.0 es mucho más que eso, significa tener conectados a los centros productivos al cliente, proveedores y múltiples fuentes de datos. Esto a día de hoy no es ciencia ficción. Mediante la integración entre sistemas de gestión y redes M2M, los sistemas son capaces de autorregularse y tomar decisiones en tiempo real en base a los cambios de la demanda, condiciones de la fábrica y suministros, aplicando las reglas de negocio previamente suministradas. Adaptando así el funcionamiento, la organización y la planificación de la fábrica  a las necesidades de la organización y los clientes.

Desde hace más de dos décadas los ERP se han convertido en los principales sistemas de gestión de las empresas en todo el mundo. Si la revolución digital va a transformar todo el sector industrial, que duda cabe de que los ERP no van a quedarse al margen de esta transformación ya que en ultima instancia serán los gestores de todas esta información.

 

Adaptando el ERP para trabajar con redes M2M

La integración de datos provenientes de sensores y dispositivos, como básculas de pesaje, sistemas de gestión de almacén o incluso localizadores en flotas de vehículos no es algo nuevo en las aplicaciones ERP. La cuestión clave es que hasta ahora estas integraciones generalmente eran desarrollos a medida hechos para casos específicos y concretos. En el resto de las ocasiones hablamos de soluciones verticales que establecen propuestas muy concretas para un único sector. Faltaba una arquitectura de solución capaz de integrar los datos provenientes de dispositivos y redes en las aplicaciones de negocio, de forma versátil y dinámica. Permitiendo integrar la mayor cantidad de información útil disponible sin tener que caer en costosos desarrollos y soluciones a medida que necesitan de esquemas rígidos que acaban lastrando la competitividad de la empresa.

A grandes rasgos, las redes M2M integradas con aplicaciones de negocio se componen de cuatro elementos básicos: dispositivos, pasarelas, servidores y aplicaciones de negocio.

Por dispositivos entendemos cualquier aparato capaz de captar información y realizar mediciones sobre diversas variables de interés tales como: localización, movimiento, condiciones ambientales, información de estado de máquinas y un largo etc…

Las pasarelas son dispositivos que se encargan de recoger información de varios dispositivos y filtrar y transformar esa información a formatos estándares para su transmisión a través de internet. El servidor recibe toda esta información que analiza, filtra y almacena en los repositorios de datos del ERP para que pueda ser usada por las aplicaciones de negocio.

Este tipo de arquitectura basada en pasarelas facilita enormemente la integración de datos en las aplicaciones de negocio ya que el servidor simplemente necesita un protocolo para comunicarse con las pasarelas y no uno protocolo y configuración por cada dispositivo a incorporar a la red. Realmente este diseño de red marca la diferencia entre la integración de dispositivos tradicional y el Internet de las cosas…Las pasarelas vienen a ser ordenadores diseñados y dedicados exclusivamente a la recogida de datos, con procesadores especializados y múltiples opciones de conexión y recogida de datos, generalmente tienen un aspecto mucho más robusto que un ordenador normal y carecen de pantalla o teclado ya que se accede a ellos de forma remota. A continuación podeis ver la imagen de una pasarela.

screenshot-www.qnv.com 2016-06-16 16-29-04

Para entenderlo todo de forma más clara utilizaremos un ejemplo práctico y tal vez más sencillo de entender que uno industrial, el de una cadena de tiendas. En cada tienda tienda se dispone de estanterías inteligentes que detectan automáticamente cuando un producto es retirado de una estantería, también desde la caja se recoge información de los productos vendidos, además los sensores de la tienda detectan la afluencia total de personas, temperatura, humedad y demás. En lugar de conectar cada uno de esos dispositivos a la aplicación de negocio, con el uso de una pasarela podemos  centralizar la recogida de datos de todos los dispositivos de cada establecimiento en una una pasarela que hará de intermediario entre los dispositivos y el servidor.

Con esta arquitectura de red facilitamos la replicación de este modelo de redes M2M a otros establecimientos de la empresa, además de la integración de datos en el repositorio del ERP.  Las pasarelas M2M además son equipos específicamente diseñados para la recogida de datos provenientes de sensores y su conversión a diversos protocolos, con lo que soportan la mayor carga de complejidad a la hora integrar, además aportan otras ventajas como la seguridad extra en la red.

 

Visualización dinámica de datos: Datos, información, Conocimiento.

resized

La toma de decisiones en las empresas debe ser un proceso ágil y rápido. Para ello son necesarias herramientas que faciliten la gestión de los informes en tiempo real y permitan a los responsables de los departamentos tomar la mejor decisión en el menor tiempo posible.

Los datos no son información por sí mismos, han de ser destilados para generar el conocimiento que será la base que fundamente la toma de decisiones. Las empresas manejan enormes volúmenes de datos y deben convertirlos a la mayor brevedad posible en información comprensible, útil y eficiente.

Contando con que el tiempo en las empresas es limitado y que nuestra capacidad para asimilar la información es aún menor (la mayoría de los cerebros sólo prestan atención durante un máximo de 45 minutos), necesitamos herramientas que sinteticen la información en formatos que faciliten su comprensión.

Para ello, los datos tienen que ser ordenados y organizados para que muestren la información que el usuario está buscando. La consecución de estos procesos puede distorsionar la información que se quiere dar, por lo que el usuario deberá crear jerarquías y modelos organizativos para garantizar la integridad y la coherencia de la información. Se debe evaluar, analizar y representar de manera que nos ayude a conocer su significado.

Es ahí donde entran en juego las herramientas de visualización dinámica, que ordenando y jerarquizando los datos suministrados muestran la información que el usuario demanda. Esta visualización, además de ser atractiva ha de plasmar, comparar y combinar los hechos más significativos para que el usuario pueda inferir su significado contextualizando la información.

Estas herramientas facilitan la exploración, algo que los antiguos sistemas no permitían. Esto se debe a que éstas plasman la información de manera visual y dinámica. Mediante gráficos de todo tipo, permiten al usuario navegar por la información de la manera más rápida posible mientras que con los métodos estáticos esto no era posible, empobreciendo la experiencia.

Estos gráficos y tablas pueden ser introducidos tanto en informes estáticos (powerpoints, pdfs, etc.) como en informes dinámicos, haciendo más interesantes aún las presentaciones a la hora de exponer la información.

Es aquí donde se observa un cambio sustancial en cuanto a la visualización de datos se refiere. En primer lugar tenemos los informes clásicos, en los que se desgrana la información de una manera estática, ya plasmada en el informe correspondiente sin posibilidad de variar lo existente.

Las herramientas de visualización de datos permiten no sólo visualizar los datos si no explorarlos, entendiendo esta exploración como navegar por ellos creando al mismo tiempo elementos dinámicos que ayuden al usuario a analizar la información de una manera mucho más eficiente.

A fin de cuentas una visualización de información explica historias, simplifica, mide, compara, explora, descubre…con el objetivo de convertir los datos en información y ésta última en conocimiento.

Sumado a estas ventajas, una herramienta de estas características basada en la nube (On Cloud) resulta mucho más interesante para todas aquellas personas del ámbito empresarial que deban realizar este tipo de análisis y/o presentaciones, dado que les otorga movilidad y facilidad en el acceso así como facilidad en el uso, ya que pueden emplearlas desde cualquier dispositivo con acceso a internet dejando a su elección cuál les resulta más cómodo para trabajar.

 

En este campo, Oracle ofrece una solución llamada Visual Analyzer (OVA) que integra a la perfección todos los datos relevantes de la empresa permitiendo una exploración de los datos eficiente y cómoda, y haciendo del reporting algo mucho más llevadero, visual e interesante.

Si desea más información, no dude en consultar la sección específica en nuestra página web:

http://onegolive.com/es/portfolio-golive-soluciones-consultoriaerp-crm-bi/oracle-visual-analyzer

Liberada la versión 11.1.1.9 de Oracle Business Intelligence

A mediados de Mayo de 2015 salió la nueva actualización de Oracle BI.  Hace pocas semanas la instalamos en nuestro entorno de pruebas  para evaluarla de forma detallada. El resultado ha sido bastante satisfactorio,  ya que introduce significativas  mejoras.

Interfaz             

No es que la haya habido un rediseño total de la interfaz de usuario, ya que  mantiene bastante coherencia con las versiones previas,  pero se han incluido una serie de nuevos diseños, más adaptados a las nuevas tendencias en UX. Por otro lado,  estos estilos son más fáciles de configurar y personalizar.

De hecho cuando actualizamos de la versión 11.1.1.7.1 a la versión 11.1.1.9.0 nos mantuvo el tradicional diseño de la 11G y  tuvimos que configurar el nuevo diseño llamado Skyros que es el mismo que lleva el producto de BI en la nube (Oracle BI Cloud Service). Este es su aspecto.

obi_articulo_1

Este es el diseño que  usaremos por defecto tanto para nuevos clientes como para aquellos que quieran actualizar a la última versión de OBI.  Una de las razones es que es mucho más sencilla la personalización de los colores corporativos, al ser un estilo basado en colores planos sin degradados, más acorde con las tendencias de diseño actuales. Esto hace además que la interfaz sea más ligera para el usuario. A continuación,  hacemos un breve repaso  a la evolución del diseño de las diferentes versiones del OBI.

obi_articulo_2

Como podéis comprobar, el último diseño es mucho más ligero, lo que hace más fácil trabajar durante largos periodos de tiempo con la herramienta. Se puede notar también el esfuerzo de Oracle por ir adaptando la herramienta a las últimas tendencias en diseño.

Administración                                                                                          

Se incluye un nuevo monitor de operaciones e información adicional para las tablas de auditoria, nuevas configuraciones de los ficheros instanceconfig.xml y nqsconfig.ini.

A parte se ha incorporado una funcionalidad que nos ha parecido muy interesante. El administrador si tiene que probar los permisos o ejecutar informes de otro usuario puede hacerlo directamente con la opción “actuar como”. No tiene que pedir la contraseña y salirse de la aplicación para volver a entrar.

Sin duda esta mejora hace mucho más sencillo las labores de administración y testeo. Permitiendo entregar a los usuarios el producto final sólido con menos esfuerzo, al eliminarse una tarea tan repetitiva y tedioso como la de los loggeos.

obi_articulo_3

 

Mobile App integrado en la instalación

Mobile App, es una funcionalidad que permite hacer aplicaciones no nativas con menús de cuadros de mando. Antes había que instalarlo y configurarlo aparte, ahora lo incluyen en la propia instalación.

Como podéis ver en la imagen  ahora para crear una aplicación móvil simplemente hay que hacer click en el menú de nuevo, donde aparece como una opción más.

obi_articulo_4

Más funcionalidad

+ Más opciones en la exportación, definir formatos personalizados en la exportación de cuadros de mando, cambiar la orientación de Excel, PDF,.. Es bastante interesante que se pueda elegir para determinados cuadros de mando no exportar imágenes y gráficas, solo tablas.

 

obi_articulo_5

+ Han incluido la opción de poder visualizar los gráficos en HTML5, antes solo era flash, ahora ambas opciones. Esto resuelve muchos problemas de compatibilidad con navegadores como Chrome que han comenzado a disminuir el soporte para Adobe Flash

+ Permite ordenar y buscar en las columnas y métricas del análisis

obi_articulo_6

+ Nueva visualización de mapa de árbol

obi_articulo_7

+ Mejora del asistente de la persistencia agregada para generar agregados con niveles de auto-corrección.

+ Permite en web guardar una métrica calculada y reutilizarla en otro análisis, antes esto se hacía en el RPD, ahora en ambos sitios.

obi_articulo_8

+ Preguntar antes de abrir, esto se puede configurar a nivel de cada página.

obi_articulo_9

Si lo marcamos, cuando el usuario acceda al panel de control le bloquea la ejecución de todos los análisis, esto nos ahorra consultas innecesarias de la primera ejecución de cada página y poder elegir los filtros primeros para luego darle a “continuar” y visualizar lo que queremos ver.

obi_articulo_10

Podemos estar ante la última actualización de Oracle BI 11, una versión que ha durado cerca de 6 años y seguramente Oracle tenga planes de lanzar para Febrero de 2016 el nuevo OBIEE 12c.

Esperamos que el artículo haya sido de vuestro interés.

Data scientist vs Data Artist

datartist

La génesis del data scientist

La figura del Data Scientist es una de las más demandas dentro de los puestos de perfil de tecnológico. En los ultimos tiempos han adquirido mucha imporatncia y las ofertas de empleo se han multiplicado para profesionales de ramo. Pero, ¿Qué es un data scientist? Hace 3 años casi nadie había oído hablar de esta singular profesión, a día hoy están en boca de mucha gente. Su principal función es la extracción de valor de las montañas de  datos que gestionan las empresas hoy en día.  En definitiva han de ser capaces de definir la forma del bosque a partir de los millones de ramas que divisan.

Hay gente que no está nada emocionada con esta figura y que piensa que los Data Scientist son una ligera evolución de la figura de DBA y analista de negocio. Salvo que con aura mucho más científica. Polémicas aparte, siempre es positivo que haya una figura en la empresa que intente convertir los datos en información para poder alcanzar el conocimiento. A diferencia de un típico analista de datos, el data scientist ha de ser capaz de lidiar con muchas fuentes de datos y ser capaz de detectar problemas y oportunidades. Han de ser capaces de dar un significado a todas esas “toneladas de datos”, buscando patrones, reglas y narraciones que expliquen las variaciones en los datos.

En tiene que conocer varias disciplinas que no se enseñan juntas en ninguna carrera: habilidades para el hackeo, conocimiento de matemáticas y estadísticas además de unas grandes dosis de cultura general y concreta sobre la cuestión que se está investigando.

Si algo debería distinguirles de los DBA es no tienen que ocuparse de cuestiones técnicas sobre infraestructura, lo que tienen que saber es extraer valor de los datos. No es la primera vez que la evolución tecnológica divide lo que era una profesión en dos. Si seguimos por la senda de la especialización lo lógico es que de profesión surja otra nueva. Fenómeno que ya estamos viviendo.

La génesis del data artist

Una vez extraídas conclusiones sobre el análisis de los datos es necesario presentarles con un formato que facilite su asimilación y comprensión. Esa sería la misión de los data artist. En realidad ya podemos encontrar toneladas de ellos. Son los que están realizando  las otrora populares infografías.

Son los encargados de pintar los datos de una manera artística. Exponiendo en forma gráfica y fácil de asimilar no solamente los conclusiones extraídas de los datos. Nos dice más ver iconos con distintos tamaños para saber cuál es la renta per cápita de un país que  leer los datos en formato texto. No solamente eso jugando con textos, imágenes, tamaños, orden y relaciones visuales pueden representar fenómenos complejos de una manera muy condensada lo que nos ayuda a tener una comprensión clara y rápida, de que es lo que se nos quiere transmitir.

One to One BI: Un nuevo paradigma de inteligencia de negocios

Durante años hubo un paradigma que gozó de enorme aceptación dentro del mundo del marketing, el del one to one marketing. En un momento en el que se creía que la cultura de masas empeazaba a mostrar sintomas de agotamiento y el retorno de la publiciad tradicional era cada vez menor se planteó un modelo que  llevara la segmentación de los mercados hasta el nivel más básico: el del individuo. Se trataba de considerar a las personas como entes libres y no meras ovejas del rebaño.

El marketing directo fue tal vez la disciplina que mejor supo recoger esa orientación, de la cual se ha estado beneficiando en gran medida las técnicas más sofisticadas de marketing online y en general todo lo que pasa del puro spameo y la contratación de banners en base a coste por impresión.

Aunque este enfoque pudo parecer absolutamente novedoso en su momento en los mercados de consumo, hay que tener en cuenta que en algunos sectores como el B2B o los productos de lujo siempre se ha trabajado con muy pocos clientes. Una empresa de 100 empleados puede sobrevivir con 10.000 clientes o con uno solamente. Siempre y cuando sea capaz de pagar las facturas y llevarse algo bolsillo  a final de año.

Lógicamente conforme mayor sea el ratio empleados/clientes, mayor será el volumen de información y dedicación que corresponderá a cada cliente. Esto obliga a llevar una gestión más centrada en el detalle, menos dispersa en las abstracciones globales sobre segmentos. Lo que importa es el cliente como sujete de cargo, no las zonas territoriales ni las familias de productos.

Un cambio con implicaciones en los sistemas de información

Para poder afrontar estrategias de marketing basadas en este nuevo paradigma es necesario disponer de herramientas que nos permitan disponer de información extensiva sobre cada cliente, socio o proveedor. La naturaleza de las preguntas a las que tenemos que responder cuando tratamos de analizar a un individuo son muy diferentes a las que se nos plantean cuando intentamos detectar segmentos en grandes bolsas de individuos.

De entrada las posibilidades que nos ofrecen el procesamiento de los datos y aplicación de técnicas estadísticas es mucho menor. Hay que ir a un análisis detallado de los datos, la búsqueda de tendencias o subconjuntos pierde importancia, lo relevante es encontrar patrones que nos permitan conocer mejor al cliente en cuestión.

La capacidad de procesar y mover datos, se hace menos importante y lo realmente crucial es tener la habilidad de disponer la información de una manera visual y gráfica que nos permita captar sutilezas, patrones o nociones que se nos hayan podido escapar ante una lectura cruda de los datos.

Aunque tecnológicamente todo esto pueda lograrse con los medios disponibles, se echan en falta modelos conceptuales así como aplicaciones que los implementen y nos permitan llevar esto tipos de análisis a cabo.

¿Para cuándo contaremos con una paquete de One to One BI? En un entorno en el que la innovación se ha convertido en un nueva divisa imperial, parece raro que salvo la NSA y la CIA nadie haya intentado medrar en una campo de desarrollo tan prometedor.

La capacidad de síntesis e interpretación en la era Google

Los motores de búsqueda y su impacto en la sociedad

Los motores de búsqueda, esa maravilla que convirtió internet en algo accesible

El desarrollo de los motores de búsqueda ha jugado un papel clave en la difusión de internet como herramienta de acceso a la información, hasta el punto de haber modificado totalmente nuestros habitos en cuanto a consumo de información se refiere.

Antes de la aparición de los motores de búsqueda, encontrar información en Internet era una tarea bastante costosa, muchas veces desesperante.

Básicamente había dos formas. La primera era escribir la dirección que habíamos visto en un anuncio, o nos habían enviado por email en la barra de direcciones. Era el internet del boca a boca, la repetición hasta la saciedad del nombre del dominio en los anuncios que funcionó tan bien durante algunos años. La segunda era acudir a los predecesores de los motores de búsqueda, los directorios de Internet como Altavista y otros. Los resultados ofrecidos porno solían ser muy buenos, tanto por lo escaso de su alcance y por la falta de relevancia, al menos en comparación con Google. Parece que hayan pasado siglos de esto, pero hace menos de veinte años.

El resto de la historia es conocida, dos estudiantes de Standford tuvieron la idea de combinar el rastreo y conteo de enlaces. La idea era sencilla: rastreas todos los enlaces disponibles para encontrar más enlaces y tener así un registro de gran parte de las páginas contenidas en Internet. Partían de una premisa, las páginas más enlazadas debían de ser las mejores, teniendo en cuenta el texto incluido en el enlace se podía establecer un ranking de las páginas más relevantes para esos términos de búsqueda. La verdad es que desde el primer momento la calidad de los resultados ofrecidos fue siempre muy buena (al menos comparado con sus predecesores). Desde entonces todo ha cambiado tanto que a veces nos resulta difícil saber, que es lo que hacíamos antes de que existiera Google.

En pocos años aparecer en las primeras posiciones del famoso buscador se convirtió en sinónimo de éxito. Asistimos al nacimiento de una nueva disciplina el SEO (Search Engine Optimization) cuyo objetivo último era lograr que nuestra web apareciera en los primeros puestos de los resultados del buscador. Ha sido tal el impacto de esta tecnología que hasta ha ocasionado cambios en la forma de funcionar de nuestra mente.

El impacto de Internet en nuestra mente y  forma de ver el mundo

Los estudios científicos realizados parecen indicar que aunque el uso de Internet afecta de manera negativa a nuestra memoria episódica y de manera positiva a nuestra capacidad de procesar datos. La explicación es sencilla, al tener acceso instantáneo a un repositorio tan completo de datos, existe gran cantidad de información que no es necesaria memorizar, por otro lado al tener acceso una mayor cantidad de fuentes de dato, nuestra capacidad de pensar y concebir no se ve limitada por la falta de fuentes de información. Al contrario, en ocasiones, es difícil no sentirse abrumado ante tanto material.

Pero existe una cuestión de un profundo calado, a la que no se ha prestado suficiente atención y es el impacto que suponen los buscadores de internet y su capacidad para ofrecer resultados en nuestra manera de ver el mundo. Por su naturaleza numérica y modo de funcionamiento, los motores de búsqueda tienden a ofrecer resultados más fiables cuando estamos buscando información sobre cuestiones, concretas y específicas. En los formularios de inserción las preguntas de carácter cualitativo y profundo no tienen cabida. Google aunque ensancha nuestro universo mental, también tiende a estrecharlo en cierta manera y tendemos a considerar que todo lo que se encuentra fácilmente internet no existe o no merece la pena.

El estadounidense Nicholas Carr, afirmaba en su obra que Internet está debilitando algunas funciones de la mente. Especialmente aquellas más elevadas como el pensamiento profundo la capacidad de abstracción y la memoria. Todo comenzó con su artículo publicado en 2008 bajo el título de: ¿Está Google haciéndonos estúpidos? En el constataba como su propia capacidad de concentración había disminuido enormemente y le costaba conservar la concentración más allá de dos o tres páginas.

tecnologicamente_lelos

La tecnología nos hace lelos

En cierta manera la tecnología esta binarizando nuestro pensamiento. Tendemos cada vez a manejar cada vez frases más pequeñas e ideas menos complejos. La longitud de las frases utilizadas en la prensa escrita ha disminuido enormemente en los últimos cien años.  En el interesante libro Enfermos de Información de Todd Glittin se cita un estudio en el que se confirma como durante todo el pasado siglo la tendencia a utilizar frases cada vez más cortas y sencillas ha sido constante.  Incluso en algunos best-sellers actuales como El Cisne Negro, donde se exponen ideas brillantes, uno tiene la sensación de estar navegando por ese estilo caótico de internet, donde se salta con demasiada facilidad de un tema y los capítulos parecen tener una estructura muy pobre.  Muchos apuntan a que esta tendencia comenzó con los precursores de la máquina de escribir como la que utilizó Nietzsche para escribir sus obras.Sin duda la modernidad no está volviendo cada vez más estúpidos

Los clásicos como  Herodoto, Platón o Tito Livio utilizaban por lo general frases muchos largos la mayoría de los autores modernos. El autor más complejo de cuantos he leído es Adam Smith. Muchas veces tenía que releer frases de varias líneas para poder comprender su sentido. Aunque en algunas ocasiones el autor podría haber dicho lo mismo utilizando menos caracteres. Pero en cualquier caso no duda de que las ideas y razonamientos eran de un elevado nivel de complejidad y abstracción,  algo que cuesta encontrar hoy en día.

En el siglo XXI vamos mucho al dato concreto, al hecho. Nuestro consumo de información suele ser una sucesión de hechos, teorias y fechas,  conectados con la vorágine del día a día. Sin un hilo conductor que interprete cual es la conexión entre estos. Resulta cada vez más difícil encontrar a gente con capacidad de interpretar las cosas. Y es que esa habilidad no encaja con la vorágine del mundo actual, de la noticia del momento y la sensación de lo instantáneo. La realidad que nace por la mañana y caduca por la noche. Aunque el periodismo haya dado paso a la historia, yo cada vez estoy más de acuerdo con una definición de noticia que hoy hace tiempo, cualquier noticia es una ignorancia de la historia.

zp8497586rq
zp8497586rq

Descubrir tendencias combinando ERP con Open Data

una_puerta_al_mundoLa filosofía Open Data  postula que determinados tipos de datos deben de ser totalmente accesibles al público sin ningún tipo de restricciones o mecanismo de control. Esta forma de pensar cobra especial sentido para las agencias y organismos gubernamentales que generan grandes cantidades de información gracias a  la financiación que reciben a través de nuestros impuestos. ¿No sería lógico por tanto que todos pudiéramos utilizar esa información que en definitiva hemos pagado?

La respuesta parece estar clara,  aunque es muy difícil que la C.I.A llegue a ofrecer de manera pública toda la información que guarda, son cada  vez más las instituciones que abren al público sus repositorios.  En España la gran mayoría de las instituciones que ofrecen repositorios de Big Data se encuentran en la mitad norte: Aragón, Cataluña, Navarra, País Vasco y Asturias.

Por solo citar un ejemplo el ayuntamiento de Zaragoza ofrece datos libres en tiempo real sobre el estado del tráfico, Climatología, Incidencias en la vía pública, calidad del aire, Orografía y hasta modelos de edificios en 3D.

Pero el potencial de usar datos de terceros no se queda solamente en el sector público, existen multitud de instituciones privadas que ofrecen acceso a sus repositorios de datos, ya sea de manera gratuita o previo pago.

Las APIS y el JSON

Además del acceso a datos crudos, mediante el uso de API´s (Application Program Interface) en Internet podemos beneficiarnos del uso de complejas aplicaciones que no solamente son capaces de ofrecernos datos en crudo, sino que además pueden ofrecer respuestas a preguntas complejas.

Tal vez una de las más conocidas sean los servicios web de Google Maps. Que son capaces por ejemplo, de devolvernos una dirección en base a unas coordenadas y viceversa. Utilizando esta compleja funcionalidad que escapa a las capacidades de cualquier ERP, en nuestra empresa hemos desarrollado una solución para el cálculo de rutas de un cliente.

more info

El catálogo de API´s está creciendo a un ritmo vertiginoso y no hay por ahora síntomas de que esta tendencia se está frenando. En la siguiente web podéis encontrar uno de los catálogos más extensos de APIs en internet.

Otro fenómeno que ha contribuido enormemente al desarrollo en este campo ha sido la popularización del formato de datos JSON (JavaScript Notation Object), que es básicamente un formato de datos para notación de objetos, muy simplificado. Durante años el campo de los Web Services se ha basado en formatos de datos tipo XML, que pueden ser muy adecuados para estructuras complejas de datos, pero que dificultan el desarrollo de aplicaciones basadas en sencillos datos de terceros.

 

Un futuro brillante

Todo este fenómeno abre un mundo de posibilidades para las empresas que quieran construir una estrategia basada en la explotación inteligente de la información. Hasta ahora la inteligencia de negocios consistía en la explotación de la información interna de la empresa, que como mucho podía abarcar distintos sistemas que había que integrar en nuevo modelo de datos.

Con el nuevo panorama, la realidad cambia totalmente aumentando la capacidad de los gestores empresariales para hacer todo tipo de preguntas. En buena medida las empresas que tendrán más éxito en el futuro serán aquellas con mayor capacidad para saber plantearse todo tipo de preguntas.

Es imposible saber hasta dónde llegan las posibilidades de este nuevo modelo de explotación de la información, dado que pasaran décadas y tal vez años hasta que este nuevo paradigma sea totalmente asimilado por todos los agentes implicados. No obstante existen aplicaciones que a primera vista resultan muy interesantes como la investigación  de  la influencia de factores ambientales externos como pueden ser la temperatura, los calendarios festivos,  etc.… en los patrones de consumo de nuestros clientes.

Y sobre esto versará el próximo artículo escrito por nuestro experto en la materia Carlos Sanz.

¿Que hacer antes de comenzar a buscar un ERP?

Antes de comenzar a barajar marcas de software o nombres de implantadores, existen unas cuantas cosas que es muy recomendable hacer.  El hacerlas no convierte automaticamente nuestro proyecto en un camino de rosas, pero eso sí casi seguro que no se convierta en un calvario.

Estudio detallado de fuentes de ingresos, principales procesos asociados con sus tareas y costes asociados: Esto puede resultar jarto complicado, pero a nuestro juicio resulta imprescindible. Consiste básicamente en dar respuesta a las siguientes preguntas:

  • En mi empresa,  ¿cuáles son las principales fuentes de ingresos? Tomemos como ejemplo una empresa dedicada a la fabricación de ropa y calzado deportivo, en este caso sería sencillo sus dos fuentes principales de ingresos son la venta de calzado y ropa deportiva. Cuanto más detalladamente realicemos este análisis mejor, pero al final es cada empresa la que determina el nivel de agregación más conveniente.
  • ¿Qué procesos lleva asociados cada fuente de ingresos? Esto es fabricación, aprovisionamiento, marketing, algunos procesos pueden ser compartidos, en el caso de nuestro ejemplo puede que tengan un marketing común para potenciar todas las líneas de productos, tipo Nike o Adidas, un proceso de gestión administrativa común,  un proceso de fabricación separado y un proceso logístico conjunto.
  • ¿Qué tareas asociadas lleva cada proceso y sus costes asociados?  Se trata de que al final del proceso seamos capaces tener una fotografía detallada de los costes asociados a cada venta.

¿Qué hacemos con todo esto? Si somos capaces de identificar las áreas críticas, es decir aquellas que son más costosas y que generan más valor, tendremos la clave para poder lograr un retorno de inversión más rápido. En la medida de lo posible la nueva solución debe tratar de optimizar o automatizar ese rango de operaciones costosas y de escaso valor añadido, será un proyecto más viable, independiente de todas las mejoras adicionales que logremos sólo con esto estaremos reforzando la posición de nuestra empresa.

Hacer labores de sondeo entre los empleados para saber qué es lo que les gustaría obtener del nuevo sistema: La implantación de un ERP implica a casi toda la empresa, generalmente los usuarios que más interactúan con la aplicación, el personal encargado de labores operativas, son los que menos participan en el proceso de “construcción de un ERP”.

En la mayoría de los casos será imposible hablar con todo y seguramente habrá algunos con los que no merezca la pena hablar. Pero siempre es indicado escuchar a los que mejor aptitud y actitud tienen en cada una de las distintas áreas funcionales, porque su punto de vista puede ser valiosísimo, al fin y al cabo ello son los que conocen las tripas de la operativa de la empresa, están al tanto de los pequeños problemas diarios y conocen mejor que nadie los puntos débiles y fuertes. Además la gente suele ser agradecida cuando se tiene en cuenta su punto de vista, lo que además supone un pequeño un pequeño aliciente que mantiene a la gente motivada.

Tener un plan estratégico a poder ser recién redactado o en su defecto un análisis DAFO: A nuestro juicio el momento idóneo para implantar un ERP es al final o al comienzo de un plan estratégico a largo plazo (3 a 5 años). Si queremos que la inversión genera el máximo retorno posible para nuestra empresa, debemos de saber ajustarla a los tiempos de la compañía. Un ERP es un sistema transaccional que tiene que dar soporte a casi todas, sino a todas, las operaciones de la empresa.  Tiene por tanto que servir de ayuda en el cumplimiento de ese plan estratégico, si a mitad del mismo nos metemos en una implantación

Por otro lado si disponemos del análisis interno y externo que suele ir asociado a un DAFO, es mucho más probable que el planteamiento de la solución que hagamos sea mucho más realista con realidad de la empresa y sobre más exhaustivo y detallado, porque una de las peores cosas que nos pueden pasar en este tipo de proyectos, es el que se queden cosas en el tintero.

zp8497586rq

Qlikview vs Tableau: Comparativa de herramientas de Business Intelligence

Comparar dos herramientas de analítica empresarial no es tan sencillo como comparar dos televisores, requiere un análisis mucho más profundo. En primer lugar, conocer con un mínimo nivel de profundidad dos herramientas exige invertir una gran cantidad de tiempo, además de conocimientos técnicos tanto a nivel técnico como funcional.  Cuando hablamos de los paquetes más potentes de Business Intelligence que hay en el mercado como pueden ser Oracle BI, HANA de SAP, es casi imposible encontrar una persona que conozca en profundidad ambas soluciones.

En segundo lugar debemos de tener en cuenta que el concepto de  “mejor herramienta”, es muy difícil de aplicar en este ámbito. Se trata más de elegir la solución más adecuada para cada proyecto. No obstante, hechas estas aclaraciones, hoy vamos a  hacer una comparativa entre dos herramientas muy similares: Tableau y Qlikview

A nivel de arquitectura de la solución tanto Tableau como Qlikview son dos herramientas que utilizan una aplicación de escritorio para el desarrollo y edición de los análisis. Estos posteriormente,  son subidos a una plataforma web que es la que sirve de base para consulta de los informes, permitiendo gestionar cuestiones básicas de seguridad, como qué informes puede consultar cada usuario.

A nivel técnico ambas herramientas cumplen perfectamente con el cometido para el que fueron diseñadas, la creación de rápida y sencilla de análisis con un aspecto atractivo.   A continuación os detallamos un análisis detallado, que esperamos sea de ayuda a la hora de saber que herramienta puede ser más idónea para vuestra empresa.

vstableau

¿La experiencia es un grado?

Qlikview es la herramienta que más tiempo lleva en el mercado, desde 2005 frente a Tableau que fue lanzada en 2007. ¿Es importante este factor a la hora de optar por una herramienta u otra? A nuestro juicio es irrelevante. Lo  que de verdad es importa es tener garantizada una continuidad en el soporte y en el posterior desarrollo de la herramienta. En este sentido ambas soluciones cuentan con un número importante de clientes en todo el mundo, además de una bien establecida red de partners. Aunque ninguna de las dos compañías está exenta de ser adquirida por una tercera, esto a nuestro juicio en ningún momento supondría una amenaza para la continuidad de la solución.

Es destacable, el excelente esfuerzo hecho por Tableau a la hora de crear contenido en forma de video tutoriales, que son de gran ayuda para nuevos usuarios de la herramienta. Una herramienta además de ser fácil debe de ofrecer cuanto más material de formación mejor, en este aspecto gana Tableau.

Usabilidad: el componente imprescindible para una herramienta de éxito 

Generalmente las mejores soluciones no son las que más funcionalidad tienen sino las que son más fáciles de utilizar. Hasta en el mundo empresarial donde la compra de software suele ser un proceso largo y meditado, rara suele ser la empresa que utiliza más del 60% de la funcionalidad de la solución adquirida, ya sea un ERP u otro tipo de sistema.

Desde la perspectiva de nuestros clientes que han probado las dos herramientas: “Tableau es intuitiva y fácil de usar”.

En lo que respecta a nuestro análisis de las dos herramientas, cabe  destacar la limitación de Qlikview  dada su dependencia de los scripts a la hora de realizar las cargas iniciales. Para usuarios de la herramienta de departamentos como el Financiero o el de Marketing, sin conocimientos de programación, es mucho más asequible el uso de Tableau, que les permite reducir su dependencia del departamento de IT a la hora de realizar análisis.

El ultimo Garnter Magic Quadrant, también coincide con este punto de vista. Sin duda en el aspecto de la usablidad Tableau es un claro ganador.

¿Y esto cuanto me va costar? Precios y modelo de licenciamiento

El modelo de licenciamiento de Qlikview nos ha resultado demasiado complicado, y puede llegar a ser difícil saber cuánto te va costar desplegar la solución en base a tus necesidades.  Si bien es cierto, que este tipo de modelo de licenciamiento no es raro dentro del mundo del software empresarial, esto no es una excusa para que sea pasado por alto. Mal de muchos, consuelo de tontos.

Qlikview, dispone de conectores con  SAP, JD Edwards  y otras soluciones, esto es un hecho positivo aunque tengan un sobrecoste. Pero  su integración con otros motores web, lleva un sobrecoste añadido que no existe para Tableau. En el siguiente enlace podéis encontrar el listado de precios de Qlikview

Tableau a pesar de no disponer de tantos conectores preconstruidos, ofrece un modelo mucho más libre de desarrollo, permitiendo su integración con Sharepoint, la publicación de informes en la web corporativa o cualquier tipo de sistema de la empresa que funcione sobre arquitectura web. El modelo de licenciamiento también es mucho más sencillo con simplemente tres tipos de licencias: desktop personal y desktop profesional como herramientas de desarrollo, construcción y maquetado de informes. Con un nivel de funcionalidad similar Tableau es más sencillo de desplegar y además tiene un coste sensiblemente menor.

Características técnicas.

Como base hemos tomado el análisis realizado por una consultora independiente donde valoran de manera conjunta el comportamiento de cada herramienta en base a características comunes de este tipo de sistemas. Hemos elegido esta comparativa porque nos ha parecido bastante objetiva y a priori no parece sesgada.

Comparativa

El resultado es una ligera ventaja para Tableau aunque a nuestro juicio, es casi un empate técnico y solamente las necesidades específicas de una empresa o proyecto deberían de inclinar la balanza hacía un lado o hacia el otro.

 

Varios

Las dos herramientas permiten enviar los informes por email, planificar las cargas, consulta de datos en tiempo real (Qlikview ha incorporado esta novedad en su versión 10)  y además ambas soluciones nos permiten una gestión efectiva de la  seguridad en los informes.

Una gran virtud de QV es que su herramienta de desarrollo “Qlikview Developer” es muy completa y permite realizar muchas cosas, con un conocimiento técnico de cómo realizar ese Scripting podemos realizar pseudo-ETLs. Esto inclina ligeramente la balanza hacía Qlikview en empresas con un nivel de volumetría de datos superior, que quieren tener un acceso a rápido a información más procesada y estructurada, sin que por ello se vea afectado el rendimiento del resto de sus sistemas.

Tableau  por otro lado destaca por admitir un número mayor de orígenes de datos y conexiones, permite hacer conexiones a Power Pivot o Google Analytics, dándonos la posibilidad de realizar análisis cruzados en los que podamos comprobar el impacto real que un aumento de visitas a nuestra web puede tener sobre un determinado producto. Las posibilidades son sencillamente impresionantes lo más importante permite hacer frente  a un reto que cada vez se le plantea a un mayor número de empresas: la integración analítica de información procedente de fuentes muy dispersas.

Ambas soluciones ofrecen aplicaciones móviles para iOS y Android, siendo las Qlikview las más completas y las que obtienen una mejor puntuación por parte de los usuarios.

Conclusión

Como hemos ido repitiendo a lo largo de todo el artículo, al final la elección de una herramienta u otra dependerá de las necesidades de la empresa,  aunque sea cual sea la decisión en ningún caso cometerán un error. Si una empresa por ejemplo tiene pocos recursos en el area de IT, Qlikview puede restar algo de dinamismo por su dependencia de scripts para la carga de datos. Por otro lado las empresas en las que la movilidad sea un factor crítico pueden encontrar las aplicaciones móviles de Tableau más limitadas.

No obstante para empresas en las que un número pequeño de usuarios (de uno a tres) son los encargados de la realización de informes analíticos, que luego serán consultados por el resto de la empresa, el coste de implantación de Tableau es mucho menor y su uso es mucho más fácil.

Por lo que si fuéramos una empresa con por ejemplo dos-tres usuarios que quieran acceder a los datos para crear informes, sin dudarlo me quedaría al 100% con Tableau, por coste,  facilidad de uso y características técnicas. Conforme aumenta el volumen de usuarios Qlikview puede ser más atractivo.

Para empresas con un uso muy intensivo de los datos y una volumetría importante sin duda recomendamos otro tipo de herramientas como pueden ser Oracle BI o Microstrategy.
Esperamos que este análisis os haya sido y estamos muy interesados en conocer cual ha sido vuestra experiencia con cualquiera de estas dos herramientas.

zp8497586rq
zp8497586rq