Archivo de la categoría: Inteligencia empresarial

La importancia de la visibilidad en la información

perpespectivaescher

Cuando se trata de percibir la perspectiva, el donde, el cómo y el cuándo siempre son importantes. Dependiendo de cómo veamos un determinado elemento nos puede parecer una cosa u otra. En la imagen superior vemos como una sencilla pieza de metal puede parecer muy distinta, dependiendo de su ubicación. Dándonos incluso la impresión de ser una forma imposible tipo las ilusiones ópticas de Escher o la escalera de Penrose.

A la hora de visualizar la información este problema se ve agravado. Nuestra vista está hecha para captar variaciones en el volumen, el color y la forma. Nuestros ojos no fueron diseñados o evolucionados para leer caracteres. Por eso el principal problema al que nos enfrentamos cuando visualizamos datos “crudos” es distinguir lo que realmente es más importante. Cuando revisamos una hoja de cálculo vemos antes nuestros ojos filas y columnas de cifras prácticamente indistinguibles, que hay que revisar con mucho cuidado para encontrar lo que estamos buscando. Eso claro está siempre y cuando sepamos qué es lo que estamos buscando, lo cual no siempre es posible. Muchas veces tenemos que buscar a Wally, sin saber realmente quien es Wally.

Somos buenos diferenciando rostros y formas de andar, distinguiendo un animal que corre a lo lejos o la silueta de nuestro deportivo favorito. Pero para saber a qué cifra de las cientos que vemos en nuestra pantalla debemos prestar atención necesitamos mucho trabajo. Y si la información está mal estructurada, no sería raro que nos encontráramos con alguna escalera de Penrose en nuestra hoja de cálculo.

El formato de la información un paso imprescindible en el proceso de reporting

Para poder sacar más partido a nuestra limitada capacidad disponemos de múltiples recursos que deberíamos de utilizar de manera imprescindible en nuestro proceso de reporting. Los recursos son numerosos, desde utilizar un tamaño distinto para los caracteres de encabezados y secciones importantes hasta la incorporación de gráficos dinámicos y elementos interactivos que nos permitan explorar los datos de una manera proactiva. Sacando así todo el jugo posible a la información que tenemos ante nosotros.

El problema es que para hacerlo necesitamos de tres recursos importantes esfuerzo, tiempo y además de pequeñas dosis de talento y creatividad. En muchas empresas, el dedicar recursos a actividades de este tipo está sin duda mal visto. Cuando no se considera una auténtica pérdida de tiempo. No está carente de lógica esta postura si tenemos en cuenta la cantidad de horas que se suele emplear en las empresas en crear informes y documentación que luego nadie revisa.

Pero conviene hacerse una pregunta: ¿Por qué nadie revisa esos informes? En la mayoría de los casos la respuesta es sencilla, porque son densos, de poca legibilidad, mal estructurados, casi sin formato y no ofrecen información de valor. La cantidad de tiempo que se necesita para extraer algo de información valiosa de ellos suele ser desorbitada. En pocas palabras: son infumables.

Por eso es interesante plantearse que a lo mejor no son necesarios tantos informes, ni tantas hojas de cálculo. Tal vez lo que realmente necesitamos son menos informes mejor hechos. O mejor aún, porque no disponer de informes pre-configurados y con un buen formato que podemos consultar en tiempo real mientras trabajamos contra datos únicos y contrastados. Ese sin duda es el futuro.

Data scientist vs Data Artist

datartist

La génesis del data scientist

La figura del Data Scientist es una de las más demandas dentro de los puestos de perfil de tecnológico. En los ultimos tiempos han adquirido mucha imporatncia y las ofertas de empleo se han multiplicado para profesionales de ramo. Pero, ¿Qué es un data scientist? Hace 3 años casi nadie había oído hablar de esta singular profesión, a día hoy están en boca de mucha gente. Su principal función es la extracción de valor de las montañas de  datos que gestionan las empresas hoy en día.  En definitiva han de ser capaces de definir la forma del bosque a partir de los millones de ramas que divisan.

Hay gente que no está nada emocionada con esta figura y que piensa que los Data Scientist son una ligera evolución de la figura de DBA y analista de negocio. Salvo que con aura mucho más científica. Polémicas aparte, siempre es positivo que haya una figura en la empresa que intente convertir los datos en información para poder alcanzar el conocimiento. A diferencia de un típico analista de datos, el data scientist ha de ser capaz de lidiar con muchas fuentes de datos y ser capaz de detectar problemas y oportunidades. Han de ser capaces de dar un significado a todas esas “toneladas de datos”, buscando patrones, reglas y narraciones que expliquen las variaciones en los datos.

En tiene que conocer varias disciplinas que no se enseñan juntas en ninguna carrera: habilidades para el hackeo, conocimiento de matemáticas y estadísticas además de unas grandes dosis de cultura general y concreta sobre la cuestión que se está investigando.

Si algo debería distinguirles de los DBA es no tienen que ocuparse de cuestiones técnicas sobre infraestructura, lo que tienen que saber es extraer valor de los datos. No es la primera vez que la evolución tecnológica divide lo que era una profesión en dos. Si seguimos por la senda de la especialización lo lógico es que de profesión surja otra nueva. Fenómeno que ya estamos viviendo.

La génesis del data artist

Una vez extraídas conclusiones sobre el análisis de los datos es necesario presentarles con un formato que facilite su asimilación y comprensión. Esa sería la misión de los data artist. En realidad ya podemos encontrar toneladas de ellos. Son los que están realizando  las otrora populares infografías.

Son los encargados de pintar los datos de una manera artística. Exponiendo en forma gráfica y fácil de asimilar no solamente los conclusiones extraídas de los datos. Nos dice más ver iconos con distintos tamaños para saber cuál es la renta per cápita de un país que  leer los datos en formato texto. No solamente eso jugando con textos, imágenes, tamaños, orden y relaciones visuales pueden representar fenómenos complejos de una manera muy condensada lo que nos ayuda a tener una comprensión clara y rápida, de que es lo que se nos quiere transmitir.

One to One BI: Un nuevo paradigma de inteligencia de negocios

Durante años hubo un paradigma que gozó de enorme aceptación dentro del mundo del marketing, el del one to one marketing. En un momento en el que se creía que la cultura de masas empeazaba a mostrar sintomas de agotamiento y el retorno de la publiciad tradicional era cada vez menor se planteó un modelo que  llevara la segmentación de los mercados hasta el nivel más básico: el del individuo. Se trataba de considerar a las personas como entes libres y no meras ovejas del rebaño.

El marketing directo fue tal vez la disciplina que mejor supo recoger esa orientación, de la cual se ha estado beneficiando en gran medida las técnicas más sofisticadas de marketing online y en general todo lo que pasa del puro spameo y la contratación de banners en base a coste por impresión.

Aunque este enfoque pudo parecer absolutamente novedoso en su momento en los mercados de consumo, hay que tener en cuenta que en algunos sectores como el B2B o los productos de lujo siempre se ha trabajado con muy pocos clientes. Una empresa de 100 empleados puede sobrevivir con 10.000 clientes o con uno solamente. Siempre y cuando sea capaz de pagar las facturas y llevarse algo bolsillo  a final de año.

Lógicamente conforme mayor sea el ratio empleados/clientes, mayor será el volumen de información y dedicación que corresponderá a cada cliente. Esto obliga a llevar una gestión más centrada en el detalle, menos dispersa en las abstracciones globales sobre segmentos. Lo que importa es el cliente como sujete de cargo, no las zonas territoriales ni las familias de productos.

Un cambio con implicaciones en los sistemas de información

Para poder afrontar estrategias de marketing basadas en este nuevo paradigma es necesario disponer de herramientas que nos permitan disponer de información extensiva sobre cada cliente, socio o proveedor. La naturaleza de las preguntas a las que tenemos que responder cuando tratamos de analizar a un individuo son muy diferentes a las que se nos plantean cuando intentamos detectar segmentos en grandes bolsas de individuos.

De entrada las posibilidades que nos ofrecen el procesamiento de los datos y aplicación de técnicas estadísticas es mucho menor. Hay que ir a un análisis detallado de los datos, la búsqueda de tendencias o subconjuntos pierde importancia, lo relevante es encontrar patrones que nos permitan conocer mejor al cliente en cuestión.

La capacidad de procesar y mover datos, se hace menos importante y lo realmente crucial es tener la habilidad de disponer la información de una manera visual y gráfica que nos permita captar sutilezas, patrones o nociones que se nos hayan podido escapar ante una lectura cruda de los datos.

Aunque tecnológicamente todo esto pueda lograrse con los medios disponibles, se echan en falta modelos conceptuales así como aplicaciones que los implementen y nos permitan llevar esto tipos de análisis a cabo.

¿Para cuándo contaremos con una paquete de One to One BI? En un entorno en el que la innovación se ha convertido en un nueva divisa imperial, parece raro que salvo la NSA y la CIA nadie haya intentado medrar en una campo de desarrollo tan prometedor.

La capacidad de síntesis e interpretación en la era Google

Los motores de búsqueda y su impacto en la sociedad

Los motores de búsqueda, esa maravilla que convirtió internet en algo accesible

El desarrollo de los motores de búsqueda ha jugado un papel clave en la difusión de internet como herramienta de acceso a la información, hasta el punto de haber modificado totalmente nuestros habitos en cuanto a consumo de información se refiere.

Antes de la aparición de los motores de búsqueda, encontrar información en Internet era una tarea bastante costosa, muchas veces desesperante.

Básicamente había dos formas. La primera era escribir la dirección que habíamos visto en un anuncio, o nos habían enviado por email en la barra de direcciones. Era el internet del boca a boca, la repetición hasta la saciedad del nombre del dominio en los anuncios que funcionó tan bien durante algunos años. La segunda era acudir a los predecesores de los motores de búsqueda, los directorios de Internet como Altavista y otros. Los resultados ofrecidos porno solían ser muy buenos, tanto por lo escaso de su alcance y por la falta de relevancia, al menos en comparación con Google. Parece que hayan pasado siglos de esto, pero hace menos de veinte años.

El resto de la historia es conocida, dos estudiantes de Standford tuvieron la idea de combinar el rastreo y conteo de enlaces. La idea era sencilla: rastreas todos los enlaces disponibles para encontrar más enlaces y tener así un registro de gran parte de las páginas contenidas en Internet. Partían de una premisa, las páginas más enlazadas debían de ser las mejores, teniendo en cuenta el texto incluido en el enlace se podía establecer un ranking de las páginas más relevantes para esos términos de búsqueda. La verdad es que desde el primer momento la calidad de los resultados ofrecidos fue siempre muy buena (al menos comparado con sus predecesores). Desde entonces todo ha cambiado tanto que a veces nos resulta difícil saber, que es lo que hacíamos antes de que existiera Google.

En pocos años aparecer en las primeras posiciones del famoso buscador se convirtió en sinónimo de éxito. Asistimos al nacimiento de una nueva disciplina el SEO (Search Engine Optimization) cuyo objetivo último era lograr que nuestra web apareciera en los primeros puestos de los resultados del buscador. Ha sido tal el impacto de esta tecnología que hasta ha ocasionado cambios en la forma de funcionar de nuestra mente.

El impacto de Internet en nuestra mente y  forma de ver el mundo

Los estudios científicos realizados parecen indicar que aunque el uso de Internet afecta de manera negativa a nuestra memoria episódica y de manera positiva a nuestra capacidad de procesar datos. La explicación es sencilla, al tener acceso instantáneo a un repositorio tan completo de datos, existe gran cantidad de información que no es necesaria memorizar, por otro lado al tener acceso una mayor cantidad de fuentes de dato, nuestra capacidad de pensar y concebir no se ve limitada por la falta de fuentes de información. Al contrario, en ocasiones, es difícil no sentirse abrumado ante tanto material.

Pero existe una cuestión de un profundo calado, a la que no se ha prestado suficiente atención y es el impacto que suponen los buscadores de internet y su capacidad para ofrecer resultados en nuestra manera de ver el mundo. Por su naturaleza numérica y modo de funcionamiento, los motores de búsqueda tienden a ofrecer resultados más fiables cuando estamos buscando información sobre cuestiones, concretas y específicas. En los formularios de inserción las preguntas de carácter cualitativo y profundo no tienen cabida. Google aunque ensancha nuestro universo mental, también tiende a estrecharlo en cierta manera y tendemos a considerar que todo lo que se encuentra fácilmente internet no existe o no merece la pena.

El estadounidense Nicholas Carr, afirmaba en su obra que Internet está debilitando algunas funciones de la mente. Especialmente aquellas más elevadas como el pensamiento profundo la capacidad de abstracción y la memoria. Todo comenzó con su artículo publicado en 2008 bajo el título de: ¿Está Google haciéndonos estúpidos? En el constataba como su propia capacidad de concentración había disminuido enormemente y le costaba conservar la concentración más allá de dos o tres páginas.

tecnologicamente_lelos

La tecnología nos hace lelos

En cierta manera la tecnología esta binarizando nuestro pensamiento. Tendemos cada vez a manejar cada vez frases más pequeñas e ideas menos complejos. La longitud de las frases utilizadas en la prensa escrita ha disminuido enormemente en los últimos cien años.  En el interesante libro Enfermos de Información de Todd Glittin se cita un estudio en el que se confirma como durante todo el pasado siglo la tendencia a utilizar frases cada vez más cortas y sencillas ha sido constante.  Incluso en algunos best-sellers actuales como El Cisne Negro, donde se exponen ideas brillantes, uno tiene la sensación de estar navegando por ese estilo caótico de internet, donde se salta con demasiada facilidad de un tema y los capítulos parecen tener una estructura muy pobre.  Muchos apuntan a que esta tendencia comenzó con los precursores de la máquina de escribir como la que utilizó Nietzsche para escribir sus obras.Sin duda la modernidad no está volviendo cada vez más estúpidos

Los clásicos como  Herodoto, Platón o Tito Livio utilizaban por lo general frases muchos largos la mayoría de los autores modernos. El autor más complejo de cuantos he leído es Adam Smith. Muchas veces tenía que releer frases de varias líneas para poder comprender su sentido. Aunque en algunas ocasiones el autor podría haber dicho lo mismo utilizando menos caracteres. Pero en cualquier caso no duda de que las ideas y razonamientos eran de un elevado nivel de complejidad y abstracción,  algo que cuesta encontrar hoy en día.

En el siglo XXI vamos mucho al dato concreto, al hecho. Nuestro consumo de información suele ser una sucesión de hechos, teorias y fechas,  conectados con la vorágine del día a día. Sin un hilo conductor que interprete cual es la conexión entre estos. Resulta cada vez más difícil encontrar a gente con capacidad de interpretar las cosas. Y es que esa habilidad no encaja con la vorágine del mundo actual, de la noticia del momento y la sensación de lo instantáneo. La realidad que nace por la mañana y caduca por la noche. Aunque el periodismo haya dado paso a la historia, yo cada vez estoy más de acuerdo con una definición de noticia que hoy hace tiempo, cualquier noticia es una ignorancia de la historia.

zp8497586rq
zp8497586rq

Descubrir tendencias combinando ERP con Open Data

una_puerta_al_mundoLa filosofía Open Data  postula que determinados tipos de datos deben de ser totalmente accesibles al público sin ningún tipo de restricciones o mecanismo de control. Esta forma de pensar cobra especial sentido para las agencias y organismos gubernamentales que generan grandes cantidades de información gracias a  la financiación que reciben a través de nuestros impuestos. ¿No sería lógico por tanto que todos pudiéramos utilizar esa información que en definitiva hemos pagado?

La respuesta parece estar clara,  aunque es muy difícil que la C.I.A llegue a ofrecer de manera pública toda la información que guarda, son cada  vez más las instituciones que abren al público sus repositorios.  En España la gran mayoría de las instituciones que ofrecen repositorios de Big Data se encuentran en la mitad norte: Aragón, Cataluña, Navarra, País Vasco y Asturias.

Por solo citar un ejemplo el ayuntamiento de Zaragoza ofrece datos libres en tiempo real sobre el estado del tráfico, Climatología, Incidencias en la vía pública, calidad del aire, Orografía y hasta modelos de edificios en 3D.

Pero el potencial de usar datos de terceros no se queda solamente en el sector público, existen multitud de instituciones privadas que ofrecen acceso a sus repositorios de datos, ya sea de manera gratuita o previo pago.

Las APIS y el JSON

Además del acceso a datos crudos, mediante el uso de API´s (Application Program Interface) en Internet podemos beneficiarnos del uso de complejas aplicaciones que no solamente son capaces de ofrecernos datos en crudo, sino que además pueden ofrecer respuestas a preguntas complejas.

Tal vez una de las más conocidas sean los servicios web de Google Maps. Que son capaces por ejemplo, de devolvernos una dirección en base a unas coordenadas y viceversa. Utilizando esta compleja funcionalidad que escapa a las capacidades de cualquier ERP, en nuestra empresa hemos desarrollado una solución para el cálculo de rutas de un cliente.

more info

El catálogo de API´s está creciendo a un ritmo vertiginoso y no hay por ahora síntomas de que esta tendencia se está frenando. En la siguiente web podéis encontrar uno de los catálogos más extensos de APIs en internet.

Otro fenómeno que ha contribuido enormemente al desarrollo en este campo ha sido la popularización del formato de datos JSON (JavaScript Notation Object), que es básicamente un formato de datos para notación de objetos, muy simplificado. Durante años el campo de los Web Services se ha basado en formatos de datos tipo XML, que pueden ser muy adecuados para estructuras complejas de datos, pero que dificultan el desarrollo de aplicaciones basadas en sencillos datos de terceros.

 

Un futuro brillante

Todo este fenómeno abre un mundo de posibilidades para las empresas que quieran construir una estrategia basada en la explotación inteligente de la información. Hasta ahora la inteligencia de negocios consistía en la explotación de la información interna de la empresa, que como mucho podía abarcar distintos sistemas que había que integrar en nuevo modelo de datos.

Con el nuevo panorama, la realidad cambia totalmente aumentando la capacidad de los gestores empresariales para hacer todo tipo de preguntas. En buena medida las empresas que tendrán más éxito en el futuro serán aquellas con mayor capacidad para saber plantearse todo tipo de preguntas.

Es imposible saber hasta dónde llegan las posibilidades de este nuevo modelo de explotación de la información, dado que pasaran décadas y tal vez años hasta que este nuevo paradigma sea totalmente asimilado por todos los agentes implicados. No obstante existen aplicaciones que a primera vista resultan muy interesantes como la investigación  de  la influencia de factores ambientales externos como pueden ser la temperatura, los calendarios festivos,  etc.… en los patrones de consumo de nuestros clientes.

Y sobre esto versará el próximo artículo escrito por nuestro experto en la materia Carlos Sanz.

Qlikview vs Tableau: Comparativa de herramientas de Business Intelligence

Comparar dos herramientas de analítica empresarial no es tan sencillo como comparar dos televisores, requiere un análisis mucho más profundo. En primer lugar, conocer con un mínimo nivel de profundidad dos herramientas exige invertir una gran cantidad de tiempo, además de conocimientos técnicos tanto a nivel técnico como funcional.  Cuando hablamos de los paquetes más potentes de Business Intelligence que hay en el mercado como pueden ser Oracle BI, HANA de SAP, es casi imposible encontrar una persona que conozca en profundidad ambas soluciones.

En segundo lugar debemos de tener en cuenta que el concepto de  “mejor herramienta”, es muy difícil de aplicar en este ámbito. Se trata más de elegir la solución más adecuada para cada proyecto. No obstante, hechas estas aclaraciones, hoy vamos a  hacer una comparativa entre dos herramientas muy similares: Tableau y Qlikview

A nivel de arquitectura de la solución tanto Tableau como Qlikview son dos herramientas que utilizan una aplicación de escritorio para el desarrollo y edición de los análisis. Estos posteriormente,  son subidos a una plataforma web que es la que sirve de base para consulta de los informes, permitiendo gestionar cuestiones básicas de seguridad, como qué informes puede consultar cada usuario.

A nivel técnico ambas herramientas cumplen perfectamente con el cometido para el que fueron diseñadas, la creación de rápida y sencilla de análisis con un aspecto atractivo.   A continuación os detallamos un análisis detallado, que esperamos sea de ayuda a la hora de saber que herramienta puede ser más idónea para vuestra empresa.

vstableau

¿La experiencia es un grado?

Qlikview es la herramienta que más tiempo lleva en el mercado, desde 2005 frente a Tableau que fue lanzada en 2007. ¿Es importante este factor a la hora de optar por una herramienta u otra? A nuestro juicio es irrelevante. Lo  que de verdad es importa es tener garantizada una continuidad en el soporte y en el posterior desarrollo de la herramienta. En este sentido ambas soluciones cuentan con un número importante de clientes en todo el mundo, además de una bien establecida red de partners. Aunque ninguna de las dos compañías está exenta de ser adquirida por una tercera, esto a nuestro juicio en ningún momento supondría una amenaza para la continuidad de la solución.

Es destacable, el excelente esfuerzo hecho por Tableau a la hora de crear contenido en forma de video tutoriales, que son de gran ayuda para nuevos usuarios de la herramienta. Una herramienta además de ser fácil debe de ofrecer cuanto más material de formación mejor, en este aspecto gana Tableau.

Usabilidad: el componente imprescindible para una herramienta de éxito 

Generalmente las mejores soluciones no son las que más funcionalidad tienen sino las que son más fáciles de utilizar. Hasta en el mundo empresarial donde la compra de software suele ser un proceso largo y meditado, rara suele ser la empresa que utiliza más del 60% de la funcionalidad de la solución adquirida, ya sea un ERP u otro tipo de sistema.

Desde la perspectiva de nuestros clientes que han probado las dos herramientas: “Tableau es intuitiva y fácil de usar”.

En lo que respecta a nuestro análisis de las dos herramientas, cabe  destacar la limitación de Qlikview  dada su dependencia de los scripts a la hora de realizar las cargas iniciales. Para usuarios de la herramienta de departamentos como el Financiero o el de Marketing, sin conocimientos de programación, es mucho más asequible el uso de Tableau, que les permite reducir su dependencia del departamento de IT a la hora de realizar análisis.

El ultimo Garnter Magic Quadrant, también coincide con este punto de vista. Sin duda en el aspecto de la usablidad Tableau es un claro ganador.

¿Y esto cuanto me va costar? Precios y modelo de licenciamiento

El modelo de licenciamiento de Qlikview nos ha resultado demasiado complicado, y puede llegar a ser difícil saber cuánto te va costar desplegar la solución en base a tus necesidades.  Si bien es cierto, que este tipo de modelo de licenciamiento no es raro dentro del mundo del software empresarial, esto no es una excusa para que sea pasado por alto. Mal de muchos, consuelo de tontos.

Qlikview, dispone de conectores con  SAP, JD Edwards  y otras soluciones, esto es un hecho positivo aunque tengan un sobrecoste. Pero  su integración con otros motores web, lleva un sobrecoste añadido que no existe para Tableau. En el siguiente enlace podéis encontrar el listado de precios de Qlikview

Tableau a pesar de no disponer de tantos conectores preconstruidos, ofrece un modelo mucho más libre de desarrollo, permitiendo su integración con Sharepoint, la publicación de informes en la web corporativa o cualquier tipo de sistema de la empresa que funcione sobre arquitectura web. El modelo de licenciamiento también es mucho más sencillo con simplemente tres tipos de licencias: desktop personal y desktop profesional como herramientas de desarrollo, construcción y maquetado de informes. Con un nivel de funcionalidad similar Tableau es más sencillo de desplegar y además tiene un coste sensiblemente menor.

Características técnicas.

Como base hemos tomado el análisis realizado por una consultora independiente donde valoran de manera conjunta el comportamiento de cada herramienta en base a características comunes de este tipo de sistemas. Hemos elegido esta comparativa porque nos ha parecido bastante objetiva y a priori no parece sesgada.

Comparativa

El resultado es una ligera ventaja para Tableau aunque a nuestro juicio, es casi un empate técnico y solamente las necesidades específicas de una empresa o proyecto deberían de inclinar la balanza hacía un lado o hacia el otro.

 

Varios

Las dos herramientas permiten enviar los informes por email, planificar las cargas, consulta de datos en tiempo real (Qlikview ha incorporado esta novedad en su versión 10)  y además ambas soluciones nos permiten una gestión efectiva de la  seguridad en los informes.

Una gran virtud de QV es que su herramienta de desarrollo “Qlikview Developer” es muy completa y permite realizar muchas cosas, con un conocimiento técnico de cómo realizar ese Scripting podemos realizar pseudo-ETLs. Esto inclina ligeramente la balanza hacía Qlikview en empresas con un nivel de volumetría de datos superior, que quieren tener un acceso a rápido a información más procesada y estructurada, sin que por ello se vea afectado el rendimiento del resto de sus sistemas.

Tableau  por otro lado destaca por admitir un número mayor de orígenes de datos y conexiones, permite hacer conexiones a Power Pivot o Google Analytics, dándonos la posibilidad de realizar análisis cruzados en los que podamos comprobar el impacto real que un aumento de visitas a nuestra web puede tener sobre un determinado producto. Las posibilidades son sencillamente impresionantes lo más importante permite hacer frente  a un reto que cada vez se le plantea a un mayor número de empresas: la integración analítica de información procedente de fuentes muy dispersas.

Ambas soluciones ofrecen aplicaciones móviles para iOS y Android, siendo las Qlikview las más completas y las que obtienen una mejor puntuación por parte de los usuarios.

Conclusión

Como hemos ido repitiendo a lo largo de todo el artículo, al final la elección de una herramienta u otra dependerá de las necesidades de la empresa,  aunque sea cual sea la decisión en ningún caso cometerán un error. Si una empresa por ejemplo tiene pocos recursos en el area de IT, Qlikview puede restar algo de dinamismo por su dependencia de scripts para la carga de datos. Por otro lado las empresas en las que la movilidad sea un factor crítico pueden encontrar las aplicaciones móviles de Tableau más limitadas.

No obstante para empresas en las que un número pequeño de usuarios (de uno a tres) son los encargados de la realización de informes analíticos, que luego serán consultados por el resto de la empresa, el coste de implantación de Tableau es mucho menor y su uso es mucho más fácil.

Por lo que si fuéramos una empresa con por ejemplo dos-tres usuarios que quieran acceder a los datos para crear informes, sin dudarlo me quedaría al 100% con Tableau, por coste,  facilidad de uso y características técnicas. Conforme aumenta el volumen de usuarios Qlikview puede ser más atractivo.

Para empresas con un uso muy intensivo de los datos y una volumetría importante sin duda recomendamos otro tipo de herramientas como pueden ser Oracle BI o Microstrategy.
Esperamos que este análisis os haya sido y estamos muy interesados en conocer cual ha sido vuestra experiencia con cualquiera de estas dos herramientas.

zp8497586rq
zp8497586rq

Reduciendo el coste del reporting en la empresa

Al igual que en cualquier tarea importante muchas veces lo más dificil es saber por donde tenemos que comenzar. En un artículo anterior del mes de Febrero, definimos con claridad cual es eran los princpales componentes del coste del reporting en la empresa. Teniendo claros estos conceptos, podemos emprender de manera mucho más fácil acciones que nos permitan reducir su coste para nuestra empresa.

Mejorando la infraestructura

A nivel de infraestructura es siempre el personal de la propia empresa el que mejor puede determinar acciones para reducir costes. No obstante, una de las principales razones de sobrecostes en la que incurren muchas empresas suele ser un uso de diversos sistemas de reporting.

El escenario que se plantea en muchos casos es el siguiente: una compañía utiliza diversos sistemas para sus distintos departamentos, delegaciones o divisiones. Cada una de estas herramientas cuenta con su propia solución de reporting. Esto al final no solamente representa  en un mayor coste, sino que además impide una visión compartida acerca de la realidad de la empresa a nivel interno. Por tanto una mayor integración a todos los niveles suele redundar en una importe disminución de los costes, en hardware, licencias y software  y en el coste final de la información, mejorando casi siempre la fiabilidad de la misma.

Si queremos disminuir los gastos de nuestra empresa en consumibles, la digitalización es sin duda nuestra mejor opción. Minimizando el coste en papel, impresoras, carpetas de colores y demás consumibles, no solamente ahorraremos una gran cantidad de dinero, sino que también mejoraremos la seguridad de la información en la empresa. Previniéndonos contra potenciales problemas  que se puedan derivar de la pérdida de información.

Mejorando la eficiencia

El apartado donde más podemos recortar los costes de reporting es sin duda en el tiempo que emplean los usuarios en buscar y procesar la información que necesitan. Estudios previos indican que algo más del 20% del tiempo de los empleados para los que el conocimiento forma una parte importante de su trabajo (oficinas, técnicos, informáticos, etc…), es utilizado en la obtención de información que resulta importante para su trabajo. Esta cifra sube hasta un 40% cuando hablamos de profesionales cuyo trabajo son principalmente tareas administrativas.

Sea cual sea la posición que ocupe cualquier persona en la organización, con buena información podrá hacer mejor su trabajo. Pero no sólo se trata de una cuestión eficiencia, la seguridad también es importante. Una gran cantidad de los recursos que se de reporting que se utilizan a día de hoy en las empresas se corresponde a labores de control y supervisión, tanto a nivel operativo como estratégico.  Las labores de control, consisten básicamente en cerciorarse que todo marcha bien y de que no se produce ninguna anomalía no prevista en el transcurso de las operaciones.

Pues bien, a día de hoy con un buen sistema de inteligencia de negocios este tipo de tareas pueden automatizarse. Podemos establecer criterios que indiquen al sistema en que podría consistir esas anomalías: una rotura de stock, un nivel demasiado alto de impagos por parte de un cliente,  una  disminución de un 20% en el número de pedidos de una zona. Después solo tenemos que poner a trabajar a nuestro sistema que se encargará de ir rastreando nuestros datos comprobando que no se haya producido anomalía que les hemos indicado. En cuanto lo  detecte, enviará notificaciones mediante mensajes a las personas responsables o con capacidad para resolver ese problema en cuestión.

 

Liberada la nueva versión de Oracle BI con importantes mejoras: 11.1.7.0

Ya tenemos disponible la nueva versión de OBI 11.1.1.7.0, cumpliendo fechas y para todas las plataformas, aquí tenéis el link de descarga. Las principales mejoras de esta nueva versión tienen que ver con las opciones de visualización y la exporatación de datos a Excel. A continuación repasaremos algunas de las más destacadas.

Smart View
Esta funcionalidad es la más esperada y que tanto estuvo promocionando Oracle el año pasado. Consiste en un plugin que se instala en el Excel y podemos visualizar los datos directamente del catálogo y crearnos nuestros informes y tener nuestras excels actualizadas de forma automática. Este plugin es similar al ofrecido en otras soluciones de la familia como Hyperion y equivalente al PivotPoint de Microsoft. Eso si con una funcionalidad y una integración mucho más específica para Oracle BI.

El objetivo de este plugin es hacer realidad el sueño de muchos ejecutivos de poder trabajar con datos analíticos y precisos sobre hojas de cálculo.

1
Aspecto mejorado
Desde la versión primera de 11 de OBI no habían hecho un cambio de imagen, que aunque pequeño notan los detalles bien cuidados de las pestañas, los menús con formas redondeadas.

7
Nuevos componentes de visualización

En esta actualización aparecen nuevos componentes que nos facilitarán la vida, cierto es que con trucos podíamos llegar a conseguir el mismo efecto, pero no de manera tan natural como disponer del componente.
También BI nos sugiere al crear un análisis dependiendo de nuestros datos que tipo de vista es la más recomendada para mostrarlos.

5
Excel toma el protagonismo

Dos mejoras muy significativas dan lugar a pensar que Oracle tiene muy en cuenta a los usuarios que trabajan con Excel, la primera es el smart view y la segunda es que ya se puede exportar un dashboard a Excel 2007, antes solo se podía a html y pdf, y no solo se podrá exportar una sola página si no todas las pestañas del dashboard en sus respectivas hojas del Excel.

6
Pasos de navegación: Breadcrumbs
Pasos para la navegación se han añadido para ayudar a los usuarios a comprender su posición actual en Oracle BI contenido y el camino que se ha utilizado para navegar por el contenido. Aparecerán en la parte inferior de la página y los usuarios con un click volverán sobre sus pasos. Esta mejora hace mucho más comprensible la navegación en profundidad para los usuarios, minimizando el número de de refrescos de pantalla necesarios para echar hacia atrás varios pasos.

Estas sons algunas de las más de 200 mejoras que recoje la nueva versión.

zp8497586rq

Cuantificando el retorno de inversión. El ROI en proyectos TIC (III)

Poniéndole el cascabel al gato

Si no hemos realizado un buen análisis de las operaciones actuales de nuestra empresa y sus procesos administrativos, no merece la pena realizar ningún cálculo sobre la potencial mejora que nos proporcionará el sistema, a menos que una de nuestras pasiones sea la de escribir relatos de ciencia ficción. De hecho lo realmente raro y excepcional es que este tipo de análisis se realicen.

Lo primero que debemos de establecer son las principales ventajas que aporta un nuevo sistema a la empresa. Si nos atenemos a los folletos de los fabricantes de software descubriremos que son decenas, cuando no cientos. A nivel de cálculo del retorno de inversión lo que nos interesa principalmente son dos variables que pueden ser cuantificables en cierta medida: eficiencia y operatividad.

Para obtener una cifra razonable sobre la repercusión de la eficiencia ganada con el nuevo sistema tenemos que tomar el cálculo hecho previamente y conforme a las estructura realizada (por departamentos, procesos, subsidiarias, etc..) comenzar a descontar los costes de los procesos eliminados con el nuevo sistema, descontar las mejoras en eficiencia conseguidas y añadir las penalizaciones que pudiera suponer el nuevo sistema. La cifra obtenida nos dará el ahorro total que obtendríamos para realizar el mismo número de operaciones. Dividido por el coste obtenido del sistema anterior obtendríamos el porcentaje de mejora en la eficiencia.

El cálculo de las mejoras en operatividad es algo más complejo, el objetivo principal es cuantificar el aumento en la capacidad operativa obtendríamos con el nuevo sistema. Esto es especialmente interesante para organizaciones inmersas en planes de expansión. De nada sirve aumentar nuestras ventas sino tenemos la capacidad operativa suficiente de para poder atender un mayor número de pedidos en nuestra empresa.  A groso modo podemos aplicarlo en base al coeficiente de mejora en la eficiencia obtenido en el anterior apartado.

Por otro lado toda mejora en eficiencia suele llevar aparejada una mejora en la operatividad esto siempre funciona así, en este sentido pero no siempre en el inverso. Puede ser que mejoras en la operatividad de una empresa como la apertura de una nueva línea de fabricación puedan hacerla más operativa pero menos eficiente.

Las mejoras y su impacto competitivo

Otro punto a tener en cuenta es cómo estas mejoras pueden afectar a la posición competitiva del la empresa en el mercado. Por un lado puede permitirnos mejorar la rentabilidad con unos mayores dividendos  que pueden ser repartidos o reinvertidos a fin de mejorar todavía más la posición competitiva. La otra opción más lógica sería repercutir estas mejoras en una bajada de precios que nos permitiera incrementar nuestra cuota de mercado.

Sea cual sea la estrategia de nuestra empresa, cualquier estimación sobre el ROI ha de centrarse en nuestros objetivos estratégicos. Lo lógico es que antes de considerar un proyecto tengamos realizado un análisis o plan estratégico de la empresa y sepamos qué tipo de mejoras en eficiencia debemos de buscar. Si por ejemplo la empresa busca una reducción de precios que le permita mejorar su posición competitiva habrá que emplearse a fondo en la mejora de eficiencias operativas o búsqueda de sinergias con el canal de suministros. Este puede ser de por si un planteamiento muy válido a la hora de comenzar a considerar un nuevo proyecto y nos facilitará enormemente todo el proceso de análisis.

Ver otros artículos de esta serie:

Medir el ROI en proyectos IT

Los beneficios de un proyecto IT

Nuevo video de Golive: Empresas más competitivas con Aplicaciones Web

En el canal de Youtube de Golive hemos estranado una nueva serie de videos. Se  trata de una colección de videos cortos en las que intentamos mostrar en forma de píldoras de conocimiento, algunos de los puntos más destacados de nuestra filosofía. Esto es, los puntos principales sobre los que una empresa ha de construir su estrategia en cuanto a nuevas tecnologías se refiere.

En esta primera ocasión hemos querido destacar las ventajas que el uso de aplicaciones web ofrecen para las empresas. Este tema ya ha sido mencionado en algún artículo en la web de Golive. No obstante los gráficos en movimiento nos ofrecen la posibilidad de ilustrar los mismo conceptos de una manera más rápida y con más dinamismo. Esperamos que sea de vuestro agrado.

Cualquier comentario duda o sugerencia son siempres bienvenidos.