Todas las entradas de: Jorge Losilla

Un profesional de marketing y las nuevas tecnologías, tratando de sobrevivir en un mercado siempre cambiante. Apasionado del software y de la tecnología y aficiionado al arte digital. Estoy convencido de que hay mucho margen de mejora para lograr aplicaciones más amigables para la empresa. Jorge Losilla

¿Que información merece la pena almacenar?

shutterstock_131784386

 

La capacidad de recopilar y almacenar enormes volúmenes de información a bajo coste, no ha tenido parangón  en ninguna época de la humanidad. Se estima que en los cincuenta años posteriores que siguieron a la invención de la imprenta por parte de Gutenberg se imprimieron unos ocho millones de libros, más de lo que lo que consiguieron todos los escribas de Europa juntos durante los 1.200 años precedentes, desde la fundación de Constantinopla.

Se ha hablado mucho de la velocidad a la que se incrementan los registros disponibles así como la capacidad de computación, pero se ha reflexionado poco acerca de todas las implicaciones que puede tener esta fiebre del almacenamiento, que por cierto también pueden ser negativas.

Nadie niega por ejemplo que los humanos necesitamos de cosas materiales como ropa, utensilios o vehículos para gozar de un cierto bienestar. Esto era tan cierto en la edad de piedra y en las pocas sociedades tribales que sobreviven aisladas por el planeta como lo es en nuestras deslumbrantes ciudades. De hecho en las sociedades modernas muchas veces se intenta medir el bienestar con las capacidad de compra de productos o el valor acumulado de los mismos. El problema es que cualquiera puede acabar prácticamente enterrado en su propio bienestar material.

Entre un 2 y 5% de los adultos sufren en mayor o menor medida del síndrome de acaparamiento compulsivo, un trastorno de la conducta que consiste en acumular todo tipo de artículos u objetos, en muchos casos hasta basura, con dificultad manifiesta para deshacerse de ellos.   En su afán por acumular, muchas veces convierten sus viviendas en lugares impracticables en las que a duras penas se puede realizar las operaciones más sencillas de alimentación, limpieza y reposo, generando además importantes problemas de salubridad.

En los entornos empresariales a veces sucede lo mismo. Muchas veces nos encontramos con empresas que sufren lentitud en sus sistemas debido a la acumulación una gran cantidad de registros sin realizar las correspondientes purgas de bases de datos o que les cuesta una eternidad obtener los informes debido a que estos se obtienen directamente de la base de datos del transaccional sin utilizar ningún tipo de data warehouse o sistema de almacenamiento intermedio.

Los costes de acaparar almacenar información

Los costes de almacenar información han ido descendiendo a velocidades vertiginosas durante las últimas décadas, aunque parece que en los últimos años esta carrera se ha frenado, todavía no hemos sido capaces de digerir todo el poder que no ha conferido esa capacidad de almacenamiento. Simplemente nos dedicamos a almacenar y almacenar con la vaga noción de que un día nos servirá de algo.

Pero aunque los costes económicos de almacenar información hayan descendido estos no han desaparecido y tienen básicamente tres componentes, espacio de almacenamiento, capacidad de proceso y recursos humanos. Para almacenar información necesitamos hardware, software y energía, una infraestructura tanto física como lógica que requiere de un mantenimiento con costes crecientes, si tenemos en cuenta que la empresa va a generando y acumulando información continuamente. Por mucho que los costes de almacenamiento se reduzcan vamos a tener que ir incrementando los gastos si o si. Además la reducción de los costes de almacenamiento así como el coste computación parece ser que está frenando debido a las limitaciones físicas con las que se están encontrando los fabricantes de hardware  llegados a un cierto punto.

Pero además la acumulación de datos históricos en los mismos repositorios que utilizan los principales sistemas de la empresa tiende a ralentizar el acceso a la base de datos, el cual es uno de los principales problemas que encuentran las empresa una vez que sus sistemas llevan ya unos cuantos corriendo estables. Esto implica tener que mejorar la infraestructura  o resignarse a funcionamiento lento y con errores y caídas.

La alternativa es utilizar un sistema secundario de almacenamiento que tendrá sus propios costes adicionales. Cabe decir que la información inútil es una fuente potencial de distracción y en la economía del conocimiento el recurso más escaso es la atención.

Separando el grano de la paja

Tenemos que profundizar un poco más en la definición de información para captar su sentido. Una de las definiciones más comúnmente aceptadas de información es la de una colección de datos organizados que transmiten un mensaje.  Las bases de datos de empresariales en la mayoría de los casos están compuestas de anotaciones numéricas correspondientes a conceptos, tales como unidades del artículo X, precio del artículo Y, cantidad adeuda al proveedor Z, etc. Son por tanto colecciones de datos organizadas, pero su capacidad para transmitir un mensaje que tenga algún valor depende del procesamiento que seamos capaces de darle y de la vigencia de los datos contenidos.

Para saber si merece la pena conservar un dato debemos de hacernos las siguiente preguntas en primera instancia:

  • ¿Tenemos la obligación de conservarlo? Bien sea por imperativo legal, por requerimientos de auditoría o por estricta política de la empresa. En caso afirmativo no es necesario seguir haciéndonos preguntas.
  • ¿Tiene algún poder explicativo por sí solo? Si el dato es significativo por sí solo entonces simplemente tenemos que conservarlo. En caso negativo debemos de hacernos la siguiente pregunta.
  • ¿Tiene algún utilidad como componente agregado o agrupado de un conjunto? En caso afirmativo debemos computar esos conjuntos y documentar de manera fehaciente como han sido obtenidos esos registros “cocinados”. En caso negativo el dato debería de ser destruido.

 

Estos principios sencillos han de ser aplicados en base a las necesidades y circunstancias de cada empresa, por lo que su puesta en práctica nunca será tan fácil. No obstante la aplicación de unas medidas de “higiene informática” es tan necesaria y útil como la aplicación de medidas de higiene persona.

Breve historia del software empresarial (II)

guindous

 

La era dorada del software empresarial

La combinación entre PC, modelo cliente servidores y bases de datos relacionales abrió la era dorada de la computación empresarial. Esto obligó a que a mediados de los ochenta, las grandes aplicaciones de algunos fabricantes como SAP, Oracle  y SAS tuvieran que ser portadas de lenguajes P/L  a  C para que pudieran funcionar sobre estos nuevos entornos.

A finales de los 80, grandes fabricantes de software de infraestructura como Oracle y Microsoft establecieron sus divisiones de negocio dedicadas  a las aplicaciones de negocio. En 1990 Oracle lanzó su primera aplicación cliente-servidor que incluía aplicaciones de contabilidad que se ejecutaban como programas  en cliente contra base de datos Oracle.

Los vendedores más establecidos como JD Edwards también migraron esta arquitectura basada en servidores con su aplicación World Software, así como Baan que a mediados de los 90 lanzó su Dynamic Enterprise Modeler.  La época dorada del ERP había comenzado.

Pero aparte de los grandes fabricantes, fue durante la década de los 90 y principios de la primera década del siglo XX hubo una gran explosión de fabricantes de software a todos los niveles especialmente orientados a medianas y pequeñas empresas que surgieron en gran cantidad de países, algunos con orientación clara a todo tipo de pymes cubriendo  áreas funcionales, como en el caso de Eurowin en España con su Contaplus y otras aplicaciones y otros con aplicaciones sectoriales.

Las API´s fueron otro hito en el desarrollo de soluciones empresariales, mediante ellas se permitía a los desarrolladores de empresas y de consultoras el realizar cambios en las soluciones estándar para adaptarlas mejor a los requisitos de cada empresa. Gracias a este importante paso se consiguió dotar de versatilidad a las soluciones empresariales, lo cual permitió el desarrollo de todo tipo de verticales que sobre la base de un ERP conocido y probado, contaban con importantes adaptaciones para la problemática de cada sector.

Hasta 2007 el sector fue una auténtica fiesta. El ERP se convirtió en un estándar que cualquier empresa debía de tener a la eclosión de fabricantes se sumó el negocio de la consultoría. Pero a pesar de su carácter inclusivo el mercado del software empresarial no se limitó sólo al ERP. Ya en 1987 se lanzaron los primera solución de software para gestión de contactos, precursora de los actuales CRM.  En 1993 Siebel lanzó su primer producto para Gestión de Fuerza de Ventas.

En 1995, Windows 95 vendió más 7 millones de unidades en la primera semana tan solo, lo que supuso una auténtica revolución. Aunque a partir de entonces el software pasó a copar casi todo el protagonismo en el mundo empresarial, esto no quiere decir que el hardware dejara de evolucionar.

 

La revolución de Internet

A principios de los 90, Internet hizo su aparición en escena y el terremoto que provocó fue tal que más de 25 años después seguimos notando sus réplicas. Los protocolos TCP/IP y el intercambio de paquetes así como el desarrollo de una red global de comunicación o Internet habían estado rondando el ambiente desde finales de 60 y principios de los 70. Durante los 80 fueron surgiendo precursores como CompuServe, ARPANET y otros, pero el punto de inflexión llegó a finales de 1990 cuando Tim Berners Lee estableció comunicación exitosa entre un navegador web e internet. Pocos años después Microsoft lanzó su popular navegador web Microsoft Explorer, comenzando así las guerras de los navegadores.

El lanzamiento del lenguaje Java y su gran capacidad para crear aplicaciones multiplataforma supuso también todo un hito en el mercado de aplicaciones empresariales. A finales 1996 la web había transformado ya el mundo y las empresas comenzaron a mirar hacia la web, que además había proporcionado al mundo una nueva arquitectura para el desarrollo de aplicaciones.

El siguiente hito fue el lanzamiento de Google en 1998. ¿Acaso alguien recuerda cómo era el mundo antes de Google? Antes de la aparición del famoso buscador, Internet era un caos, era muy difícil buscar información de cualquier tipo era muy complicado. Era necesario, apuntar y pegar las direcciones en el navegador, los directorios de Internet, Google consiguió crear orden sobre ese caos, al menos en cierta medida. Puso el poder de saber cualquier en los dedos de cualquier persona cualquier cosa, toda una revolución.

Pero no todo era felicidad, en aquel momento el mundo se enfrentaba a una gran amenaza, la debacle global causado por el fallo en cadena a causa del efecto 2000. Momento crítico para supervivencia de la civilización que trataremos en en el siguiente episodio.

Integración entre aplicaciones de negocio y Big Data

integracion_entre_aplicaciones_de_negocio_big_data

 

El Big Data o los datos masivos es un término acuñado para referirse a la acumulación de grandes repositorios de datos. Sus orígenes como concepto pueden retrotraerse a 2009 y al gigante de datos Google. En aquellos días cuando la gripe aviar era de una gran preocupación en todo el mundo, se publicó un artículo en la revista Nature que tuvo gran impacto entre algunos epidemiólogos y científicos de los datos. Al parecer los ingenieros eran capaces de predecir los patrones de propagación de la gripe en USA con bastante precisión mediante el análisis de los términos de búsqueda de los usuarios del buscador.  Encontraron una fuerte correlación entre algunos términos de búsqueda y los patrones de propagación de la gripe.

Aunque esto ya se había intentado hacer antes, la principal falla era que hasta ahora se buscaban hipótesis a priori, seleccionando antes los términos de búsqueda para ver que  si estos observaban presentaban algún tipo de correlación. La principal diferencia es que en esta ocasión no se suministró ninguna hipótesis previa y simplemente se dedicaron a buscar correlaciones para luego establecer las hipótesis. Un enfoque totalmente ortodoxo que a la postre se mostró bastante efectivo para poder navegar entre los incomprensibles océanos de datos que algunos gigantes de internet como Google estaban comenzando a almacenar. Este fue sin duda el nacimiento de la metodología de los datos masivos, olvidarse del conocimiento a priori, aplicar análisis estadísticos y luego intentar delinear las hipótesis o incluso renunciar a ellas.  El establecimiento de hipótesis a priori es uno de los grandes requisitos que tenemos que cubrir cuando nuestras investigaciones se basan en pequeñas muestras representativas, gracias al big data, en algunas ocasiones el análisis de muestras es algo superado ya que podemos analizar el global de los datos sin tener que seleccionar muestras representativas.

Se trata de conocer el  qué aun a costa de renunciar al porqué. Y esto puede ser un contrasentido. Como afirmaba Merovingio el personaje de Matrix Reloaded, el porqué es una fuente de poder, el problema es que un por qué falso es una fuente de problemas. Y es que no hay ignorancia más perniciosa que la  de ser ignorante de la propia ignorancia. La era del Big Data anticipa una época en la que los cambios serán tan rápidos que sólo nos permitirán actuar en el momento, ser consciente del que, sin tiempo para el análisis del porqué, que  muchas veces se convertirá en una anécdota del pasado.

Realmente el Big Data se basa más en la reducción de los costes de computación que en la utilización de nuevos paradigmas o complejos modelos de análisis, es el triunfo de la fuerza bruta. De hecho las nuevas tecnologías surgidas alrededor del Big Data como Hadoop o  MapReduce se basan en este enfoque, renuncian a la solidez estructural de las bases de datos relacionales y permiten un análisis más rápido de grandes volúmenes de datos, aun cuando estos se  encuentran desordenados .

Aplicaciones actuales del Big Data

Las ciencias de salud, el comercio internacional, la industria de contenidos, las telecomunicaciones, la meteorología, el transporte, en general cualquier actividad humana que genere grandes cantidades de flujos de datos potencialmente capturables y almacenables es susceptible de convertirse en un potencial campo de aplicación de las tecnologías Big Data.

Las redes energéticas, ciudades inteligentes, comercio minoristas,  transacciones financieras e industria de contenidos son solo algunos ejemplos de sectores en los que actualmente ya se están aplicando las tecnologías de Big Data. Pero en general cualquier empresa que genera grandes volúmenes de datos es susceptible de su utilización.

Integración entre Big Data y aplicaciones de negocio

La primera aplicación que nos viene a la mente a la hora de integrar el Big Data en las soluciones de negocio es el Business Intelligence. Los información proveniente del Big Data puede ser una inestimable fuente de valor a la hora de tomar decisiones de carácter empresarial. Junto con la información proveniente del análisis de los datos puramente empresariales podemos incorporar análisis de fuentes de datos externos que nos permitan mejorar la toma de decisiones empresariales, especialmente en las decisiones de mercado.

Pero la información proveniente del Big Data no solamente puede ser un complemento para la toma de decisiones. Al igual que la integración entre ERP y redes M2M permite que las aplicaciones sean capaces de tomar decisiones en base a los datos suministrados por las máquinas y dispositivos de la empresa, los datos provenientes de análisis de big data pueden ser utilizados por las aplicaciones de negocio.

Por citar tan sólo algunos ejemplos, las empresas agrícolas podrían tomar decisiones de cosecha y de siembra en base a los análisis de datos meteorológicos y datos de mercado. Lo mismo que los operadores logísticos podrían adaptar la programación de sus expediciones en base a los datos de tráfico de las distintas rutas que utilizan.

Los pilares de la transformación digital

pilares_de_la_transformacion_digital

En un artículo anterior profundizamos en el concepto de transformación digital. Una de las conclusiones más importantes era que ese fenómeno, más allá de suponer un sólo paradigma, es un paraguas bajo el que se agrupan un número variado de tecnologías que han alcanzado un profundo grado de madurez y que van a permitir a las empresas transformar de forma radical la forma en que se hacen los negocios, culminando así la revolución económica que lleva varias décadas en marcha y que supone la digitalización.

En este artículo por tanto vamos a delinear de forma un poco más detallada los pilares tecnológicos que sobre los que se asienta la transformación digital para comprender un poco mejor su alcance. Los pilares que exponemos a continuación no tienen el mismo impacto en todas las industrias y sectores de negocio, al tener cada una su propia naturaleza el grado de aplicación de cada una de estas tecnologías varía profundamente.

  • La universalización de los principios web: Este principio va mucho más allá de tener una página web con nuestra dirección de contacto y un pequeño catálogo de productos. Consiste más bien en la universalización y aplicación de los principios y protocolos en los que se asienta la www, tales como el http, servicios web, json,  para almacenar, acceder y compartir información, lo que hace a los sistemas mucho más permeables, accesibles y sobre todo más fácilmente integrables.

También incluye el uso de las aplicaciones web allá donde sea posible, corriendo sobre un navegador y basadas en un modelo cliente/servidor. Esto permite un acceso universal y masivo a las aplicaciones de negocio, sin importar el sistema operativo y sin necesidad de pre instalar nada. Sin duda, a nuestro juicio éste es el principio más importante sobre el que se asienta la transformación digital ya que es la argamasa que permite integrar el resto de tecnologías de una forma asequible y dinámica.

Todos hemos podido comprobar la transformación a nivel global que han supuesto los buscadores web, las páginas de videos tipo youtube, las redes sociales, google maps e incluso las páginas de citas tipo meetic.com. Ahora se trata de llevar esta transformación a cada empresa y negocio, con unos modelos de comunicación e intercambio de información mucho más abiertos.

  • Movilidad: Los dispositivos móviles han supuesto junto con la web la segunda gran revolución tecnológica en las dos últimas décadas. En principio este impacto ha sido mucho mayor en los mercados de consumo que en el de la empresa, pero lentamente estamos viendo cómo las soluciones de movilidad están comenzando a integrarse con las distintas aplicaciones de negocio de la empresa. A mediados de 2015 un estudio apuntaba que alrededor de un 20% de las empresas ya contaba con aplicaciones de negocio para dispositivos móviles.

Hasta ahora el acceso a las aplicaciones de negocios se hallaba siempre limitado a los terminales de escritorio en los que previamente estaban instalando los ERP, CRM y otras aplicaciones de negocio. Con la llegada de las aplicaciones web y los móviles con capacidades de navegación web, esto cambió en cierta manera, aunque dadas las características de los dispositivos, principalmente tamaño de pantalla y resolución, estas capacidades eran muy limitadas. No fue hasta la llegada de las apps y su adaptación a la empresa cuando los dispositivos móviles fueron una opción a tener en cuenta en los entornos de desarrollo empresarial.

No obstante tal vez  su principal potencial no es ser un punto de acceso más al sistema, sino su capacidad para alimentar de datos el sistema, ya no sólo a través de formularios, sino también con lecturas automáticas de geolocalización y demás. Lo cual entronca perfectamente con nuestro siguiente punto:

  • Redes M2M: La recogida de datos de máquinas para su integración en las aplicaciones de negocio viene realizándose desde hace décadas, el principal problema es que hasta hace poco dependía de costosas integraciones automáticas o de recogidas de datos manuales. Con la reducción de precios y el tamaño de los dispositivos, la universalización de las redes de comunicación y sobre todo la estandarización de los protocolos de comunicación y el know how surgido alrededor de todas estas tecnologías integradas ha permitido alcanzar un punto en el que vamos a asistir a una generalización de las redes M2M aplicadas en ámbitos en los que hasta ahora estaban totalmente vedadas.

 

  • Desarrollo del concepto colaborativo país: Durante los últimos años gracias en parte al surgimiento de las redes sociales, hemos descubierto una faceta del software con la que seguramente no contaba los pioneros en este campo, su capacidad para fomentar, facilitar y permitir la colaboración entre equipos de trabajo.

La mayoría de las aplicaciones empresariales multiusuario tienen muy poco desarrollada esta faceta, y las capacidades de colaboración e interacción entre usuarios son más bien limitadas. Incluso muchas veces en software como el de gestión de proyectos, cuya función es facilitar la coordinación y colaboración en torno a un proyecto, tienen unas capacidades pobres comparados con cualquier red social.

Pero el concepto de colaboración, va mucho más allá, está llamado a realizar una profunda transformación de la forma en la que todos trabajamos.

Estos cuatros puntos son sin duda los aspectos más destacables sobre los que se asentará la transformación digital para la mayoría de empresas de nuestro país, aunque dependiendo de la naturaleza de sus mercados y su modelo de negocio puede haber otros muchos.

Descubriendodo el valor de la información

el_valor_de_la_informacion

Cada día las empresas producen mayores volúmenes de datos, fruto de los procesos de digitalización de las últimas décadas. Por imperativo legal las empresas ya están obligadas a guardar grandes cantidades de información, como ventas, albaranes, facturas, recibos, etc. Pero este sólo es un porcentaje de toda la información que se almacena en una empresa, datos de clientes, cotizaciones, presupuestos, gastos de viajes, presupuestos, proyecciones, informes, etc.

En muchos casos esta información se halla integrada en los principales sistemas de gestión, en otras ocasiones se halla en sistemas que son usados de forma parcial por algunos departamentos de la empresa y en muchos casos en los ordenadores personales de cada uno de los empleados. Además de eso hoy en día existen innumerables repositorios tanto públicos y gratuitos como privados y de acceso bajo pago, que permiten complementar y combinar las fuentes de datos para así poder lograr una visión más clara de la realidad de nuestra empresa y nuestro entorno y cómo se produce la interacción entre ambos.

Siempre se ha dicho que la información es poder, pero para poder convertir en información la cantidad ingente de datos que disponemos en las empresas se necesitan nuevas tecnologías y metodologías que nos permitan separar el grano de la paja.

Los métodos de análisis convencionales simplemente nos sirven para comprobar hipótesis definidas a priori, a las que posteriormente aplicamos una comprobación para ver si son ciertas o inciertas. Pero cuando queremos navegar entre los datos para encontrar cosas que desconocemos como tendencias, correlaciones o fenómenos que ni tan siquiera concebimos.

Uno de los enfoques utilizados es el aportado por las soluciones de Big Data,  es la búsqueda sistemática de correlaciones sin intentar contrastar ninguna hipótesis a priori. Una vez encontradas las correlaciones, se pueden establecer las hipótesis para contrastar. Este es sin duda el mejor procedimiento conocido para tratar con volúmenes ingentes de datos, algo que está probablemente fuera del alcance de la mayoría de las empresas.

Los nuevos paquetes de visualización de datos, nos permiten enfoques a medio camino entre una y otra técnica. Mediante un procedimiento conocido como el “data discovery” o descubrimiento de la información de valor que se esconde detrás de los datos, podemos descubrir más fácilmente las tendencias, las interrelaciones para que luego podamos modelar nuestras hipótesis.

Esto se logra aprovechando la mejor capacidad de nuestra cognición para aprehender conceptos mediante la visualización de elementos gráficos frente a la lectura de números y textos. De hecho algunos estudios en el campo de la percepción indican que el cerebro procesa 3 veces más rápido las imágenes que la información escrita.

A mayor cantidad de datos, menor cantidad de información disponible, ya que nuestra atención es limitada y sólo puede enfocarse en unos pocos elementos, cuando nuestra mente se ve abrumada por grandes volúmenes de información nuestra atención tiende a dispersarse.

Las soluciones de Data Discovery  nos permiten navegar fácilmente por estructuras de datos representadas gráficamente  nos permiten hacernos un idea más clara de las relaciones que hay entre los distintos conceptos, a nivel de proporciones, importancia y evolución a lo largo del tiempo. Este tipo de sistemas nos permiten visualizar de manera más rápida la evolución de nuestra empresa en muchos aspectos.

En cierta manera la exploración de datos se parece mucho a exploración del terreno que realizaban los cazadores primitivos, uno tiene que guiarse por sus instintos e intuiciones y explorar más cuando veamos algo que nos llame nuestra atención. En un mundo en el que hemos automatizado y sometido a algoritmos toda actividad imaginable, tal vez el olfato y el instinto vuelvan a convertirse en decisivos.

Breve historia del software empresarial y soluciones de negocio (I)

old_computers

 

Durante sus comienzos, la consultoría de soluciones IT estuvo muy ligada a tecnologías concretas y más específicamente a fabricantes y productos.  Por aquella época la utilización de medios informáticos para la gestión de procesos de negocio era algo totalmente novedoso. El salto a lo digital era un paso enorme y costoso que solo las empresas más potentes podían permitirse. Faltaba conocimiento, experiencia y sobre todo había importantes interrogantes sobre la repercusión que pudieran llegar a tener este tipo de tecnologías y cuál iba a ser su grado de penetración en la empresa.

Fue la época dominada por IBM y otros fabricantes que imponían sus sistemas propios y controlaban cómodamente el mercado. Las aplicaciones de negocio eran muy limitada y sus interfaces de usuarios cuando menos arcaicas. El manejo de las grandes computadoras era cosa de técnicos muy especializados y su velocidad, al estar basadas en soportes de almacenamiento como cintas y tarjetas perforadas era más que limitada. En aquella época la informática y los ordenadores era algo que de manera inconsciente se asociaba a la ciencia ficción y nadie en su sano juicio se planteaba el tener uno en casa. El negocio de la consultoría IT (todavía no se había ni tan siquiera inventado ese término), era muy reducido y cubierto por personas con un claro perfil técnico, que en la mayoría de los casos tenían una formación científica: físicos, matemáticos, etc..

A finales de los 70 comenzaron a emerger los primeros fabricantes de software empresarial: Oracle, JD Edwards, SAP, Baan, ofreciendo soluciones de contabilidad, finanzas y  MRP que a las postre se convertirían en el embrión del concepto de ERP. Conforme las soluciones de negocio fueron adquiriendo mayor complejidad la vertiente del negocio correspondiente a consultoría empezó a ganar peso con respecto al aspecto técnico y de desarrollo.

La revolución del ordenador personal y las soluciones en red

La aparición de los ordenadores personales supuso toda una revolución social, su presencia comenzó a ser mucho más habitual. A principios de los 80 las computadoras monocromáticas para uso personal comienzan a extenderse. Todavía tenían que ser manejadas mediante tediosas líneas de comandos, pero el disponer de un teclado y una pantalla en que se podían visualizar textos y elementos gráficos muy básicos ayudaba bastante. Poco a poco los ordenadores personales de las empresas  comenzaron a conectarse a servidores centrales. Con el lanzamiento de la versión Oracle 3.0 en lenguaje C la primera base de datos que podía ser usada  tanto en mainframes, como en ordenadores personales o servidores, se dió un paso de gigantes en la arquitectura abierta de sistemas IT. Este hecho supuso un hito no solamente para Oracle, sino también para otros grandes fabricantes del mercado como JD Edwards y SAP.

Esto unido la llegada del PC y los sistemas operativos de Microsoft, más concretamente el Windows, que acercó el uso las computadoras a un público mucho más amplio al ofrecer una interfaz gráfica más sencilla y un dispositivo de interacción mucho más amigable como el ratón y que apenas dependía de las tediosas líneas de comandos. Las interfaces gráficas unidas al uso del ratón, inventado por Xerox a mediados de los 70, terminó de acercar el uso de ordenadores al gran público.

El modelo cliente-servidor

La llegada del modelo cliente-servidor sin duda supuso otro gran hito, a pesar del desarrollo de los PC´s y la popularidad de uso, estos no podían competir con las capacidad de los mainframes y sus terminales en cuanto al uso de datos compartidos y protocolos de seguridad que garantizaban la integridad de la información, que en última instancia era almacenada en un único repositorio.

Conforme los PC´s se fueron haciendo más potentes y baratos, se comenzaron a crear los servidores, máquinas más potentes que servían como proveedores de información para redes de computadoras almacenando información y distribuyendola entre el resto de computadoras de la red.

Básicamente los hitos anteriores marcaron la base para las soluciones de negocio, otros hechos como la difusión de internet, las aplicaciones web, los dispositivos móviles, etc.. han supuesto un gran impacto pero no del mismo calibre. Si nos damos cuenta, hoy en día la mayor parte de usuarios en el ámbito empresarial sigue conectado a equipos con teclado, ratón y pantalla, con equipos más potentes y pantallas más nítidas, pero de igual forma que hace veinte años. La práctica totalidad de las aplicaciones empresariales siguen el esquema cliente servidor, ya sea bajo redes LAN, arquitectura web o su versión más avanzada denominada como cloud. Está claro que sigue habiendo una evolución, pero desde el momento que estamos narrando la evolución comenzó a ser más lenta y lo será todavía más.

Este es un concepto que ha sido muy explorado por los historiadores de la tecnología y que se repite a lo largo de todas las innovaciones tecnológicas, desde las herramientas de piedra hasta el motor de explosión. Al principio hay una explosión de desarrollo pero toda la tecnología alcanza su techo. En el caso de los ordenadores hay varias barreras físicas y lógicas que son infranqueables. La primeras son las matemáticas y el desarrollo de la lógica, que son la base de los ordenadores y la programación.

Luego existen barreras físicas que han enviado a  Ley de Moore han convertido la Ley de Moore en papel mojado, tal y como el propio Moore ha reconocido y que van más allá de las limitaciones físicas como la velocidad de la luz y la naturaleza atómica de la materia. Los procesadores actuales se fabrican con unas distancia de 14 nanómetros entre transistores, parece ser que llegado este punto es difícil seguir con el ritmo de hacer cada vez transistores más pequeños, ya que por debajo de ese nivel el calor no se disipa correctamente.

Es interesante conocer el enfoque aportado por el siguiente programador y especialista en diseño web, que hace basandosé en el ejemplo de la industria aeronautica: http://idlewords.com/talks/web_design_first_100_years.htm  . Algo muy parecido a lo que ha ocurrido en la industria aeronáutica está pasando en el sector IT. Como ejemplo más reciente  podemos contemplar el de las pantallas de visualización de datos, limitadas por nuestra agudeza visual. Con el lanzamiento de la pantalla Retina, se logra una densidad de píxeles por pulgada a partir de la cual ya no tenía ningún sentido seguir aumentando la resolución ya que se hace prácticamente indistinguible.

Soluciones de movilidad para gestión comercial

gestion_comercial_basada_en_apps

 

Los comerciales son  y serán gente de acción y movimiento. Siempre se ha dicho que tener un comercial en la oficina es perder dinero. La gente de acción ha de estar en el campo de batalla. Tal vez por esto, los papeles, informes y el trabajo administrativo en general nunca han sido la predilección gremio comercial.

Y  tienen razón, las redes comerciales han de ser rápidas y flexibles, siempre pegadas al terreno, con la máxima capacidad de cobertura para no dejar escapar ni una sola oportunidad. Por eso las apps para tablets y smartphones suponen una gran oportunidad para todas las empresas  que quieran mejorar la eficiencia y capacidad de respuesta de su red comercial al dotar a sus comerciales de la movilidad que necesitan.

Pero para poder cumplir esa misión con solvencia, una solución de movilidad ha de cumplir al menos una serie de requisitos mínimos. A continuación hacemos un repaso a las principales funciones que ha de cubrir un sistemas de soporte a la actividad  comercial:

  • Acceso todo tipo de información acerca del cliente: El comercial vive por y para el cliente y necesita información, puntual precisa para poder realizar su  trabajo. Direcciones, contactos e históricos de pedidos, pero no solamente eso, también datos sobre sus respuestas a las campañas de marketing, navegación en la página o historiales de reclamaciones y comunicaciones con los centros de servicio al cliente. 

Ofrecer toda esta información de una manera integrada y conectada es todo un reto para  los desarrolladores de aplicaciones, ya que generalmente se halla dispersa en muchos módulos del ERP e incluso otros sistemas. Para que sea útil para el comercial tiene que estar perfectamente integrada y permitir la navegación de un aspecto a otro de la información del cliente de la manera más rápida y sencilla posible, sólo así podrá dar respuesta a las necesidades y planteamientos de cada cliente.

  • Acceso al  catálogo de productos y soluciones de la empresa, así como disponibilidades y tiempos de entrega:  No basta con saber todo lo necesario sobre el cliente, también el comercial ha de disponer de toda la información necesaria sobre los productos de la empresa.

Idealmente esa información no se ha de limitar a nombres, códigos de producto, precio, número de unidades disponibles y plazo de entrega. Ha de ser lo más completa posible con reseñas, fotografías, enlaces a manuales, valoraciones, etc.. Todo lo que podamos imaginar, ya que cuando vamos a un cliente  nunca sabemos al 100% que es lo que nos va a pedir. Por lo tanto, si el vendedor tiene en la palma de su mano toda la información disponible, aumenta sus posibilidades de convertir la visita en una buena venta. No debemos olvidar que un comercial es en primer lugar un proveedor de información.

  • Posibilidad de configurar presupuestos, cotizaciones y cursar pedido: Conseguir pedidos es cada día más difícil, por eso es necesario que cuando un comercial consigue un compromiso de compra por parte del cliente, este pueda ser formalizado cuanto antes, eso es capacidad de respuesta. La importancia de este hecho es tan obvia que apenas merece la pena ser explicado. Solamente señalaré que detalles de este tipo  son los que a la larga forja una buena imagen de nuestra empresa frente al cliente y nos ayuda a conseguir su fidelización.
  • Capacidades de geolocalización: Un buen comercial suele saber la ubicación de sus clientes, aunque cuando se manejan muchos esto puede ser realmente difícil. Además muchas visitas suelen ser de prospección y de visita a nuevos clientes, por lo tanto los sistemas de CRM han de tener una buena integración o incluso incorporar un software GPS que nos guíe hasta la ubicación del cliente con sólo hacer un click en nuestra app.
  • Automatización de tareas administrativas: Es lógico que la empresa quiere ejercer un cierto control y supervisión sobre el trabajo de la red comercial, en aras de una mejora continua. Pero este control ha de traducirse en la menor carga de tareas administrativas para el comercial posible.

Existen muchas formas en las que los dispositivos móviles pueden ayudar  a aligerar esta carga. Por ejemplo un dispositivo con posibilidades de geolocalización puede rellenar una parte importante de los datos sobre la visita o la acción comercial realizada. Mediante software de captura de voz, el proceso de reporting de la actividad comercial puede hacerse mucho más rápido y sencillo. Por último mediante la captura de imágenes y software de gestión de gastos, la gestión gastos puede ser automatizada en gran medida.

  • Herramientas de productividad personal: Este apartado es muy variable y depende mucho de la actividad de cada empresa. Por ejemplo los comerciales de muebles a medida pueden incorporar una aplicación para tomar medidas precisas, etc.  Este tipo de herramientas puede ser algo más costoso, pero a su vez también pueden convertirse en elementos diferenciadores.

Existen muchas más posibilidades que variarán dependiendo de las necesidades pero sin duda los puntos anteriores son una buena base a la hora de plantearse qué elementos ha de tener una solución de movilidad para la fuerza comercial.

¿Qué es la transformación digital?

trasnsformacion_digitalLa transformación digital es el nuevo término de moda en el ámbito empresarial. Todo el mundo habla de ella, aunque pocos parecen tener una idea clara de lo que significa, más allá de subir fotos a  Facebook o jugar a algún juego en nuestro smartphone. Parece un contrasentido que en 2016 estemos hablando de la transformación digital, ¿acaso todavía alguien utiliza dispositivos analógicos?¿Cuántos faxes ha puesto usted en los últimos años?  Desde finales de los años 70 el uso de dispositivos digitales ha ido en aumento y su aplicación ha sido casi universal, desde relojes de pulsera hasta ordenadores, pasando por coches, electrodomésticos, ascensores y un largo etc..

Tal vez esta sea la razón principal de la confusión entorno a un fenómeno que por otra parte es absolutamente real,  el término que ha sido escogido para definirlo es confuso. En España existe la costumbre de traducir literalmente casi todos los términos acuñados en Silicon Valley, lo que lleva a no pocas confusiones. Muchas de esta pseudotraducciones no solamente suenan extrañas, además suelen estar gramaticalmente mal construidas y casi siempre se corresponden  con palabras y  expresiones ya existentes en el idioma castellano. Generalmente se opta por emplear el término anglosajón, con lo que no solamente se evita el tedioso esfuerzo de tener que pensar, sino que además se dota de un cierto de aire de misticismo a la “cosa”, que según la creencia popular ayuda a venderla.

En el caso de la transformación digital el término ya venía viciado de fuera. La transformación digital no es más que  el paraguas bajo el que se ha agrupado una serie de aplicaciones tecnológicas basadas en el desarrollo de las redes y protocolos de comunicación además del refinamiento del software y su aplicación en nuevos campos como la comunicación social o el intercambio de información entre dispositivos. Muchas de estas tecnologías y aplicaciones existen desde hace décadas, pero debido a razones de coste y a la falta de  madurez y refinamiento en su uso, eran de difícil aplicación a nivel general en el mundo de la empresa.

La miniaturización y bajo precio de los procesadores, la universalización de las redes de comunicación  y sobre todo la experiencia adquirida durante décadas de desarrollo de soluciones electrónica y de software,  ha permitido que las tecnologías digitales generen nuevos modelos de negocio y paradigmas organizativos que están desplazando todo lo que hemos conocido durante el siglo XX y parte del XIX. Si bien la transición del carbón a la electricidad supuso un gran salto conocido como segunda revolución industrial, estamos convencidos de que el paso del papel al bit supondrá un cambio todavía mayor.

Aparte de este sustrato tecnológico común, las tecnologías y procedimientos englobados en la transformación digital en principio no guardan ninguna relación entre sí, salvo una concurrencia en el tiempo y en el espacio. Son la consecuencia de la aplicación de una misma tecnología en distintos ámbitos, pero al igual que muchos sectores que pueden utilizar una misma tecnología como el motor de explosión o el bombeo hidraúlico, su naturaleza intrínseca es absolutamente distinta. Este es sin duda el factor clave de la transformación digital.

Al ser la información un elemento tan único y diferente para cada sector y cada empresa, no existe una única transformación digital, cada sector y más concretamente cada empresa tiene que definir la suya propia. Este es un proceso complejo en el que la empresa tiene  que tener claramente identificado cual es el valor que aporta a sus clientes, como lo está haciendo y de qué formas puede mejorar ese aporte mediante la aplicación de las nuevas tecnologías a sus procesos.

Esa es sin duda la gran clave para afrontar la transformación digital, no se trata sólo de comprar software, smartphones o de interconectar los dispositivos de la empresa con las aplicaciones de negocio. Se trata más bien de alcanzar una comprensión profunda de nuestro modelo de negocio para poder redefinirlo y adaptarlo a los nuevas tiempos que traen la innovación tecnológica.

El ERP en la nube, estado de la cuestión

Durante los últimos años hemos escuchado hasta la saciedad  que el futuro es la nube, que el cambio era inminente y que ya no había marcha atrás. A día de hoy tras varios años de inminencia, la realidad es que son muy pocos los fabricantes, especialmente entre los del segmento de aplicaciones corporativas, capaces de ofrecer una solución cloud estable, consolidada y ampliamente funcional.  Mientras que en otros tipos de aplicaciones como el CRM la cuota de mercado de las soluciones cloud cubre la práctica totalidad del mercado, en el ERP su presencia es bastante más baja.  ¿Cómo puede ser que el principal software de gestión empresarial esté perdiendo el tren de la nube?

La primera explicación que se suele ofrecer y que de entrada suena a excusa, es la de la complejidad, lógicamente es mucho más difícil adaptar un ERP a la nube que un CRM, pero cuando vemos que algunos fabricantes han sabido hacer los deberes y están ofreciendo soluciones en la nube, no sólo totalmente funcionales, sino siendo más avanzadas incluso que las soluciones tradicionales, al haber captado perfectamente la esencia del formato y ofreciendo capacidades colaborativas y sociales nunca antes vistas en las aplicaciones on premise.

Demasiadas cuentas pendientes

La principal razón de este atraso, es sin duda alguna es el bajo perfil innovador y de inversión de la mayoría de las compañías aprovechándose de las importantes barreras de entrada, los largos periodos de reposición, las dificultades para cambiar de producto por parte de los clientes y su dominio del mercado para adoptar una posición cómoda y rentable. Cómoda en el sentido de que en general la innovación en el producto ha sido escasa, limitándose por lo general a añadir algunas mejoras funcionales y de usabilidad, dependiendo de la envergadura de la actualización, y rentable porque se han dedicado a vivir de los ingresos recurrentes de un mercado cautivo, especialmente desde la desaparición de gran parte de los pequeños fabricantes.

No es de extrañar por tanto que el enorme cambio de paradigma que implica pasar de aplicaciones cliente/servidor on premise a soluciones en la nube se le haya atragantado a gran parte de la industria.  Durante más de una década la mayoría del sector se dedicó a desdeñar abiertamente las soluciones ERP basadas en estándares web. Sólo cuando el avance de las soluciones cloud ha sido algo imparable han comenzado a prestar atención a un modelo de desarrollo que lleva años revolucionando el mundo del software de aplicaciones colaborativas en todos los sectores.

Y es que las soluciones cloud son sobre todo, aunque no exclusivamente, soluciones web. El desarrollo de este tipo de soluciones requiere de un know-how y una experiencia totalmente distintas al de las aplicaciones de escritorio. Cuestiones como la usabilidad, el diseño adaptable a los distintos formatos y navegadores, la interacción con aplicaciones de terceros y demás son altamente complejas. Las soluciones ERP son a fin de cuentas mastodónticas aplicaciones que en los casos más extremos han de ser capaces de soportar miles de usuarios concurrentes. No es fácil por tanto cambiar el modelo de desarrollo de unos paquetes de software tan sofisticados y complejos.

Simplificando hasta el extremo, podemos decir que el desarrollo se divide en dos capas: funcional y visual, lógica de negocio e interfaz de usuario.

El desarrollo web  o front-end tiene más que ver con la segunda capa y ofrece importantes ventajas sobre el tradicional modelo de aplicaciones de escritorio: no hay necesidad de instalar previamente en cada equipo, se puede acceder desde cualquier lugar, pueden soportar cualquier dispositivo con conectividad y diversos clientes web, gracias a las cachés del navegador su velocidad de funcionamiento puede ser prácticamente instantánea. Además la utilización de elementos comunes de la navegación web hace que la adaptación a este tipo de herramientas sea mucho más fácil.

Pero para poder aprovechar todas estas ventajas es necesario un importante esfuerzo por parte del fabricante, además de un importante know-how y trayectoria. No se pueden comenzar a hacer buenas soluciones web de la noche a la mañana. Algunos productos más maduros como JD Edwards llevan ofreciendo una versión web desde 2001 y el producto no ha parado de evolucionar desde entonces. Por mucho que una solución cuente con una potente funcionalidad eso nunca será garantía de que al migrar a web el producto será un éxito. Ciertamente es un modelo de desarrollo complejo y no vemos claro que todos los fabricantes sean capaces de cambiar su modelo de negocio con éxito.

Otro tanto pasa con las aplicaciones móviles y las soluciones de movilidad. Mientras las aplicaciones móviles habían revolucionado ya el planeta, la mayoría de los ERP seguían corriendo sobre un cliente pesado de escritorio y sólo algunos de los sectores con necesidades más específicas como el transporte o la distribución minorista contaban con soluciones que cubrían sólo en parte sus requisitos de movilidad.

 

Pocas opciones para los compradores

A día de hoy, en el mercado del ERP de nivel 1 sólo hay dos fabricantes que tengan productos Cloud: Oracle y EPICOR. El resto de fabricantes se quedan en proyectos y promesas. Oracle ha sabido recoger toda la experiencia adquirida en el desarrollo de soluciones web como: JD Edwards EntepriseOne o Siebel CRM para ofrecer una gama de productos cloud capaz de satisfacer todas las necesidades de la empresa: ERP, Customer Experience, Infraestructura, Planificación y Analítica. Todas ellas de fácil integración para que el cliente pueda configurar una solución de negocio a su medida, sin tener que preocuparse de requerimientos técnicos, hardware, infraestructuras, mantenimientos o cambios de versión.

Y es que el vender soluciones cloud no significa simplemente cobrar un alquiler por el software, implica un profundo cambio de paradigma para poder hacer la tecnología mucho más accesible, integrable y rentable para el cliente.

 

ERP, industria 4.0 y redes M2M

iot

¿Qué es la industria 4.0? En la adaptación al cine de la novela “Yo robot”, de Isaac Asimov, en mitad de una persecución vemos como el protagonista se introduce en una fábrica de coches. La fábrica está totalmente automatizada, no vemos ni una persona en las zonas de ensamblaje o almacenamiento. Asistimos al ensamble completo de un un producto tan complejo como un coche sin ninguna clase de intervención humana directa. Tal vez este modelo productivo que nos plantea la película, sea una hipérbole, pero viendo esa escena nos podemos hacer una idea más aproximada de los que es la industria 4.0 que leyendo las farragosas definiciones que circulan por la web.

En definitiva es la transformación digital aplicada al mundo de la fabricación. La automatización llevada hasta su último extremo en el que las máquinas realizan todo el proceso productivo. Pero la industria 4.0 es mucho más que eso, significa tener conectados a los centros productivos al cliente, proveedores y múltiples fuentes de datos. Esto a día de hoy no es ciencia ficción. Mediante la integración entre sistemas de gestión y redes M2M, los sistemas son capaces de autorregularse y tomar decisiones en tiempo real en base a los cambios de la demanda, condiciones de la fábrica y suministros, aplicando las reglas de negocio previamente suministradas. Adaptando así el funcionamiento, la organización y la planificación de la fábrica  a las necesidades de la organización y los clientes.

Desde hace más de dos décadas los ERP se han convertido en los principales sistemas de gestión de las empresas en todo el mundo. Si la revolución digital va a transformar todo el sector industrial, que duda cabe de que los ERP no van a quedarse al margen de esta transformación ya que en ultima instancia serán los gestores de todas esta información.

 

Adaptando el ERP para trabajar con redes M2M

La integración de datos provenientes de sensores y dispositivos, como básculas de pesaje, sistemas de gestión de almacén o incluso localizadores en flotas de vehículos no es algo nuevo en las aplicaciones ERP. La cuestión clave es que hasta ahora estas integraciones generalmente eran desarrollos a medida hechos para casos específicos y concretos. En el resto de las ocasiones hablamos de soluciones verticales que establecen propuestas muy concretas para un único sector. Faltaba una arquitectura de solución capaz de integrar los datos provenientes de dispositivos y redes en las aplicaciones de negocio, de forma versátil y dinámica. Permitiendo integrar la mayor cantidad de información útil disponible sin tener que caer en costosos desarrollos y soluciones a medida que necesitan de esquemas rígidos que acaban lastrando la competitividad de la empresa.

A grandes rasgos, las redes M2M integradas con aplicaciones de negocio se componen de cuatro elementos básicos: dispositivos, pasarelas, servidores y aplicaciones de negocio.

Por dispositivos entendemos cualquier aparato capaz de captar información y realizar mediciones sobre diversas variables de interés tales como: localización, movimiento, condiciones ambientales, información de estado de máquinas y un largo etc…

Las pasarelas son dispositivos que se encargan de recoger información de varios dispositivos y filtrar y transformar esa información a formatos estándares para su transmisión a través de internet. El servidor recibe toda esta información que analiza, filtra y almacena en los repositorios de datos del ERP para que pueda ser usada por las aplicaciones de negocio.

Este tipo de arquitectura basada en pasarelas facilita enormemente la integración de datos en las aplicaciones de negocio ya que el servidor simplemente necesita un protocolo para comunicarse con las pasarelas y no uno protocolo y configuración por cada dispositivo a incorporar a la red. Realmente este diseño de red marca la diferencia entre la integración de dispositivos tradicional y el Internet de las cosas…Las pasarelas vienen a ser ordenadores diseñados y dedicados exclusivamente a la recogida de datos, con procesadores especializados y múltiples opciones de conexión y recogida de datos, generalmente tienen un aspecto mucho más robusto que un ordenador normal y carecen de pantalla o teclado ya que se accede a ellos de forma remota. A continuación podeis ver la imagen de una pasarela.

screenshot-www.qnv.com 2016-06-16 16-29-04

Para entenderlo todo de forma más clara utilizaremos un ejemplo práctico y tal vez más sencillo de entender que uno industrial, el de una cadena de tiendas. En cada tienda tienda se dispone de estanterías inteligentes que detectan automáticamente cuando un producto es retirado de una estantería, también desde la caja se recoge información de los productos vendidos, además los sensores de la tienda detectan la afluencia total de personas, temperatura, humedad y demás. En lugar de conectar cada uno de esos dispositivos a la aplicación de negocio, con el uso de una pasarela podemos  centralizar la recogida de datos de todos los dispositivos de cada establecimiento en una una pasarela que hará de intermediario entre los dispositivos y el servidor.

Con esta arquitectura de red facilitamos la replicación de este modelo de redes M2M a otros establecimientos de la empresa, además de la integración de datos en el repositorio del ERP.  Las pasarelas M2M además son equipos específicamente diseñados para la recogida de datos provenientes de sensores y su conversión a diversos protocolos, con lo que soportan la mayor carga de complejidad a la hora integrar, además aportan otras ventajas como la seguridad extra en la red.