Cloacas y Big Data

junio 27, 2019

Un proyecto Big Data analizará los hábitos de los barceloneses… mediante las alcantarillas

Proyecto Big Data en Barcelona

Un proyecto europeo usa Big Data e inteligencia artificial para generar información sobre los hábitos de los ciudadanos de Barcelona a partir del análisis químico, microbiológico y de caudales de las aguas residuales en el alcantarillado.

¿Qué tiene que ver el alcantarillado de una ciudad como Barcelona con la personalidad de los barrios que la componen? Aunque parezca una pregunta absurda, ese es el objetivo de un ambicioso proyecto de investigación que pretende usar las tecnologías de Big Data e inteligencia artificial para generar información sobre el estilo de vida y los hábitos diarios de los ciudadanos… a partir de sus aguas residuales.

En concreto, los investigadores quieren conocer los hábitos de gestión de residuos en los hogares, incluyendo la adecuada gestión de los aceites y las grasas y de las toallitas húmedas, así como los hábitos de consumo de productos farmacéuticos, como los antibióticos.

Esta información se obtendrá a partir del análisis químico, microbiológico y de caudales de las aguas residuales en el alcantarillado y, como decíamos, mediante la aplicación de Inteligencia Artificial y Big Data.

Esta aproximación pionera, bautizada como sewage sociology o sociología de las aguas residuales, será clave en el futuro inmediato para diseñar campañas de concienciación ciudadana en los ámbitos de gestión de residuos en los hogares y de hábitos de salud y hacer un seguimiento de su eficacia, dicen los impulsores de este proyecto.

Por otra parte, los gestores del alcantarillado tendrán una herramienta más para realizar un mantenimiento preventivo que implicará ofrecer un mejor servicio a los ciudadanos.

La iniciativa está comandada por el Instituto Catalán de Investigación del Agua (ICRA), el centro tecnológico Eurecat, el Consorcio Instituto de Estudios Regionales y Metropolitanos de Barcelona (IERMB), el fabricante de sensores s::can Iberia y Barcelona Ciclo del Agua (BCASA) participan en el proyecto.

Esta investigación es uno de los capítulos de la iniciativa europea SCOREwater, que busca contribuir a la transformación digital del sector del agua, el cual está previsto que se prolongue durante cuatro años y cuenta con un presupuesto de 5,8 millones de euros para los tres proyectos de Barcelona, Gotemburgo (Suecia) y Amersfoort (Holanda).

*Artículo original publicado en Business Insider

Etiquetas: Big Data, Smart Cities

Fuente: ticbeat.com, 08/06/19.

Más información:

De Big Brother a Little Brother

Big Data y el Control social en Venezuela

La Inteligencia y sus especialidades en la Sociedad del conocimiento

big data

______________________________________________________________________________

Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter

______________________________________________________________________________

inteligencia de negocios

.

.

El Tablero de Control en una estrategia de marketing

junio 18, 2019

El Dashboard en una estrategia de marketing

Por Tristán Elósegui.

[En este artículo se analiza el caso de uso de Dashboards en marketing, esto puede generalizarse a muchas otras áreas en empresas y organizaciones.]

Al hablar de Dashboards o Tableros de Control, inmediatamente pensamos en Analítica digital. Es inevitable, pensamos en datos, Google Analytics,… y si eres un poco más técnico, piensas en etiquetados, Google Tag Manager (GTM), integración de fuentes, Google Data Studio, etc.

Pero en realidad, pienso que deberíamos darle la vuelta al enfoque. Por definición, la Analítica digital es una herramienta de negocio. Representa los ojos y oídos de la estrategia de marketing, y por tanto se debe definir desde el negocio y no desde el departamento de Analítica (con su ayuda, pero no liderado por ellos).

Para explicarlo, os dejo una resumen de mí ponencia en el primer congreso de marketing digital celebrado en Pontevedra (Congreso Flúor).

Para definir correctamente un dashboard, debemos partir de la estrategia de marketing y seleccionar las fuentes de datos y métricas que mejor la representen. Las que mejor nos describan el contexto de nuestra actividad de marketing, y nos permitan tomar las mejores decisiones.

Para entender el papel de un dashboard en una estrategia vamos a ver cinco puntos:

  1. ¿Qué es un dashboard?
  2. ¿Cómo se define un cuadro de mando?
  3. Caso práctico real.
  4. Consejos para aportar valor con un dashboard de marketing.
  5. Ejemplos de dashboard.

Pero, empecemos la historia por el principio.

¿Qué es un dashboard?

Me gusta enfocar la definición de dashboard, de dos maneras, mejor dicho de una manera que concluye en la clave de todo:

Es una representación gráfica de las principales métricas de negocio (KPI), y su objetivo es propiciar la toma de decisiones para optimizar la estrategia de la empresa.

Un dashboard de indicadores debe transformar los datos en información y estos en conocimiento para el negocio.

[Obsérvese la similitud con la definición de Inteligencia.]

Esta transformación de los datos nos debe llevar a una mejor Toma de decisiones. Este es el objetivo principal que no debemos perder de vista. Algo que suele pasar con cierta frecuencia en este proceso. Nos centramos tanto en el proceso de creación del Tablero de Control, que tendemos a olvidar que su objetivo es la toma de decisiones y no la acumulación de datos. Pero esta es otra historia.

A todo esto tenemos que añadir un elemento más, ya que la base para la toma de decisiones está en un buen análisis de los datos.

[No debe confundirse el concepto de Tablero de Control (Dashboard) con el de Cuadro de Mando Integral (Balanced Scorecard).]

¿Qué necesitamos para hacer un buen análisis de un dashboard de control?

Pues fundamentalmente dos cosas:

  1. Visión estratégica de negocio.
  2. Pilares del análisis de datos.

Visión estratégica de negocio:

  • Correcta definición de los objetivos de marketing y de negocio: es lo que nos va a marcar el camino a seguir, lo que va a definir el éxito de nuestro marketing.
  • Definición de la macro y micro conversiones: debemos traducir nuestras metas a hechos objetivos medibles en nuestra web, y además ser capaces de asignarlos a cada una de las etapas del proceso de compra de nuestra audiencia.
  • Conocer el contexto: en nuestros resultados incluyen muchas variables: mercado, competencia, regulaciones, etc. En ocasiones son tantas, que dejamos de mirar. Pero un buen punto de arranque para entender los porqués de gran parte de las variaciones en los datos, está en la estrategia de marketing y sus acciones planificadas.

Pilares del análisis de datos:

  • Personal cualificado: debemos ser capaces de vencer la tentación de pensar que una herramienta de medición nos va a solucionar el problema. La clave del buen análisis está en las personas que lo realizan. Son las que realizan la transformación de los datos en información y esta en conocimiento para la empresa.
    Para tenerlo claras las proporciones, se estima que de cada 100 € invertidos en medición, 90 deben ir a personas y 10 a herramientas.
  • Calidad del dato: nos tenemos que asegurar de que lo datos que estamos analizando se acercan lo máximo a la realidad. Digo lo máximo, porque es normal que en algunas métricas veamos variaciones entre los datos que nos da la herramienta de analítica y los sistemas internos.
    Además de tener la tranquilidad de que estamos usando los datos correctos para tomar decisiones, vamos a eliminar las discusiones internas sobre cuál es el dato real y cual no.
  • Tablero de Control (Dashboard):
    • Definición: selección de KPIs y métricas.
    • Implementación técnica: configuración de la herramienta de medición, y etiquetado (web y acciones).
    • Integración de fuentes en herramienta de cuadro de mandos.
    • Definición de la visualización más adecuada.
  • Informes y herramientas de análisis adicionales: necesarios para complementar los diferentes niveles de análisis necesarios.

Para realizar un análisis correcto de un dashboard debemos ir de lo global a los específico

El dashboard de métricas debe contar una historia. Nos debe enseñar el camino desde los principales indicadores, a la explicación de la variación del dato.

Además este cuadro de mando no debe contar con más de 10 KPIs (aproximadamente), primero porque no debería haber más y segundo, porque nos complicamos el análisis.

  1. Objetivos y KPIs de la estrategia.
  2. Métricas contextuales.
  3. Fuentes de datos que necesitaremos para componer el dashboard.
  4. Siguiente paso: seleccionar el tipo de dashboard más adecuado.

Y por último, aconsejo que el Tablero de Control sea una foto fija de la realidad. Existen herramientas de dashboard que permiten profundizar en el análisis y cruzar variables, pero las desaconsejo (al menos en una primera fase). ¿por qué? El tener estas posibilidades nos llevará a invertir tiempo en darle vueltas a los datos, y nos alejará de la toma de decisiones (objetivo principal de todo cuadro de mando).

Un buen dashboard comercial o de marketing es como un semáforo: Nos muestra las luces rojas, amarillas y verdes de nuestra actividad y las decisiones a tomar .

¿Cómo se define un Tablero de Control de marketing?

Para hacerlo debemos partir del planteamiento de nuestra estrategia (ya que es lo que queremos controlar). Cómo ya adelantaba al hablar de las claves de un buen análisis, tenemos que tener muy claros varios puntos:

  1. Objetivos por etapa del embudo de conversión (purchase funnel).
  2. Macro y microconversiones: traducción de estos objetivos a métricas que podamos medir en nuestra página web.
  3. Métricas de contexto, que nos ayudan a entender la aportación de los medios pagados, propios y ganados a la consecución de los objetivos de cada etapa del embudo de marketing.

La imagen que os dejo a continuación, os ayudará a estructurar mejor la información y sobre todo a no olvidar métricas importantes.

Definición de macro y micro conversiones – Tristán Elósegui

.

¿Qué tenemos hasta el momento?

  1. Objetivos y KPIs de la estrategia.
  2. Métricas contextuales.
  3. Fuentes de datos que necesitaremos para componer el dashboard.
  4. Siguiente paso: seleccionar el tipo de dashboard más adecuado.

Con esta información ya podemos hacer la selección de las métricas y definir nuestro dashboard de indicadores en formato borrador.

Borrador Dashboard de marketing – Tristán Elósegui

.

Cómo veis en este ejemplo de dashboard, podemos hacer un seguimiento desde el origen de la variación en las KPI principales, hasta el canal o campaña que las causó. Es decir, hemos definido un cuadro de mando que nos cuenta la “historia” de lo que ha ocurrido en el periodo analizado.

Caso práctico real (PCcomponentes.com):

El proceso real es algo más complejo, pero voy a simplificarlo para facilitar la lectura y comprensión.

NOTA: No tengo relación alguna con PCcomponentes.com, por lo que todo lo que vais a ver a continuación son supuestos que realizo para poder explicaros la definición de un Dashboard de indicadores.

Siguiendo la metodología que os acabo de explicar tendríamos que definir:

  1. Objetivos: para definir el cuadro de mando vamos a partir de una serie de objetivos por etapa que me he inventado.
  2. Macro y microconversiones: para definirlas para este ejemplo, vamos a hacerlo por medio de un análisis de las llamadas a la acción de la web. Una vez detectadas las más importantes, vamos a ordenarlas por etapa (normalmente lo haríamos analizando que llamadas a la acción han intervenido en las conversiones obtenidas, pero obviamente no tengo acceso de los datos).
  3. Representación de estas métricas en nuestro borrador de dashboard de métricas.

A continuación os dejo: el pantallazo de una página de producto, la definición de macro y microconversiones y el borrador de dashboard de control.

PCcomponentes página producto

.

Caso real PCcomponentes – Objetivos y métricas para Dashboard de marketing

.

Propuesta de Dashboard de marketing para PCcomponentes – Tristán Elósegui

Consejos para aportar valor con un Dashboard de marketing

Suponiendo que hemos cumplido con todo lo dicho hasta ahora en la parte estratégica y técnica, mis principales consejos son:

  1. Visualización correcta: el tablero de control tiene que ser perfectamente entendible por la persona que lo va a analizar y su cliente (ya sea interno o externo).
    Recuerda que no se trata de hacer cosas bonitas o espectaculares (aunque ayuden a hacerlo más fácil), si no de tomar decisiones. Por lo tanto, esta debe ser nuestra prioridad.
  2. Correcta selección métricas: además de acertar con las métricas que mejor describen la actividad de marketing, debemos pensar en nuestro cliente ¿qué le interesa? ¿qué métrica reporta a su jefe?
    Es la mejor forma de fidelizarle y provocar que cada semana o mes, lo primero que haga sea abrir el dashboard comercial o de marketing que acaba de recibir.
  3. Analiza, no describas: el análisis es lo más importante del cuadro de mando. Describir los datos que estás viendo no aporta valor alguno. Para hacerlo, debes hablar de cuatro cosas:
    1. ¿Qué ha pasado?
    2. ¿Por qué ha pasado?
    3. Recomendaciones basadas en datos.
    4. Resultados esperados de poner en práctica tus recomendaciones.

Ejemplos de dashboard

Para terminar el artículo, os dejo con varios ejemplos de varios tipos de cuadros de mando.

Avinash Kaushik dashboard para gerencia de empresa

.

Agustín Suárez – Dashboard de Marketing

.

Fuente: tristanelosegui.com, 2019.

tablero de control

___________________________________________________________________

Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter

___________________________________________________________________

inteligencia de negocios

.

.

Business Intelligence aplicada en el análisis de Inteligencia Criminal

mayo 23, 2019

Algoritmos inteligentes para combatir el crimen mejor que en ‘Breaking Bad’

Por Juan Gómez Romero.

Algoritmos inteligentes para combatir el crimen mejor que en 'Breaking Bad'

En el cuarto capítulo de la quinta temporada de Breaking Bad, el agente de la DEA Hank Schrader observa un tablón de corcho con las fotos de los miembros de la organización que controla la venta de drogas en Albuquerque. Los cordeles rojos conectan los criminales con relación conocida; los hilos azules, las posibles vinculaciones aún sin confirmar. Hank sospecha que a este grafo le faltan vértices y aristas, sobre todo ahora que la metanfetamina azul ha vuelto a las calles.

Días después, durante una barbacoa familiar, encontrará por casualidad las iniciales “WW” en un libro e inferirá que Heisenberg, el nodo central de la red criminal, no es otro que su cuñado Walter.

Tablero donde los agentes de la DEA plasmaban las evidencias criminales
Tablero donde los agentes de la DEA plasmaban las evidencias criminales.

En el mundo real, la inteligencia artificial ofrece a las fuerzas de seguridad nuevas herramientas para analizar grandes cantidades de datos y extraer conocimiento útil para la lucha contra el crimen. Los algoritmos de aprendizaje automático identifican patrones en los datos pasados que pueden utilizarse para predecir qué ocurriría en situaciones similares en el futuro.

Diversas investigaciones han dado lugar a sistemas inteligentes de policía predictiva capaces de anticipar el número de delitos que tendrán lugar en un área determinada, estimar el riesgo de reincidencia de un detenido o detectar denuncias falsas, por nombrar algunos ejemplos.

Modelos económicos y crimen organizado

Las tecnologías de análisis de mercados han servido como inspiración para desarrollar sistemas de inteligencia artificial para la prevención de crimen organizado, ya que las dinámicas de las actividades delictivas pueden explicarse utilizando modelos económicos similares a los de la economía real. Los analistas disponen de herramientas para estudiar el contexto socioeconómico de una región y el perfil de víctimas y criminales, y con las que pueden identificar factores de riesgo y anticipar incidentes automáticamente.

También se han aplicado técnicas de análisis de grafos propias de la inteligencia de negocio (business intelligence) para examinar la estructura de una red criminal, predecir flujos de información y bienes entre individuos y rastrear transacciones económicas destinadas al blanqueo de dinero.

Si el agente Schrader hubiese tenido acceso a estas tecnologías, habría sido capaz de interpretar más rápidamente los indicios disponibles. El Albuquerque de la serie es una localización ideal para la producción masiva de drogas: se trata de una ciudad próxima a la frontera con poca presencia policial, una compleja orografía y un tejido industrial que facilita la ocultación de actividades y el blanqueo de dinero.

Las fichas policiales muestran, además, que los productores tienen a su disposición una red de colaboradores con acceso a los clientes e incentivos para participar en la distribución. Y solo unos cuantos individuos en todo el estado cuentan con el conocimiento científico necesario para producir una droga tan sofisticada.

Un modelo de amenaza alimentado con estos datos habría concluido que la guerra de bandas era inminente. Un software de análisis de grafos habría guiado a la DEA hacia Heisenberg deshaciendo el camino de su dinero hasta el origen.

La inteligencia artificial, un arma de doble filo

De igual manera que las nuevas tecnologías están mejorando las capacidades de las fuerzas de seguridad, también los grupos criminales han comenzado a emplear todos estos avances para abordar nuevos mercados. El último informe sobre crimen organizado emitido por EUROPOL señala que el mayor desafío al que se enfrentan actualmente los cuerpos policiales es la adopción y el desarrollo de tecnologías avanzadas por parte de los criminales.

La inteligencia artificial puede utilizarse para la comisión de delitos en numerosos ámbitos, como señala una investigación multidisciplinar de 2018 liderada por las universidades de Oxford y Cambridge. Por ejemplo, hoy en día es posible generar y traducir automáticamente textos con calidad notable, lo cual facilita los fraudes basados en ingeniería social (como el phishing) y la creación de noticias falsas.

También es posible elaborar imágenes y vídeos falsos muy realistas (los llamados deep fakes), atentando contra derechos fundamentales de las personas como la propia imagen, la intimidad y la dignidad, e incluso poniendo en riesgo la estabilidad política y económica.

Por otra parte, los sistemas basados en inteligencia artificial son vulnerables al crackeo con propósito delictivo o terrorista. Sin ir más lejos, la alteración de los algoritmos de control de los vehículos autónomos y de los drones supone una importante amenaza a la seguridad ciudadana. Además, el mismo proceso de aprendizaje automático puede manipularse mediante la introducción de ejemplos falsificados.

Las soluciones: luces y sombras

En la actualidad, existen numerosas iniciativas destinadas a dotar a las fuerzas de seguridad de mejores herramientas para mitigar estas nuevas formas de crimen organizado. Por ejemplo, el proyecto COPKIT, iniciado en 2018 y financiado por la Unión Europea, reúne a investigadores de 16 organizaciones europeas con un objetivo doble: desarrollar las tecnologías de inteligencia artificial que usará la policía del futuro sin conculcar los principios de libertad, igualdad y justicia y de acuerdo al marco legal vigente.

Y es que el uso de la inteligencia artificial por parte de las fuerzas de seguridad y de las autoridades no está exento de polémica. Los sistemas de recolección y procesamiento masivo de datos personales, como el que se está implantando en China para asignar un crédito social a las personas o los algoritmos que ayudan a dictar sentencias judiciales, como los utilizados en Estados Unidos con sesgo demostrado, recuerdan más a los mundos distópicos descritos en la cultura popular que a las sociedades seguras y democráticas a las que aspiramos.

En consecuencia, y como ha ocurrido con otros avances tecnológicos en el pasado, el uso de inteligencia artificial para luchar contra el crimen debe estar guiado por principios éticos sólidos. Se trata de ayudar al agente Schrader, no de implantar la unidad de precrimen de Minority Report.

–Juan Gómez Romero es Investigador del Departamento de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada.

Fuente: theconversation.com, 2019.

______________________________________________________________________________

Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter

______________________________________________________________________________

.

.

Geopolítica e Inteligencia de Negocios

octubre 13, 2018

De la inteligencia comercial a la geopolítica en el nuevo orden mundial indirecto

Por Mónica Niño Romero.

La prospección de mercados en la era digital viene dada por utilizar herramientas de análisis de datos. Detectar las señales de negocio en la exploración Business to Business (B2B) es imprescindible en la implementación de acciones de inteligencia en la venta corporativa. Las redes sociales son canales con multitud de datos e interactuaciones de comunicación bidireccional, que deben ser analizados con perspectiva digital.

El big data supone un foco de información muy potente para el desarrollo de negocio. Las soluciones de inteligencia comercial B2B optimizan recursos y afinan los resultados de forma objetiva, segmentando, para desarrollar una estrategia eficiente. La agrupación de todos los millones de datos en internet, redes sociales, foros, etc. determina un posicionamiento, teniendo en cuenta el mercado y el target, para llevar a cabo un plan de marketing enfocado desde el social selling.

El campo de acción de los directorios comerciales pasa por ser herramientas de marketing digital, con la posibilidad de ser potentes aplicaciones de inteligencia digital. Todo lo que aporte y genere información para que sea transformado en valor añadido será susceptible de incorporarse a tareas de inteligencia.

La inteligencia comercial puede incluirse dentro de la inteligencia corporativa o empresarial. A través de los datos se crean estrategias, que producen tendencias. Generalmente las empresas organizan esto a través del Desarrollo de Negocio. Emanan sus objetivos de la inteligencia corporativa o estrategia de la empresa.

En definitiva, la inteligencia se aplica a múltiples escenarios, desde el ámbito militar hasta las operaciones financieras pasando por las empresas y corporaciones con el enfoque hacia las ventas. Es el uso de la información, a través de los datos, con una aplicación y hacia la toma de decisiones. Aunque cada vez sea más determinante el uso de los datos personales y sus normativas. De aquí la inminente llegada del Reglamento General de Protección de Datos (GDPR) de la Unión Europea.

En 1958 un investigador de IBM, Hans Peter Luhn, crea el término “Inteligencia de negocio” Business Intelligence, que es  “la habilidad de aprender las relaciones de hechos presentados de forma que guíen las acciones hacia una meta deseada”. Se comienzan a crear las primeras bases de datos, los informes y análisis con la analítica de datos, determinando un camino de largo recorrido .

El imperio de los datos

La tercera dimensión de la comunicación, es decir, las redes sociales, comienza a dar frutos a través del valor añadido de las conversaciones virtuales. Su uso, mal uso o abuso está en entredicho por diversos casos. Ya se ha utilizado como minería de datos (data mining) para comunicación estratégica en política. Tenemos varios casos recientes: Cambridge Analítica, la venta de datos por Facebook … De aquí al uso geopolítico va un paso. Señalaba el escritor Moisés Naim en su libro “El fin del poder” nuevos factores geoestratégicos, como son los micropoderes o la incursión de agentes indirectos. “El poder, entendido de forma tradicional como tal, se está volviendo cada vez más débil y, por tanto, más efímero” se extrae de este tratado.

La conquista -ya sea de la compra, ya sea de los territorios o ya sea de las voluntades- era antes directa. Lo señala el experto Pedro Baños en su obra “Así se domina el mundo“: los poderosos conquistaban países que gobernaban de forma hegemónica; ahora -y desde hace ya un tiempo- la inteligencia utiliza medios indirectos: cultura, economía, psicología, redes sociales.

Esto puede producir una degradación del poder y un acortamiento de los periodos en que se detenta el poder -los mandatos políticos se abrevian-, por tanto, se potencia el surgimiento de nuevos autoritarismos, violentos a la vez que volátiles, y aupados viralmente. La geoestrategia es ahora tecnopolítica y la inteligencia comercial es aplicable a todo. Ya lo decía Lenin: “la política no es más la que la expresión concentrada de la economía”.

Fuente: observatorio.cisde.es, 14/05/18.

 

Moneyball, el juego de la fortuna. Un caso de Inteligencia de Negocios.

septiembre 3, 2018

Moneyball

Fuente: https://youtu.be/Uwg5SjH-f2g – Estadística para Administración

.

Moneyball es una película de 2011 dirigida por Bennett Miller y protagonizada por Brad Pitt, Jonah Hill y Philip Seymour Hoffman. Es una adaptación de la novela Moneyball: the art of winning an unfair game (2003), basada en la historia real de Billy Beane, gerente general del equipo Oakland Athletics, quien utilizaba las estadísticas avanzadas para fichar jugadores.
Es un buen ejemplo de Inteligencia de Negocios (business intelligence).

Sinopsis

Billy Beane (Brad Pitt) es el gerente general del equipo de béisbol Oakland Athletics, que acaba de perder otra temporada más. Decidido a relanzar el equipo, y con la ayuda del joven economista Peter Brand (Jonah Hill), utilizará las estadísticas de este para fichar a los jugadores que cree más oportunos. Un método que no es compartido por sus compañeros, ni por el entrenador del equipo Art Howe (Philip Seymour Hoffman).

Argumento detallado

El gerente general de los Athletics de Oakland, Billy Beane (Brad Pitt), está molesto por la derrota de su equipo ante los Yankees de Nueva York en la postemporada del 2001. Con la inminente perdida de los jugadores estrella Johnny Damon, Jason Giambi, y Jason Isringhausen a agencia libre, Beane trata de diseñar una estrategia para armar un equipo competitivo para el 2002, pero se esfuerza por superar la nómina de jugadores limitados de Oakland. Durante una visita a los Indians de Cleveland, Beane se encuentra con Peter Brand (Jonah Hill), un joven economista graduado en Yale con ideas radicales sobre la forma de evaluar a los jugadores. Beane prueba la teoría de Brand al preguntarle si lo habría fichado (apenas salido de la escuela secundaria); Beane había sido jugador en las Grandes Ligas antes de convertirse en mánager general. Aunque los scouts consideraban a Beane un jugador fenomenal, su carrera en las Grandes Ligas fue decepcionante. Después de cierto estímulo, Brand admite que él no lo habría fichado hasta la novena ronda y que Beane probablemente debería haber aceptado una beca para estudiar en Stanford en su lugar.

Los cazatalentos del equipo son los primeros desconfiados por nuevo enfoque de Brand, sobre todo Grady Fuson – quien es despedido por Beane después de discutir con él a causa del nuevo rumbo deportivo del equipo; después critica en los medios de comunicación las decisiones tomadas por Beane y pone en duda el futuro del equipo. En lugar de basarse en la experiencia de los cazatalentos y la intuición, Brand selecciona a jugadores basados casi exclusivamente en su porcentaje de base (OBP). Al encontrar a los jugadores con un alto OBP pero con características que conducen a los cazatalentos a despedirlos, Brand reúne a un equipo de jugadores infravalorados con mucho más potencial del que se les reconoce y a un precio mucho más económico que las grandes estrellas. A pesar de las vehementes objeciones de los cazatalentos, Beane apoya la teoría de Brand y contrata a los jugadores que seleccionó, como el heterodoxo lanzador submarino Chad Bradford (Casey Bond). Tras los fichajes de agentes libres, Beane se da cuenta que también se enfrenta a la oposición de Art Howe (Philip Seymour Hoffman), mánager de los Athletics. Con las tensiones ya elevadas entre ellos a causa de una disputa contractual, Howe no tiene en cuenta la estrategia de Beane y Brand, y juega el equipo en un estilo tradicional, sin tener en cuenta las indicaciones de Beane.

A principios de la temporada, a los Athletics les va mal, por lo que Beane es fuertemente criticado y ya vaticinan el fracaso del nuevo modelo y su despido como gerente general. Beane convence al propietario a mantener el rumbo, y con el tiempo el equipo comienza a mejorar. En última instancia, los Athletics ganan 20 partidos consecutivos, estableciendo el récord de la Liga americana. Su racha se limita con una victoria sobre los Royals de Kansas City. Al igual que muchos jugadores de béisbol, Beane es supersticioso y evita asistir a los partidos. Su hija le implora que vaya al partido que supondría la victoria número 20 consecutiva contra los Royals, donde Oakland ya gana 11-0 después de la tercera entrada. Beane llega en la cuarta entrada, solo para ver que el equipo va a desintegrarse y, finalmente, permite a los Royals de igualar el marcador 11-11. Por último, los Athletics ganan, con un home-run en la última entrada por una de las selecciones de Brand, Scott Hatterberg. A pesar de todos sus éxitos en la segunda mitad de la temporada, los Ahletics pierden en la primera ronda de la postemporada, esta vez contra los Twins de Minnesota. Beane está decepcionado, pero satisfecho de haber demostrado el valor de los métodos de Brand. Beane se reúne más tarde con el propietario de los Red Sox de Boston, que se da cuenta de que el nuevo modelo utilizado por Beane es el futuro del béisbol, y se ofrece a contratar a Beane como gerente general de los Red Sox.

Para terminar, una nota de la película dice que Beane dejó pasar la oportunidad de convertirse en el gerente general de los Red Sox de Boston, a pesar de una oferta de un salario de 12,5 millones de dólares, lo que lo habría convertido en el gerente general mejor pagado en la historia del deporte. Regresa a Oakland para seguir administrando a los Oakland Athletics. Mientras tanto, dos años después de la adopción de la filosofía de fichajes utilizada en Oakland, los Red Sox de Boston ganan su primera Serie Mundial desde 1918.

Fuente: Wikipedia, 2018.

moneyball


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


inteligencia de negocios

.

.

 

Inteligencia Estratégica

julio 24, 2018

 

inteligencia estratégica

.

En un mundo globalizado y en una sociedad del conocimiento, con una producción de información creciente y abrumadora, las personas que toman decisiones en las organizaciones necesitan contar con sistemas y herramientas que les permitan orientar las estrategias en su organización. Para ello pueden emplear la Inteligencia Estratégica (IE). Un proceso de IE organizado, sistemático y permanente en el tiempo, precisa fundarse en el uso de las Tecnologías de la Información y la Comunicación (TIC).

Hoy en día la información es más necesaria que nunca y debe ser procesada en tiempo real para transformarse en conocimiento.

La utilización de la Inteligencia Estratégica es una forma de producir dicho conocimiento, indispensable para la conducción adecuada del Estado, los procesos gerenciales para toma de decisiones de una empresa y para una eficiente administración de todo tipo de instituciones.

Para ser eficaces y eficientes, las organizaciones deben estar informadas -en tiempo real- sobre su entorno, a fin de identificar tempranamente las amenazas y las oportunidades que puedan surgir, potenciando sus fortalezas y minimizando sus debilidades.

La creciente necesidad de información organizada y sistematizada, que tienen los Estados y las organizaciones, explica el notable crecimiento e importancia que alcanza hoy la Inteligencia Estratégica.

Directorio

Sherman Kent, el creador de la Inteligencia Estratégica

Inteligencia de Negocios

Inteligencia de Negocios y Planeación Estratégica

Tendencias de Inteligencia de Negocios para 2018

Comunicación potenciada con Business Intelligence

Sistemas de Gestión de la Información en la Empresa

Especialización en Inteligencia Estratégica y Crimen Organizado

Inteligencia aplicada, Crimen Transnacional y Derecho de Policía

.

.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


inteligencia estratégica

.

.

Sistemas de Gestión de la Información en la Empresa

julio 24, 2018

Lecturas recomendadas

JOYANES AGUILAR, Luis. Sistemas de Gestión de la información en la empresa. México: Alfaomega, 2015.

.

sistemas de información en la empresa

.

sistemas de información en la empresa

.

Contenidos:

I: Los sistemas de información en organizaciones y empresas en la era de la nube y de los grandes datos: 1. Fundamentos de los sistemas de información — 2. Los sistemas de información en los negocios — 3. Tendencias e innovaciones tecnológicas y sociales en sistemas de información — 4. Infraestructuras de tecnologías de la información y plataformas tecnológicas de la década —

II: Infraestructuras de los sistemas de información: 5.Tecnologías móviles: el camino a la ubicuidad — 6. Web 2.0 y los medios sociales: social media — 7: Cloud computing: arquitectura y servicios — 8: Big —

III: Los datos y el conocimiento: administración, análisis y toma de decisiones: 9. Gestión — 10. NoSQL y en-memoria (in-memory) / Hadoop — 11. Gestión del conocimiento y herramientas colaborativas — 12. Inteligencia de negocios y Analítica (Business Intelligence y Analytics) — 13. Analítica Web — 14. Analítica social — 15. Analítica de Big Data (Big Data Analytics) — 16. Negocios digitales: e-business, e-commerce y m-commerce — 17. Empresa 2.0 y empresa social (social business): la empresa inteligente — 18. Estrategias de implantación de los sistemas de información en la empresa. El ciclo de vida de desarrollo de sistemas y la gestión de proyectos — 19. Modelos de sistemas de información de la empresa: ERP, CRM, SCM… — 20. Seguridad y ciberseguridad de los sistemas de información — 21. Gobierno y auditoría de las tecnologías y sistemas de información — 22. Ética, privacidad y responsabilidad social de la empresa —

Apéndice A: Redes de telecomunicaciones — Apéndice B: Internet y la Web — Apéndice C: Tendencias tecnológicas y roles profesionales en los sistemas de información gerenciales.

Editor: México, D. F. : Alfaomega, 2015

Descripción: 564 p.: gráfs.

ISBN: 9786076222249.

Temas: ADMINISTRACION DE EMPRESAS | SISTEMAS DE INFORMACION | BASES DE DATOS | COMERCIO ELECTRONICO | INNOVACIONES | TECNOLOGIA DE LA INFORMACION: Business Intelligence. Inteligencia de Negocios | RSE: Responsabilidad Social Empresaria | Web 2.0 | Inteligencia organizacional

business intelligence


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


business intelligence

.

.

 

Comunicación potenciada con Business Intelligence

julio 24, 2018

Cómo sacar partido del Business Intelligence en tu estrategia de Comunicación 

Los profesionales de las relaciones públicas estamos muy acostumbrados a los informes de resultados en forma de diapositivas, hojas de cálculo o boletines de noticias para medir la repercusión de una acción o el impacto de una marca en medios a lo largo de un período de tiempo determinado.

Estas herramientas son extremadamente útiles para facilitarnos la labor del día a día, pero cuando el volumen de noticias es elevado o bien las variables a analizar son cuantiosas, debemos comenzar a plantear cómo podemos extraer más valor de nuestros datos.

comunicacion para startup

.

Existen diversas aplicaciones o herramientas que nos pueden ayudar a recabar información de forma rápida y sencilla con la capacidad de cruzar datos a tiempo real y permitirnos obtener valiosas conclusiones sobre nuestra actividad.

Lo que estas utilidades tienen en común es el potencial de transformar nuestros cotidianos análisis de cobertura en una plataforma dinámica e inteligente completamente adaptada a las necesidades del cliente:

  1. Una herramienta viva.

    Las plataformas que utilizan el business intelligence son capaces de alimentarse de la información que les proporcionamos de forma constante, de manera que los resultados se actualizan de forma automática y siempre están al día. Esta monitorización a tiempo real nos permite analizar tendencias y actuar a tiempo para maximizar nuestra campaña de comunicación o detectar potenciales crisis.

  2. De un vistazo.

    Con herramientas de business intelligence podemos configurar gráficos definidos de antemano adaptados a lo que más nos interesa para obtener información relevante de forma instantánea: número de noticias por medio, evolución en el tiempo, temáticas, formatos o tipologías de medios, etc. Además, son muy versátiles y nos permiten adaptar la presentación de los datos en función de las necesidades de cada momento o campaña. 

  3. Más allá del análisis cuantitativo.

    El principal potencial del business intelligence es la capacidad de cruzar datos, una funcionalidad para la que nuestra hoja de cálculo resulta muy limitada. Combinar datos de diferentes hojas de cálculo y columnas para hacer comparativas entre períodos de tiempo, campañas o analizar el share of voice queda al alcance de un click. 

  4. El reto del análisis cualitativo.

    El business intelligence nos ofrece numerosas posibilidades para presentar datos cualitativos de forma simple y eficaz, tales como el sentimiento, la presencia o la penetración de los mensajes. Si bien es preciso un análisis previo y minucioso del clipping, estas herramientas nos ayudarán a interpretar esa información con una perspectiva global.  ​

¿A qué esperas para revolucionar tu medición de resultados?

Fuente: teamlewis.com, 2018.

inteligencia de negocios


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


.

.

Tendencias de Inteligencia de Negocios para 2018

julio 23, 2018

Las 10 tendencias principales de inteligencia de negocios para 2018

business intelligence

.

El ritmo y la evolución de las soluciones de inteligencia de negocios implican que lo que hoy funciona podría requerir ciertas modificaciones el día de mañana. Entrevistamos a clientes y a miembros del personal de Tableau para identificar las 10 tendencias que están teniendo mayor impacto y de las cuales se hablará en 2018, desde el procesamiento del lenguaje natural hasta el crecimiento del aseguramiento de los datos. Ya sea una superestrella de los datos, un héroe de TI o un ejecutivo que crea su propio imperio de BI, estas tendencias destacan las prioridades estratégicas que podrían ayudar a llevar a su organización a un nivel superior.

1. No le tema a la inteligencia artificial

Cómo el aprendizaje automático mejorará el trabajo del analista

La cultura popular alimenta una concepción distópica del poder del aprendizaje automático. Sin embargo, mientras la investigación y la tecnología continúan mejorando, este se convierte rápidamente en un valioso complemento para el analista. De hecho, es el mejor asistente que cualquier analista podría tener.

Imagine que se necesita consultar de manera rápida el impacto de la modificación de un precio en cierto producto. Para ello, podríamos ejecutar una regresión lineal de los datos. Antes de la existencia de Excel, R o Tableau, eso debía hacerse de forma manual, lo que llevaba horas. Gracias al aprendizaje automático, ahora puede visualizarse el consumo del producto en cuestión de minutos, o incluso segundos. Como analista, no tiene la necesidad de hacer el trabajo arduo y puede pasar a la siguiente pregunta: ¿los meses de alto consumo fueron el resultado de un factor extrínseco, como un día festivo? ¿Hubo algún nuevo lanzamiento? ¿Hubo noticias en los medios de comunicación que influyeron sobre las compras o el conocimiento del producto? Ya no es necesario preocuparse por si se pasó el tiempo suficiente perfeccionando el modelo de regresión.

El aprendizaje automático permite explorar muchas posibilidades cuando uno necesita ayuda para encontrar una respuesta.

Hay dos maneras en que el aprendizaje automático ayuda al analista. En primer lugar, aumenta su eficiencia. En el ejemplo anterior, el analista no pierde un tiempo valioso en hacer cálculos matemáticos básicos. Ahora el analista tiene más tiempo para pensar en cuáles son las implicaciones de su negocio y los siguientes pasos lógicos. En segundo lugar, ayuda al analista a explorar y mantenerse en el flujo del análisis de datos, porque ya no debe detenerse para hacer cálculos. En cambio, el analista se dedica a hacer la siguiente pregunta. Según Ryan Atallah, ingeniero de software de Tableau: “El aprendizaje automático permite explorar muchas posibilidades cuando uno necesita ayuda para encontrar una respuesta”.

La capacidad del aprendizaje automático para ayudar a un analista es innegable. No obstante, debe adoptarse cuando los resultados estén claramente definidos. “El aprendizaje automático no funciona especialmente bien con datos subjetivos”, afirma Andrew Vigneault, administrador de productos de Tableau. Por ejemplo, en una encuesta de satisfacción del cliente con respecto a ciertos productos, el aprendizaje automático no siempre reconoce las palabras cualitativas.

Además, el analista debe comprender las métricas de éxito de los datos para poder actuar en consecuencia. En otras palabras, lo que se introduce en una máquina no produce resultados con un significado claro. Solo un ser humano es capaz de comprender si se cuenta con suficiente contexto. Por lo tanto, el aprendizaje automático no puede aplicarse de manera aislada (sin comprender el modelo que se usa, las entradas y los resultados que se obtienen).

Es posible que los analistas teman ser reemplazados, pero realmente, el aprendizaje automático potenciará su trabajo y les permitirá ser más eficientes y precisos, y tener un mayor impacto sobre los negocios. En vez de temer a esta tecnología, aproveche las oportunidades que le ofrece.

IDC prevé ingresos derivados de los sistemas de inteligencia artificial y aprendizaje automático por un total de USD 46 000 millones para 2020.

En 2020, la inteligencia artificial se convertirá en uno de los motores de la creación de empleo neto, ya que creará 2,3 millones de puestos de trabajo, pero eliminará solo 1,8 millones. (Gartner)

2. El impacto de las humanidades

El impacto de las humanidades en el sector del análisis

El sector del análisis continúa buscando personas capacitadas para trabajar con datos, y las organizaciones desean fortalecer sus equipos de análisis. Es posible que hayamos tenido una plétora de talento al alcance de nuestras manos. Sabemos que las humanidades y la narración de historias han influido sobre el sector del análisis de datos. No es ninguna sorpresa. Lo que sí sorprende es que los usuarios con conocimientos sobre el arte de contar historias (que suelen provenir de las humanidades) se están apoderando de los aspectos técnicos de la creación de dashboards analíticos. Antes, esos aspectos estaban reservados para los profesionales de TI y los usuarios avanzados. Además, las organizaciones ya no se limitan a contratar personas con conocimientos analíticos. Ahora, dan mayor importancia a quienes son capaces de usar los datos y la información para promover cambios y propiciar la transformación mediante el arte y la persuasión.

A medida que se simplifica el uso de las plataformas tecnológicas, disminuye el interés en las especialidades técnicas. Cualquiera puede jugar con los datos sin necesidad de disponer de los avanzados conocimientos técnicos que se requerían anteriormente. Ahora, entran en escena las personas con conocimientos más amplios, incluso procedentes de las humanidades. Estas generan un impacto en los sectores y las organizaciones donde escasea el personal que trabaje con datos. Cada vez más organizaciones priorizan el análisis de datos en sus negocios. En este contexto, los administradores de datos que provienen de las humanidades ayudarán a las empresas a descubrir que, si capacitan a su personal, obtendrán una mayor ventaja competitiva.

Advertimos un gran interés en la contratación de una nueva generación del personal que trabaja con datos. También detectamos varios casos de empresas de tecnología dirigidas o influenciadas por líderes capacitados en humanidades. Entre esos líderes se incluyen fundadores y ejecutivos de Slack, LinkedIn, PayPal, Pinterest y otras empresas de tecnología de alto rendimiento.

Crear un dashboard y realizar análisis requiere cierta habilidad, pero es algo que no se puede enseñar. Realmente consiste en contar una historia con los datos.

En el libro de Scott Hartley, “The Fuzzy and the Techie”, puede encontrarse un ejemplo interesante de la incorporación de las humanidades a una empresa eminentemente tecnológica. Nissan contrató a Melissa Cefkin, doctora en antropología, para liderar su investigación sobre la interacción entre las máquinas y las personas. Específicamente, Cefkin estudió la interacción entre los automóviles que se conducen solos y los seres humanos. La tecnología en la que se basa ese tipo de vehículos avanzó mucho. Sin embargo, aún debe hacer frente a dificultades en los entornos mixtos donde los seres humanos cohabitan con las máquinas. Por ejemplo, en un cruce con señales de tráfico de “stop” (o “pare”) en las cuatro direcciones, los seres humanos analizan cada una de las posibles situaciones. Eso es casi imposible de enseñar a una máquina. A fin de contrarrestar esa situación, se le pidió a Cefkin que aplicara sus conocimientos sobre antropología para identificar patrones de comportamiento humano. Esos comportamientos se enseñarían a los automóviles que se manejan solos y, a su vez, se comunicarían a las personas que viajan en ellos.

En su evolución, el análisis dejó de ser puramente científico para hacerse más humanístico. El enfoque pasó de la comunicación de datos a la narración de historias basadas en ellos para así facilitar la toma de decisiones. Las organizaciones usan datos más que nunca y, lógicamente, dan más importancia a su preparación y a las historias que estos transmiten. Llegó la era dorada de la narración de historias con datos. Seguro que en su organización hay un gran contador de historias ávido de hacer su próximo gran descubrimiento.

Los graduados del área de humanidades se están uniendo a la fuerza laboral tecnológica con una velocidad un 10 % mayor que los graduados de áreas técnicas. (LinkedIn)

Un tercio de los directores ejecutivos de las empresas de Fortune 500 se graduaron en el área de humanidades. (Fast Company)

3. La promesa del procesamiento del lenguaje natural

La promesa del procesamiento del lenguaje natural

En 2018, el procesamiento del lenguaje natural (NLP) será más prevalente, sofisticado y ubicuo. Los desarrolladores y los ingenieros continuarán ampliando sus conocimientos sobre el procesamiento del lenguaje natural, que se integrará en nuevos sectores. La creciente popularidad de Amazon Alexa, Google Home y Microsoft Cortana alimentó las expectativas de las personas con respecto a hablarle al software y que este las comprenda. Por ejemplo, puede dar la orden “Alexa, reproduce ‘Yellow Submarine’”, y el clásico de los Beatles se escuchará en su cocina mientras prepara la cena. Este concepto también se aplica a los datos. Así, cualquiera puede hacer preguntas y análisis con mayor facilidad.

Según Gartner, hacia el año 2020, el 50 % de las consultas analíticas se generará mediante búsqueda, procesamiento del lenguaje natural o voz. En consecuencia, será mucho más sencillo para el director ejecutivo que esté fuera de la oficina pedirle información rápida a su dispositivo móvil. Por ejemplo, “total de ventas por cliente que compró grapas en Nueva York”. Luego, puede filtrar los resultados por “pedidos realizados en los últimos 30 días” y, después, agrupar por “departamento del responsable del proyecto”. Además, el director de la escuela de sus hijos podría preguntar: “¿cuál fue la calificación promedio de los estudiantes este año?”, filtrarla por los “estudiantes de 8.º”, y agruparla por “materia del profesor”. El procesamiento del lenguaje natural permitirá a las personas hacer distintos tipos de preguntas sobre los datos y recibir respuestas relevantes. Así obtendrán mejor información y podrán tomar decisiones más acertadas.

El procesamiento del lenguaje natural puede abrirle los ojos al analista y darle cierta confianza en lo que es capaz de hacer.

Al mismo tiempo, los desarrolladores y los ingenieros harán grandes progresos que les permitirán descubrir y comprender cómo las personas usan el procesamiento del lenguaje natural. Evaluarán qué tipos de preguntas hacen las personas. Tal vez buscan una satisfacción inmediata (“¿Qué producto tuvo más ventas?”) o prefieren explorar (“No sé qué me pueden decir los datos. ¿Cómo le va a mi departamento?”). Ryan Atallah, ingeniero de software de Tableau, explica: “Este comportamiento depende en gran medida del contexto en el que se hace la pregunta”. Si el usuario final usa un dispositivo móvil, es más probable que haga una pregunta que genere una satisfacción inmediata. En cambio, si está en su despacho observando un dashboard, es probable que desee explorar y hacer preguntas más profundas.

Se obtendrán mayores beneficios analíticos si se comprenden los distintos flujos de trabajo que el procesamiento del lenguaje natural puede mejorar. Vidya Setlur, ingeniera de software de Tableau, afirma: “La ambigüedad es un problema grave”. Por lo tanto, la comprensión de los flujos de trabajo es más importante que la formulación de una pregunta específica. Cuando existen distintas maneras de hacer la misma pregunta (por ejemplo, “¿Qué vendedor logró más ventas este trimestre?” o “¿Quién logró más ventas este trimestre?”), el usuario final no quiere pensar en la forma “correcta” de formularla. Solo quiere la respuesta.

Por ello, no será necesario contar con el procesamiento del lenguaje natural en todas las situaciones. Las oportunidades surgirán cuando esté disponible en los flujos de trabajo adecuados y su uso resulte familiar.

Para 2019, el 75 % de los trabajadores cuyas tareas diarias implican el uso de aplicaciones empresariales tendrán acceso a asistentes personales inteligentes que les permitirán aumentar sus capacidades y conocimientos. (IDC)

Para 2021, más del 50 % de las empresas gastarán más al año en la creación de robots (incluidos los “chatbots”) que en el desarrollo de aplicaciones móviles tradicionales. (Gartner)

4. El debate sobre la multiplicidad de nubes

El debate sobre la multiplicidad de nubes continúa

Si su organización está considerando y evaluando una estrategia de varias nubes para el año 2018, no es la única.

“Las organizaciones que trasladan sus datos y aplicaciones a la nube lo están haciendo en estampida”, comenta François Ajenstat, director de productos. “Tanto si realizan un simple traslado o si hacen un cambio de plataforma, los clientes están adoptando la nube más rápido que nunca”.

Según un estudio reciente de Gartner, “el 70 % de las empresas elegirá una estrategia de varias nubes hacia 2019, a diferencia del 10 % actual”. Los clientes rechazan cada vez más la idea de limitarse a una única solución de software heredada que pueda no ajustarse a sus necesidades futuras. No obstante, los cambios y las migraciones son ahora relativamente más fáciles con API similares y estándares abiertos, como Linux, Postgres, MySQL y otros.

Probablemente, su organización también esté evaluando cómo se diseñan y dirigen los centros de datos. Su departamento de TI está evaluando entornos de hospedaje sobre la base del riesgo, la complejidad, la velocidad y el costo. Son factores que aumentan la dificultad a la hora de encontrar una única solución para todas las necesidades de su organización.

Evaluar e implementar un entorno de varias nubes puede ayudarlo a determinar quién proporciona el mayor rendimiento y la mayor compatibilidad para su situación específica. Según el Boston Herald, GE modificó su estrategia de hospedaje en la nube para usar Microsoft Azure y Amazon Web Services. Su objetivo era identificar el entorno de hospedaje en la nube de mayor rendimiento y descubrir qué contrato le permitía trasladar el menor costo posible a sus clientes.

Esta estrategia multinube o híbrida está adquiriendo cada vez más relevancia para ayudar a reducir el riesgo, y proporcionar más opciones y flexibilidad a los clientes.

No obstante, es necesario conocer a fondo las ventajas y las desventajas de adoptar este tipo de entorno de varias nubes. Aunque se gana en flexibilidad, el uso de varias nubes aumenta los gastos generales debido a la división de la carga de trabajo de su organización entre distintos proveedores. Además, el equipo de desarrolladores internos se ve obligado a conocer distintas plataformas e implementar procesos de gobernanza adicionales, según los diferentes entornos que se deban admitir.

Asimismo, una estrategia de varias nubes podría reducir el poder adquisitivo de su empresa u organización. Si una empresa divide sus compras entre varios proveedores, se reducirá el número de descuentos por volumen que estos le ofrezcan. Así, se creará un modelo en que la empresa comprará menos a un mayor precio.

Las encuestas y las estadísticas, como el estudio de Gartner antes mencionado, indican que la adopción de la estrategia de varias nubes va en aumento. Sin embargo, no revelan cuánto se adoptó de cada plataforma. En muchos casos en los que se usan varias nubes, las organizaciones satisfacen la mayor parte de sus necesidades con los servicios de un proveedor y una parte muy inferior con los del resto. Sin embargo, en la mayoría de las organizaciones, se implementa un segundo entorno de hospedaje en la nube a modo de respaldo en caso de que el principal entorno no funcione o presente errores.

La adopción de varias nubes aumentará en 2018. Aun así, las organizaciones deberán tomarse la molestia de evaluar si su estrategia mide el volumen de adopción de cada plataforma de nube, el uso interno, las demandas de carga de trabajo y los costos de implementación.

El 70 % de las empresas implementará una estrategia de varias nubes para 2019. (Gartner)

El 74 % de los directores financieros de tecnología afirman que la informática en la nube tendrá el mayor impacto cuantificable en el negocio en 2017. (Forbes)

5. El auge del director de datos

El auge del director de datos

Los datos y el análisis se están convirtiendo en elementos fundamentales de todas las organizaciones. Eso es indiscutible. A medida que las organizaciones evolucionan, priorizan una mayor atención estratégica y responsabilidad en relación con el análisis.

Históricamente, el director de tecnologías de la información (CIO) era responsable de la mayoría de las tareas de inteligencia de negocios (BI). Este profesional supervisaba la estandarización, la consolidación y la gobernanza de los activos de datos de toda la organización, lo cual requería de informes coherentes. En consecuencia, las iniciativas de BI (la gobernanza de datos, el diseño de modelos de análisis, etc.) competían con otras iniciativas estratégicas (como la arquitectura de TI, la seguridad de los sistemas o las estrategias de redes) por captar la atención del CIO. Con frecuencia, eso limitaba el éxito y el impacto de la BI.

En algunos casos, se generaron dificultades entre el CIO y la empresa debido a la falta de sincronía entre la velocidad con que se obtiene la información, la seguridad y la gobernanza de los datos. Por lo tanto, cada vez más organizaciones reconocen la necesidad de que la dirección ejecutiva se haga responsable de la creación de una cultura de análisis. Esta debe permitir obtener información útil a partir de los datos gracias a las inversiones en análisis. Para esas organizaciones, la clave consiste en designar a un director de datos (CDO) o un director de análisis (CAO). Este profesional debe modificar los procesos empresariales, superar los obstáculos culturales y comunicar el valor del análisis en toda la organización. Así, el CIO podrá concentrar su atención estratégica en otros asuntos, como la seguridad de los datos.

Mi trabajo consiste en introducir herramientas y tecnologías para ayudar al equipo a avanzar.

El hecho de que se designen CDO o CAO y que estos tengan responsabilidad sobre el impacto de los negocios y la mejora de los resultados demuestra, además, el valor estratégico de los datos y del análisis en las organizaciones modernas. Hoy en día, la dirección ejecutiva debate de manera proactiva cómo implementar una estrategia de análisis. En vez de esperar solicitudes de informes específicos, los CDO se preguntan: “¿Cómo podemos anticiparnos o adaptarnos rápidamente a las necesidades de la empresa?”.

Las organizaciones están destinando más dinero y recursos a la conformación de un equipo de gran eficacia para cubrir estos puestos de nivel directivo. Según Gartner, el 80 % de las grandes empresas tendrá una oficina de dirección de datos completamente operativa en 2020. En la actualidad, el número promedio de empleados en esa oficina es de 38. Sin embargo, el 66 % de las organizaciones encuestadas espera que el presupuesto asignado a dicha oficina aumente.

Josh Parenteau, director de inteligencia de mercado de Tableau, advierte que la actividad del CDO “se centra en los resultados”. Parenteau afirma: “No se trata solo de colocar datos en un almacén y esperar a que alguien los use. El CDO debe definir el uso de los datos y asegurarse de que estos aporten valor”. Concentrarse en los resultados es fundamental, especialmente porque concuerda con los tres objetivos principales identificados en la encuesta sobre CDO que realizó Gartner en 2016. Estos profesionales desean incrementar la privacidad del cliente, la ventaja competitiva y la eficacia. Esos objetivos motivan a distintas empresas, como Wells Fargo, IBM, Aetna y Ancestry, a designar puestos de CDO para perfeccionar su estrategia de datos. En consecuencia, la función del director de datos será esencial para el negocio en 2018.

En 2019, el 90 % de las grandes empresas tendrá un director de datos. (Gartner)

En 2020, el 50 % de las organizaciones principales tendrá un director de datos con niveles de autoridad e influencia en las estrategias similares a los del director de TI.

6. Participación colectiva en la gobernanza

El futuro de la gobernanza de datos es la participación colectiva

La inteligencia de negocios moderna pasó de restringir datos y contenido a capacitar a los usuarios corporativos en todo el mundo. Estos usuarios saben que deben trabajar con datos gobernados y confiables para obtener información. A medida que las personas aprenden a usar los datos en diferentes situaciones, su contribución a la optimización de los modelos de gobernanza ha otorgado una fuerza colosal a las organizaciones.

Nos quedamos cortos al decir que el análisis de autoservicio revolucionó el mundo de la inteligencia de negocios. El paradigma cambió totalmente. Ahora, cualquier persona puede diseñar análisis que permitan hacer y responder preguntas críticas a todos los miembros de su organización. La misma revolución se está produciendo con la gobernanza. Gracias a la expansión del análisis de autoservicio, una gran variedad de información y perspectivas comienza a inspirar métodos nuevos e innovadores para implementar la gobernanza.

La gobernanza consiste en aplicar la sabiduría colectiva para proporcionar los datos correctos a las personas adecuadas y, al mismo tiempo, evitar accesos indebidos.

La gobernanza consiste en aplicar la sabiduría colectiva para proporcionar los datos correctos a las personas adecuadas y, al mismo tiempo, evitar accesos indebidos.

Los usuarios corporativos no desean responsabilizarse de la seguridad de los datos. Las políticas de gobernanza óptimas les permiten hacer o responder preguntas y, a su vez, encontrar los datos que necesitan en el momento oportuno.

Las estrategias de BI y de análisis incluirán el modelo de gobernanza moderno. Los departamentos de TI y los ingenieros de datos seleccionarán, ajustarán y prepararán fuentes confiables. Además, dado que el autoservicio es la tendencia dominante, los usuarios tendrán libertad para explorar datos seguros y confiables. Los procesos verticales controlados por el departamento de TI serán reemplazados por un proceso de desarrollo colaborativo que combina el talento de los profesionales de TI con el de los usuarios finales. Todos ellos identificarán los datos más importantes para gobernar y crearán reglas y procesos que maximicen el valor empresarial del análisis sin renunciar a la seguridad.

El 45 % de los ciudadanos de los datos afirma que menos de la mitad de sus informes contienen datos de buena calidad. (Collibra)

El 61 % de los directivos afirma que la toma de decisiones en sus empresas rara vez está impulsada por los datos. (PwC)

7. El aseguramiento de datos

La vulnerabilidad propicia un mayor aseguramiento de los datos

Para muchas empresas, los datos son activos fundamentales. Pero ¿cómo se mide el valor de esos datos? ¿Qué sucede si se pierden o si alguien los roba? Como hemos visto en los casos de grandes filtraciones de datos recientemente, una amenaza para los datos de una compañía puede ser devastadora y causar daños irreparables a la marca.

Según un estudio de 2017 realizado por el Ponemon Institute, se calcula que el costo total promedio de una filtración de datos es de USD 3,62 millones.

Sin embargo, ¿hacen las empresas todo lo posible para proteger y asegurar sus datos? El mercado de los seguros informáticos es un sector que crece con rapidez como consecuencia de las filtraciones de datos. Este sector experimentó un crecimiento año tras año del 30 %, y se espera que sus primas brutas emitidas en el año 2020 alcancen los USD 5600 millones. (AON)

Los seguros informáticos y de privacidad cubren las responsabilidades de una empresa ante una filtración de datos en la que un pirata informático robe o divulgue la información personal de sus clientes.

Sin embargo, incluso ante el crecimiento del mercado y la amenaza continua de filtraciones de datos, solo el 15 % de las empresas estadounidenses cuenta con una póliza de seguros que cubra dichas filtraciones y otros problemas de ciberseguridad. Además, la mayor parte de ese 15 % de empresas cubiertas está constituida por grandes instituciones financieras consolidadas.

Debemos decidir cuál es el punto débil. ¿Cuál es el verdadero riesgo para su empresa?

Claramente, las instituciones financieras necesitan este tipo de pólizas. Sin embargo, la necesidad llegará a otros mercados verticales porque nadie es inmune a las amenazas de las filtraciones de datos.

Recientemente, Doug Laney, analista de Gartner, escribió un libro titulado “Infonomics: How to Monetize, Manage, and Measure Information for Competitive Advantage”. En él presenta distintos modelos (financieros y no financieros) con los que las empresas de cualquier sector pueden calcular el valor de sus datos.

Los modelos no financieros se centran en el valor intrínseco, el valor de negocio y el valor de rendimiento de los datos. Con estos valores, se puede medir la singularidad, la precisión, la relevancia, la eficacia interna y el impacto general del uso que la empresa da a esos datos.

Los modelos financieros se centran en el valor del costo, el valor económico y el valor de mercado de los datos. Con estos valores, se puede medir el costo de adquirir datos y administrarlos de manera interna, así como el valor de venderlos o de otorgarlos bajo licencia.

El hecho de considerar los datos como un producto implica que su valor aumentará. Además, se originarán nuevas preguntas y conversaciones acerca de cómo esta materia prima ayuda a las empresas a conseguir mayores éxitos y ventajas. Al igual que cualquier producto, ¿de qué sirven si pueden robarse sin consecuencias?

El costo total promedio estimado de las filtraciones de datos es de USD 3,62 millones. (Ponemon)

Solo el 15 % de las empresas estadounidenses cuenta con una póliza de seguros para proteger específicamente sus datos. (Ponemon)

8. La función del ingeniero de datos

Mayor prominencia de la función del ingeniero de datos

Una cosa es cierta: nadie puede crear un dashboard sin los gráficos necesarios para comprender la historia que intenta comunicar. Otro principio que quizá conozca afirma que no se puede tener una fuente de datos confiable sin haber comprendido qué datos se introducen en el sistema y cómo sacarlos de allí.

En cualquier organización, los ingenieros de datos seguirán siendo fundamentales para promover el uso de datos y tomar mejores decisiones de negocios. Entre 2013 y 2015, el número de esos ingenieros creció más del doble. Y, en octubre de 2017, había más de 2500 puestos vacantes con las palabras “ingeniero de datos” en el título en LinkedIn, lo que indica el nivel de crecimiento en la demanda de esta especialidad.

Los ingenieros de datos desempeñan un papel fundamental a la hora de hacer posible el autoservicio en una plataforma de análisis moderno.

¿En qué consiste esta función y por qué es tan importante? El ingeniero de datos es responsable de diseñar, crear y administrar las bases de datos operativas y de análisis de la empresa. En otras palabras, es responsable de extraer datos de los sistemas básicos de la empresa de manera que estos puedan usarse y aprovecharse para obtener información y tomar decisiones. El volumen de datos y la capacidad de almacenamiento van en aumento. Por lo tanto, cada vez es más importante contar con alguien que tenga amplios conocimientos técnicos de los distintos sistemas y arquitecturas, y que sea capaz de comprender los intereses y las necesidades de la empresa.

La función del ingeniero de datos requiere un conjunto de conocimientos muy particular. Tiene que comprender el back-end, qué contienen los datos y de qué manera pueden ser de utilidad para el usuario corporativo. El ingeniero de datos también tiene que desarrollar soluciones técnicas para que los datos puedan utilizarse.

Michael Ashe, reclutador sénior de Tableau, explica: “No soy ningún novato. Me dedico a la contratación de profesionales técnicos desde hace más de 17 años. No me sorprende que los datos y la capacidad de almacenamiento hayan crecido. Fui testigo de su salto de gigante. Los datos siempre necesitarán ajustes. Las empresas deben incorporar a profesionales capaces de realizar esos ajustes, ya que necesitan explorar datos específicos para tomar decisiones de negocios. Sin duda, la función del ingeniero de datos continuará creciendo”.

En un estudio realizado por Gartner en 2016, se llegó a la conclusión de que las organizaciones encuestadas estaban perdiendo un promedio de USD 9,7 millones anuales como resultado de la calidad deficiente de sus datos.

 

Los analistas y los científicos de datos pueden dedicar hasta el 80 % de su tiempo a limpiar y preparar datos. (TechRepublic)

9. La ubicación de las cosas

La ubicación de las cosas impulsará la innovación en la IoT

Afirmar que la proliferación de la Internet de las cosas (IoT) ocasionó un enorme crecimiento del número de dispositivos conectados en todo el mundo sería decir poco. Todos esos dispositivos tienen capacidad de interacción y recopilan datos que ofrecen una mejor experiencia de conexión. De hecho, Gartner predice que, en el año 2020, el número de dispositivos conectados con la IoT y disponibles para los consumidores será más del doble del actual. “Habrá más de 20 400 millones de dispositivos en línea con la IoT”.

Incluso con ese crecimiento, los datos de los casos de uso y la implementación de la IoT no han seguido la misma trayectoria deseada. A las empresas les preocupa la seguridad. Sin embargo, la mayoría de ellas no cuenta con los conocimientos y habilidades organizacionales adecuados o con la infraestructura técnica interna (acompañada de otras aplicaciones y plataformas) para admitir datos de la IoT.

La mayoría de las personas piensa en los conceptos de ubicación o geoespacio como una dimensión. Es algo que voy a analizar… La nueva tendencia es que se está convirtiendo en una contribución al proceso analítico.

De todos modos, se observa una tendencia positiva que consiste en el uso de los datos de ubicación de los dispositivos con IoT y los beneficios derivados de ese uso. Esta subcategoría, denominada “ubicación de las cosas”, permite a los dispositivos con IoT detectar y comunicar su posición geográfica. Cuando se conoce la ubicación de un dispositivo con IoT, es posible agregar contexto, comprender mejor la situación y predecir lo que sucederá en ese lugar específico.

Las empresas y las organizaciones que desean recopilar esos datos usan distintas tecnologías. Por ejemplo, los hospitales, las tiendas y los hoteles comenzaron a usar la tecnología Bluetooth de bajo consumo (BLE) para los servicios de ubicación en interiores, ya que el GPS solía tener dificultades para proporcionar la ubicación contextual. La tecnología BLE puede usarse para realizar el seguimiento de personas y activos específicos. También permite interactuar con dispositivos móviles, como relojes inteligentes, distintivos o localizadores, para ofrecer experiencias personalizadas.

Dado que se relacionan con el análisis de datos, los números correspondientes a la ubicación pueden considerarse entradas, en lugar de salidas (resultados). Si los datos están disponibles, los analistas pueden incorporarlos en sus análisis para comprender mejor qué sucede y dónde, y qué se espera en una zona contextualizada.

 

Los puntos de referencia de la IoT crecerán hasta alcanzar los 30 000 millones en 2020. (IDC)

 

Se prevé un crecimiento explosivo de la IoT, que superará los USD 5 000 millones para finales de 2020. (Gartner)

10. La inversión del sector académico

Las universidades redoblan la apuesta con programas de análisis y ciencia de los datos

En la Universidad Estatal de Carolina del Norte, se encuentra el primer programa de maestría en análisis científico (MSA). La MSA se lleva a cabo en el Institute of Advanced Analytics (IAA). Este centro de datos tiene la misión de “formar a los mejores profesionales del análisis de todo el mundo: personas que dominen herramientas y métodos complejos para el modelado de datos a gran escala, y que sientan pasión por resolver problemas que representen retos…”. Dado que el programa estatal de Carolina del Norte constituye una iniciativa sin precedentes, augura una generosa inversión del sector académico en el currículo de análisis y ciencia de los datos.

Hace unos meses, la Universidad de California en San Diego dio un importante primer paso para su institución: inauguró una especialidad y cursos complementarios de grado universitario en ciencia de los datos. Y eso no fue todo. Gracias a la magnífica donación de un exalumno, la universidad también presentó planes para crear un instituto de ciencia de los datos. En la Universidad de California en Berkeley, Davis y Santa Cruz, se siguió ese ejemplo y se ampliaron las opciones de análisis y ciencia de los datos que se ofrecen a los estudiantes. La demanda de estas superó las expectativas. ¿Por qué?

A menudo me sorprendo con las cosas que descubren los estudiantes y la forma tan intuitiva en que pueden ver datos, jugar con ellos y hasta realizar visualizaciones.

Según un estudio reciente de PwC, en el año 2021, el 69 % de los empleadores exigirá que los candidatos a sus puestos de trabajo tengan conocimientos de análisis y ciencia de los datos. En 2017, Glassdoor también informó que la “ciencia de los datos” fue uno de los “principales empleos” por segundo año consecutivo. A medida que crecen las demandas de los empleadores, se intensifica la necesidad de contar con especialistas en datos altamente capacitados. Sin embargo, existe una desconexión con la realidad. El mismo informe de PwC indica que solo el 23 % de los graduados universitarios tendrá los conocimientos necesarios para competir al nivel que exigen los empleadores. Una reciente encuesta del MIT revela que el 40 % de los administradores tiene dificultades para contratar a especialistas en análisis.

Las habilidades técnicas para el análisis ya no son optativas, sino fundamentales. En 2018, se comenzará a aplicar una metodología más rigurosa a fin de garantizar que los estudiantes adquieran los conocimientos necesarios para su inserción en el mercado laboral moderno. Además, las empresas continuarán optimizando sus datos para sacarles el máximo partido. En consecuencia, surgirá y crecerá la demanda de una fuerza laboral experta en datos.

En el año 2021, el 69 % de los empleadores exigirá que los candidatos a sus puestos de trabajo posean conocimientos de análisis y ciencia de los datos. (PWC)

i

Una reciente encuesta del MIT revela que el 40 % de los administradores han tenido dificultades para contratar a especialistas en análisis. (MIT)

Fuente: tableau.com, 2018.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


.

.

Inteligencia de Negocios y Planeación Estratégica

julio 21, 2018

El uso de la Inteligencia de Negocios en el proceso de planeación estratégica y de presupuestos

Por María José Carranco Villalpando.

El uso de la Inteligencia de Negocios en el proceso de planeación estratégica y de presupuestos
.

El objetivo principal de un ingeniero en negocios es comprender todos los componentes de una empresa: operaciones, finanzas, estrategias de negocios, economía, contabilidad, mercadotecnia, etcétera. Todo visto desde un ángulo ingenieril, utilizando herramientas de programación así como conocimientos de tendencias en tecnologías de información con el fin de tener una visión integral de todas las áreas funcionales de una empresa y poder identificar aquellas que pueden ser mejoradas a través de la implementación de diferentes herramientas tecnológicas.

La ingeniería de negocios una rama interdisciplinaria de la ingeniería, que se enfoca en cómo deben ser diseñados y administrados los negocios nacionales e internacionales . Incluye una visión integral del diseño de las empresas a través de la generación de patrones y la generalización de los procesos y actividades en lo que hoy se llama Arquitectura de la empresa.

Como estudiante de esta carrera, es del interés de la autora explorar y exponer en este ensayo las ventajas y oportunidades así como identificar debilidades y áreas de mejora dentro del proceso de presupuestación de la operación de un negocio ayudándose de la aplicación de Inteligencia de Negocios para tener información más confiable y que así, el resultado sean presupuestos con menores márgenes de error.

La Inteligencia de Negocios o Business Intelligence (BI por sus siglas en inglés), se define como el conjunto de aplicaciones, tecnología y procesos necesarios para la transformación de datos en información útil para la toma de decisiones de un individuo, empresa u organización.

La Inteligencia de Negocios toma los datos generados por la observación, la operación y la experiencia del negocio que por sí mismos no brindan ningún tipo de conocimiento o métricas para el aprovechamiento de los recursos del objeto de estudio. Es a través de métodos de refinación de datos que la información se pule de manera tal que brinde una visión más completa, relacional, interdisciplinaria y por consiguiente, útil para tener un mejor entendimiento de la situación tanto financiera y administrativa como de la eficiencia de procesos, efectividad de los sistemas empresariales y otros indicadores del desempeño del negocio y así, tomar decisiones informadas y respaldadas por información acumulada de manera ordenada.

Dentro del área administrativa de las empresas, se ha observado una tendencia a automatizar procesos tales como el control y valuación de inventarios, control de producción, control de compras y ventas, cuentas por pagar y cuentas por cobrar. Sin embargo, el proceso de pronóstico y análisis de presupuestos aún representa un obstáculo dentro de las empresas como lo menciona Alan Hart en su artículo de 2014, Automated Budgeting, Forecasting and Business Intelligence in a Manufacturing Environment, donde indica que una de las prácticas más comunes es usar una hoja de cálculo de Excel a pesar de sus limitaciones de capacidad y velocidad de actualización.

Asimismo, Butler Group, en un estudio realizado en 2003, resalta la importancia de que las empresas reconozcan el valor de la información como un activo. Dice también que la información tiene una participación fundamental en la reducción de la incertidumbre inherente a la toma de decisiones.

Así, es posible identificar una oportunidad de integración de las tecnologías de información al proceso de toma de decisiones en forma del uso de la Inteligencia de Negocios.

inteligencia de negocios

.

¿QUÉ ES LA INTELIGENCIA DE NEGOCIOS?

La Inteligencia de Negocios es el conjunto de herramientas computacionales y matemáticas que permiten la extracción de datos, transformación de estos en información ordenada y su posterior carga al repositorio de información utilizado por la empresa ya sean bases de datos o cualquier otro tipo de almacén de información.

El concepto de Inteligencia de Negocios o Business Intelligence fue introducido entre las décadas de 1970 y 1980 como una reacción o una alternativa al uso de sistemas transaccionales (OLTP por sus siglas en inglés) es decir, sistemas diseñados para registrar el mayor número posible de transacciones de la empresa generando volúmenes enormes de datos casi imposibles de interpretar . En cambio, la Inteligencia de Negocios posibilita el afianzamiento de información por medio del análisis de patrones de comportamiento de los datos y así, generar conocimiento para el negocio.

El valor que agrega la implementación de técnicas de Inteligencia de Negocios en el proceso de toma de decisiones yace en que la Inteligencia de Negocios resulta en conocimiento útil, que puede ser generado en tiempo real a través de modelos predictivos. Este conocimiento es adquirido a través del análisis profundo y sistemático de datos generados por la operación diaria del negocio.

Es importante mencionar que un sistema de Inteligencia de Negocios es tan valioso como sus fuentes de datos ya que si estos se encuentran dañados, desordenados, no homologados o incompletos, el conocimiento generado sería menos valioso que aquel conocimiento resultante de un análisis de datos ordenados, homologados, homogéneos y disponibles.

Generalmente, se ve a la Inteligencia de Negocios como un proyecto del departamento de TI sin embargo, es importante comprender que esto no es verdad ya que la implementación de técnicas de Business Intelligence implica un cambio en la cultura organizacional en el sentido en que da pie a una revaloración de la información. Es importante que se reconozca, en todas las áreas y niveles de la empresa, a la información como un activo detonador de ventajas competitivas y generador de conocimiento necesario y enriquecedor para la toma de decisiones.

El efecto de la implementación de aplicaciones de Inteligencia de Negocios es especialmente observable en empresas medianas y pequeñas (PyMEs) ya que son estas las que tienen mayor flexibilidad ante cambios. Se ha observado que el proceso de toma de decisiones es más sencilla gracias a que los cambios en dichas empresas llevan menos tiempo. De igual manera, el proceso de implementación es más ágil ya que al no tener requerimientos tan específicos, la capacitación es más rápida en comparación con los requerimientos de una empresa grande donde un proyecto de implementación, en promedio, suele tardar meses. Otro factor importante es que actualmente no es necesario hacer una inversión importante debido a la oferta que existe de programas de Inteligencia de Negocios que no solo son gratuitos, sino también, de código abierto y de fácil adopción lo que representa un aumento significativo en la probabilidad de una transición sencilla y una integración completa del sistema al negocio. Esto es más complicado en empresas de mayor tamaño debido al volumen de empleados y de información, al número de niveles diferentes que tienen que ser capacitados, al proceso de aprobaciones del sistema, de adaptación, de validación, etcétera.

Citando el trabajo de titulación de Alfonso Castro Vázquez, “La necesidad de invertir en las herramientas de Inteligencia de Negocios se da de una forma poco convencional ya que difícilmente se puede realizar un caso de costo-beneficio en el que resulte una ganancia monetaria evidente después de implementar dichas soluciones.”
Una de las principales estrategias de integración de herramientas de Inteligencia de Negocios a procesos de presupuestación dentro de las empresas es hacerlo de manera gradual y consistente con las prácticas de los empleados. Esto con el fin de lograr una transición sin mayores obstáculos. Se sugiere integrar software de Inteligencia de Negocios a procesos y sistemas usados para la creación de presupuestos; así se garantiza una aceptación mayor de la práctica por los usuarios. También es importante diseñar diagramas de flujo de trabajo con el fin de tener un plan ordenado y poder identificar obstáculos y realizar los ajustes pertinentes.

Una de las ventajas de uso de Inteligencia de Negocios en el proceso de presupuestación es la variedad al organizar la información de manera tal que sea posible identificar fácilmente tendencias y comportamientos de los costos, los procesos, la producción, y de los movimientos de la empresa en general.

En la esfera de planeación estratégica, una de las aplicaciones de la Inteligencia de Negocios es la elaboración de Balanced Scorecards que exponen de manera visual qué tan en línea están las actividades del negocio con la misión y la visión de la empresa; ayuda a mejorar la comunicación entre las diversas áreas dentro de la empresa así como la comunicación con agentes externos como los accionistas basados en análisis a fondo de las tendencias y los comportamientos de los elementos de cada perspectiva del Balanced Scorecard. Por la parte de la generación de reportes, la Inteligencia de Negocios también brinda muchos beneficios. Uno de los más importantes es que garantiza que la información esté siempre actualizada y por lo tanto, los encargados de la toma de decisiones desde ejecutivos del nivel gerencial hasta aquellos en posiciones directivas. También, las herramientas de Inteligencia de Negocios posibilitan la generación de reportes didácticos y dinámicos que facilitan la interpretación de la información generada por el negocio a través de indicadores clave de la organización y desempeño de la empresa, expuestos por medio de alertas, gráficos, tablas, etcétera contribuyendo así en la difícil tarea de simplificar el proceso de toma de decisiones.

Respecto al proceso de presupuestación, el uso de técnicas de Business Intelligence en el mundo empresarial no ha tenido un crecimiento tan veloz como se ha observado en áreas de marketing y ventas, producción, valuación de inventarios, etcétera. Sin embargo, el proceso de planeación de presupuestos puede beneficiarse de la integración de prácticas de Inteligencia de Negocios ya que ésta permite plantear escenarios hipotéticos para identificar soluciones óptimas y descartar aquellas que no cumplan con las condiciones establecidas por las políticas de la empresa o que no sean compatibles con los objetivos estratégicos.

Es importante que durante la implementación se tengan en mente los objetivos del proyecto, según lo enlista Alan Hart (2014):

“1.- Crear un plan comprensivo, de amplio alcance hecho a la medida de la organización así como tener la habilidad de mantener y actualizar dicho plan.
2.- Obtener estados financieros presupuestados precisos y completos incluyendo un estado de situación financiera y de estado de flujo de efectivo así como un conjunto significativo de KPIs (key performance indicator) y razones financieras.
3.- Permitir a la gerencia ver completa y precisamente la salud futura de la organización que llevará a tomar decisiones razonables y sin errores.”

KPI KPI key performance indicators

.

Si una empresa es capaz de basar los procesos de Planeación estratégica y Planeación de presupuestos en conocimiento generado por aplicaciones de Inteligencia de Negocios además de comparar constantemente lo presupuestado contra lo real, obtendrá todos los beneficios de la Inteligencia de Negocios. Sin importar el tamaño de la empresa, es importante considerar la implementación de ese tipo de tecnología ya que el beneficio de implementar es alto y existen herramientas gratuitas, de libre acceso y de código abierto lo que representa una oportunidad de mejora en los procesos de planeación estratégica.

Gartner Magic QuadrantActualmente, Gartner Inc. es una de las firmas de consultoría en tendencias tecnológicas más importantes. Anualmente publican un informe sobre el mercado de software de Business Intelligence donde cada producto es clasificado en alguno de los cuadrantes del Gartner Magic Quadrant: líderes, visionarios, challengers, y jugadores de nicho. En el informe de febrero de 2016, entre las plataformas líderes se encuentran Microsoft, Qlik y Tableau. Estas herramientas permiten generar reportes claros y fáciles de interpretar a través de dashboards. Entre las empresas que utilizan software de Inteligencia de Negocios están Deloitte, Dell, la universidad de Cornell, los Dallas Cowboys, Cisco, Gatorade, Heinz, Sony, Tommy Hilfiger, entre otros. A pesar de que esta muestra de usuarios sea pequeña, se puede notar que no existe un común denominador entre estas empresas más que el deseo por hacer uso de la información y usarla a su favor para mejorar la toma de decisiones.

CONCLUSIONES

Los procesos de planeación estratégica y de presupuestos son tareas que tienen un impacto fundamental en la operación y la dirección de las empresas, sin embargo, la práctica común es usar procesos diseñados desde tiempo atrás y que no han sido adaptados a los tiempos modernos de volúmenes importantes de información a velocidades cada vez mayores.

Las herramientas de Inteligencia de Negocios permiten a las empresas tener un conocimiento más amplio de los procesos y las operaciones dentro de ellas por medio de ayudas visuales, lo que facilita la interpretación y la comunicación dentro y fuera de la organización.

Las ventajas que brinda la integración de Inteligencia de Negocios a procesos de planeación son: la creación de un plan comprensivo y de alto alcance, la obtención de estados financieros presupuestados precisos y completos y finalmente, permitir a la gerencia tener una visión general, completa y comprensiva del estado del negocio para tener mejores herramientas para la toma de decisiones. Estas ventajas, de ser explotadas, pueden resultar en ventajas competitivas dentro del mercado, reducción de costos, mejores prácticas empresariales, mejor asignación de recursos y una mejora en los procesos y el estado de la empresa.

Es importante que las organizaciones estén informadas sobre las tendencias tecnológicas ya que en la era digital, la información y su correcta interpretación, son activos de gran valor de los que las empresas pueden sacar provecho o verse al margen del desarrollo que potencializa el aprovechamiento de la gran oferta tecnológica que existe en la actualidad.

—María José Carranco Villalpando. Décimo lugar del Concurso de Ensayo Universitario. Instituto Tecnológico de Estudios Superiores Monterrey, Estado de México.

Fuente: veritasonline.com.mx, 2017.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


.

.

Página siguiente »