La Inteligencia y sus especialidades en la Sociedad del conocimiento

octubre 20, 2023

De los espías a las computadoras, el creciente uso de la inteligencia en el siglo XXI

Por Gustavo Ibáñez Padilla.

inteligencia

Vivimos en un mundo de datos, los cuales crecen día a día en forma exponencial.

Cada transacción, cada interacción, cada acción es registrada y genera a su vez nuevos datos (la hora del registro por ejemplo) llamados metadatos. Todo este creciente cúmulo información puede ahora ser procesado a gran velocidad (big data) a fin de extraer conclusiones.

Metadatos

.

Captar y procesar datos, organizarlos, transformarlos en información y luego en conocimiento para facilitar la toma de decisiones es lo que se conoce como ‘inteligencia’. Hace algún tiempo se consideraba una función estratégica al servicio de las máximas autoridades, para asegurar la defensa de la nación. Así fue en los inicios, cuando se profesionalizó la actividad de la mano de Sherman Kent en los Estados Unidos y dio nacimiento a la agencia central de inteligencia, más conocida como la CIA. Por supuesto no era algo nuevo, ya nos hablaba sobre ello Sun Tzu en el siglo VI antes de Cristo. Pero fueron los estudios de Kent los que le dieron la formalidad de una disciplina, a mediados del siglo pasado.

The Sherman Kent School

Con el paso de los años la inteligencia se fue expandiendo al tiempo que crecía la capacidad de procesar información. Así surgieron los adjetivos que califican al sustantivo ‘inteligencia’ para diferenciar su múltiples variedades, llegando entonces a una compleja taxonomía del concepto inteligencia.

Al extender su ámbito la inteligencia se hizo accesible a la sociedad en general y comenzaron a usarla las empresas y organizaciones en general (business intelligence), para esta democratización de sus usos colaboró en forma importante la tremenda baja en los costos de adquisición y procesamiento de la información, que corría al ritmo de los avances informáticos.

Podemos mencionar como casos de éxito de inteligencia de negocios los sistemas de precios dinámicos en las aerolíneas, que acoplan los precios a las variaciones de oferta y demanda; la plataforma de venta online de Amazon, que recomienda otros artículos según los intereses del comprador y Netflix, que sugiere películas y series y orienta el rumbo de las nuevas producciones.

Es así que con la evolución de la disciplina comienzan a solaparse las áreas de influencia de la inteligencia de negocios, con la inteligencia criminal, la inteligencia financiera, la inteligencia estratégica y podríamos seguir hasta el cansancio…

Vemos que con el paso del tiempo el concepto de inteligencia ha ganado fuerza, profundidad, densidad y trascendencia. En una sociedad del conocimiento esto resulta absolutamente lógico y natural.

Pero dejemos ahora el análisis en abstracto y veamos algunos ejemplos concretos que nos muestren el enorme potencial de este concepto.

Imaginemos una organización criminal que comienza a operar una instalación clandestina de marihuana, en los suburbios, mediante el cultivo hidropónico. Esta nueva actividad se evidenciará por un consumo eléctrico superior al usual de una zona residencial, que quedará registrado en las bases de datos de la compañía de electricidad.

Cultivo clandestino de marihuana

.

Al mismo tiempo, es probable que el nuevo suministro de droga ilegal a buen precio incremente el tránsito de consumidores y se produzca un aumento de la conflictividad y de delitos menores, lo cual podría percibirse en los registros de un eficiente mapa del delito.

Mapa del Delito. Boedo, CABA.

.

También podrían aumentar las consultas a los servicios de guardias de los hospitales de la zona, motivados por un creciente número de intoxicaciones por estupefacientes.

Todas estas pequeñas variaciones en los registros de datos podrían detectarse gracias al eficaz empleo de la inteligencia de negocios, que permite relacionar múltiples bases de datos haciendo evidente la anomalía generada por el nuevo invernadero clandestino.

Bases de datos relacionadas

.

Es interesante prestar atención a que no fue necesario realizar acciones tradicionales de inteligencia criminal, ni disponer de informantes o agentes encubiertos, que realicen las usuales tareas de inteligencia en búsqueda de los narcotraficantes. Tan solo fue preciso disponer de un sistema de información que relacione distintas bases de datos, que registran en forma habitual y monótona inmensas cantidades de información, y de esta forma poner en evidencia la “perturbación” generada por el accionar de los malvivientes.

Vemos como la superposición de inteligencia de negocios con inteligencia criminal permite obtener resultados en forma casi automática y a mucho menor costo.

También puede tomarse como ejemplo el cruce de datos de llamadas telefónicas que nos permite evidenciar relaciones entre distintas personas y prácticamente descubrir acciones conspirativas, sin necesidad de conocer el contenido de las comunicaciones y sin tener que recurrir a escuchas judiciales (ej: asesinato del fiscal Alberto Nisman, enero 2015).

.

Evidentemente, la sociedad en general y la seguridad nacional pueden beneficiarse cada día más del empleo de sistemas avanzados de análisis de inteligencia, capaces de explotar de manera eficaz y eficiente los crecientes volúmenes de datos derivados de los omnipresentes sistemas de captación y procesamiento de información.

La inteligencia en todas sus variantes es indispensable para el desempeño óptimo de las empresas y organizaciones en general y el eficaz accionar de las agencias gubernamentales que persiguen al crimen organizado, los grupos terroristas y cualquier otra amenaza contra la nación.

Fuente: Ediciones EP, 2019.

Información sobre Gustavo Ibáñez Padilla


Más información:

¿Qué es la inteligencia criminal?

La geolocalización y la investigación policial

Antecedentes del Ciclo de Inteligencia de Sherman Kent

Business Intelligence aplicada en el análisis de Inteligencia Criminal

______________________________________________________________________________

Vincúlese a nuestras Redes Sociales:  LinkedIn           YouTube          Twitter

______________________________________________________________________________

inteligencia de negocios

.

.

.

Inteligencia es anticipación

junio 15, 2022

Inteligencia: entender o anticipar

Por José-Miguel Palacios.

Quizá las dos principales ambiciones de la inteligencia sean comprender el presente –en sentido amplio, incluyendo el pasado próximo– (podría asimilarse al popular concepto de situation awareness) y anticipar el futuro (warning). Distintos servicios, distintas comunidades de inteligencia, distintos países pueden dar más importancia a una o a otra de estas dos grandes líneas de trabajo, aunque, en mayor o menor medida ambas están siempre presentes.

La inteligencia americana, por ejemplo, se ha mostrado particularmente preocupada por evitar la sorpresa estratégica, quizá a causa de experiencias traumáticas como Pearl Harbour o el 11S, que tanta influencia han tenido en el desarrollo de la comunidad y de sus servicios componentes.[1] Y siguiendo una orientación bastante distinta, los servicios británicos han estado en general más orientados hacia la comprensión de la situación y de sus factores (inteligencia explicativa).

Los británicos, en cualquier caso, parecen estar en minoría. Todos los servicios que se inspiran en los modelos americanos (la mayoría de los occidentales) muestran un interés particular por la inteligencia predictiva (prospectiva o estimativa), en general bajo forma de “alerta temprana”.

En el fondo, ambas orientaciones son menos distintas de lo que a primera vista parecen. Porque la buena comprensión de la situación es un requisito casi imprescindible para formular un buen pronóstico. Y aquellos que saben bien dónde están pueden prever, a menudo con un margen de error aceptable, dónde pueden encontrarse a corto o corto/medio plazo (los plazos largos son casi irrelevantes para la política real).                                                                                                           

Si sabemos que a las 16.30 dos individuos han cometido un atentado terrorista en la Plaza de la Concordia de París y que han huido a pie del lugar del atentado no es difícil tener una idea aproximada de dónde pueden encontrarse a las 17.00. Y, sobre todo, de dónde no pueden encontrarse. Por ejemplo, es prácticamente imposible que hayan abandonado el país. Este conocimiento prospectivo, derivado de una exacta comprensión de la situación actual, es el que se utiliza en la práctica para poner en marcha ‘operaciones jaula’ tras sucesos de este tipo.

Tradicionalmente, la inteligencia prospectiva ha estado muy basada en la intuición de los analistas. En la actualidad, sin embargo, modelos matemáticos que hacen uso de la capacidad de computación de los ordenadores, permiten formular predicciones mucho más exactas, menos dependientes del talento (y de los sesgos) de los equipos analíticos. Sin embargo, esta mayor calidad técnica de la predicción puede no traducirse en absoluto en una mejor alerta que permita a los decisores políticos adoptar las medidas adecuadas antes de que las amenazas se materialicen.[2]

El problema con las alertas es que su efectividad no depende únicamente del que las lanza, sino, sobre todo, del que las recibe. En 2007, la Comisión Europea organizó en Bruselas una conferencia bajo el lema “From early warning to early action – developing the EU’s response to crisis and longer-term threats”.[3] Y el propio planteamiento inicial ya indicaba la idea fuerza que la Comisión deseaba transmitir: lo importante de verdad es que las alertas den lugar a respuestas políticas eficientes, oportunas en tiempo y forma. De manera que la transmisión de la alerta y, sobre todo, su recepción pasan a tener una importancia capital. [4] Y aquí surgen los problemas:

  1. Los decisores políticos tienen una confianza limitada en la capacidad de la inteligencia (o de cualquier otro proveedor alternativo de conocimiento) para prever el futuro[5].
  2. Aunque bastantes decisores puedan sentirse fascinados por el progreso científico y las posibilidades que las nuevas tecnologías ofrecen, es muy frecuente que confíen poco en instrumentos y metodologías cuyo funcionamiento no pueden entender. En 1975, poco después de la guerra del Yom Kippur (una sorpresa estratégica que Israel no había sido capaz de anticipar) el Ministro de Asuntos Exteriores israelí Ygael Alon encargó a un equipo formado por un conocido psicólogo (especializado en la psicología de la decisión)[6] y a un analista de inteligencia que le prepararan un informe sobre cuáles serían las consecuencias de los posibles resultados de las negociaciones, entonces en curso, entre Israel y Egipto (con mediación norteamericana). El equipo planteó el proyecto desde el punto de vista de la Teoría del Análisis de Decisiones y llegó a unos resultados que fueron recibidos con indiferencia en el Ministerio: “The minister remarked politely that the probabilities were ‘interesting’”.[7] Parece claro que los decisores no comprendían la base científica del informe que les presentaban y no creían, por ello, que los resultados que proporcionaba fueran correctos. O, si acaso, aceptaban que lo eran en la medida en que coincidían con su propio análisis, basado en la experiencia personal y/o grupal procesada con sentido común.[8]
  3. Finalmente, hay que tener en cuenta que cualquier medida política que se adopte tiene un precio, en términos de capital político. Cuando un gobierno toma una determinada medida en respuesta a una alerta, gasta capital político (porque la medida supondrá uso de recursos, que podrían emplearse con otros fines más populares, o puede entrañar la limitación de ciertos derechos o libertades), pero, como el público no conoce en detalle los motivos reales de alarma, puede entender que la respuesta es injustificada[9]. Recuérdese el debate en España sobre el famoso ‘comando Dixán’.[10]

Una conclusión que quizá no compartan todos los lectores. En inteligencia la explicación del presente (en sentido amplio) es el objetivo fundamental que debemos intentar alcanzar. Si los decisores comprenden bien la situación, estarán en magníficas condiciones para tomar unas decisiones que no solo se aplicarán en un espacio futuro, sino que, en gran medida, contribuirán a conformarlo. En el terreno militar se ha dicho que “suele ser comparada la previsión de los grandes capitanes a la mirada del águila que, remontándose en pleno día a inmensa altura, ve mil secretos escondidos a los vulgares ojos”.[11] Es un talento que a menudo se denomina ‘coup d’oeil’ y que Clausewitz definió como “el hallar una verdad que se oculta a la mirada habitual de la inteligencia, o que solo se hace visible tras larga y reflexiva consideración”.[12] El gran capitán lo es por tomar decisiones correctas en medio de la incertidumbre (una incertidumbre en gran parte debida al carácter futuro de muchas de las amenazas a las que se va a enfrentar), y quizá baste con que comprenda bien la situación actual para estar en mejores condiciones de decidir con eficacia. Quizá no sea necesario que le digamos con antelación qué es lo que va a ocurrir.

Entre los gurús de la inteligencia moderna, Greg Treverton es uno de los que ha defendido este enfoque: “In the world looking to 2010 and beyond, the business of intelligence will be information defined as a high-quality understanding of the world using all sources, where secrets matter much less and where selection is the critical challenge”[13]. Incluso para un autor como Tom Fingar (otro de nuestros gurús), apasionado defensor de la inteligencia estimativa, el fin último de la inteligencia es (ayudar a) dar forma al futuro, no predecir cómo será[14].


NOTAS:

[1] Bowman H. Miller, que durante más de un cuarto de siglo fue el Director de Análisis para Europa en el INR, ha escrito recientemente que “Intelligence is about reducing uncertainty for policy and decisionmakers, avoiding unwelcome (especially strategic) surprises, and anticipating—as best it can—possible future developments”. Todos estos fines son de naturaleza prospectiva o tienen una carga prospectiva muy alta. Ver MILLER, B.H. (2014). U.S. Strategic Intelligence Forecasting and the Perils of Prediction. International Journal of Intelligence and CounterIntelligence, 27: 687–701. DOI: 10.1080/08850607.2014.924810.

[2] Aunque en este post nos centramos en las amenazas, en inteligencia se busca también detectar oportunidades que puedan ser aprovechadas por los clientes para alcanzar sus objetivos.

[3] Ver https://ec.europa.eu/jrc/en/event/early-warning-early-action-developing-eu-s-response-crisis-and-longer-term-threats-7760.

[4] Para más detalles, ver PALACIOS, JM (2018). Transmisión y recepción de la alerta estratégica. GESI (Grupo de Estudios en Seguridad Internacional), Blog de José-Miguel Palacios, 22 Feb 2018. http://www.seguridadinternacional.es/?q=es/print/1333.

[5] Algo completamente razonable, por otra parte. Como señala Javier Jordán, “conocer con certeza y anticipación lo que está por venir es sencillamente imposible, en especial en los ámbitos de estudio de la Ciencia Política y de las Relaciones Internacionales”. Ver JORDÁN, J. (2016). La técnica de construcción y análisis de escenarios en los estudios de Seguridad y Defensa. Análisis GESI, 24/2016. http://www.seguridadinternacional.es/?q=es/print/881.

[6] Daniel Kahneman. Años después, en 2002, recibiría el Premio Nobel de Economía. Ver https://en.wikipedia.org/wiki/Daniel_Kahneman.

[7] LANIR, Z., & KAHNEMAN, D. (2006). An experiment in decision analysis in Israel in 1975. Studies in Intelligence, 50(4). https://www.cia.gov/library/center-for-the-study-of-intelligence/csi-publications/csi-studies/studies/vol50no4/an-experiment-in-decision-analysis-in-israel-in-1975.html.

[8] Esta aceptación de la inteligencia (o del asesoramiento experto) si coincide con el análisis propio de los decisores supone, de hecho, dar la razón a los proponentes de la “teoría argumentativa”. Ver MARTÍN ORTEGA, D. (2016). El análisis de Inteligencia: técnicas de análisis y fuentes de error. Una aproximación desde la teoría argumentativa. Revista de Estudios en Seguridad Internacional, 2 (1), 103-123. DOI: http://dx.doi.org/10.18847/1.3.6

[9] Paul Pillar (https://en.wikipedia.org/wiki/Paul_R._Pillar) lo ha explicado con claridad insuperable: “Warning from an intelligence service (or from anyone else) is one thing; having sufficient domestic or foreign support or both to act on the warning is quite another. Policymakers have repeatedly been constrained by the insufficiency of such support, more so than any insufficiency of predictions. The difficulty is in persuading larger audiences. No matter how much an intelligence service’s analysis may convince policymakers of an impending event, the American public as well as foreign governments and their publics almost always require something more. (…) Actual, graphic events—a war, a surprise attack, or whatever else leads to later recriminations about its not being predicted—have far more power to move publics and governments and to generate support for a vigorous response than even the most pointed and prescient predictions. They have far more impact than even the most elegant and well-documented analysis any intelligence service can ever offer. (…) Strong measures follow rather than precede dramatic events such as military invasions or major terrorist attacks not because the event is a revelatory, scales-dropping-from-eyes lesson to policymakers who previously were unaware of a danger, but instead because the event—as a matter of public mood and emotion—generates the necessary political support for the measures”. Ver PILLAR, P.R. (2011). Intelligence and US foreign policy: Iraq, 9/11, and misguided reform. Columbia University Press. Pp. 187-188.

[10] Puede encontrarse un breve resumen de este caso en https://elpais.com/diario/2007/02/10/espana/1171062014_850215.html.

[11] Benito Pérez Galdós en su obra Juan Martín El Empecinado, uno de los Episodios Nacionales.

[12] CLAUSEWITZ, C. (1978). De la Guerra. Madrid: Ediciones Ejército. Pg. 63.

[13] TREVERTON, G.F. (2003). Reshaping national intelligence for an age of information. Cambridge University Press. Pg. 98.

[14] “The ultimate goal is to shape the future, not to predict what it will be”. FINGAR, T. (2011). Reducing uncertainty: Intelligence analysis and national security. Stanford University Press. Pg. 53.


—José Miguel Palacios es Coronel de Infantería y Doctor en Ciencias Políticas, España.

Fuente: global-strategy.org

.

.

El Analista de inteligencia

enero 26, 2022

«Cuando los analistas son demasiado precavidos al hacer juicios estimativos sobre amenazas, se los culpa de no haber avisado. Sí son demasiado agresivos al lanzar la advertencia, se les critica por alarmistas.» Jack Davis

Artículo recomendado:

Qué es el análisis de inteligencia

El análisis de inteligencia es el proceso de evaluar y transformar los datos e información en conocimiento útil. Este conocimiento útil es solicitado y se genera para tomar una decisión.

El análisis de inteligencia comparado con el método científico

Aunque el análisis de inteligencia se base en el método científico, no son lo mismo. Tienen bastantes diferencias, principalmente por las temáticas que suelen analizarse: estrategias a largo plazo, nivel de riesgo o amenaza, probabilidad de que ocurra un evento social o político, etc.

En este tipo de análisis e investigaciones, normalmente llevados a cabo por empresas, gobiernos, organismos públicos y organizaciones diversas, se encuentran con:

  • Elevada incertidumbre.
  • Escasez de información contrastada y objetiva.
  • Multitud de fuentes de información con diferentes grado de credibilidad.
  • Diversidad de variables y multitud de actores.
  • Falta de relaciones causales objetivas sobre la temática analizada.
  • Necesidad de inmediatez o urgencia para llegar a conclusiones.
  • Obligatoriedad de discreción y secreto.

Todas las organizaciones toman decisiones, especialmente aquellas que están más expuestas a riesgos, amenazas u oportunidades. En estos casos la no decisión no es una opción viable. 

Para poder tomar una buena decisión, es necesario analizar previamente la información disponible e incluso la no disponible. Para ello se presentan dos opciones: el método científico o el análisis de inteligencia.

El análisis de inteligencia tiene muchas ventajas ya que permite racionalizar procesos de decisión complejos, con multitud de variables, diversidad de fuentes de información de diferentes grados de confianza cada una, en entornos con una alta incertidumbre.

Por otro lado, tiene algunos inconvenientes. El análisis de inteligencia, al depender de personas, no es absolutamente objetivo ni exacto, ni permite tomar una decisión correcta con seguridad ya que se basa en intuición y sus conclusiones no tienen la integridad y solidez empírica del método científico.

Por este motivo, los informes de inteligencia usualmente terminan ofreciendo una serie de estimaciones y probabilidades que reducen la incertidumbre y permiten tomar decisiones de forma más racional, pero nunca totalmente objetiva.

Si el análisis de inteligencia no es un método 100% válido para tomar decisiones objetivas, ¿por qué no se utiliza el método científico para tomar decisiones?

El método científico no resulta una técnica viable para la toma de decisiones objetivas ya que necesita de información totalmente confiable y contrastada así como tiempo para validar o refutar las hipótesis. Esas características dificilmente se disponen en el mundo empresarial o institucional, que es donde más se emplea el análisis de inteligencia.

Por tal motivo cada vez son más las organizaciones que buscan y demandan profesionales de la inteligencia, especialmente Analistas de Inteligencia para Unidades y Departamentos de Estrategia, Análisis o Seguridad, tanto en grandes empresas como en instituciones públicas.


Más información:

Inteligencia Estratégica

Una Taxonomía del concepto Inteligencia

El uso de la Inteligencia en los negocios

La Inteligencia y sus especialidades en la Sociedad del conocimiento

.

.

¿Qué es el doxxing?

septiembre 24, 2020

El ‘doxxing’ o el nuevo peligro que amenaza a las democracias

¿Cuáles son los nuevos riesgos para los Estados y los sistemas electorales? ¿Quién está detrás de estos ataques? Intentamos poner algo de luz a estas y otras cuestiones

Por Gonzalo de Diego Ramos.

Foto: ¿Se puede controlar el mundo desde un ordenador? (iStock)
¿Se puede controlar el mundo desde un ordenador?

Las dudas sobre las pasadas elecciones americanas (2016), el espionaje entre países, los ataques a las instituciones públicas… Las primeras páginas de la prensa diaria anuncian abiertamente que la democracia está seriamente amenazada, pero aunque se habla mucho sobre filtraciones, noticias falsas, trampas electorales y ciberataques la confusión entre la población ante estos nuevos riesgos es continua.

Para entender un poco mejor todo lo que está en juego, hablamos con varios expertos en inteligencia militar y seguridad informática acerca de cómo se interfiere a través de las nuevas tecnologías en la vida política, los recuentos electorales y la defensa de los Estados.

Doxxing y filtraciones

El doxxing es la recopilación de datos confidenciales con el fin de realizar una divulgación maliciosa de información, de forma calculada, para hacer daño a un grupo político o desestabilizar un país. Los casos más recientes han afectado a personalidades como Hillary Clinton.

No es necesario ser un genio. Es complicado romper los sistemas de seguridad, pero para hacer daño cualquiera vale

La pregunta es inmediata: ¿la ignorancia de quienes nos gobiernan, respecto al uso de las nuevas tecnologías, puede poner en riesgo la seguridad del resto de ciudadanos?

Con motivo de una nueva edición del Postgrado en Inteligencia Económica y Seguridad de la Universidad Pontificia de Comillas ICADE, los organizadores presentan en dicha universidad la conferencia ‘Política y ciberseguridad: ¿están las democracias en peligro?’. Entre los ponentes se encuentra Antonio Ramos, Profesor de Seguridad Informática y presentador de programas de televisión sobre hacking. Según este experto: “Los políticos tienen los asesores necesarios para generar unos protocolos seguros de comunicación capaces de proteger información sensible. Existe, sin embargo, una falta de conciencia generalizada en este mundo digital que hemos puesto en pie en los últimos veinte años. Esto sucede también con los políticos y con los grandes empresarios”.

Otro de los invitados a este encuentro es el Teniente Coronel Ignacio del Corral, Profesor titular del Departamento de Inteligencia y Seguridad de la Escuela de Guerra de Ejército. El militar cuenta una anécdota referida al expresidente Barack Obama y a las medidas que se toman por parte de sus consejeros: “A la pregunta de un niño de por qué no llevaba un iPhone, contestó que su asesor le obligaba a llevar un artilugio un poco antediluviano ya que cuanto más sofisticados son los teléfonos más vulnerables resultan”.

Las frases que se tuitean llevan su ‘veneno implícito’, no son declaraciones espontáneas, hay departamentos que los piensan

Se ha defendido a capa y espada que algunas filtraciones, como las que se han dado desde páginas como Wikileaks son buenas para la democracia, ya que revelan aquello que permanece oculto para la ciudadanía. El ex Ministro de Defensa Eduardo Serra, quien participa también en la conferencia, matiza dicho lugar común: “Tradicionalmente era bueno que al ‘Poder’, con mayúscula y en singular, se le pusieran límites. Al fin y al cabo esa era una de las finalidades del Estado de Derecho. Conforme se va imponiendo la globalización, el signo se invierte: yo no querría que se descubrieran debilidades de nuestro Estado, sobre todo si ya no hablamos del ‘Poder’ en mayúscula y en singular, sino de los poderes. Si todos los poderes están en liza yo no quiero debilitar el mío. Hace 50 años no había problema: vigile usted al Estado. Pero ahora, hay que tener en cuenta que ese organismo le está protegiendo y una debilidad de su Estado es una debilidad suya”.

¿Por qué se producen estas filtraciones? ¿Qué objetivo persiguen? “Las filtraciones de información son interesadas. Los sistemas son seguros, mucho más de lo que la gente se imagina. Detrás hay Estados que se benefician directa o indirectamente de esa información”, aclara Ignacio del Corral, quien señala que para perpetrar estos ‘leaks, “no es necesario ser un genio. Los casos más sonados, como los de Edward Snowden o el soldado Bradley Manning, lo demuestran. Es complicado romper los sistemas de seguridad, pero para hacer daño vale cualquiera. No hace falta que haya una superestructura detrás”.

Propaganda y difusión de noticias falsas

Hoy en día es fácil fabricar páginas web aparentemente inocuas que albergan informaciones engañosas y con fines oscuros. Disfrazadas de noticias, esta propaganda consigue una difusión sorprendente a través de las redes sociales, además de otros canales.

¿Cómo se elaboran? “Se preparan como cualquier otra campaña con su programa, sus procedimientos y sus técnicas. Se da una planificación psicológica, de influencia… Tienen sus análisis de producto y de difusión. En ellas se elige a una audiencia y se delimitan incluso los objetivos que se quieren conseguir”, aclara Ignacio del Corral. Antonio Ramos profundiza en los detalles: “ Aquí hay expertos en varios campos como neurociencia o diseño. Las frases que se tuitean llevan su ‘veneno implícito’, no se trata de declaraciones espontáneas, hay departamentos que piensan estos mensajes, los estructuran y aplican todas estas técnicas agresivas”.

¿Pueden vigilar los auditores un sistema de votación digital que ni siquiera entienden?

Nuevamente, la duda que inquieta a muchos es quién maneja estas campañas: “Es difícil saber exactamente quiénes son. Hay que entenderlo como un conglomerado de intereses, con unos actores que lo ejecutan. Cuando mencionamos términos tan difusos como Estados, puede haber muchas cosas detrás, desde los intereses nacionales a las presiones de los ‘lobbies’ de grandes empresas. El ataque puede estar materializado después por determinadas instituciones, personas o incluso empresas. Una cosa es el ejecutor, otra quién lo dirige y otra quién lo planea. Hay mucha gente implicada y coordinada”, aclara Ignacio del Corral.

Sistemas electorales

Este va a ser un año capital en lo que respecta a posibles cambios de gobierno. La Unión Europea se juega mucho en las elecciones que se celebrarán en 2017 en países que han sido el corazón del continente, como Holanda, Francia y Alemania. Las principales preocupaciones se dirigen a algo tan simple como si las máquinas de votación electrónicas son realmente seguras.

Holanda ha dicho no a los sistemas digitales y contará los votos manualmente. Las opiniones de los expertos son contradictorias respecto a si es necesario modernizar el método de recuento. La duda que todos tenemos la expresa muy bien Eduardo Serra: «El sistema de votación electrónica es más rápido, más sencillo y más cómodo. Pero qué prefiere usted, ¿una elección sencilla, aunque pueda resultar falsa, o una más compleja que sea segura?».

Voy más allá: es bueno que nos ataquen. Los países que no son atacados no tienen nada interesante

“Las máquinas electorales son más seguras que las papeletas. Todo es vulnerable, la papeleta también, todo tiene su grado. Se puede poner un nivel de seguridad muy alto, si bien nunca será del 100%, pero cuantos más cortafuegos haya, más difícil va a ser interferir en las votaciones. Yo creo que es más seguro e infinitamente más rápido. Manipular el sistema de elecciones de un país europeo no está al alcance de cualquiera”, asevera Ignacio del Corral.

El especialista en hacking Antonio Ramos no comparte este punto de vista: “Por sentido común, yo utilizaría aquel sistema en el que más se puede confiar en el momento presente, y a día de hoy, el más seguro es la elección en el colegio electoral. ¿Pueden vigilar los auditores un sistema de votación digital que ni siquiera entienden? No hay que olvidar que el software puede ser manipulado tanto desde fuera como desde dentro, es decir, desde quien fabrica el sistema. ¿Quién me garantiza a mí que la empresa que produce esta tecnología dispone de las medidas reales para hacer su producto más fiable que el sistema electoral tradicional? Cualquier trabajador (igual que sucede en la banca con los fraudes internos) en un momento dado puede ser influenciado para tirar algunas líneas de código de más”.

(iStock)

Defensa y seguridad nacional

Ya en el año 2013 importantes expertos en ciberseguridad plantearon abiertamente que los ciberataques y el ciberespionaje habían suplantado al terrorismo como principal amenaza para las naciones. Declara Eduardo Serra: «El que no sea consciente de que hay centenares de miles de personas intentando penetrar en nuestros sistemas informáticos peca de ingenuo».

Las luchas de poder ya no se dan sólo en los territorios. Cuenta Ignacio del Corral: “El ciberespacio es eso mismo, un espacio más donde se interactúa, y ahí existen conflictos. Se trata de actos diplomáticamente hostiles. El problema es que es muy difícil después demostrar quién ha hecho qué, seguir los rastros, etc. Estamos en un mundo que no es físico donde no puedes decir ‘esto ha ocurrido en tal sitio y a tal hora’, esto es información, ceros y unos en cantidades ingentes”.

Contra un ciberataque planificado por comandos especializados, es decir, un acto de guerra, no estamos preparados

Como demostró una de las filtraciones publicadas por Wikileaks en la que se demostraba que los servicios secretos de Estados Unidos habían espiado a Angela Merkel, las naciones están utilizando continuamente el ciberespacio para atacarse mutuamente. Señala del Corral: “Tenemos que vivir con la conciencia de que los ataques van a estar ya siempre presentes. Voy más allá: es bueno que nos ataquen. Los países que no son atacados, que no son vigilados es porque no tienen nada interesante. Hay que tener esta mentalidad”.

De especial relevancia son también los nuevos actores que participan en esta guerra en el ciberespacio. Apunta Serra «Ahora en la doctrina militar lo que se está viendo es que hay actores no estatales, como las organizaciones de narcotraficantes o terroristas, que plantean, sin embargo, amenazas semejantes a las de un tercer estado».

Se ha escrito mucho de los actos de espionaje y contraespionaje entre naciones como Estados Unidos, China, Rusia y Alemania, ¿pero qué ocurre con España?: “Tecnológicamente España está preparada para todos estos riesgos, tenemos una entera estructura dentro de nuestra inteligencia dedicada a los ciberataques. Hay una Comisión Delegada del Gobierno para asuntos de inteligencia, mientras que el Centro Nacional de Inteligencia actúa como órgano ejecutor, con el Centro Criptológico Nacional como apoyo. Todos ellos son los encargados de defendernos ante cualquier ataque civil. A nivel militar tenemos el Mando Conjunto de Ciberdefensa. Estamos bastante bien protegidos”.

Si había problemas sin Internet de las cosas, imagínate lo que va a pasar en los próximos años. Lo que puede suceder es imprevisible

Contrasta la anterior opinión de Ignacio del Corral con la de un hacker como Antonio Ramos: “En la versión oficial nos dirán siempre que estamos preparados, pero desde mi punto de vista no es así. Contra un ciberataque planificado por comandos especializados, es decir, un acto de guerra, no estamos preparados. España se ha subido al carro a última hora. Lo importante, por lo menos, es que estamos intentando acortar esa brecha”.

Inquietantes declaraciones considerando que los avances digitales no se detienen, añade Ramos: “Hemos conectado servicios vitales a sistemas digitales que pueden ser atacados desde Internet. El coste de estos ataques es infinitamente más económico que movilizar material militar a una frontera. Cuantos más objetos tienes conectados, los riesgos se disparan. Vamos a pasar a tener decenas de millones de nuevos dispositivos en línea. Si había problemas en un mundo sin Internet de las cosas, imágínate lo que va a pasar en los próximos años. Si los Estados y las industrias no se ponen las pilas, lo que puede suceder es imprevisible”.

Eduardo Serra emplea una particular metáfora para ilustrar la situación: «La historia de la humanidad es la del escudo y de la espada. Se prepara la espada y después el escudo, cuando el escudo aguanta, se fabrica la maza… Ahora mismo estamos en una fase donde el arma electrónica existe y mientras tanto estamos desarrollando el escudo».

Bajando a un nivel más mundano, si la democracia es el poder del pueblo, los ciudadanos también tienen mucho que hacer en materia de ciberseguridad. El Teniente Coronel Ignacio del Corral aconseja: “Hemos pasado de un mundo conectado a un mundo hiperconectado. La gente habla de ciberataques o vigilancia tecnológica, pero no es necesario llegar a esos límites. Las personas tienen que cambiar el chip. Igual que cerramos la puerta con llave también hay que pensar en apagar el wifi cuando salimos de casa, algo que nadie hace”.

Fuente: elconfidencial.com, 2017

Más información:

Rumores y mentiras al estilo Goebbels

Inteligencia y Contrainteligencia empresarial


Vincúlese a nuestras Redes Sociales:

LinkedIn           YouTube          Twitter


banner invertir en la incertidumbre

.

.

Inteligencia y Contrainteligencia empresarial

julio 15, 2020

Inteligencia económica y contrainteligencia empresarial, herramientas necesarias para competir

Por Fernando Montoya. 27/11/2019

“Si usted no sabe hacia dónde va, probablemente acabará llegando a cualquier otro lugar.”
Lawrence J. Peter

Entre las democracias desarrolladas y asentadas, como ya apuntaba Barry Buzan, los conflictos militares, sobre todo tras la caída del muro de Berlín, han dejado paso a otro tipo de enfrentamientos más sutiles, más líquidos, más volátiles, más transversales y con toda seguridad, menos visibles para la opinión pública, pero existentes. Nos referimos a amenazas con origen en los mercados en general, ya sean de materias primas, deuda pública, o bursátiles. Clausewitz consideraría a éste nuevo escenario como “la continuidad de la guerra por otros medios”.

foto
Fernando Montoya, vicepresidente de la Asociación Internacional
de Miembros de Cuerpos de Seguridad y Emergencias, AIMCSE

Por otra parte, tengamos en cuenta que la globalización de los mercados, la aparición de las economías emergentes y las crisis económicas soportadas, cada vez con más frecuencia, en mayor o menor medida por las economías más desarrolladas, son algunos de los vectores que vienen impulsando a esta disciplina, la Inteligencia Económica, que, sin ser nueva, está poco aplicada, y que nace como un medio más, como una herramienta ágil para asegurar, nuestras inversiones. En tiempos de crisis, la célebre frase de Winston Churchill, “Un optimista ve una oportunidad en toda calamidad y un pesimista ve una calamidad en toda oportunidad”, cobra toda su vigencia.

La Inteligencia económica, junto con la prospectiva estratégica aplicada y la tecnología, nos ayudarán a transformar la incertidumbre en certeza, transitando del campo virtual al real.

Tengamos en cuenta también que el espectacular desarrollo de los medios de comunicación nos garantiza el conocimiento de una gran cantidad de datos acumulados en amplísimas bases, de enorme capacidad, pero no su interpretación. La noticia está disponible a los ojos del lector o del espectador, pero son pocos los que entienden lo que está pasando.

El analista de inteligencia económica proporcionará datos precisos, en el momento adecuado, con el fin de favorecer la toma de decisión más adaptada a la necesidad de cada momento. Estudiará la hipótesis más probable y la más peligrosa y propondrá acciones a tomar en cada caso.

Una inversión en el exterior de dimensiones financieras de especial relevancia, requiere un estudio detallado en primer lugar de nuestras propias capacidades como empresa / país y en segundo lugar de nuestros posibles adversarios. Las primeras las conocemos porque es nuestro trabajo diario pero los segundos se resisten a los ojos del observador no especializado.

Sin embargo, la realidad es muy otra: cuántas empresas españolas, sobre todo de tamaño medio, han intentado desarrollarse en otro país y han tenido que abandonar el proyecto tras acumular millones de pérdidas. Desembarcar fuera de las fronteras sin un mínimo de conocimientos de sus factores político, social y económico, suele ser una pérdida de tiempo y de dinero. Conocer cómo es la idiosincrasia del país, actuaciones de su administración y de sus empresarios y la existencia o no de la necesaria seguridad jurídica, garantiza, al menos inicialmente, un buen puesto en la rampa de salida. Se precisa una herramienta, que tras acciones coordinadas de investigación, tratamiento y distribución de la información nos ayude en la toma de decisiones en el ámbito económico. Su conocimiento y perfecta utilización puede garantizarnos la consecución de un contrato y asegurar la vida de una empresa pública o privada; hablamos de la Inteligencia Económica, una disciplina que otros países de nuestro entorno prodigan su empleo desde hace mucho tiempo y al que los empresarios deben de incorporarse de pleno derecho, pero no solos. La cooperación con la Administración debe de conformar un vínculo tan estrecho que les acompañe en su aventura pues estamos hablando de abrir nuevos mercados, mantenerse en ellos y crear riqueza. En definitiva se trata de defender nuestro tejido industrial aunque su centro de gravedad haya sufrido un desplazamiento; defensa de nuestros intereses en el exterior. Desde la perspectiva del Estado podría considerarse a la Inteligencia Económica como una parte muy importante de la Seguridad Nacional y desde el punto de vista empresarial, la inteligencia competitiva, su homónima, como un factor primordial para su desarrollo ordenado y estructurado.

Pero si la información, que abarca desde la mensajería al historial de clientes y proveedores pasando por el elenco de productos y servicios, constituye uno de los mayores activos intangibles de las empresas, su consecuencia inmediata es la necesidad de su protección a ultranza. Sus fugas, en cualquiera de sus dimensiones, pueden acarrear unos problemas a la empresa de tales dimensiones que pueden llegar a denegar su continuidad en el mundo empresarial, con lo que ello significa tanto para la empresa como para sus empleados e incluso para el propio empresariado nacional. Estamos en la fase de la contrainteligencia empresarial.

Definiciones de contrainteligencia hay muchas, pero por adoptar una, la definiremos como: «todas aquellas medidas de carácter pasivo o activo que realiza una empresa pública o privada para evitar las acciones de inteligencia empresarial o del adversario en contra de ellas».

Quizás, a esta definición, habría que añadirle que esas medidas deben de estar enmarcadas en la ley, una ley restrictiva tanto respecto a sus empleados como al exterior. Las primeras se enfrentan al derecho a la intimidad del personal trabajador de la empresa y la exterior debe de estar regida por la ley, universalmente aceptada, aunque no definida en todos sus matices, de buenas prácticas, de la ética corporativa. Por tanto, ni la inteligencia, en cualquiera de sus acepciones, ni la contrainteligencia, deben, ni pueden, confundirse con el espionaje y/o contraespionaje. Eso sería hablar de otras cosas y aquí, en el marco legal vigente, no tienen cabida.

Pero adentrémonos un poco en las entrañas de la contrainteligencia; partamos de, por ejemplo, algunas de sus actividades que nos parecen relevantes:

  • De seguridad, que una empresa tratará de conseguir a través de diferentes contramedidas que taponen sus vulnerabilidades y / o debilidades (que previamente habrá tenido que definir) sin obviar el tan abrumador campo de las comunicaciones cuya fuga de información puede poner en serios apuros a la empresa. Así pues, la contrainteligencia deberá de fijar su atención sobre puntos tan claves que, ni son exclusivos ni excluyentes, como: el personal de la empresa, la propia infraestructura de la empresa y sobre su red informática y sus procesos de información (fuga de información sensible).
  • De contraespionaje, estudiar a los competidores, sus técnicas y sus medios.
  • Decepción, diseminación de noticias falsas y medidas de carácter análogo que lleven a la interpretación errónea de los verdaderos intereses de la empresa.

Si la empresa se mantiene firme en estos rasgos, marcará la diferencia y obtendrá ventaja frente a sus competidores.

Pero, como no puede ser de otra manera, la empresa, como la inteligencia en general, también tiene a su disposición su correspondiente ciclo de inteligencia empresarial que le ayudará a detectar, prevenir y actuar contra cualquier injerencia que pueda perturbar su normal desarrollo competitivo. Un ciclo de inteligencia que, contendrá como mínimo los siguientes pasos y en este orden:

  1. Definición de los requisitos de protección de la empresa.
  2. Evaluación de las posibles amenazas de la competencia.
  3. Evaluación de las propias vulnerabilidades.
  4. Desarrollo de contramedidas.
  5. Desarrollo y uso de protecciones.
  6. Procesar y analizar los datos disponibles.
  7. Difusión de los resultados a la dirección empresarial.

Lo que no cabe la menor duda es que si bien es cierto que, hoy día, la empresa, se siente amenazada ante agresiones tanto de mercados como desde dentro de su propio tejido empresarial, no lo es menos que también tiene a su disposición herramientas que le ayudan a enfrentarse a ese mundo tan diverso, globalizado, competitivo y cambiante; estamos en presencia de la inteligencia económica y de la contrainteligencia empresarial.

Fuente: interempresas.net

.

.

.

El Teorema de Bayes en el Análisis de Inteligencia

julio 1, 2020

“Bayes ingenuo” en apoyo del análisis de inteligencia

Por José-Miguel Palacios.

Un interesante artículo de Juan Pablo Somiedo[1], aparecido a finales de 2018, nos recordaba que el teorema de Bayes[2], en su versión más elemental (lo que se suele llamar “Bayes ingenuo”) puede seguir siendo útil en análisis de inteligencia.

El teorema de Bayes en el análisis de inteligencia

Se puede argumentar que todo análisis de inteligencia es bayesiano en su naturaleza. En esencia consiste en obtener unas evidencias iniciales, simples fragmentos de una realidad bastante compleja, para formular después hipótesis explicativas, recolectar más evidencia y verificar cuál de nuestras hipótesis se ajusta mejor a la evidencia disponible. Algo que no es esencialmente distinto de la “lógica bayesiana”, es decir, de ir modificando nuestras valoraciones subjetivas iniciales a medida que vamos recibiendo evidencias más o menos consistentes con ellas.

En las décadas de 1960 y 1970 hubo varios intentos de utilizar directamente el teorema de Bayes para fines de análisis de inteligencia. Algunos de ellos han sido documentados en las publicaciones del Centro para el Estudio de la Inteligencia de la CIA[3]. Los resultados, sin embargo, no llegaron a ser plenamente convincentes. Y una de las razones principales fue que el mundo real resultó ser demasiado complejo para los modelos elementales que deben considerarse al utilizar “Bayes ingenuo”. Y es que estos modelos presuponen la invariabilidad de la situación inicial (oculta a nuestros ojos), así como la independencia absoluto de los sucesos que vamos considerando. Este problema puede resolverse mediante el uso de “redes bayesianas”[4] y los resultados son matemáticamente correctos, aunque aquí el principal problema radica en conseguir modelar correctamente la realidad. Es el enfoque que fue seleccionado para el programa Apollo[5] y otros similares.

A pesar de todo, y con las debidas precauciones, el uso de “Bayes ingenuo” puede ayudarnos en algunos casos a valorar la evidencia de que disponemos. Para que ello sea así, tendríamos que prestar atención a neutralizar las principales debilidades del método. A saber:

a) Deberíamos utilizar únicamente evidencia relativamente “reciente” (algo que, medido en tiempo, puede tener distintos significados dependiendo de los casos). El problema es que Bayes nos da información sobre una situación preexistente y oculta (por ejemplo, la decisión que puede haber adoptado un determinado líder político) fijando nuestra atención en sus manifestaciones visibles. Si la evolución de la situación es bastante lenta (por ejemplo, la soviética durante el brezhnevismo medio y tardío), podemos asumir que no cambia sustancialmente durante años, por lo que el momento de obtención es escasamente relevante para la valoración de la evidencia. En situaciones más dinámicas, como suelen ser la actuales, las posiciones de los líderes se están modificando continuamente como consecuencia de los cambios que se producen en el entorno. Evidencia relativamente antigua puede referirse a una “situación oculta” que ya no es actual. Por ello, deberíamos utilizar solo evidencia bastante nueva y, si la crisis continúa, prescindir de la más antigua en beneficio de otra más reciente.

b) En la medida de lo posible, el conjunto de las hipótesis debería cubrir la totalidad de las posibilidades existentes, y no debería existir ningún solape entre las diferentes hipótesis. En la práctica, este objetivo es casi imposible de alcanzar, aunque cuanto más nos acerquemos a él, más fiables serán los resultados que obtengamos al aplicar “Bayes ingenuo”.

c) Las evidencias (“Sucesos”) deberían ser de un “peso similar” y no estar relacionadas entre sí[6].

En la práctica

Hemos elaborado una hoja de Excel[7], con la esperanza de que pueda ayudar con los cálculos matemáticos que esta técnica requiere. Para rellenarla, seguiremos los siguiente pasos, sugeridos por Jessica McLaughlin[8]:

1) Creamos un conjunto de hipótesis mutuamente excluyentes y colectivamente exhaustivas relativas al fenómeno incierto que queremos investigar. Como ya hemos explicado, es, quizá, uno de los pasos más difíciles. En general, resulta complicado imaginar hipótesis que sean por completo mutuamente excluyentes (sin ningún solape entre ellas). Y no lo es menos conseguir que el conjunto de ellas agote todas las posibilidades.

2) Asignamos probabilidades previas (pr.previa, en nuestra hoja de cálculo) a cada una de las hipótesis. La probabilidad previa es nuestra estimación intuitiva de la probabilidad relativa de cada una de las hipótesis. Dado que son mutuamente excluyentes y que cubren todas las posibilidades, la suma de las probabilidades previas debe ser 1. En nuestra tabla, expresamos las probabilidades en tantos por ciento.

3) Ahora debemos ir incorporando los “Sucesos” que nos servirán para valorar las hipótesis. El método reajusta las probabilidades de las hipótesis después de cada suceso, por lo que estos pueden añadirse secuencialmente, según se van produciendo o según tenemos noticia de ellos. Una buena elección de sucesos es muy importante para que el método produzca resultados aceptables. Los sucesos deben tener valor diagnóstico (es decir, deben ser más o menos probables según cuál de las hipótesis es la correcta) y, en lo posible, de un “peso” (importancia) similar.

4) Según incorporamos “Sucesos” a la tabla, les asignamos “verosimilitudes” (“verosim.”, en nuestra hoja de cálculo), relativas a cada una de las hipótesis. Se trata para cada caso de la probabilidad estimada por el analista de que el suceso ocurra, suponiendo que la hipótesis que estamos considerando sea correcta. En la tabla, esta probabilidad la expresamos por un entero entre 0 y 100, siendo 0 la imposibilidad total, y 100 la seguridad completa (de que el suceso se producirá suponiendo que la hipótesis se verifica). Obviamente, la suma de todas las verosimilitudes no tiene por que ser la unidad (100% o, según la notación que utilizamos en nuestra tabla, 100).

La propia tabla recalculará las probabilidades de las hipótesis una vez que hayamos computado cada “Suceso”. En nuestra tabla, podemos encontrar estas probabilidades recalculadas en la columna G (“probab.”).

5) Reiteraremos el proceso según añadimos nuevos sucesos. En nuestra tabla, cada nuevo suceso está representado 10 filas más abajo del anterior. Si agotamos los predefinidos en la tabla, podemos añadir más copiando el último “bloque” diez filas más abajo.

Un ejemplo: Crisis de Crimea, marzo de 2020

El proceso puede verse mucho más claro con la ayuda de un ejemplo. Utilizaremos el de la crisis de Crimea de 2014, en particular las dos semanas que siguieron a la caída del Presidente ucraniano Yanukovich, el 21 de febrero. Hemos rellenado la hoja Excel con una serie de “Sucesos” y el resultado puede encontrarse en la hoja prueba_crimea.xlsx[9]. Se trata, evidentemente, de un supuesto didáctico en el que la elección su “Sucesos” y la determinación de las verosimilitudes están condicionados por el interés en ilustrar algunos de los posibles resultados.

Como vemos, la técnica nos permite calcular en todo momento las probabilidades de las diversas hipótesis, y mantener este cálculo actualizado según vamos recibiendo nueva información. Algunas observaciones interesantes:

  1. a) A fecha 6 de marzo de 2014, consideraríamos casi seguro (probabilidad del 90%) que la intención rusa sea anexionar la península de Crimea.
  2. b) Sin embargo, unos días antes (según la tabla) no estaría tan claro. El 1 de marzo la hipótesis de la anexión era ya la más probable (55%), pero aún calculábamos una probabilidad notable (39%) de que los rusos estuvieran intentando crear una república virtualmente independiente sin poner en cuestión (formalmente) las fronteras reconocidas (modelo “Transnistria”).
  3. c) Tan solo unos días antes, hacia el 25-26 de febrero, la hipótesis más probable era aún que los rusos estuvieran intentando impedir que el nuevo gobierno de Kiev tomara el control efectivo de Crimea (probabilidad del 63-68%).

Con la tabla, podemos fácilmente excluir como sospechoso de desinformación un suceso que hemos aceptado previamente, modificar la verosimilitud de sucesos pasados a la luz de nueva evidencia, o cambiar las probabilidades previas de las que hemos partido. En todos estos casos, la tabla nos recalcula automáticamente todas las probabilidades.

Bayes ingenuo y Análisis de Hipótesis Alternativas (ACH)

En el fondo, la técnica de Bayes ingenuo no es muy diferente del Análisis de Hipótesis Alternativas (ACH) de Heuers. La lógica subyacente es la misma (conocer una realidad oculta gracias al estudio de sus manifestaciones visibles) y la diferencia principal radica en la forma de atacar el problema: mientras  Bayes ingenuo calcula las probabilidades relativas, ACH intenta descartar hipótesis por ser inconsistentes con la evidencia.

Para ilustrar mejor las diferencias entre estas dos técnicas, hemos elaborado una matriz (prueba ach_crimea.xlsx[10]) con los sucesos y las hipótesis del ejemplo sobre Crimea. Como sabemos, las diversas variantes de ACH se diferencian entre sí por la manera de contabilizar los resultados. En nuestro caso, marcaremos CC y contaremos 2 puntos cuando el suceso sea altamente consistente con la hipótesis, C (1 punto) cuando sea consistente, I (-1) cuando sea inconsistente y X (rechazo de la hipótesis) cuando sea incompatible. Con estas reglas, hemos llegado a los resultados que a continuación se indican:

a) La hipótesis de la Anexión parece la más probable, aunque seguimos atribuyendo una probabilidad considerable a la hipótesis del Caos. Las dos primeras hipótesis (Evitar el control de Kiev sobre la península y el modelo Transnistria) podrían ser descartadas.

b) Si elimináramos la última fila, es decir, si no tomáramos en consideración el suceso del 6 de marzo, las cuatro hipótesis seguirían siendo verosímiles, con dos de ellas (Anexión y Transnistria) vistas como claramente más probables.

Vemos, pues, que partiendo de una lógica similar, las dos técnicas nos conducen a resultados ligeramente distintos. Y en el proceso podemos apreciar algunos de los inconvenientes que cada una de ellas tiene:

a) En ACH el principal problema es que no siempre resulta fácil encontrar sucesos que desmientan alguna de las hipótesis (“coartadas”) por ser completamente incompatibles con ella. Y, en ocasiones, sucesos muy interesantes pueden ser sospechosos de desinformación.

b) En ausencia de “coartadas”, la puntuación en ACH depende mucho de la metodología de cálculo que se siga. La que hemos elegido es, quizá, excesivamente simple. Otras más complejas pueden resultar difíciles de aplicar (aunque hay programas informáticos que pueden servir de ayuda) y resultar en cierta medida arbitrarias.

c) El problema con Bayes ingenuo es que para muchos analistas no resulta intuitivo. El uso de la hoja Excel ayuda mucho a realizar los cálculos, pero puede oscurecer la lógica que hay detrás de ellos.

A modo de conclusión                                                 

a) El Teorema de Bayes no sirve para predecir el futuro, sino que nos ayuda a conocer una realidad pasada o presente que permanece oculta a nuestros ojos. Es obvio que si el Presidente del país X ha decidido invadir el país vecino Y, acabará haciéndolo, de no mediar alguna circunstancia que le haga cambiar de opinión. Pero lo que averiguamos no es el hecho futuro (que invadirá), sino el pasado (que ha tomado la decisión de hacerlo).

b) Bayes ingenuo (como también ACH) es más efectivo cuando se usa para estudiar una situación estable, cuando la evidencia se puede recolectar durante un período de tiempo suficientemente largo sin que la “incógnita” que intentamos resolver cambie apreciablemente. Porque cuando la “incógnita” cambia con relativa rapidez, como suele ser el caso durante las crisis actuales, diferentes observaciones realizadas en momentos distintos pueden ser producto de una “realidad oculta” que se ha modificado, que ya no es la misma. Por eso, si queremos que Bayes ingenuo funcione razonablemente bien con situaciones dinámicas, la recogida de datos debe realizarse en plazos de tiempo relativamente cortos. O debemos descartar los “sucesos” más antiguos, que pueden responder a una “realidad oculta” que ya no es real.

c) Más importante que las dos técnicas que hemos examinado en este post es la “lógica bayesiana” que subyace a ambas. En inteligencia (sobre todo, en inteligencia estratégica) es raro conseguir evidencias directas sobre la realidad que nos interesa. Esa realidad siempre permanece oculta a nuestros ojos y lo que podemos averiguar sobre ella es gracias a sus manifestaciones visibles.

d) Quien quiera ocultar una información valiosa no solo intentará protegerla de intentos directos de acceder a ella, sino que tendrá también en cuenta esas manifestaciones visibles, tan difíciles de ocultar. Y lo hará utilizando desinformación. Este es el principal problema para utilizar Bayes ingenuo (o ACH): distinguir la información correcta de la inexacta y de la desinformacón.

Y es que no resulta nada fácil ser un analista inteligente.


[1]     SOMIEDO, J.P. (2018). El análisis bayesiano como piedra angular de la inteligencia de alertas estratégicas. Revista de Estudios en Seguridad Internacional, 4, 1: 161-176. DOI: http://dx.doi.org/10.18847/1.7.10. Para una lista de las interesantes aportaciones de Somiedo al estudio de la metodología del análisis de inteligencia, ver https://dialnet.unirioja.es/servlet/autor?codigo=3971893.

[2]     Para una explicación rápida del teorema de Bayes, véase https://es.wikipedia.org/wiki/Teorema_de_Bayes.

[3]     Puede verse, por ejemplo, FISK, C.F. (1967). The Sino-Soviet Border Dispute: A Comparison of the Conventional and Bayesian Methods for Intelligence Warning. CIA Center for the Study of Intelligence. https://www.cia.gov/library/center-for-the-study-of-intelligence/kent-csi/vol16no2/html/v16i2a04p_0001.htm (acceso: 08.062020).

[4]     Los no familiarizados con las redes bayesianas pueden encontrar una introducción elemental de este concepto en https://es.wikipedia.org/wiki/Red_bayesiana.

[5]     Ver STICHA, P., BUEDE, D. & REES, R.L. (2005). APOLLO: An analytical tool for predicting a subject’s decision making. En Proceedings of the 2005 International Conference on Intelligence Analysishttps://cse.sc.edu/~mgv/BNSeminar/ApolloIA05.pdf (acceso: 08.06.2020).

[6]     Los que conozcan el histórico concurso de televisión Un, dos, tres, responda otra vez recordarán que una táctica muy eficaz para responder consistía en repetir un “objeto”, alterando alguna de sus características. Por ejemplo, si pedían “muebles que puedan estar en un comedor”, ir diciendo sucesivamente “silla blanca”, “silla negra”, “silla roja”, etc. Esta táctica aplicada a la técnica de “Bayes ingenuo” nos acabaría conduciendo inexorablemente a una hipótesis predeterminada. Claro que sería como hacernos trampas al solitario…

[7]     El nombre de la hoja es bayes_excel.xlsx, y puede encontrarse en https://bit.ly/2An58uc.

[8]     MCLAUGHLIN, J., & PATÉ-CORNELL, M.E. (2005). A Bayesian approach to Iraq’s nuclear program intelligence analysis: a hypothetical illustration. En 2005 International Conference on Intelligence Analysis. https://analysis.mitre.org/proceedings/Final_Papers_Files/85_Camera_Ready_Paper.pdf (acceso: 27.10.2018). También, MCLAUGHLIN, J. (2005). A Bayesian Updating Model for Intelligence Analysis:A Case Study of Iraq’s Nuclear Weapons Program. Honors Program in International Security Studies Center for International Security and Cooperation Stanford University.

[9]     Puede accederse a ella en la siguiente dirección: https://bit.ly/30veoY3.

[10]   Puede encontrarse en https://bit.ly/3dUsENL.

Fuente: serviciosdeinteligencia.com, 2020


Algoritmos Naive Bayes: Fundamentos e Implementación

¡Conviértete en un maestro de uno de los algoritmos mas usados en clasificación!

Por Víctor Román.

Victor RomanFollowApr 25, 2019 · 13 min read

Introducción: ¿Qué son los modelos Naive Bayes?

En un sentido amplio, los modelos de Naive Bayes son una clase especial de algoritmos de clasificación de Aprendizaje Automatico, o Machine Learning, tal y como nos referiremos de ahora en adelante. Se basan en una técnica de clasificación estadística llamada “teorema de Bayes”.

Estos modelos son llamados algoritmos “Naive”, o “Inocentes” en español. En ellos se asume que las variables predictoras son independientes entre sí. En otras palabras, que la presencia de una cierta característica en un conjunto de datos no está en absoluto relacionada con la presencia de cualquier otra característica.

Proporcionan una manera fácil de construir modelos con un comportamiento muy bueno debido a su simplicidad.

Lo consiguen proporcionando una forma de calcular la probabilidad ‘posterior’ de que ocurra un cierto evento A, dadas algunas probabilidades de eventos ‘anteriores’.

Ejemplo

Presentaremos los conceptos principales del algoritmo Naive Bayes estudiando un ejemplo.

Consideremos el caso de dos compañeros que trabajan en la misma oficina: Alicia y Bruno. Sabemos que:

  • Alicia viene a la oficina 3 días a la semana.
  • Bruno viene a la oficina 1 día a la semana.

Esta sería nuestra información “anterior”.

Estamos en la oficina y vemos pasar delante de nosotros a alguien muy rápido, tan rápido que no sabemos si es Alicia o Bruno.

Dada la información que tenemos hasta ahora y asumiendo que solo trabajan 4 días a la semana, las probabilidades de que la persona vista sea Alicia o Bruno, son:

  • P(Alicia) = 3/4 = 0.75
  • P(Bruno) = 1/4 = 0.25

Cuando vimos a la persona pasar, vimos que él o ella llevaba una chaqueta roja. También sabemos lo siguiente:

  • Alicia viste de rojo 2 veces a la semana.
  • Bruno viste de rojo 3 veces a la semana.

Así que, para cada semana de trabajo, que tiene cinco días, podemos inferir lo siguiente:

  • La probabilidad de que Alicia vista de rojo es → P(Rojo|Alicia) = 2/5 = 0.4
  • La probabilidad de que Bruno vista de rojo → P(Rojo|Bruno) = 3/5 = 0.6

Entonces, con esta información, ¿a quién vimos pasar? (en forma de probabilidad)

Esta nueva probabilidad será la información ‘posterior’.

Inicialmente conocíamos las probabilidades P(Alicia) y P(Bruno), y después inferíamos las probabilidades de P(rojo|Alicia) y P(rojo|Bruno).

De forma que las probabilidades reales son:

Formalmente, el gráfico previo sería:

Algoritmo Naive Bayes Supervisado

A continuación se listan los pasos que hay que realizar para poder utilizar el algoritmo Naive Bayes en problemas de clasificación como el mostrado en el apartado anterior.

  1. Convertir el conjunto de datos en una tabla de frecuencias.
  2. Crear una tabla de probabilidad calculando las correspondientes a que ocurran los diversos eventos.
  3. La ecuación Naive Bayes se usa para calcular la probabilidad posterior de cada clase.
  4. La clase con la probabilidad posterior más alta es el resultado de la predicción.

Puntos fuertes y débiles de Naive Bayes

Los puntos fuertes principales son:

  • Un manera fácil y rápida de predecir clases, para problemas de clasificación binarios y multiclase.
  • En los casos en que sea apropiada una presunción de independencia, el algoritmo se comporta mejor que otros modelos de clasificación, incluso con menos datos de entrenamiento.
  • El desacoplamiento de las distribuciones de características condicionales de clase significan que cada distribución puede ser estimada independientemente como si tuviera una sola dimensión. Esto ayuda con problemas derivados de la dimensionalidad y mejora el rendimiento.

Los puntos débiles principales son:

  • Aunque son unos clasificadores bastante buenos, los algoritmos Naive Bayes son conocidos por ser pobres estimadores. Por ello, no se deben tomar muy en serio las probabilidades que se obtienen.
  • La presunción de independencia Naive muy probablemente no reflejará cómo son los datos en el mundo real.
  • Cuando el conjunto de datos de prueba tiene una característica que no ha sido observada en el conjunto de entrenamiento, el modelo le asignará una probabilidad de cero y será inútil realizar predicciones. Uno de los principales métodos para evitar esto, es la técnica de suavizado, siendo la estimación de Laplace una de las más populares.

Proyecto de Implementación: Detector de Spam

Actualmente, una de las aplicaciones principales de Machine Learning es la detección de spam. Casi todos los servicios de email más importantes proporcionan un detector de spam que clasifica el spam automáticamente y lo envía al buzón de “correo no deseado”.

En este proyecto, desarrollaremos un modelo Naive Bayes que clasifica los mensajes SMS como spam o no spam (‘ham’ en el proyecto). Se basará en datos de entrenamiento que le proporcionaremos.

Haciendo una investigación previa, encontramos que, normalmente, en los mensajes de spam se cumple lo siguiente:

  • Contienen palabras como: ‘gratis’, ‘gana’, ‘ganador’, ‘dinero’ y ‘premio’.
  • Tienden a contener palabras escritas con todas las letras mayúsculas y tienden al uso de muchos signos de exclamación.

Esto es un problema de clasificación binaria supervisada, ya que los mensajes son o ‘Spam’ o ‘No spam’ y alimentaremos un conjunto de datos etiquetado para entrenar el modelo.

Visión general

Realizaremos los siguientes pasos:

  • Entender el conjunto de datos
  • Procesar los datos
  • Introducción al “Bag of Words” (BoW) y la implementación en la libreria Sci-kit Learn
  • División del conjunto de datos (Dataset) en los grupos de entrenamiento y pruebas
  • Aplicar “Bag of Words” (BoW) para procesar nuestro conjunto de datos
  • Implementación de Naive Bayes con Sci-kit Learn
  • Evaluación del modelo
  • Conclusión

Entender el Conjunto de Datos

Utilizaremos un conjunto de datos del repositorio UCI Machine Learning.

Un primer vistazo a los datos:

Las columnas no se han nombrado, pero como podemos imaginar al leerlas:

  • La primera columna determina la clase del mensaje, o ‘spam’ o ‘ham’ (no spam).
  • La segunda columna corresponde al contenido del mensaje

Primero importaremos el conjunto de datos y cambiaremos los nombre de las columnas. Haciendo una exploración previa, también vemos que el conjunto de datos está separado. El separador es ‘\t’.

# Importar la libreria Pandas 
import pandas as pd# Dataset de https://archive.ics.uci.edu/ml/datasets/SMS+Spam+Collection
df = pd.read_table('smsspamcollection/SMSSpamCollection',
sep='\t',
names=['label','sms_message'])# Visualización de las 5 primeras filas
df.head()

Preprocesamiento de Datos

Ahora, ya que el Sci-kit learn solo maneja valores numéricos como entradas, convertiremos las etiquetas en variables binarias, 0 representará ‘ham’ y 1 representará ‘spam’.

Para representar la conversión:

# Conversion
df['label'] = df.label.map({'ham':0, 'spam':1})# Visualizar las dimensiones de los datos
df.shape()

Introducción a la Implementación “Bag of Words” (BoW) y Sci-kit Learn

Nuestro conjunto de datos es una gran colección de datos en forma de texto (5572 filas). Como nuestro modelos solo aceptará datos numéricos como entrada, deberíamos procesar mensajes de texto. Aquí es donde “Bag of Words“ entra en juego.

“Bag of Words” es un término usado para especificar los problemas que tiene una colección de datos de texto que necesita ser procesada. La idea es tomar un fragmento de texto y contar la frecuencia de las palabras en el mismo.

BoW trata cada palabra independientemente y el orden es irrelevante.

Podemos convertir un conjunto de documentos en una matriz, siendo cada documento una fila y cada palabra (token) una columna, y los valores correspondientes (fila, columna) son la frecuencia de ocurrencia de cada palabra (token) en el documento.

Como ejemplo, si tenemos los siguientes cuatro documentos:

['Hello, how are you!', 'Win money, win from home.', 'Call me now', 'Hello, Call you tomorrow?']

Convertiremos el texto a una matriz de frecuencia de distribución como la siguiente:

Los documentos se numeran en filas, y cada palabra es un nombre de columna, siendo el valor correspondiente la frecuencia de la palabra en el documento.

Usaremos el método contador de vectorización de Sci-kit Learn, que funciona de la siguiente manera:

  • Fragmenta y valora la cadena (separa la cadena en palabras individuales) y asigna un ID entero a cada fragmento (palabra).
  • Cuenta la ocurrencia de cada uno de los fragmentos (palabras) valorados.
  • Automáticamente convierte todas las palabras valoradas en minúsculas para no tratar de forma diferente palabras como “el” y “El”.
  • También ignora los signos de puntuación para no tratar de forma distinta palabras seguidas de un signo de puntuación de aquellas que no lo poseen (por ejemplo “¡hola!” y “hola”).
  • El tercer parámetro a tener en cuenta es el parámetro stop_words. Este parámetro se refiere a las palabra más comúnmente usadas en el lenguaje. Incluye palabras como “el”, “uno”, “y”, “soy”, etc. Estableciendo el valor de este parámetro por ejemplo en english, “CountVectorizer” automáticamente ignorará todas las palabras (de nuestro texto de entrada) que se encuentran en la lista de “stop words” de idioma inglés..

La implementación en Sci-kit Learn sería la siguiente:

# Definir los documentos
documents = ['Hello, how are you!',
'Win money, win from home.',
'Call me now.',
'Hello, Call hello you tomorrow?']# Importar el contador de vectorizacion e inicializarlo
from sklearn.feature_extraction.text import CountVectorizer
count_vector = CountVectorizer()# Visualizar del objeto'count_vector' que es una instancia de 'CountVectorizer()'
print(count_vector)

Para ajustar el conjunto de datos del documento al objeto “CountVectorizer” creado, usaremos el método “fit()”, y conseguiremos la lista de palabras que han sido clasificadas como características usando el método “get_feature_names()”. Este método devuelve nuestros nombres de características para este conjunto de datos, que es el conjunto de palabras que componen nuestro vocabulario para “documentos”.

count_vector.fit(documents)
names = count_vector.get_feature_names()
names

A continuación, queremos crear una matriz cuyas filas serán una de cada cuatro documentos, y las columnas serán cada palabra. El valor correspondiente (fila, columna) será la frecuencia de ocurrencia de esa palabra (en la columna) en un documento particular (en la fila).

Podemos hacer esto usando el método “transform()” y pasando como argumento en el conjunto de datos del documento. El método “transform()” devuelve una matriz de enteros, que se puede convertir en tabla de datos usando “toarray()”.

doc_array = count_vector.transform(documents).toarray()
doc_array

Para hacerlo fácil de entender, nuestro paso siguiente es convertir esta tabla en una estructura de datos y nombrar las columnas adecuadamente.

frequency_matrix = pd.DataFrame(data=doc_array, columns=names)
frequency_matrix

Con esto, hemos implementado con éxito un problema de “BoW” o Bag of Words para un conjunto de datos de documentos que hemos creado.

Un problema potencial que puede surgir al usar este método es el hecho de que si nuestro conjunto de datos de texto es extremadamente grande, habrá ciertos valores que son más comunes que otros simplemente debido a la estructura del propio idioma. Así, por ejemplo, palabras como ‘es’, ‘el’, ‘a’, pronombres, construcciones gramaticales, etc. podrían sesgar nuestra matriz y afectar nuestro análisis.

Para mitigar esto, usaremos el parámetro stop_words de la clase CountVectorizer y estableceremos su valor en inglés.

Dividiendo el Conjunto de Datos en Conjuntos de Entrenamiento y Pruebas

Buscamos dividir nuestros datos para que tengan la siguiente forma:

  • X_train son nuestros datos de entrenamiento para la columna ‘sms_message’
  • y_train son nuestros datos de entrenamiento para la columna ‘label’
  • X_test son nuestros datos de prueba para la columna ‘sms_message’
  • y_test son nuestros datos de prueba para la columna ‘label’. Muestra el número de filas que tenemos en nuestros datos de entrenamiento y pruebas
# Dividir los datos en conjunto de entrenamiento y de test
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(df['sms_message'], df['label'], random_state=1)print('Number of rows in the total set: {}'.format(df.shape[0]))print('Number of rows in the training set: {}'.format(X_train.shape[0]))print('Number of rows in the test set: {}'.format(X_test.shape[0]))

Aplicar BoW para Procesar Nuestros Datos de Pruebas

Ahora que hemos dividido los datos, el próximo objetivo es convertir nuestros datos al formato de la matriz buscada. Para realizar esto, utilizaremos CountVectorizer() como hicimos antes. tenemos que considerar dos casos:

  • Primero, tenemos que ajustar nuestros datos de entrenamiento (X_train) en CountVectorizer() y devolver la matriz.
  • Sgundo, tenemos que transformar nustros datos de pruebas (X_test) para devolver la matriz.

Hay que tener en cuenta que X_train son los datos de entrenamiento de nuestro modelo para la columna ‘sms_message’ en nuestro conjunto de datos.

X_test son nuestros datos de prueba para la columna ‘sms_message’, y son los datos que utilizaremos (después de transformarlos en una matriz) para realizar predicciones. Compararemos luego esas predicciones con y_test en un paso posterior.

El código para este segmento está dividido en 2 partes. Primero aprendemos un diccionario de vocabulario para los datos de entrenamiento y luego transformamos los datos en una matriz de documentos; segundo, para los datos de prueba, solo transformamos los datos en una matriz de documentos.

# Instantiate the CountVectorizer method
count_vector = CountVectorizer()# Fit the training data and then return the matrix
training_data = count_vector.fit_transform(X_train)# Transform testing data and return the matrix. Note we are not fitting the testing data into the CountVectorizer()
testing_data = count_vector.transform(X_test)

Implementación Naive Bayes con Sci-Kit Learn

Usaremos la implementación Naive Bayes “multinomial”. Este clasificador particular es adecuado para la clasificación de características discretas (como en nuestro caso, contador de palabras para la clasificación de texto), y toma como entrada el contador completo de palabras.

Por otro lado el Naive Bayes gausiano es más adecuado para datos continuos ya que asume que los datos de entrada tienen una distribución de curva de Gauss (normal).

Importaremos el clasificador “MultinomialNB” y ajustaremos los datos de entrenamiento en el clasificador usando fit().

from sklearn.naive_bayes import MultinomialNB
naive_bayes = MultinomialNB()
naive_bayes.fit(training_data, y_train)

Ahora que nuestro algoritmo ha sido entrenado usando el conjunto de datos de entrenamiento, podemos hacer algunas predicciones en los datos de prueba almacenados en ‘testing_data’ usando predict().

predictions = naive_bayes.predict(testing_data)

Una vez realizadas las predicciones el conjunto de pruebas, necesitamos comprobar la exactitud de las mismas.

Evaluación del modelo

Hay varios mecanismos para hacerlo, primero hagamos una breve recapitulación de los criterios y de la matriz de confusión.

  • La matriz de confusión es donde se recogen el conjunto de posibilidades entre la clase correcta de un evento, y su predicción.
  • Exactitud: mide cómo de a menudo el clasificador realiza la predicción correcta. Es el ratio de número de predicciones correctas contra el número total de predicciones (el número de puntos de datos de prueba).
  • Precisión: nos dice la proporción de mensajes que clasificamos como spam. Es el ratio entre positivos “verdaderos” (palabras clasificadas como spam que son realmente spam) y todos los positivos (palabras clasificadas como spam, lo sean realmente o no)
  • Recall (sensibilidad): Nos dice la proporción de mensajes que realmente eran spam y que fueron clasificados por nosotros como spam. Es el ratio de positivos “verdaderos” (palabras clasificadas como spam, que son realmente spam) y todas las palabras que fueron realmente spam.

Para los problemas de clasificación que están sesgados en sus distribuciones de clasificación como en nuestro caso. Por ejemplo si tuviéramos 100 mensajes de texto y solo 2 fueron spam y los restantes 98 no lo fueron, la exactitud por si misma no es una buena métrica. Podríamos clasificar 90 mensajes como no spam (incluyendo los 2 que eran spam y los clasificamos como “no spam”, y por tanto falsos negativos) y 10 como spam (los 10 falsos positivos) y todavía conseguir una puntuación de exactitud razonablemente buena.

Para casos como este, la precisión y el recuerdo son bastante adecuados. Estas dos métricas pueden ser combinadas para conseguir la puntuación F1, que es el “peso” medio de las puntuaciones de precisión y recuerdo. Esta puntuación puede ir en el rango de 0 a 1, siendo 1 la mejor puntuación posible F1.

Usaremos las cuatro métricas para estar seguros de que nuestro modelo se comporta correctamente. Para todas estas métricas cuyo rango es de 0 a 1, tener una puntuación lo más cercana posible a 1 es un buen indicador de cómo de bien se está comportando el modelo.

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_scoreprint('Accuracy score: ', format(accuracy_score(y_test, predictions)))print('Precision score: ', format(precision_score(y_test, predictions)))print('Recall score: ', format(recall_score(y_test, predictions)))print('F1 score: ', format(f1_score(y_test, predictions)))

Conclusión

  • Una de las mayores ventajas que Naive Bayes tiene sobre otros algoritmos de clasificación es la capacidad de manejo de un número extremadamente grande de características. En nuestro caso, cada palabra es tratada como una característica y hay miles de palabras diferentes.
  • También, se comporta bien incluso ante la presencia de características irrelevantes y no es relativamente afectado por ellos.
  • La otra ventaja principal es su relativa simplicidad. Naive Bayes funciona bien desde el principio y ajustar sus parámetros es raramente necesario.
  • Raramente sobreajusta los datos.
  • Otra ventaja importante es que su modelo de entrenamiento y procesos de predicción son muy rápidos teniendo en cuenta la cantidad de datos que puede manejar.

Fuente: medium.com, 2019


Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter


.

.

El Tablero de Control en una estrategia de marketing

mayo 1, 2020

El Dashboard en una estrategia de marketing

Por Tristán Elósegui.

[En este artículo se analiza el caso de uso de Dashboards en marketing, esto puede generalizarse a muchas otras áreas en empresas y organizaciones.]

Al hablar de Dashboards o Tableros de Control, inmediatamente pensamos en Analítica digital. Es inevitable, pensamos en datos, Google Analytics,… y si eres un poco más técnico, piensas en etiquetados, Google Tag Manager (GTM), integración de fuentes, Google Data Studio, etc.

Pero en realidad, pienso que deberíamos darle la vuelta al enfoque. Por definición, la Analítica digital es una herramienta de negocio. Representa los ojos y oídos de la estrategia de marketing, y por tanto se debe definir desde el negocio y no desde el departamento de Analítica (con su ayuda, pero no liderado por ellos).

Para explicarlo, os dejo una resumen de mí ponencia en el primer congreso de marketing digital celebrado en Pontevedra (Congreso Flúor).

Para definir correctamente un dashboard, debemos partir de la estrategia de marketing y seleccionar las fuentes de datos y métricas que mejor la representen. Las que mejor nos describan el contexto de nuestra actividad de marketing, y nos permitan tomar las mejores decisiones.

Para entender el papel de un dashboard en una estrategia vamos a ver cinco puntos:

  1. ¿Qué es un dashboard?
  2. ¿Cómo se define un cuadro de mando?
  3. Caso práctico real.
  4. Consejos para aportar valor con un dashboard de marketing.
  5. Ejemplos de dashboard.

Pero, empecemos la historia por el principio.

¿Qué es un dashboard?

Me gusta enfocar la definición de dashboard, de dos maneras, mejor dicho de una manera que concluye en la clave de todo:

Es una representación gráfica de las principales métricas de negocio (KPI), y su objetivo es propiciar la toma de decisiones para optimizar la estrategia de la empresa.

Un dashboard de indicadores debe transformar los datos en información y estos en conocimiento para el negocio.

[Obsérvese la similitud con la definición de Inteligencia.]

Esta transformación de los datos nos debe llevar a una mejor Toma de decisiones. Este es el objetivo principal que no debemos perder de vista. Algo que suele pasar con cierta frecuencia en este proceso. Nos centramos tanto en el proceso de creación del Tablero de Control, que tendemos a olvidar que su objetivo es la toma de decisiones y no la acumulación de datos. Pero esta es otra historia.

A todo esto tenemos que añadir un elemento más, ya que la base para la toma de decisiones está en un buen análisis de los datos.

[No debe confundirse el concepto de Tablero de Control (Dashboard) con el de Cuadro de Mando Integral (Balanced Scorecard).]

¿Qué necesitamos para hacer un buen análisis de un dashboard de control?

Pues fundamentalmente dos cosas:

  1. Visión estratégica de negocio.
  2. Pilares del análisis de datos.

Visión estratégica de negocio:

  • Correcta definición de los objetivos de marketing y de negocio: es lo que nos va a marcar el camino a seguir, lo que va a definir el éxito de nuestro marketing.
  • Definición de la macro y micro conversiones: debemos traducir nuestras metas a hechos objetivos medibles en nuestra web, y además ser capaces de asignarlos a cada una de las etapas del proceso de compra de nuestra audiencia.
  • Conocer el contexto: en nuestros resultados incluyen muchas variables: mercado, competencia, regulaciones, etc. En ocasiones son tantas, que dejamos de mirar. Pero un buen punto de arranque para entender los porqués de gran parte de las variaciones en los datos, está en la estrategia de marketing y sus acciones planificadas.

Pilares del análisis de datos:

  • Personal cualificado: debemos ser capaces de vencer la tentación de pensar que una herramienta de medición nos va a solucionar el problema. La clave del buen análisis está en las personas que lo realizan. Son las que realizan la transformación de los datos en información y esta en conocimiento para la empresa.
    Para tenerlo claras las proporciones, se estima que de cada 100 € invertidos en medición, 90 deben ir a personas y 10 a herramientas.
  • Calidad del dato: nos tenemos que asegurar de que lo datos que estamos analizando se acercan lo máximo a la realidad. Digo lo máximo, porque es normal que en algunas métricas veamos variaciones entre los datos que nos da la herramienta de analítica y los sistemas internos.
    Además de tener la tranquilidad de que estamos usando los datos correctos para tomar decisiones, vamos a eliminar las discusiones internas sobre cuál es el dato real y cual no.
  • Tablero de Control (Dashboard):
    • Definición: selección de KPIs y métricas.
    • Implementación técnica: configuración de la herramienta de medición, y etiquetado (web y acciones).
    • Integración de fuentes en herramienta de cuadro de mandos.
    • Definición de la visualización más adecuada.
  • Informes y herramientas de análisis adicionales: necesarios para complementar los diferentes niveles de análisis necesarios.

Para realizar un análisis correcto de un dashboard debemos ir de lo global a los específico

El dashboard de métricas debe contar una historia. Nos debe enseñar el camino desde los principales indicadores, a la explicación de la variación del dato.

Además este cuadro de mando no debe contar con más de 10 KPIs (aproximadamente), primero porque no debería haber más y segundo, porque nos complicamos el análisis.

  1. Objetivos y KPIs de la estrategia.
  2. Métricas contextuales.
  3. Fuentes de datos que necesitaremos para componer el dashboard.
  4. Siguiente paso: seleccionar el tipo de dashboard más adecuado.

Y por último, aconsejo que el Tablero de Control sea una foto fija de la realidad. Existen herramientas de dashboard que permiten profundizar en el análisis y cruzar variables, pero las desaconsejo (al menos en una primera fase). ¿por qué? El tener estas posibilidades nos llevará a invertir tiempo en darle vueltas a los datos, y nos alejará de la toma de decisiones (objetivo principal de todo cuadro de mando).

Un buen dashboard comercial o de marketing es como un semáforo: Nos muestra las luces rojas, amarillas y verdes de nuestra actividad y las decisiones a tomar .

¿Cómo se define un Tablero de Control de marketing?

Para hacerlo debemos partir del planteamiento de nuestra estrategia (ya que es lo que queremos controlar). Cómo ya adelantaba al hablar de las claves de un buen análisis, tenemos que tener muy claros varios puntos:

  1. Objetivos por etapa del embudo de conversión (purchase funnel).
  2. Macro y microconversiones: traducción de estos objetivos a métricas que podamos medir en nuestra página web.
  3. Métricas de contexto, que nos ayudan a entender la aportación de los medios pagados, propios y ganados a la consecución de los objetivos de cada etapa del embudo de marketing.

La imagen que os dejo a continuación, os ayudará a estructurar mejor la información y sobre todo a no olvidar métricas importantes.

Definición de macro y micro conversiones – Tristán Elósegui

.

¿Qué tenemos hasta el momento?

  1. Objetivos y KPIs de la estrategia.
  2. Métricas contextuales.
  3. Fuentes de datos que necesitaremos para componer el dashboard.
  4. Siguiente paso: seleccionar el tipo de dashboard más adecuado.

Con esta información ya podemos hacer la selección de las métricas y definir nuestro dashboard de indicadores en formato borrador.

Borrador Dashboard de marketing – Tristán Elósegui

.

Cómo veis en este ejemplo de dashboard, podemos hacer un seguimiento desde el origen de la variación en las KPI principales, hasta el canal o campaña que las causó. Es decir, hemos definido un cuadro de mando que nos cuenta la “historia” de lo que ha ocurrido en el periodo analizado.

Caso práctico real (PCcomponentes.com):

El proceso real es algo más complejo, pero voy a simplificarlo para facilitar la lectura y comprensión.

NOTA: No tengo relación alguna con PCcomponentes.com, por lo que todo lo que vais a ver a continuación son supuestos que realizo para poder explicaros la definición de un Dashboard de indicadores.

Siguiendo la metodología que os acabo de explicar tendríamos que definir:

  1. Objetivos: para definir el cuadro de mando vamos a partir de una serie de objetivos por etapa que me he inventado.
  2. Macro y microconversiones: para definirlas para este ejemplo, vamos a hacerlo por medio de un análisis de las llamadas a la acción de la web. Una vez detectadas las más importantes, vamos a ordenarlas por etapa (normalmente lo haríamos analizando que llamadas a la acción han intervenido en las conversiones obtenidas, pero obviamente no tengo acceso de los datos).
  3. Representación de estas métricas en nuestro borrador de dashboard de métricas.

A continuación os dejo: el pantallazo de una página de producto, la definición de macro y microconversiones y el borrador de dashboard de control.

PCcomponentes página producto

.

Caso real PCcomponentes – Objetivos y métricas para Dashboard de marketing

.

Propuesta de Dashboard de marketing para PCcomponentes – Tristán Elósegui

Consejos para aportar valor con un Dashboard de marketing

Suponiendo que hemos cumplido con todo lo dicho hasta ahora en la parte estratégica y técnica, mis principales consejos son:

  1. Visualización correcta: el tablero de control tiene que ser perfectamente entendible por la persona que lo va a analizar y su cliente (ya sea interno o externo).
    Recuerda que no se trata de hacer cosas bonitas o espectaculares (aunque ayuden a hacerlo más fácil), si no de tomar decisiones. Por lo tanto, esta debe ser nuestra prioridad.
  2. Correcta selección métricas: además de acertar con las métricas que mejor describen la actividad de marketing, debemos pensar en nuestro cliente ¿qué le interesa? ¿qué métrica reporta a su jefe?
    Es la mejor forma de fidelizarle y provocar que cada semana o mes, lo primero que haga sea abrir el dashboard comercial o de marketing que acaba de recibir.
  3. Analiza, no describas: el análisis es lo más importante del cuadro de mando. Describir los datos que estás viendo no aporta valor alguno. Para hacerlo, debes hablar de cuatro cosas:
    1. ¿Qué ha pasado?
    2. ¿Por qué ha pasado?
    3. Recomendaciones basadas en datos.
    4. Resultados esperados de poner en práctica tus recomendaciones.

Ejemplos de dashboard

Para terminar el artículo, os dejo con varios ejemplos de varios tipos de cuadros de mando.

Avinash Kaushik dashboard para gerencia de empresa

.

Agustín Suárez – Dashboard de Marketing

.

Fuente: tristanelosegui.com, 2019.

tablero de control

___________________________________________________________________

Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter

___________________________________________________________________

inteligencia de negocios

.

.

Cómo los sesgos cognitivos afectan nuestro juicio

abril 22, 2020

25 Heurísticos y Sesgos Cognitivos: nuestros errores de juicio

Por Marta Guerri.

Sesgos cognitivos

¿Qué son los sesgos cognitivos?

Ya sea porque nuestro cerebro posee una capacidad limitada, o porque no siempre disponemos de toda la información que desearíamos o porque nos embarga la incertidumbre de las consecuencias de tomar una u otra decisión, por lo que en muchas ocasiones tomamos “atajos” mentales para llegar a la solución de los problemas. Estos atajos mentales que tomamos de forma inconsciente, en psicología se llaman “Heurísticos”, y nos ayudan a simplificar la gran cantidad de procesos mentales que llevamos a cabo constantemente y a hacer más llevadera nuestra vida diaria.Publicidad

Y es que nuestro cerebro no es capaz de procesar toda la información que recibe a través de los sentidos, por lo que necesita hacer una selección de la misma. Cuando nuestros atajos mentales o heurísticos nos conducen a errores de conclusión, les llamamos sesgos cognitivos.

Los principales sesgos cognitivos que se conocen

Sesgo de memoria

Todos sabemos que nuestra memoria no es perfecta, se difumina con el tiempo y fácilmente nos induce a errores inconscientes. Las investigaciones realizadas revelan que cuando evaluamos recuerdos para poder tomar decisiones sobre nuestro futuro, a menudo se muestran sesgados por los acontecimientos que son muy positivos o muy negativos, y es que tendemos a recordar los hechos insólitos o poco habituales más que acontecimientos diarios, cotidianos. La cusa es que el cerebro da mucha más importancia a los fenómenos extraordinarios o no tanta a usuales, seguramente debido a la importancia que estos tenían en el aprendizaje a lo largo de la evolución. Como resultado, ese sesgo de nuestra memoria afecta a nuestra capacidad de predicción en el futuro.

Para poder evitar ese sesgo se recomienda tratar de recordar el mayor número posible de eventos similares, de esta forma se pretende evitar caer en los extremos, a menudo poco representativos.Publicidad

Falacia de planificación

Este sesgo se refiere a la tendencia que tenemos a subestimar el tiempo que tardamos en terminar una tarea. Al parecer tendemos a planear los proyectos con cierta falta de detalle que nos permitiría la estimación de las tareas individuales. La falacia de la planificación no solo provoca demoras, sino también costos excesivos y reducción de beneficios debido a estimaciones erróneas.

Como dice el científico estadounidense Douglas Hofstadter hay que tener presente que «Hacer algo te va llevar siempre más tiempo de lo que piensas, incluso si tienes en cuenta la Ley de Hofstadter». La ley de Hofstadter es un adagio autorreferencial, acuñado por Douglas Hofstadter en su libro Gödel, Escher y Bach para describir la dificultad ampliamente experimentada de estimar con precisión el tiempo que llevará completar tareas de complejidad sustancial.

Ilusión de control

Este sesgo se encuentra detrás de muchas supersticiones y comportamientos irracionales. Es la tendencia que tenemos a creer que podemos controlar ciertos acontecimientos, o al menos a influir en ellos. Es gracias a este pensamiento que los humanos, desde tiempo inmemorial, creamos rituales y supersticiones que nos aportan cierta seguridad. Un ejemplo de la actualidad se puede ver en los deportistas que repiten ciertas conductas esperando que condicionen cosas como su capacidad de marcar goles, y que evidentemente depende de muchos otros factores objetivos.

Sesgo de apoyo a la elección

En el momento en que elegimos algo (desde una pareja a una pieza de ropa) tendemos a ver esa elección con un enfoque más positivo, incluso si dicha elección tiene claros defectos. Tendemos a optimizar sus virtudes y minimizamos sus defectos.

Efecto de percepción ambiental

Aunque nos parezca extraño, el ambiente que nos rodea ejerce una gran influencia en el comportamiento humano. Un ambiente deteriorado, caótico y sucio provoca que las personas se comporten de manera menos cívica, y también les inclina a cometer más acciones vandálicas y delictivas. Este efecto es la base de la «teoría de las ventanas rotas» estudiado por el psicólogo Philip Zimbardo.

Sesgo de disponibilidad

El sesgo o heurístico de disponibilidad es un mecanismo que la mente utiliza para valorar qué probabilidad hay de que un suceso suceda o no. Cuando más accesible sea el suceso, más probable nos parecerá, cuanto más reciente la información, será más fácil de recordar, y cuanto más evidente, menos aleatorio parecerá.

Este sesgo cognitivo se aplica a muchísimas esferas de nuestra vida, por ejemplo, se ha demostrado que doctores que han diagnosticado dos casos seguidos de una determinada enfermedad no muy usual, creen percibir los mismos síntomas en el próximo paciente, incluso siendo conscientes de que es muy poco probable (estadísticamente hablando) diagnosticar tres casos seguidos con la misma enfermedad. Otro ejemplo es el de una persona que asegura que fumar no es tan dañino para la salud, basándose en que su abuelo vivió más de 80 años y fumaba tres cajetillas al día, un argumento que pasa por alto la posibilidad de que su abuelo fuera un caso atípico desde el punto de vista estadístico.

En el fondo consiste en sobreestimar la importancia de la información disponible (y extraer por tanto conclusiones erróneas). Las loterías por ejemplo, explotan el sesgo de la disponibilidad, y es que si las personas comprendiesen las probabilidades reales que tienen de ganar, probablemente no comprarían nunca más un décimo en su vida.

El efecto Dunning-Kruger

El efecto Dunning-Kruger sesgo cognitivo consiste en una de autopercepción distorsionada, según la cual los individuos con escasas habilidades o conocimientos, piensan exactamente lo contrario; se consideran más inteligentes que otras personas más preparadas, están en la certeza de que son superiores de alguna forma a los demás, midiendo así incorrectamente su habilidad por encima de lo real. Esta distorsión se debe a la inhabilidad cognitiva del sujeto de reconocer su propia ineptitud, debido a que su habilidad real debilitaría su propia confianza y autoestima. Por el contrario, los individuos competentes asumen, falsamente, que los otros tienen una capacidad o conocimiento equivalente o incluso superior al suyo.

Los autores de este descubrimiento David Dunning y Justin Kruger de la Universidad de Cornell, trataron de averiguar si existía algún remedio para nivelar la autoestima sobrevalorada de los más incapaces. Por suerte resultó que sí lo había: la educación. El entrenamiento y la enseñanza podían ayudar a estos individuos incompetentes a darse cuenta de lo poco que sabían en realidad.

Ya lo dijo en su momento Charles Darwin: “La ignorancia engendra más confianza que el conocimiento”.

Efecto halo

El efecto de halo es un sesgo cognitivo por el cual la percepción de un rasgo es influenciado por la percepción de rasgos anteriores en una secuencia de interpretaciones. O sea, si nos gusta una persona, tendemos a calificarla con características favorables a pesar de que no siempre disponemos de mucha información sobre ella, por ejemplo, pensamos de alguien que es simpático, y esto nos hace presuponer que ya conocemos otras características más específicas como: también es inteligente.

El mejor ejemplo para entender este sesgo son las estrellas mediáticas (actores, cantantes, famosos…) demuestran el efecto de halo perfectamente. Debido a que a menudo son atractivos y simpáticos, entonces y de manera casi automática, suponemos que también son inteligentes, amables, poseen buen juicio y así sucesivamente. El problema aparece cuando estas suposiciones son erróneas, ya que se basan a menudo en aspectos superficiales.

Esta tendencia parece estar presente incluso en todos los niveles sociales, tanto bajos como altos, incluyendo donde la objetividad es primordial. Por ejemplo, se ha demostrado que, de media, a la gente atractiva le caen penas de prisión más cortas que otros que fueron condenados por delitos similares.

Sesgo del poder corrupto

Seguro que a muchos no les va a de extrañar la realidad de este sesgo, que dice que hay una tendencia demostrada en la que los individuos con poder son fácilmente corrompibles, en especial cuando sienten que no tienen restricciones y poseen plena libertad. ¿Les suena de algo? Políticos, empresarios, actores famosos, deportistas de élite e incluso la realeza están llenos de casos de corrupción.

Sesgo de proyección

Este sesgo nos habla de la tendencia inconsciente a asumir que los demás poseen pensamientos, creencias, valores o posturas parecidas a las nuestras. Como si fueran una proyección de nosotros mismos.Publicidad

Efecto del lago Wobegon o efecto mejor que la media

Es la tendencia humana a autodescribirse de manera favorable, comunicando las bondades de uno mismo y pensar que se encuentra por encima de la media en inteligencia, astucia u otras cualidades. Llamado también síndrome de superioridad ilusoria.

Sesgo de impacto

Este sesgo se refiere a la tendencia que tenemos a sobreestimar nuestra reacción emocional, sobrevalorando la duración e intensidad de nuestros futuros estados emocionales. Pero las investigaciones muestran que la mayoría de las veces no nos sentimos tan mal como esperábamos cuando las cosas no van como queremos, por ejemplo. Este sesgo es una de las razones por la que a menudo nos equivocamos en la predicción sobre cómo nos afectarán emocionalmente los acontecimientos futuros. Los estudios han demostrado que meses después de que una relación termine, las personas no suelen ser tan infelices como esperaban y que personas a las que le ha tocado la lotería, con el tiempo vuelven a su grado de felicidad habitual o que tenían antes de ganar el premio.

Efecto del falso consenso

El sesgo de falso consenso efecto es parecido al antes descrito sesgo de proyección, y es que la mayoría de personas juzgan que sus propios hábitos, valores y creencias están más extendidas entre otras personas de lo que realmente están.

Heurístico de representatividad

Este heurístico es una inferencia que hacemos sobre la probabilidad de que un estímulo (persona, acción o suceso) pertenezca a una determinada categoría. Por ejemplo, si decimos que Álex es un chico joven metódico cuya diversión principal son los ordenadores. ¿Qué le parece más probable?, ¿que Álex sea estudiante de ingeniería o de humanidades?

Cuando se hacen preguntas de este tipo, la mayoría de la gente tiende a decir que seguramente Álex estudia ingeniería. Un juicio así resulta, según el psicólogo Daniel Kahneman de la aplicación automática (inmediata o no) del heurístico de representavidad. Suponemos que estudia ingeniería porque su descripción encaja con un cierto estereotipo de estudiante de ingeniería. Pero esto pasa por alto hechos como que, por ejemplo, los estudiantes de humanidades son mucho más numerosos que los de ingeniería, por lo que sería mucho más probable encontrar estudiantes de humanidades que se correspondan con esta descripción.

Este sesgo no solo es anecdótico, sino que forma parte del fundamento de ciertos prejuicios sociales. Por ejemplo, cuando juzgamos la conducta de un miembro de un determinado colectivo, como los inmigrantes, tendemos muchas veces a basarnos en estereotipos supuestamente representativos, ignorando datos objetivos de frecuencia y probabilidad.

Defensa de status

Este sesgo se refiere a cuando una persona considera que posee cierto status, tenderá a negar y a defenderse de cualquier comentario que lo contradiga, aun si para ello debe autoengañarse.

Prejuicio de retrospectiva o recapitulación

Es la tendencia que tenemos a ver los hechos pasados como fenómenos predecibles. Las personas sesgamos nuestro conocimiento de lo que realmente ha pasado cuando evaluamos nuestra probabilidad de predicción. En realidad este es un error en la memoria. De la misma manera que también tenemos tendencia a valorar los eventos pasados de una forma más positiva a como ocurrieron en realidad.

Error fundamental de atribución

Se refiere a la tenencia que mostramos a priorizar nuestras dotes personales para valorar nuestros éxitos y a atribuir a las circunstancias externas nuestros fracasos. En cambio cuando se trata de otra persona, la tendencia es la inversa, atribuimos a la suerte o la ayuda sus éxitos y a características internas sus fallos.

Sesgo de disconformidad

Es la tendencia que tenemos a hacer una crítica negativa a la información que contradice nuestras ideas, mientras que aceptamos perfectamente aquella que es congruente con nuestras creencias o ideologías. De este modo se produce una percepción selectiva por la cual las personas perciben lo que quieren en los mensajes de los demás o de los medios de comunicación. y es que por lo general las personas tendemos a ver e interpretar las cosas en función de nuestro marco de referencia. También tenemos más probabilidades de buscar información favorable a nuestras ideas que buscar información que desafíe nuestras ideologías o línea de pensamiento.

Efecto Forer o efecto de validación subjetiva

El efecto Forer es la tendencia a aceptar descripciones personales vagas y generales como excepcionalmente aplicables a ellos mismos, sin darse cuenta que la misma descripción podría ser aplicada a cualquiera. Este efecto parece explicar, por lo menos en parte, por qué tanta gente piensa que las pseudociencias funcionan, como la astrología, cartomancia, quiromancia, adivinación, etc., porque aparentemente proporcionan análisis acertados de la personalidad. Los estudios científicos de esas pseudociencias demuestran que no son herramientas válidas de valoración de la personalidad, sin embargo cada una tiene muchos adeptos que están convencidos de que son exactas.

Heurístico de anclaje y ajuste o efecto de enfoque

Este heurístico describe la tendencia humana a confiar demasiado en la primera información que obtienen para luego tomar decisiones: el «ancla». Durante la toma de decisiones, el anclaje se produce cuando las personas utilizan una “pieza” o información inicial para hacer juicios posteriores. Una vez que el ancla se fija, el resto de información se ajusta en torno a ella incurriendo en un sesgo.

Por ejemplo, si preguntamos a unos estudiantes 1) ¿cómo de feliz te sientes con tu vida? y 2) ¿cuántas citas has tenido este año?, tenemos que la correlación es nula (según las respuestas tener más citas no alteraría el nivel de bienestar). Sin embargo, si se modifica el orden de las preguntas, el resultado es que los estudiantes con más citas se declaran ahora más felices. Es falto de lógica, pero al parecer, focalizar su atención en las citas hace que exageren su importancia.

Ilusión de frecuencia

Al parecer, cuando un fenómeno ha centrado nuestra atención recientemente, pensamos que este hecho de repente aparece o sucede más a menudo, aunque sea improbable desde el punto de vista estadístico. En realidad, esto ocurre porque ahora nosotros lo percibimos de forma diferente (antes no le prestábamos atención) y por lo tanto creemos erróneamente que el fenómeno se produce con más frecuencia.

Ilusión de la confianza

Este sesgo se trata de la confusión entre la confianza de quien nos habla con su credibilidad, de tal manera que percibimos a una persona como más creíble cuanta más confianza muestra en sus argumentaciones. La realidad es que las investigaciones han demostrado que la confianza no es un buen indicador, ni tampoco es una forma fiable de medir la capacidad o aptitud de una persona.

Punto de referencia o status-quo

Al parecer un mismo premio no posee igual valor para dos personas diferentes. Por ejemplo, si tengo dos mil euros y gano cien en una apuesta, lo valoro menos que si tengo quinientos euros y gano esos mismos cien en la apuesta. El punto de referencia es muy importante. Pero sus implicaciones pueden ser algo mayores, pues no sólo se trata de la referencia que tengo respecto a mi propia riqueza inicial, sino con la riqueza de mi círculo de personas cercano. Si alguien desconocido para mi gana cien mil euros en la lotería, yo no me veo afectado. En cambio, si los gana mi compañero de trabajo, me da la sensación de que soy más pobre y desgraciado, aunque no hubiera jugado a la lotería.

Efecto Bandwagon o efecto de arrastre

Este error consiste en la tendencia a hacer (o creer) cosas sólo porque muchas otras personas hacen (o creen) dichas cosas. Al parecer, la probabilidad de que una persona adopte una creencia aumenta en función del número de personas que poseen esa creencia. Se trata de un fuerte pensamiento de grupo.

Efecto Keinshorm

Es la predisposición a contradecir sistemáticamente las ideas o formulaciones que otra persona hace y con la cual no se simpatiza, sólo por este hecho, pues ya no deseamos que tenga la razón y estamos más predispuestos a no creer en sus palabras.

Fuente: psicoactiva.com

.

.

George W. Bush urgió en 2005 a prepararnos para futuras pandemias

abril 18, 2020

El día que George W. Bush alertó sobre el peligro de la próxima pandemia e intentó preparar a EEUU para enfrentarla


En 2005, el entonces presidente republicano pronunció un discurso en el que explicó lo que se debía hacer y cómo debía responder su país ante una crisis como la actual del coronavirus.

Una pandemia se parece mucho a un incendio forestal. Si se detecta temprano, podría extinguirse con un daño limitado. Si se deja que arda sin ser detectado, puede convertirse en un infierno que puede extenderse rápidamente más allá de nuestra capacidad de controlarlo”, dijo en un discurso en 2005 el entonces presidente George W. Bush en la sede del Institutos Nacionales de la Salud (NIH, por sus siglas en inglés).

G. W. Bush quería que su país, y el mundo entero, estuviesen preparados ante una pandemia como la del coronavirus, que ya dejó casi 150 mil muertos y más de dos millones de contagios.

Para responder a una pandemia, necesitamos personal médico y suministros adecuados de equipo”, dijo Bush. “En una pandemia, todo, desde jeringas hasta camas de hospital, respiradores y equipos de protección, serían escasos”, advirtió.

Bush dispuso de 7 mil millones de dólares de su Gobierno para desarrollar un plan que preparara a Estados Unidos ante una crisis de este tipo. Los secretarios de su gabinete instaron a su personal a tomarse en serio los preparativos y lanzaron el sitio web www.pandemicflu.gov, el cual todavía está en funcionamiento. Sin embargo, con el paso del tiempo, se hizo cada vez más difícil justificar la financiación.

Sitio web creado a instancias de George W. Bush

.

Una mujer es llevada a una ambulancia por los paramédicos en un centro de salud en Brooklyn durante el brote de coronavirus (COVID-19) en Nueva York [14 de abril de 2020] (Reuters/ Brendan McDermid)
Una mujer es llevada a una ambulancia por los paramédicos en un centro de salud en Brooklyn durante el brote de coronavirus (COVID-19) en Nueva York [14 de abril de 2020]

En su discurso en el NIH, Bush presentó toda clases propuestas y describió cómo se desarrollaría una pandemia en los Estados Unidos. Entre los presentes se encontraba el doctor Anthony Fauci, el prestigioso epidemiólogo, líder de la crisis actual en su país y quien en ese momento ya era el director del Instituto Nacional de Alergias y Enfermedades Infecciosas.

Primero, debemos detectar los brotes que ocurran en cualquier parte del mundo; segundo, debemos proteger al pueblo estadounidense almacenando vacunas y medicamentos antivirales, y mejorar nuestra capacidad para producir rápidamente vacunas contra una cepa pandémica; y tercero, tenemos que estar preparados para responder a nivel federal, estatal y local en caso de que una pandemia llegue a nuestras costas”, dijo Bush.

Pero, ¿qué había pasado para que Bush pronunciara ese discurso?, ¿por qué el ex presidente republicano estaba preocupado ante un peligro no latente y difícil de predecir? Unos meses atrás en su rancho en Crawford, Texas, había leído el libro La gran influenza, del historiador John M. Barry. La obra cuenta la historia del brote de influenza en 1918 que mató a millones de personas en Europa y el mundo.

[Nota de EP: Este tipo de anticipación es lo que debe producir la Inteligencia Estratégica.]

No fue un informe de inteligencia el que alertó a George W. Bush de la amenza de la pandemia, fue la lectura de éste libro

“Tienes que leer esto”, recuerda Fran Townsend, en ese entonces asesora de seguridad nacional, lo que le dijo Bush cuando le recomendó el libro. “Mira, esto sucede cada 100 años. Necesitamos una estrategia nacional”, agregó el ex mandatario a su ex asesora.

Miembros de la Marina de los Estados Unidos preparan a un paciente para un ultrasonido en la sala de radiología a bordo del buque hospital USNS Mercy, que sirve como hospital de derivación para pacientes con enfermedades no coronarias (COVID-19), pacientes que actualmente son admitidos en hospitales en tierra, en Los Ángeles, California, EEUU 11 de abril 2020. U.S. Navy/Mass Communication Specialist 2nd Class Ryan M. Breeden/Handout vía Reuters
Miembros de la Marina de los Estados Unidos preparan a un paciente para un ultrasonido en la sala de radiología a bordo del buque hospital USNS Mercy, que sirve como hospital de derivación para pacientes con enfermedades no coronarias (COVID-19), pacientes que actualmente son admitidos en hospitales en tierra, en Los Ángeles, California, EEUU 11 de abril 2020. U.S. Navy/Mass Communication Specialist 2nd Class Ryan M. Breeden/Handout vía Reuters

A partir de ese momento se creó el plan de preparación ante una pandemia más completo en la historia de EEUU: incluía diagramas para un sistema global de alerta temprana, fondos para desarrollar nuevas tecnologías y producir de forma rápida vacunas y una sólida reserva nacional de suministros críticos como máscaras faciales y respiradores, informó ABC News.

Sin embargo, el proyecto no fue tomado en serio por el resto del aparato político y gran parte del ambicioso plan no se realizó o quedó archivado, a medida que otras prioridades surgían, como la crisis de 2008 que sacudió a EEUU y al mundo al entero.

Durante su discurso de hace 15 años, G. W. Bush fue claro en trazar un estrategia y dijo que lo primero y más importante era detectar los primeros brotes antes de que se propaguen por todo el mundo. Durante la pandemia de coronavirus una las principales críticas que le han hecho algunos líderes mundiales a China es haber ocultado información cuando se presentaron los primero casos en la ciudad de Wuhan.

Como lo enseñaba Sun Tzu, la anticipación es clave en toda estrategia

“Una pandemia no es como otros desastres naturales, los brotes pueden ocurrir de forma simultánea en centenares o incluso miles de lugares al mismo tiempo”, dijo Bush.

“Los científicos y los médicos no pueden predecir cuándo ocurrirá la próxima pandemia o cuán severa será, pero la mayoría está de acuerdo en que, en algún momento, estaremos frente a una”, agregó.

Adaptado de infobae.com, 17/04/20.


Cómo enfrentó George W. Bush las amenazas del SIDA y el SARS

El president George W. Bush ha recibido elogios de republicanos y demócratas por el compromiso que asumió para combatir el SIDA mundialmente, pero particularmente en África.

El presidente George W. Bush habla en una conferencia de prensa junto al presidente de Tanzania Jakaya Mrisho Kikwete en Dar es Salaam, durante una visita a África el 17 de febrero de 2008.
El presidente George W. Bush habla en una conferencia de prensa junto al presidente de Tanzania Jakaya Mrisho Kikwete en Dar es Salaam, durante una visita a África el 17 de febrero de 2008.

En 2003, la administración del presidente George W. Bush creó el Plan de Emergencia para el Alivio del SIDA, una iniciativa para atender la epidemia mundial.

“Esa iniciativa fue posiblemente una de las mejores políticas de su presidencia”, dio Barry. “Básicamente recibió un aplauso universal”.

Desde su inicio, el plan de Bush proporcionó 80.000 millones de dólares para tratamiento el SIDA, prevención e investigación, convirtiéndolo en el más grande programa global de salud enfocado en una enfermedad. Se le da crédito con haber salvado a millones de personas, especialmente en el África sub-sahariana.

En abril de 2003, luego de un brote en Asia, G. W. Bush firmó una orden ejecutiva agregando el Síndrome Severo Agudo Respiratorio (SARS, por sus siglas en inglés) a una lista de enfermedades contagiosas que podrían resultar en el aislamiento forzado de personas. Eventualmente, unas 8.000 personas contrajeron el virus a nivel mundial, y unas 774 murieron durante el brote del 2003. En Estados Unidos, solo ocho casos de SARS fueron documentados con resultados clínicos.

En 2005, la administración Bush creó la Estrategia Nacional para la Pandemia de Influenza, que obliga al gobierno a mantener y distribuir un inventario de suministros médicos en el evento de un brote, y una infraestructura para que futuros presidentes puedan aprender y apoyarse al lidiar con sus propias pandemias.

Adaptado de: voanoticias.com


Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter


Salud y Vida

.

.

x

¿Cuál es el costo de las mentiras?

febrero 28, 2020

China y el sofisticado laboratorio de la mentira que impidió luchar contra el coronavirus desde el comienzo

El aparato propagandístico del Partido Comunista Chino imposibilitó que el mundo y su población supieran qué ocurría con el COVID-19, el virus que ya mató a más de 2.800 personas en todo el planeta

Por Laureano Pérez Izquierdo. Twitter: @TotiPI

Xi Jinping, presidente de China y blanco de las críticas de los habitantes de su país por la lenta e ineficiente respuesta al brote del coronavirus
Xi Jinping, presidente de China y blanco de las críticas de los habitantes de su país por la lenta e ineficiente respuesta al brote del coronavirus

¿Cuál es el costo de las mentiras?”. La frase, densa, es atribuida al científico ruso especializado en química inorgánica Valery Legasov. Legasov fue aquel que con valentía inusual desafió y denunció la inoperancia del aparato soviético pero sobre todo el ocultamiento sistemático que antecedió y precedió el desastre de Chernobyl. La Unión de Repúblicas Socialistas Soviéticas no podía exponerse ante el mundo como ineficiente y tras su sincero alegato ante una corte, la maquinaria del silencio intentó confinarlo al ostracismo, al desprecio y al olvido. Sin embargo, como un fantasma, su legado lo sobrevivió en forma de grabaciones que actuaron como una pesadilla para sus censores. En aquellas cintas reveló todo. Él ya estaba muerto -se suicidó dos años después del accidente nuclear- pero pudo demostrar que la verdad, finalmente, siempre predomina.

China tiene por estos días y en otra escala a su propio LegasovLi Wenliang fue el primer médico en alertar a otros siete colegas sobre el peligro que implicaba el coronavirus cuando el mal siquiera tenía todavía un nombre asignado (COVID-19). Compartió la información luego de que siete pacientes suyos fueran diagnosticados con una enfermedad similar al SARS en Wuhan, epicentro de la creciente epidemia. Relató los síntomas que observaba y los graves peligros que implicaba el nuevo microorganismo.

Era el 30 de diciembre pasado y Wenliang sabía que lo que acababa de confiar a su círculo de médicos más cercanos podría costarle caro. Así fue. Cuatro días pasaron y fue citado a una central de policía donde lo acusaron formalmente de “perturbar el orden público” con sus comentarios… “falsos”. Lo obligaron a retractarse y a comprometerse a no volver a hablar del tema. “Entendido”, firmó al pie. El aparato de medios estatal comenzó a llamarlos como «los ocho chismosos” para denigrarlo tanto a él como a sus amigos profesionales. Una semana después, mientras atendía a una mujer con un glaucoma, se contagió el virus del que no tenía permitido hablar. El jueves 6 de febrero murió.

Li Wenliang

Cuando la historia vio la luz, millones de chinos reivindicaron la memoria de Wenliang y su trabajo en las redes sociales hipercontroladas de China. Al mismo tiempo fustigaban al régimen por las mentiras, el ocultamiento y la censura.

Xu Zhangrun, profesor universitario, desapareció. Fue luego de que publicara un ensayo en el que cuestionaba el pobre e irresponsable manejo que Beijing hizo de la crisis por el coronavirus. “La epidemia ha revelado el núcleo podrido del gobierno chino. El nivel de furia popular es volcánico y un pueblo así enfurecido puede, al final, dejar de lado su miedo (…). Independientemente de lo buenos que son para controlar Internet, no pueden mantener cerrados los 1.400 millones de bocas en China. Ahora puedo predecir con demasiada facilidad que seré sometido a nuevos castigos; de hecho, esta puede ser la última pieza que escriba«, había escrito el académico en su trabajo titulado “Alarma viral: cuando la furia supera el miedo”. Como Legasov, también valoró la verdad por sobre la mentira: “No puedo permanecer en silencio”, había dicho.

Además de desaparecer, el régimen se encargó de que Zhangrun también se esfumara del plano digital. Barrieron sus perfiles en Weibo (el Twitter chino) y en WeChat (el WhatsApp chino) y su móvil está apagado e ilocalizable.

Pero los casos de feroz silenciamiento a Wenliang Zhangrun no fueron los únicos. Más de 3 mil sanitaristas contrajeron el COVID-19 en China mientras combatían con escasísimos recursos el coronavirus. Rogaban a diario por asistencia urgente pero las autoridades de la salud de la gran nación no hicieron nada para facilitarles el trabajo y evitar su propio contagio. Falta de mascarillas, de mamelucos quirúrgicos, de anteojos, eran recurrentes mientras Beijing insistía en que todo estaba bajo control, que los materiales no faltaban mientras dedicaba su esfuerzo en bloquear hashtags y usuarios incómodos en las redes sociales..

El aparato propagandístico del Partido Comunista Chino (PCC) y de la administración central es tan severo y brutal que entrelaza tanto la censura como la persecución policial y judicial. La información que llega a la población es controlada y sólo puede ser emitida una vez que pasa los sucesivos filtros que responden a los intereses de Beijing. Cuando nace una crisis -como la del coronavirus- esas capas aumentan. Los problemas parecerían no existir en China y el estado omnipresente y omnipotente no puede mostrarse débil ante el mundo.

Nada de eso ocurrió desde fines de diciembre. La imagen del presidente Xi Jinping quedó sensiblemente deteriorada por el pobre manejo de la creciente epidemia cuyos alcances creyó podría acallar como hace siempre sin brindarle a la población los datos precisos para defenderse de ella. La protección a la ciudadanía estuvo ausente. Una vez más. La tradicional cultura del PCC de esconder los problemas es la que el régimen pretende exportar al resto del planeta. Las consecuencias están a la vista.

“La gente en China ha vivido bajo censura por parte del gobierno desde hace muchos años, pero ahora muchas personas están cuestionando cómo la censura pudo haber retrasado acción efectiva al brote de virus y haber puesto muchas vidas en riesgo”, señaló una campaña reciente de Amnistía Internacional.

Esa fábrica de desinformación y censura funciona desde hace décadas. El régimen la aplica tanto en tierra propia como en el exterior. Esa maquinaria inmensa está compuesta por múltiples divisiones: el Departamento de Propaganda del PCC, la Oficina de Información del Consejo de Estado, agencia de noticias XinhuaChina Media GroupCadena Global de Televisión ChinaRadio Internacional ChinaChina DailyChina WatchGlobal TimesChina International Publishing GroupLeading Hong Kong MediaWeChatWeiboBaidu y los Institutos Confucio dependiente del PCC y los ministerios de Cultura y Educación y que están presente en 154 países donde se dedica a transmitir las verdades del partido, entre otras funciones.

Sus embajadores también contribuyen a esa misión clara. Tienen la orden de responder a cada periodista que intente esgrimir una crítica al partido o al gobierno. Pero también transmitir las bondades del sistema del que son beneficiarios privilegiados. En las últimas horas varias sedes diplomáticas en todo el mundo enviaron un comunicado en el cual ponderaban el manejo que Beijing hizo de la crisis.

En la carta a la que tuvo acceso Infobae, los delegados cumplen su papel de actuar como cajas de resonancias del régimen con frases grandilocuentes y pasajes de ¿ficción?. “La velocidad, el espíritu y la fuerza reflejados en los esfuerzos de China impresionaron profundamente al mundo”; “bajo la conducción del Comité Central del PCC y del presidente Xi Jinping, todo el partido, el ejército, el país y el pueblo chino de diversas etnias han logrado progresos relevantes en la prevención y control de este brote, lo cual pone de manifiesto la eficacia del sistema de gobierno chino en situaciones de crisis, el ingente poderío nacional y la valiosa fuerza cohesiva y centrípeta de la nación china, dando a conocer la imagen de un país responsable«; “China conseguirá el triunfo definitivo en esta lucha, haciendo realidad su objetivo de contribuir al crecimiento económico mundial y a la causa de la paz y el progreso de la humanidad”.

Las historias de Wenliang Zhangrun, las experiencias vividas en los últimos dos meses en todo China como también las manifestaciones censuradas de millones de chinos no reflejan ese mismo espíritu de eficiencia descomunal que describe la nota diplomática. Por el contrario. En ellos resurge el espíritu de Legasov ante los mismos desafíos y la frase que se torna más poderosa a medida que se descubren más fraudes del régimen en la conducción de la crisis: ¿Cuál es el costo de las mentiras?

Fuente: infobae, 28/02/20.


Vincúlese a nuestras Redes Sociales:  LinkedIn      Twitter


.

.

Página siguiente »