Red social
junio 14, 2014
Red social
Fuente: Wikipedia, Marzo 2013.
Una red social es una estructura social compuesta por un conjunto de actores (tales como individuos u organizaciones) que están conectados por díadas denominadas lazos interpersonales, que se pueden interpretar como relaciones de amistad, parentesco, entre otros.
La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.
El análisis de redes sociales estudia esta estructura social aplicando la teoría de grafos e identificando las entidades como «nodos» o «vértices» y las relaciones como «enlaces» o «aristas». La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes «socio céntricas» o «completas». Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de «red personal».
La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
Red social también se suele referir a las plataformas en Internet. Las redes sociales de internet cuyo propósito es facilitar la comunicación y otros temas sociales en el sitio web.
Análisis de redes sociales

Ejemplo de un diagrama de una red social conocido como grafo social. El nodo con la más alta intermediación centralidad está marcado en amarillo.
El Análisis de redes sociales (relacionado con la teoría de redes) ha emergido como una metodología clave en las modernas Ciencias Sociales, entre las que se incluyen la sociología, la antropología, la psicología social, la economía, la geografía, las Ciencias políticas, la cienciometría, los estudios de comunicación, estudios organizacionales y la sociolingüística. También ha ganado un apoyo significativo en la física y la biología entre otras.
En el lenguaje cotidiano se ha utilizado libremente la idea de «red social» durante más de un siglo para denotar conjuntos complejos de relaciones entre miembros de los sistemas sociales en todas las dimensiones, desde el ámbito interpersonal hasta el internacional. En 1954, el antropólogo de la Escuela de Manchester J. A. Barnes comenzó a utilizar sistemáticamente el término para mostrar patrones de lazos, abarcando los conceptos tradicionalmente utilizados por los científicos sociales: grupos delimitados (p.e., tribus, familias) y categorías sociales (p.e., género, etnia). Académicos como S.D. Berkowitz, Stephen Borgatti, Ronald Burt, Kathleen Carley, Martin Everett, Katherine Faust, Linton Freeman, Mark Granovetter, David Knoke, David Krackhardt, Peter Marsden, Nicholas Mullins, Anatol Rapoport, Stanley Wasserman, Barry Wellman, Douglas R. White y Harrison White expandieron el uso del análisis de redes sociales sistemático.[1]
El análisis de redes sociales ha pasado de ser una metáfora sugerente para constituirse en un enfoque analítico y un paradigma, con sus principios teóricos, métodos de software para análisis de redes sociales y líneas de investigación propios. Los analistas estudian la influencia del todo en las partes y viceversa, el efecto producido por la acción selectiva de los individuos en la red; desde la estructura hasta la relación y el individuo, desde el comportamiento hasta la actitud. Como se ha dicho estos análisis se realizan bien en redes completas, donde los lazos son las relaciones específicas en una población definida, o bien en redes personales (también conocidas como redes egocéntricas, aunque no son exactamente equiparables), donde se estudian «comunidades personales».[2] La distinción entre redes totales/completas y redes personales/egocéntricas depende mucho más de la capacidad del analista para recopilar los datos y la información. Es decir, para grupos tales como empresas, escuelas o sociedades con membrecía, el analista espera tener información completa sobre quien está en la red, siendo todos los participantes egos y alteri potenciales. Los estudios personales/egocéntricos son conducidos generalmente cuando las identidades o egos se conocen, pero no sus alteri. Estos estudios permiten a los egos aportar información sobre la identidad de sus alteri y no hay la expectativa de que los distintos egos o conjuntos de alteri estén vinculados con cada uno de los otros.
Una red construida a partir de una bola de nieve se refiere a la idea de que los alteri son identificados en una encuesta por un conjunto de Egos iniciales (oleada cero) y estos mismos alteri se convierten en egos en la oleada 1 y nombran a otros alteri adicionales y así sucesivamente hasta que el porcentaje de alteri nuevos empieza a disminuir. Aunque hay varios límites logísticos en la conducción de estudios de bola de nieve, hay desarrollo recientes para examinar redes híbridas, según el cual egos en redes completas pueden nombrar a alteri que de otro modo no estarían identificados, posibilitando que éstos sean visibles para todos los egos de la red.[3] La red híbrida, puede ser valiosa para examinar redes totales/completas sobre las que hay la expectativa de incluir actores importantes más allá de los identificados formalmente. Por ejemplo, los empleados de una compañía a menudo trabajan con consultores externos que son parte de una red que no pueden definir totalmente antes de la recolección de datos.
En el análisis de redes sociales, se distinguen varias tendencias analíticas:[4]
No se parte de la hipótesis de que los grupos son los bloques en la sociedad: el enfoque está abierto a estudiar sistemas sociales menos definidos, desde comunidades no locales, hasta enlaces a través de websites.
En lugar de tratar a los individuos (personas, organizaciones, estados) como unidades discretas de análisis, se centra en cómo la estructura de las relaciones afecta a los individuos y sus relaciones.
En contraste con los análisis que asumen que la socialización de las normas determina el comportamiento, el análisis de redes se utiliza para observar el grado en que la estructura y composición de las relaciones entre los individuos afectan a las normas.
La forma de una red social ayuda a determinar la utilidad de la red para sus individuos. Las redes más pequeñas y más estrictas, pueden ser menos útiles para sus miembros que las redes con una gran cantidad de conexiones sueltas (vínculo débil) con personas fuera de la red principal. Las redes más abiertas, con muchos vínculos y relaciones sociales débiles, tienen más probabilidades de presentar nuevas ideas y oportunidades a sus miembros que las redes cerradas con muchos lazos redundantes. En otras palabras, un grupo de amigos que sólo hacen cosas unos con otros ya comparten los mismos conocimientos y oportunidades. Un grupo de individuos con conexiones a otros mundos sociales es probable que tengan acceso a una gama más amplia de información. Es mejor para el éxito individual tener conexiones con una variedad de redes en lugar de muchas conexiones en una sola red. Del mismo modo, los individuos pueden ejercer influencia o actuar como intermediadores en sus redes sociales, de puente entre dos redes que no están directamente relacionadas (conocido como llenar huecos estructurales).[5]
El poder de análisis de redes sociales estriba en su diferencia de los estudios tradicionales en las Ciencias Sociales, que asumen que los atributos de cada uno de los actores -ya sean amistosos o poco amistosos, inteligentes o tontos, etc- es lo que importa. El análisis de redes sociales produce una visión a la vez alternativa y complementaria, en la cual los atributos de los individuos son menos importantes que sus relaciones y sus vínculos con otros actores dentro de la red. Este enfoque ha resultado ser útil para explicar muchos fenómenos del mundo real, pero deja menos espacio para la acción individual y la capacidad de las personas para influir en su éxito, ya que gran parte se basa en la estructura de su red.
Las redes sociales también se han utilizado para examinar cómo las organizaciones interactúan unas con otras, caracterizando las múltiples conexiones informales que vinculan a los ejecutivos entre si, así como las asociaciones y conexiones entre los empleados de diferentes organizaciones. Por ejemplo, el poder dentro de las organizaciones, a menudo proviene más del grado en que un individuo dentro de una red se encuentra en el centro de muchas relaciones, que de su puesto de trabajo real. Las redes sociales también juegan un papel clave en la contratación, en el éxito comercial y en el desempeño laboral. Las redes son formas en las cuales las empresas recopilan información, desalientan la competencia, y connivencia en la fijación de precios o políticas.[6]
Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.[7]
Los precursores de las redes sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con «solidaridad mecánica»- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con «solidaridad orgánica»- que desarrolla cooperación entre individuos diferenciados con roles independientes.
Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos.
Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, Jacob L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por W. Lloyd Warner y Elton Mayo exploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.[8] Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.
El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Manchester (acompañando a Max Gluckman y después a J. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de África, India y el Reino Unido. Al mismo tiempo, el antropólogo británico Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.[9]
Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de Harvard: Ivan Chase, Bonnie Erickson, Harriet Friedmann, Mark Granovetter, Nancy Howell, Joel Levine, Nicholas Mullins, John Padgett, Michael Schwartz y Barry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los «seis grados de separación».[10] Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.[11]
Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan Freeman, Kathryn Faust, A. Kimball Romney y Douglas White; analistas cuantitativos de la Universidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Nan Lin y Everett Rogers. En la década de 1970, se constituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet Friedmann, Nancy Leslie Howard, Nancy Howell, Lorne Tepperman y Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.[12]
Investigación
El análisis de redes sociales se ha utilizado en epidemiología para ayudar a entender cómo los patrones de contacto humano favorecen o impiden la propagación de enfermedades como el VIH en una población. La evolución de las redes sociales a veces puede ser simulada por el uso de modelos basados en agentes, proporcionando información sobre la interacción entre las normas de comunicación, propagación de rumores y la estructura social.
El análisis de redes sociales también puede ser una herramienta eficaz para la vigilancia masiva – por ejemplo, el Total Information Awareness realizó una investigación a fondo sobre las estrategias para analizar las redes sociales para determinar si los ciudadanos de EE.UU. eran o no amenazas políticas.
La teoría de difusión de innovaciones explora las redes sociales y su rol en la influencia de la difusión de nuevas ideas y prácticas. El cambio en los agentes y en la opinión del líder a menudo tienen un papel más importante en el estímulo a la adopción de innovaciones, a pesar de que también intervienen factores inherentes a las innovaciones.
Por su parte, Robin Dunbar sugirió que la medída típica en una red egocéntrica está limitado a unos 150 miembros, debido a los posibles límites de la capacidad del canal de la comunicación humana. Esta norma surge de los estudios transculturales de la sociología y especialmente de la antropología sobre la medida máxima de una aldea (en el lenguaje moderno mejor entendido como una ecoaldea). Esto está teorizado en la psicología evolutiva, cuando afirma que el número puede ser una suerte de límite o promedio de la habilidad humana para reconocer miembros y seguir hechos emocionales con todos los miembros de un grupo. Sin embargo, este puede deberse a la intervención de la economía y la necesidad de seguir a los «polizones», lo que hace que sea más fácil en grandes grupos sacar ventaja de los beneficios de vivir en una comunidad sin contribuir con esos beneficios.
Mark Granovetter encontró en un estudio que un número grande de lazos débiles puede ser importante para la búsqueda de información y la innovación. Los cliques tienen una tendencia a tener opiniones más homogéneas, así como a compartir muchos rasgos comunes. Esta tendencia homofílica es la razón por la cual los miembros de las camarillas se atraen en primer término. Sin embargo, de forma parecida, cada miembro del clique también sabe más o menos lo que saben los demás. Para encontrar nueva información o ideas, los miembros del clique tendrán que mirar más allá de este a sus otros amigos y conocidos. Esto es lo que Granovetter llamó «la fuerza de los lazos débiles».
Hay otras aplicaciones del término red social. Por ejemplo, el Guanxi es un concepto central en la sociedad china (y otras culturas de Asia oriental), que puede resumirse como el uso de la influencia personal. El Guanxi puede ser estudiado desde un enfoque de red social.[13]
El fenómeno del mundo pequeño es la hipótesis sobre que la cadena de conocidos sociales necesaria para conectar a una persona arbitraria con otra persona arbitraria en cualquier parte del mundo, es generalmente corta. El concepto dio lugar a la famosa frase de seis grados de separación a partir de los resultados del «experimento de un mundo pequeño» hecho en 1967 por el psicólogo Stanley Milgram. En el experimento de Milgram, a una muestra de individuos EE.UU. se le pidió que hiciera llegar un mensaje a una persona objetivo en particular, pasándolo a lo largo de una cadena de conocidos. La duración media de las cadenas exitosas resultó ser de unos cinco intermediarios, o seis pasos de separación (la mayoría de las cadenas en este estudio ya no están completas). Los métodos (y la ética también) del experimento de Milgram fueron cuestionados más tarde por un estudioso norteamericano, y algunas otras investigaciones para replicar los hallazgos de Milgram habrían encontrado que los grados de conexión necesarios podrían ser mayores.[14] Investigadores académicos continúan exploranto este fenómeno dado que la tecnología de comunicación basada en Internet ha completado la del teléfono y los sistemas postales disponibles en los tiempos de Milgram. Un reciente experimento electrónico del mundo pequeño en la Universidad de Columbia, arrojó que cerca de cinco a siete grados de separación son suficientes para conectar cualesquiera dos personas a través de e-mail.[15]
Los grafos de colaboración pueden ser utilizados para ilustrar buenas y malas relaciones entre los seres humanos. Un vínculo positivo entre dos nodos denota una relación positiva (amistad, alianza, citas) y un vínculo negativo entre dos nodos denota una relación negativa (odio, ira). Estos gráficos de redes sociales pueden ser utilizados para predecir la evolución futura de la gráfica. En ellos, existe el concepto de ciclos «equilibrados» y «desequilibrados». Un ciclo de equilibrio se define como aquél donde el producto de todos los signos son positivos. Los gráficos balanceados representan un grupo de personas con muy poca probabilidad de cambio en sus opiniones sobre las otras personas en el grupo. Los gráficos desequilibrados representan un grupo de individuo que es muy probable que cambie sus opiniones sobre los otros en su grupo. Por ejemplo, en un grupo de 3 personas (A, B y C) donde A y B tienen una relación positiva, B y C tienen una relación positiva, pero C y A tienen una relación negativa, es un ciclo de desequilibrio. Este grupo es muy probable que se transforme en un ciclo equilibrado, tal que la B sólo tiene una buena relación con A, y tanto A como B tienen una relación negativa con C. Al utilizar el concepto de ciclos balanceados y desbalanceados, puede predecirse la evolución de la evolución de un grafo de red social.
Un estudio ha descubierto que la felicidad tiende a correlacionarse en redes sociales. Cuando una persona es feliz, los amigos cercanos tienen una probabilidad un 25 por ciento mayor de ser también felices. Además, las personas en el centro de una red social tienden a ser más feliz en el futuro que aquellos situados en la periferia. En las redes estudiadas se observaron tanto a grupos de personas felices como a grupos de personas infelices, con un alcance de tres grados de separación: se asoció felicidad de una persona con el nivel de felicidad de los amigos de los amigos de sus amigos.[16]
Algunos investigadores han sugerido que las redes sociales humanas pueden tener una base genética.[17] Utilizando una muestra de mellizos del National Longitudinal Study of Adolescent Health, han encontrado que el in-degree (número de veces que una persona es nombrada como amigo o amiga), la transitividad (la probabilidad de que dos amigos sean amigos de un tercero), y la intermediación y centralidad (el número de lazos en la red que pasan a través de una persona dada) son significativamente hereditarios. Los modelos existentes de formación de redes no pueden dar cuenta de esta variación intrínseca, por lo que los investigadores proponen un modelo alternativo «Atraer y Presentar», que pueda explicar ese caracter hereditario y muchas otras características de las redes sociales humanas.[18]
El software germinal de las redes sociales parte de la teoría de los seis grados de separación, según la cual toda la gente del planeta está conectada a través de no más de seis personas. De hecho, existe una patente en EEUU conocida como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay otras muchas patentes que protegen la tecnología para automatizar la creación de redes y las aplicaciones relacionadas con éstas.
Estas redes sociales se basan en la teoría de los seis grados, Seis grados de separación es la teoría de que cualquiera en la Tierra puede estar conectado a cualquier otra persona en el planeta a través de una cadena de conocidos que no tiene más de seis intermediarios. La teoría fue inicialmente propuesta en 1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada Chains. El concepto está basado en la idea que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.
El término red social es acuñado principalmente a los antropólogos ingleses John Barnes y Elizabeth Bott, ya que, para ellos resultaba imprescindible cosiderar lazos externos a los famliares, residenciales o de pertenencia a algún grupo social.[19]
Los fines que han motivado la creación de las llamadas redes sociales son varios, principalmente, es el diseñar un lugar de interacción virtual, en el que millones de personas alrededor del mundo se concentran con diversos intereses en común.
Recogida también en el libro «Six Degrees: The Science of a Connected Age” del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan solo seis “saltos”.
Según esta Teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un amigo que pase el mensaje a sus amigos.
Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes sociales.
Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a cualquier lugar individuo del planeta.
Evidentemente cuanto más pasos haya que dar, más lejana será la conexión entre dos individuos y más difícil la comunicación. Internet, sin embargo, ha eliminado algunas de esas barreras creando verdaderas redes sociales mundiales, especialmente en segmento concreto de profesionales, artistas, etc.
En la década de los 50, Ithiel de Sola Pool (MIT) y Manfred Kochen (IBM) se propusieron demostrar la teoría matemáticamente. Aunque eran capaces de enunciar la cuestión «dado un conjunto de N personas, ¿cual es la probabilidad de que cada miembro de estos N estén conectados con otro miembro vía k1, k2, k3,…, kn enlaces?», después de veinte años todavía eran incapaces de resolver el problema a su propia satisfacción.
En 1967, el psicólogo estadounidense Stanley Milgram ideó una nueva manera de probar la Teoría, que él llamó «el problema del pequeño mundo». El experimento del mundo pequeño de Milgram consistió en la selección al azar de varias personas del medio oeste estadounidense para que enviaran tarjetas postales a un extraño situado en Massachusetts, situado a varios miles de millas de distancia. Los remitentes conocían el nombre del destinatario, su ocupación y la localización aproximada. Se les indicó que enviaran el paquete a una persona que ellos conocieran directamente y que pensaran que fuera la que más probabilidades tendría, de todos sus amigos, de conocer directamente al destinatario. Esta persona tendría que hacer lo mismo y así sucesivamente hasta que el paquete fuera entregado personalmente a su destinatario final.
Aunque los participantes esperaban que la cadena incluyera al menos cientos de intermediarios, la entrega de cada paquete solamente llevó, como promedio, entre cinco y siete intermediarios. Los descubrimientos de Milgram fueron publicados en «Psychology Today» e inspiraron la frase seis grados de separación.
En The social software weblog han agrupado 120 sitios web en 10 categorías y QuickBase también ha elaborado un completo cuadro sobre redes sociales en Internet.
El origen de las redes sociales se remonta, al menos, a 1995, cuando Randy Conrads crea el sitio web classmates.com. Con esta red social se pretende que la gente pueda recuperar o mantener el contacto con antiguos compañeros del colegio, instituto, universidad, etcétera.
En 2002 comienzan a aparecer sitios web promocionando las redes de círculos de amigos en línea cuando el término se empleaba para describir las relaciones en las comunidades virtuales, y se hizo popular en 2003 con la llegada de sitios tales como MySpace o Xing. Hay más de 200 sitios de redes sociales, aunque Friendster ha sido uno de los que mejor ha sabido emplear la técnica del círculo de amigos.[cita requerida] La popularidad de estos sitios creció rápidamente y grandes compañías han entrado en el espacio de las redes sociales en Internet. Por ejemplo, Google lanzó Orkut el 22 de enero de 2004. Otros buscadores como KaZaZZ! y Yahoo crearon redes sociales en 2005.
En estas comunidades, un número inicial de participantes envían mensajes a miembros de su propia red social invitándoles a unirse al sitio. Los nuevos participantes repiten el proceso, creciendo el número total de miembros y los enlaces de la red. Los sitios ofrecen características como actualización automática de la libreta de direcciones, perfiles visibles, la capacidad de crear nuevos enlaces mediante servicios de presentación y otras maneras de conexión social en línea. Las redes sociales también pueden crearse en torno a las relaciones comerciales.
Las herramientas informáticas para potenciar la eficacia de las redes sociales online («software social»), operan en tres ámbitos, «las 3 Cs», de forma cruzada:
- Comunicación (nos ayudan a poner en común conocimientos).
- Comunidad (nos ayudan a encontrar e integrar comunidades).
- Cooperación (nos ayudan a hacer cosas juntos).
El establecimiento combinado de contactos (blended networking) es una aproximación a la red social que combina elementos en línea y del mundo real para crear una mezcla. Una red social de personas es combinada si se establece mediante eventos cara a cara y una comunidad en línea. Los dos elementos de la mezcla se complementan el uno al otro. Vea también computación social.
Las redes sociales continúan avanzando en Internet a pasos agigantados, especialmente dentro de lo que se ha denominado Web 2.0 y Web 3.0, y dentro de ellas, cabe destacar un nuevo fenómeno que pretende ayudar al usuario en sus compras en Internet: las redes sociales de compras. Las redes sociales de compras tratan de convertirse en un lugar de consulta y compra. Un espacio en el que los usuarios pueden consultar todas las dudas que tienen sobre los productos en los que están interesados, leer opiniones y escribirlas, votar a sus productos favoritos, conocer gente con sus mismas aficiones y, por supuesto, comprar ese producto en las tiendas más importantes con un solo clic. Esta tendencia tiene nombre, se llama Shopping 2.0.
No hay unanimidad entre los autores a la hora de proponer una tipología concreta. En algunos sitios se aplica la misma tipología que en su día se utilizó para los portales, dividirlos en horizontales y verticales:
- Horizontales: buscan proveer herramientas para la interrelación en general: Facebook, Google+, Hi5, Bebo .
- Verticales por tipo de usuario: dirigidos a un público específico, por ejemplo, profesionales Linkedin, amantes de los gatos MyCatSpace, etc
- Verticales por tipo de actividad: los que promueven una actividad particular. Videos YouTube, Microbloggin Twitter, compras, etc.
Un lazo puede ser llamado conector si su eliminación causa que los puntos que conecta se transformen en componentes distintos de un grafo.
Medidas de la importancia de un nodo dentro de una red, dependiendo de la ubicación dentro de ésta. Ejemplos de medidas de centralidad son la centralidad de grado, la cercanía, la intermediación y la centralidad de vector propio.
La diferencia entre el número de enlaces para cada nodo, dividido entre la cantidad máxima posible de diferencias. Una red centralizada tendrá muchos de sus vínculos dispersos alrededor de uno o unos cuantos puntos nodales, mientras que una red descentralizada es aquella en la que hay poca variación entre el número de enlaces de cada nodo posee.
Una medida de la probabilidad de que dos personas vinculadas a un nodo se asocien a sí mismos. Un coeficiente de agrupación más alto indica un mayor «exclusivismo».
Cohesión
El grado en que los actores se conectan directamente entre sí por vínculos cohesivos. Los grupos se identifican como ‘cliques’ si cada individuo está vinculado directamente con con cada uno de los otros, ‘círculos sociales’ si hay menos rigor en el contacto directo y este es inmpreciso, o bloques de cohesión estructural si se requiere la precisión.[20]
(Nivel individual) Densidad
El grado de relaciones de un demandado de conocerse unos a otros / proporción de lazos entre las mencione de un individuo. La densidad de la red, o densidad global, es la proporción de vínculos en una red en relación con el total de vínculos posibles (redes escasas versus densas)
Flujo de centralidad de intermediación
El grado en que un nodo contribuye a la suma del flujo máximo entre todos los pares de nodos (excluyendo ese nodo).
Véase también
- Análisis de redes
- Servicio de red social
- Redes sociales de internet
- Clique
- Comunidades de práctica
- Comunidad virtual
- Gestión del conocimiento
- Ley de Metcalfe
- Software social
- Dinámica de grupos
- Sistema complejo
Referencias
- ↑ Linton Freeman, The Development of Social Network Analysis. Vancouver: Empirical Press, 2006.
- ↑ Wellman, Barry and S.D. Berkowitz, eds., 1988. Social Structures: A Network Approach. Cambridge: Cambridge University Press.
- ↑ Hansen, William B. and Reese, Eric L. 2009. Network Genie User Manual. Greensboro, NC: Tanglewood Research.
- ↑ Freeman, Linton. 2006. The Development of Social Network Analysis. Vancouver: Empirical Pres, 2006; Wellman, Barry and S.D. Berkowitz, eds., 1988. Social Structures: A Network Approach. Cambridge: Cambridge University Press.
- ↑ Scott, John. 1991. Social Network Analysis. London: Sage.
- ↑ Wasserman, Stanley, and Faust, Katherine. 1994. Social Network Analysis: Methods and Applications. Cambridge: Cambridge University Press.
- ↑ The Development of Social Network Analysis Vancouver: Empirical Press.
- ↑ A.R. Radcliffe-Brown, «On Social Structure,» Journal of the Royal Anthropological Institute: 70 (1940): 1-12.
- ↑ [Nadel, SF. 1957. The Theory of Social Structure. London: Cohen and West.
- ↑ The Networked Individual: A Profile of Barry Wellman. [1]
- ↑ Mark Granovetter, «Introduction for the French Reader,» Sociologica 2 (2007): 1-8; Wellman, Barry. 1988. «Structural Analysis: From Method and Metaphor to Theory and Substance.» Pp. 19-61 in Social Structures: A Network Approach, edited by Barry Wellman and S.D. Berkowitz. Cambridge: Cambridge University Press.
- ↑ Mark Granovetter, «Introduction for the French Reader,» Sociologica 2 (2007): 1-8; Wellman, Barry. 1988. «Structural Analysis: From Method and Metaphor to Theory and Substance.» Pp. 19-61 in Social Structures: A Network Approach, edited by Barry Wellman and S.D. Berkowitz. Cambridge: Cambridge University Press. (see also Scott, 2000 and Freeman, 2004).
- ↑ Barry Wellman, Wenhong Chen and Dong Weizhen. Networking Guanxi. Pp. 221-41 in Social Connections in China: Institutions, Culture and the Changing Nature of Guanxi, edited by Thomas Gold, Douglas Guthrie and David Wank. Cambridge University Press, 2002.
- ↑ Could It Be A Big World After All?: Judith Kleinfeld article.
- ↑ Six Degrees: The Science of a Connected Age, Duncan Watts.
- ↑ James H. Fowler and Nicholas A. Christakis. 2008. «Dynamic spread of happiness in a large social network: longitudinal analysis over 20 years in the Framingham Heart Study.» British Medical Journal. December 4, 2008: doi:10.1136/bmj.a2338. Para aquellos que no puedan ver el original: Happiness: It Really is Contagious Retrieved December 5, 2008.
- ↑ «Genes and the Friends You Make», Wall Street Journal, 27 de enero de 2009.
- ↑ Fowler, J. H. (10 de febrero de 2009). «Model of Genetic Variation in Human Social Networks» (PDF). Proceedings of the National Academy of Sciences 106 (6): pp. 1720–1724. doi:. http://jhfowler.ucsd.edu/genes_and_social_networks.pdf.
- ↑ Medios de comunicación y solidaridad: reflexiones entorno a la (des)articulicación social, Ed. Universitat Jaume I, España, 2006
- ↑ Cohesive.blocking R es el programa para calcular la cohesión estructural según el algoritmo de Moody-White (2003). Ese wiki provee numerosos ejemplos y un tutorial para utilizar R.
Lecturas adicionales
- Barnes, J. A. «Class and Committees in a Norwegian Island Parish», Human Relations 7:39-58
- Berkowitz, Stephen D. 1982. An Introduction to Structural Analysis: The Network Approach to Social Research. Toronto: Butterworth. ISBN 0-409-81362-1
- Brandes, Ulrik, and Thomas Erlebach (Eds.). 2005. Network Analysis: Methodological Foundations Berlin, Heidelberg: Springer-Verlag.
- Breiger, Ronald L. 2004. «The Analysis of Social Networks.» Pp. 505–526 in Handbook of Data Analysis, edited by Melissa Hardy and Alan Bryman. London: Sage Publications. ISBN 0-7619-6652-8 Excerpts in pdf format
- Burt, Ronald S. (1992). Structural Holes: The Structure of Competition. Cambridge, MA: Harvard University Press. ISBN 0-674-84372-X
- (en italiano) Casaleggio, Davide (2008). TU SEI RETE. La Rivoluzione del business, del marketing e della politica attraverso le reti sociali. ISBN 88-901826-5-2
- Carrington, Peter J., John Scott and Stanley Wasserman (Eds.). 2005. Models and Methods in Social Network Analysis. New York: Cambridge University Press. ISBN 978-0-521-80959-7
- Christakis, Nicholas and James H. Fowler «The Spread of Obesity in a Large Social Network Over 32 Years,» New England Journal of Medicine 357 (4): 370-379 (26 July 2007)
- Coz Fernandez, Jose Ramón and Fojón Chamorro, Enrique (2010). «Modulo de Madurez para la Privacidad de una Red Social Virtual». ISBN 978-1-4457-2017-3
- Doreian, Patrick, Vladimir Batagelj, and Anuska Ferligoj. (2005). Generalized Blockmodeling. Cambridge: Cambridge University Press. ISBN 0-521-84085-6
- Freeman, Linton C. (2004) The Development of Social Network Analysis: A Study in the Sociology of Science. Vancouver: Empirical Press. ISBN 1-59457-714-5
- Hill, R. and Dunbar, R. 2002. «Social Network Size in Humans.» Human Nature, Vol. 14, No. 1, pp. 53–72.
- Jackson, Matthew O. (2003). «A Strategic Model of Social and Economic Networks». Journal of Economic Theory 71: pp. 44–74. doi:. pdf
- Huisman, M. and Van Duijn, M. A. J. (2005). Software for Social Network Analysis. In P J. Carrington, J. Scott, & S. Wasserman (Editors), Models and Methods in Social Network Analysis (pp. 270–316). New York: Cambridge University Press. ISBN 978-0-521-80959-7
- Krebs, Valdis (2006) Social Network Analysis, A Brief Introduction. (Includes a list of recent SNA applications Web Reference.)
- Ligon, Ethan; Schechter, Laura, «The Value of Social Networks in rural Paraguay», University of California, Berkeley, Seminar, March 25, 2009 , Department of Agricultural & Resource Economics, College of Natural Resources, University of California, Berkeley
- Lin, Nan, Ronald S. Burt and Karen Cook, eds. (2001). Social Capital: Theory and Research. New York: Aldine de Gruyter. ISBN 0-202-30643-7
- Mullins, Nicholas. 1973. Theories and Theory Groups in Contemporary American Sociology. New York: Harper and Row. ISBN 0-06-044649-8
- Müller-Prothmann, Tobias (2006): Leveraging Knowledge Communication for Innovation. Framework, Methods and Applications of Social Network Analysis in Research and Development, Frankfurt a. M. et al.: Peter Lang, ISBN 0-8204-9889-0.
- Manski, Charles F. (2000). «Economic Analysis of Social Interactions». Journal of Economic Perspectives 14: pp. 115–36. [2] via JSTOR
- Moody, James, and Douglas R. White (2003). «Structural Cohesion and Embeddedness: A Hierarchical Concept of Social Groups.» American Sociological Review 68(1):103-127. [3]
- Newman, Mark (2003). «The Structure and Function of Complex Networks». SIAM Review 56: pp. 167–256. doi:. pdf
- Nohria, Nitin and Robert Eccles (1992). Networks in Organizations. second ed. Boston: Harvard Business Press. ISBN 0-87584-324-7
- Nooy, Wouter d., A. Mrvar and Vladimir Batagelj. (2005). Exploratory Social Network Analysis with Pajek. Cambridge: Cambridge University Press. ISBN 0-521-84173-9
- Scott, John. (2000). Social Network Analysis: A Handbook. 2nd Ed. Newberry Park, CA: Sage. ISBN 0-7619-6338-3
- Sethi, Arjun. (2008). Valuation of Social Networking [4]
- Tilly, Charles. (2005). Identities, Boundaries, and Social Ties. Boulder, CO: Paradigm press. ISBN 1-59451-131-4
- Valente, Thomas W. (1995). Network Models of the Diffusion of Innovations. Cresskill, NJ: Hampton Press. ISBN 1-881303-21-7
- Wasserman, Stanley, & Faust, Katherine. (1994). Social Network Analysis: Methods and Applications. Cambridge: Cambridge University Press. ISBN 0-521-38269-6
- Watkins, Susan Cott. (2003). «Social Networks.» Pp. 909–910 in Encyclopedia of Population. rev. ed. Edited by Paul George Demeny and Geoffrey McNicoll. New York: Macmillan Reference. ISBN 0-02-865677-6
- Watts, Duncan J. (2003). Small Worlds: The Dynamics of Networks between Order and Randomness. Princeton: Princeton University Press. ISBN 0-691-11704-7
- Watts, Duncan J. (2004). Six Degrees: The Science of a Connected Age. W. W. Norton & Company. ISBN 0-393-32542-3
- Wellman, Barry (1998). Networks in the Global Village: Life in Contemporary Communities. Boulder, CO: Westview Press. ISBN 0-8133-1150-0
- Wellman, Barry. 2001. «Physical Place and Cyber-Place: Changing Portals and the Rise of Networked Individualism.» International Journal for Urban and Regional Research 25 (2): 227-52.
- Wellman, Barry and Berkowitz, Stephen D. (1988). Social Structures: A Network Approach. Cambridge: Cambridge University Press. ISBN 0-521-24441-2
- Weng, M. (2007). A Multimedia Social-Networking Community for Mobile Devices Interactive Telecommunications Program, Tisch School of the Arts/ New York University
- White, Harrison, Scott Boorman and Ronald Breiger. 1976. «Social Structure from Multiple Networks: I Blockmodels of Roles and Positions.» American Journal of Sociology 81: 730-80.
Enlaces externos
Wikilibros alberga un libro o manual sobre Análisis de Redes Sociales.- Center for Computational Analysis of Social and Organizational Systems (CASOS) at Carnegie Mellon
- NetLab at the University of Toronto, studies the intersection of social, communication, information and computing networks
- Building networks for learning– A guide to on-line resources on strengthening social networking.
- Recomendaciones de seguridad en redes sociales– guía de la Oficina de seguridad del Internauta.
- ¿Cumplen las redes sociales los compromisos de privacidad con los menores?
Fuente: Wikipedia, Marzo 2013.
—————————————————————-
¿Cuánto vale una casa en Mosul?
junio 13, 2014
¿Cuánto vale una casa en Mosul?
La pregunta pude sonar extraña, pero no carente de interés. Mosul es hoy una ciudad en retirada:
“Medio millón de personas huyeron de Mosul y otras localidades norteñas ante el avance de los jihadistas y la respuesta de las tropas gubernamentales, que bombardearon algunas posiciones rebeldes.” La Nación, 13/06/14.
Este simple ejemplo pone de relieve la importancia de juzgar las inversiones con una perspectiva amplia, considerando períodos largos y no subestimando los riesgos. Similares preguntas podrían plantearse con relación a un Depósito bancario, una Cartera de Acciones o Bonos, un Mutual Fund o un Hedge Fund.
El valor y la calidad de una inversión depende del contexto, del lugar donde está radicada, del marco jurídico y de la estabilidad institucional.
Estos son algunos de los temas que evaluamos -en forma introductoria- en el Seminario gratuito “Cómo iniciar un Plan de Inversión eficaz” y profundizamos en el libro Manual de Economía Personal.
Si quiere saber más y acceder a esta valiosa información escriba a: economiapersonal@gmail.com
Exodo en Mosul, junio 2014.
————————————–
Mosul es una ciudad localizada en el norte de Irak, ubicada al este del río Tigris y distante aproximadamente unos 396 km de Bagdad, la capital del país. Mosul es la tercera ciudad más grande de Irak, después de la capital y de Basora.
A pocos kilómetros de Mosul se encuentra el yacimiento de Tell Hassuna, que data aproximadamente del 6000 a. C.
La población de la provincia es fundamentalmente árabe pero la mayoría de los habitantes de la ciudad son asirios. En 1987 tenía 664.221 habitantes, pasando a 1.739.800 en 2002. En ella murieron miles de personas durante la guerra de Kuwait.
Fuente: Wikipedia, 2014.
————————————–
Los yihadistas que tomaron Mosul penetran en la ciudad iraquí de Tikrit.
Por Ángeles Espinosa.
· Los milicianos del EIIL prosiguen su ofensiva que ha causado medio millón de desplazados
· Los yihadistas conquistan la principal ciudad del norte de Irak
· La población del norte de Irak abandona sus casas
Envalentonados por el éxito militar y mediático de la toma de Mosul el martes, los extremistas suníes del Ejército Islámico de Irak y el Levante (EIIL) seguían avanzando el miércoles. Milicianos de ese grupo y otros asociados se hicieron con el control de Tikrit, la capital de la provincia de Saladino, donde también hostigaban una importante refinería. Mientras, las tropas de la vecina región autónoma del Kurdistán se mantenían en alerta ante la posibilidad de que el Gobierno central pida su cooperación para recuperar Mosul, una decisión que sin duda tendría un elevado coste político para Nuri al Maliki, justo cuando intenta asegurarse un tercer mandato como primer ministro.
“Con el permiso de Dios, no cesaremos en esta serie de benditas conquistas hasta que Él cumpla sus promesas o nosotros muramos”, aseguraba un comunicado del EIIL publicado en un foro yihadista y traducido por Efe.
No son solo palabras. A media tarde del miércoles, fuentes oficiales admitían que los insurgentes habían logrado invadir varios barrios de la ciudad de Tikrit y, según la agencia iraquí NINA, quemaron la sede de la gobernación tras haberla tomado sin resistencia. Situada a 150 kilómetros de Bagdad y famosa porque en sus cercanías nació el depuesto dictador Sadam Husein, Tikrit es la capital de la provincia de Saladino, donde los yihadistas han instalado sus banderas negras en otras localidades más pequeñas, e intentaban hacerse con la refinería de Baiji, tras garantizar a los 250 policías que la vigilan que podrán irse si deponen las armas.
Muchas familias que permanecen en sus casas no tienen ni electricidad ni agua corriente.
Un poco más al este, en la provincia de Kirkuk, los rebeldes ejecutaron sumariamente a 15 miembros de las fuerzas de seguridad, en las zonas que conquistaron la víspera, informa France Presse. También se supo que en Mosul retienen a 80 ciudadanos turcos. Medio centenar de ellos, incluido el cónsul, su familia y otros diplomáticos, fueron secuestrados en el consulado general de ese país; el resto son camioneros, ha confirmado el miércoles el Ministerio de Exteriores turco. Pero la mayoría de la población no espera a ver cuáles son las intenciones de esos extremistas que aspiran a refundar el Califato entre el Tigris y el Mediterráneo, y cuya brutalidad en Siria, donde también operan, les ha granjeado la condena de Al Qaeda, organización en la que se inspiraron.
“Medio millón de personas han abandonado sus hogares en Mosul o sus alrededores”, informa la Organización Internacional para las Migraciones (OIM). Es una cuarta parte de los habitantes de la ciudad. Según esa organización, también se ha producido “un número importante de víctimas entre los civiles”, aunque nadie ha facilitado datos al respecto. Además, escasean los víveres y el agua potable, y los yihadistas han prohibido el uso de coches. Quienes huyen tienen que hacerlo a pie.
Claves del Estado Islámico de Irak y Levante
Tiene de 3.000 a 5.000 milicianos en sus filas, tanto árabes como extranjeros. El profesor del Kings College de Londres, Peter Neumann, estima que el 80% de los milicianos extranjeros en Siria se ha sumado al EIIL.
Es una organización vinculada a Al Qaeda que se creó en abril de 2013.
El grupo es principalmente activo en Irak y Siria.
Abu Bakr al-Baghdadi es el líder principal.
Lucha contra lo que definen como el monopolio del poder por parte del primer ministro iraquí, el chií Nuri Al Maliki.
Los combatientes del EIIL profesan la rama suní del Islam.
En Irak, tienen el control de las ciudades de Ramadi, Faluya y Mosul y en Siria tienen una fuerte presencia en tres provincias.
Su fuente de financiación es desconocida.
La ofensiva, incluidos dos atentados suicidas en Bagdad que causaron una veintena de muertos, constituye un órdago al Gobierno de Al Maliki, incapaz de frenar el renacer de la insurgencia suní que él mismo ayudó a apaciguar en 2008. Desde principios de este año, y en gran medida por su gestión de las relaciones con esa comunidad, los yihadistas han logrado hacerse con el control de Faluya y de buena parte de Ramadi, a 60 y 100 kilómetros al oeste de Bagdad, respectivamente.
Ahora, con el país escapándosele de las manos, Al Maliki se enfrenta a una difícil tesitura. Ni el estado de emergencia que el jueves va a debatir el Parlamento, ni la leva de milicias populares que propuso el martes resultan suficientes para revertir esa tendencia. Sin el respaldo del Ejército estadounidense que se retiró de Irak a finales de 2011 y con unas fuerzas armadas que no dan más de sí (y cuya motivación ha quedado en evidencia en Mosul), solo le queda recurrir a los kurdos.
“Habrá una estrecha cooperación entre Bagdad y el Gobierno regional del Kurdistán para trabajar juntos y expulsar a esos combatientes extranjeros”, aseguró ayer el ministro iraquí de Exteriores, Hoshyar Zebari, en Atenas, donde acudía a una reunión entre la UE y la Liga Árabe. Zebari, que es kurdo, enunciaba lo que muchos tenían en la cabeza.
Sin embargo la entrada en escena de los Peshmerga, como se conoce a las tropas kurdas, no es tan sencilla. Por un lado, Al Maliki aún no ha logrado formar un nuevo Gobierno tras las elecciones del pasado abril y carece por tanto de aliados con los que respaldar esa decisión. Por otro, los kurdos, que a pesar de sus diferencias actúan como un bloque compacto en Bagdad, compiten con los chiíes por la influencia política, en especial en el control de los pozos petrolíferos de Kirkuk. ¿Qué precio van a pedir a cambio de su ayuda?
De momento, todo son especulaciones. Aunque sobre el terreno hay indicaciones de coordinación ocasional entre el Ejército iraquí y los Peshmerga, la petición no parece haberse cursado todavía. No puede tardar. Como advirtió Zebari, “la respuesta tiene que ser rápida; no se les puede dejar atrincherarse durante mucho tiempo”.
Fuente: El País, 11/06/14.
Etiquetas: EIIL, Yihad, Irak, Al Qaeda, Guerrillas, Terrorismo islamista, Oriente próximo, Asia, Grupos terroristas, Guerra, Terrorismo, Conflictos.
Los malos empleados aman su trabajo
junio 13, 2014
Los malos empleados aman su trabajo
Por Lauren Weber
Los mejores empleados de una empresa también deberían ser los más felices y entusiasmados, pero no siempre es así.
Un nuevo estudio indica que, en 42% de las empresas, los empleados con bajo desempeño de hecho reportan sentirse más entusiasmados —más motivados y con más probabilidad de disfrutar del trabajo en su organización, por ejemplo— que los que tienen un desempeño mediano y alto.
El estudio sugiere que muchas organizaciones no están logrando que sus empleados se responsabilicen por su trabajo, lo que permite que los peores trabajadores no hagan mucho esfuerzo, afirma Mark Murphy, presidente ejecutivo de Leadership IQ, la firma de consultoría con sede en Atlanta que realizó la encuesta.
«Quienes tienen un bajo desempeño suelen terminar con los trabajos más fáciles porque los gerentes no les piden mucho», sostiene, así que soportan menos estrés y están más satisfechos con sus vidas laborales día a día.
En tanto, los trabajadores dedicados y concienzudos terminan quedándose en la oficina hasta tarde, corrigiendo el trabajo de quienes tienen bajo desempeño y asegurándose de que los clientes o compradores estén satisfechos. Este patrón genera frustración y desapego entre los de mejor desempeño, y quizás termina llevándolos a buscar trabajo en otro lado. «Se sienten estresados y subestimados, y esto comienza a socavar la confianza de los empleados de desempeño alto en que la organización es una meritocracia», dice Murphy.
Para remediar la situación, los gerentes deberían hablar con franqueza con los empleados de desempeño alto y medio, para descubrir qué frustraciones podrían llevarlos a buscar nuevas oportunidades. También deberían averiguar qué podría motivarlos a quedarse, agrega.
Para averiguar esto, Leadership IQ analizó datos de 207 empresas que llevaban un registro detallado tanto de evaluaciones de desempeño como de encuestas de dedicación.
En el 58% restante de las organizaciones encuestadas, los que tenían un alto desempeño eran los más metidos en el trabajo, o las puntuaciones de dedicación eran parecidas entre todos los empleados. En los casos menos habituales, señala Murphy, los empleados de desempeño medio eran los más entusiasmados con el trabajo. Ese segmento de la fuerza laboral —los empleados que no son ni superestrellas ni holgazanes— suele ser ignorado por los gerentes, dice.
Leadership IQ analizó también la dinámica específica de una empresa, una firma de servicios tecnológicos con 1.000 empleados, donde los de menor desempeño reportaron altos niveles de dedicación. El estudio descubrió que, en una escala de 7 puntos, los de bajo desempeño otorgaron un puntaje de 5,99 a la afirmación «Estoy motivado para dar 100% de mi esfuerzo cuando estoy en el trabajo». Los de alto rendimiento otorgaron un puntaje de 5,36 y la puntuación de los de desempeño medio fue de 5,32, el nivel más bajo.
Los empleados de bajo desempeño también registraban una mayor probabilidad que los otros dos grupos de recomendar a su empresa como una «gran organización donde trabajar». Y en muchos casos, ni siquiera se dieron cuenta de que tenían bajo desempeño. Cuando se les preguntó si los empleados de la empresa «mantienen todos los mismos estándares», los trabajadores de bajo desempeño contestaron con mucha más frecuencia que estaban de acuerdo con el enunciado en comparación con sus colegas de mejor desempeño.
Fuente: The Wall Street Journal, 28/03/13.
The 2014 NUL top 100
junio 12, 2014
The 2014 NUL top 100.
By Warren S. Hersch, Emily Holbrook.
Statistics can tell a lot, not only about the financial health of companies, but also how they stack up against one another. In this annual feature, we take the pulse of 100 top-ranking life and health insurers when measured against four key metrics: net investment income, total enrollment (health lines only), policyholder surplus and net premiums written.
The report card on the last of these, of particular interest to life insurance professionals, reveals a shake up in the ranks, with a top three insurer in 2012 displacing the formerly number one carrier in 2013. Hence, UnitedHealth Group overtook WellPoint last year in the health segment (all lines); Jackson National surpassed Prudential Financial in the annuities space (individual and group); and Prudential nudged aside MetLife in life insurance net premiums (excepting credit life).
In two market segments — life/ accident & health (except credit); and life (supplemental & other) — the top insurer of 2012 maintained the top position in 2013. The companies: UnitedHealth Group Inc. and TIAA-CREF, respectively.
A comparison of 2012 and 2013 tables also reveals significant variations in net premiums written for individual companies. A prime example is Prudential Financial, which last year garnered $19.2 billion in net premiums, down from the $61.1 billion recorded in 2012.
How to explain so significant a decline? A Prudential spokesperson attributed the dip to two factors: (1) a one-time bump from $30 billion of premium income generated by pension risk transfer transactions concluded with General Motors and Verizon in 2012; and (2) a decrease in gross sales of variable annuities ($11.447 billion in 2013 versus $19.977 billion in 2012).
While these items are “almost certainly the main drivers” for the premium decline, the spokesperson cautions that Prudential cannot take responsibility for the accuracy of data provided by a third party.
The source of the stats: SNL Financial, which bases its figures on the insurers’ own filings with the National Association of Insurance Commissioners. SNL Financial’s proprietary database — to which NU and LifeHealthPro have privileged access — standardizes financial data using the life and health insurance industries’ financial parameters, terminology and performance metrics. The company data is also aligned over time to enable easy comparison of different periods.
With this as background, read on. See how your carriers measure up against the competition. You may be surprised!
See:
Evolución matemática de los juegos de azar durante el siglo XIX
junio 12, 2014
La Estadística y la Teoría de la Probabilidad en el Fortalecimiento de los Juegos de Azar:
¿Qué ocurría con la evolución de los juegos de azar durante el siglo XIX, campo primigenio en el cual había surgido la Teoría de la Probabilidad que paulatinamente se había extendido y alcanzado un desarrollo tan impresionante en todas las áreas de la ciencia?
Durante ese siglo prosperaron inicialmente los casinos que se inauguraron en los balnearios alemanes cercanos a los paisajes alpinos de la vertiente del río Rin (Wiesbaden, Baden‑Baden, Bad Homburg, Spa, Saxon‑les‑Bains, etc.), también florecieron numerosas casas de juego en el Estado de Louisiana antes de que comenzara la persecución puritana de los ciudadanos contra esa actividad pecaminosa que luego se propagó hacia otros pueblos de Estados Unidos a través del rió Mississippi, después surgieron los lujosos casinos de la Riviera Francesa como el de Monte Carlo a la cabeza del mundo por mucho tiempo, también se consolidaron los exclusivos clubes de juego para caballeros y las apuestas hípicas en el Reino Unido, florecieron los garitos y los Círculos Privados de juego en la alegre París convertida en una «ciudad‑espectáculo» después de su renovación urbanística concluida bajo el mando del Barón Haussmann, así como proliferaron los garitos en otras acogedoras ciudades francesas, y finalmente también crecieron los rústicos casinos a la americana (el famoso Saloon) durante el proceso de la colonización del Lejano Oeste.
Fundamentación matemática de los juegos de azar durante el siglo XIX.
Los flâneur del siglo XIX, es decir, los consumidores del ocio de la Modernidad, esto era todo lo que veían que ocurría ante sus ojos, pero tal vez muy pocos de ellos imaginaban que detrás de la fachada de los clubes, de las casas de juego, de las ventanillas de recepción de apuestas, de los garitos y de los casinos, el funcionamiento del negocio estaba dictado solamente por los últimos avances de la Teoría de la Probabilidad combinada con los aportes de la Estadística como herramienta de medición de los hechos inciertos o aleatorios. En efecto, en aquel tiempo los empresarios del ocio veían los juegos de azar simplemente como un «buen negocio comercial», que sólo es rentable si desde un comienzo le garantiza a la Banca la expectativa de obtener económicamente un cuantificable Valor Esperado (Expected Value) que constituye la Ventaja Matemática a su favor (House Edge), además de que tal rentabilidad sólo se puede concretar si siempre se garantiza un comportamiento impredecible del juego y si sólo se le ofrece al apostador opciones de triunfo «no equitativas» y desiguales frente a las reales opciones de triunfo de la Banca.
Estos primeros empresarios de los casinos, como los famosos hermanos Blanc que dirigieron el casino de Bad Homburg o el de Monte Carlo, eran gente que conocía del comercio, de la especulación financiera en las bolsas y en los bancos, de los criterios económicos aplicables a los negocios de alto riesgo, y por eso estas personas eran seguidoras de los últimos avances matemáticos y estadísticos ocurridos en el campo actuarial y de los seguros que eran una actividad comercial en la que el lucro se obtenía a partir de explotar las expectativas de ganancia o de pérdida en torno de la fortuita ocurrencia o no ocurrencia de ciertos siniestros (naufragios de barcos, deterioro de mercancías, incendios de fábricas, fallecimientos, robos, etc.), es decir, los empresarios de los casinos aplicaron en la administración de su negocio de los juegos de azar muchos de los criterios económicos y matemáticos que regían en el campo de los seguros que era el tipo de negocio más semejante a su actividad, y por eso ellos eran amplios conocedores de conceptos tales como la Teoría de la Ruina, la Pérdida Máxima Probable, el Cálculo del Riesgo Esperado, el Cálculo de las Reservas Disponibles, etc.
Estos primeros empresarios profesionales de los casinos para la adecuada administración de sus negocios del ocio también se asesoraban de importantes matemáticos pagándoles jugosos honorarios, y eran seguidores asiduos de las discusiones y las publicaciones sobre temáticas de probabilidad y estadística producidas por los sabios de su tiempo, por las asociaciones científicas, por las agremiaciones de contables o por los profesores de las universidades de Cambridge, Harvard, Oxford, la Sorbona, Turín, Berlín, etc. Además, tomando como referente el modelo de la Distribución Normal de la probabilidad ampliamente desarrollado por Laplace, Gauss, Poisson o Chebyshev, estos empresarios de los casinos sabían que en cualquier juego de azar, entre más jugadas se realicen, lo más probable es que las apariciones aleatorias de los resultados esperados se concentrarán dentro de ciertos límites en torno de un número ideal de apariciones, es decir, estadísticamente se prevé que los juegos de azar tienen un comportamiento más o menos regular que se puede proyectar previamente mediante el cálculo de probabilidades, comportamiento dentro del cual es poco probable que un resultado específico llegue a aparecer una cantidad excesiva de veces superior a las previstas, hasta el punto de volverse «predecible» a los ojos de los jugadores en contra de los intereses económicos de la Banca. Los empresarios que administraron los primeros grandes casinos le apostaban a la ocurrencia de esa forma de distribución de la probabilidad, le apostaban a que siempre el juego se comportaría aleatoriamente arrojando resultados que aunque en cada jugada son impredecibles, en todo caso globalmente se enmarcan dentro de unos límites más o menos previsibles desde el punto de vista estadístico, y por tanto, si en la mayoría de las ocasiones esos límites se dan, entonces se puede prever que al final la Banca siempre hará efectiva su ventaja matemática sobre los jugadores obteniendo importantes ingresos sobre todo el dinero que fue apostado por ellos.
Todo este conocimiento matemático, estadístico, contable y económico fue aplicado por los empresarios de los casinos en la creación de los nuevos juegos de azar, en la formulación de las reglas aplicables a cada juego, en el diseño de los tapetes de las mesas, en la selección precisa de las únicas opciones a las cuales les pueden apostar los jugadores, en el establecimiento de los montos de los premios que pueden ser pagados, en la fijación de los topes mínimos y máximos de las apuestas que se pueden admitir en cada mesa, etc. Se puede afirmar que, paradójicamente, desde el siglo XIX en las mesas de los juegos de azar de los casinos «nada ocurre al azar», porque los nuevos juegos de azar de la Modernidad no surgieron por generación espontánea ni por tradición cultural ni por caridad para agradarle a los consumidores del ocio, sino que surgieron como parte del engranaje de un gran negocio basado en la explotación de la ventaja matemática (House Edge) que conscientemente se establece a favor de la Banca en cada juego ofrecido al público.
En síntesis, desde el siglo XIX en una mesa de juego de un casino todo está debidamente calculado y planeado, para que desde el mismo momento en que el jugador coloque su apuesta sobre el tapete, las probabilidades y la estadística indiquen que esa apuesta muy probablemente deberá generar un flujo de rentabilidad a favor de las arcas de la Banca. Incluso la recaudación de este flujo rentable de dinero fue perfeccionada y comenzó a operar «automáticamente» gracias al ingeniero norteamericano Charles Fey, cuando basado en los diseños de las máquinas calculadoras, las cajas registradoras, los organillos de manivela, etc., inventó en 1897 la denominada «Máquina Tragamonedas» (Slot Machine), novedoso aparato que no sólo inauguró la gran época en que el comportamiento aleatorio de los juegos de azar comenzó a ser simulado mediante artilugios mecánicos, sino que además a la postre permitió que los empresarios de los casinos tuvieran una mayor seguridad acerca de la expectativa de obtener la recaudación de un porcentaje fijo de rentabilidad sobre el funcionamiento diario de tales máquinas.
Fortalecimiento de las Creencias Especulativas de los Apostadores respecto de los Juegos de Azar:
¿Qué hacían los jugadores y los apostadores del siglo XIX mientras todo lo anterior ocurría en la evolución matemática de los juegos de azar y del negocio de los casinos?
Al respecto un gran porcentaje de los jugadores posiblemente eran hábiles tahúres muy tramposos, que preferían aquellos juegos en los que tenían acceso a la manipulación directa de las cartas o de los dados, o preferían juegos en los que podían actuar en colusión con otros jugadores para así poder realizar todo tipo de timos y trampas contra los contrincantes ingenuos, únicas vías que encontraban seguras para la obtención de ganancias en los juegos de azar.
Muchos otros jugadores, fieles a la noble filosofía consumista del flâneur, consideraban impropio y poco caballeroso pensar en el dinero perdido en los juegos de azar o siquiera expresar cualquier emoción ante el anhelo de ganar una fortuna a través de ese medio: se jugaba, luego se ganaba o se perdía, pero siempre se aceptaban los resultados del azar con gallardía y caballerosidad.
Otros jugadores, menos dóciles a someterse pasivamente al imperio del azar, quizá aplicaban algunos análisis combinatorios muy simples para calcular sus expectativas de triunfo o para elegir las opciones a las que se les debía apostar.
Un creciente porcentaje de jugadores creían a pie juntillas en la falacia de la «Ley del Equilibrio Cósmico» que necesariamente se debe producir en la cantidad de apariciones de los resultados opuestos de un juego de azar entre más jugadas ocurran, falacia que desde los tiempos de D’Alembert inspiró a muchos apostadores a crear diversos sistemas de apuestas supuestamente infalibles, aplicables en mayor medida al Trente‑et‑Quarante o la ruleta, sistemas absurdos basados realmente en simples martingalas y en progresiones en el incremento o en el descenso de la cantidad apostada en cada jugada, tales como la Gran Martingala, la Pequeña Martingala, el sistema Labouchere, la Progresión de Wrangler, el sistema Philiberte, el sistema Fitzroy, el sistema Tiers et Tout, el sistema Montant Belge, el sistema Paroli, etc.
Otros más, tal vez habían escuchado que la estadística era una ciencia que trabajaba de la mano con el cálculo de probabilidades para el análisis del comportamiento de los eventos aleatorios, pero lo único que ellos en verdad sabían sobre la aplicación de la estadística era recolectar unos pocos resultados aparecidos en algún juego de azar y comenzar a apostarle a los resultados que a primera vista parecían «más dominantes» o «más salidores» en el grupo analizado, sin emplear ningún procedimiento matemático serio para verificar si esos resultados presuntamente dominantes o salidores en verdad representaban una «desviación significativa» en el comportamiento aleatorio del juego o si solamente se enmarcaban dentro de los límites previsibles del azar.
Solamente hasta 1873 se conoció de la legendaria hazaña del ingeniero inglés Joseph Hobson Jagger (1830−1892), quien al parecer usó las técnicas de muestreo, de análisis estadístico y de cálculo de probabilidades para descubrir unas fuertes tendencias en una de las ruletas del casino de Monte Carlo, descubrimiento que según se dice le permitió amasar una gran fortuna al apostarle a los números que más probabilidades tenían de aparecer. Después de esta hazaña se conoció de un grupo de jugadores italianos que hacia 1880 también aplicaron las técnicas de la estadística y del cálculo de probabilidades para amasar una gran fortuna nuevamente en las ruletas desviadas de Monte Carlo, y posteriormente durante varias décadas no se volvió a conocer ninguna noticia, anécdota, sistema o libro que hablara a profundidad, con detalles y con ejemplos prácticos, sobre la manera de aplicar de forma conjunta la Estadística y la Teoría de la Probabilidad a concretos juegos de azar para amasar fortunas.
Resulta curioso que durante el siglo XIX los empresarios que administraron los casinos usaron a plenitud todos los elementos de la Estadística y de la Teoría de la Probabilidad para perfeccionar la ventaja matemática establecida en los juegos de azar y protegerse contra el riesgo, contra la probabilidad de ruina, contra las desviaciones inusuales en la aparición de los resultados aleatorios, contra la falta de reservas económicas, etc.; mientras que la mayoría de los jugadores se quedaron estancados en el uso precario del análisis combinatorio o en la creencia en la inmutable Ley del Equilibrio Cósmico que fue defendida por D’Alembert quizá en un momento de desvarío. En otras palabras, absurdamente para enfrentarse a los juegos de azar de la Modernidad los jugadores no estaban empleando las mismas herramientas matemáticas, estadísticas y del cálculo de probabilidades que usaron los empresarios para lograr el perfeccionamiento de la ventaja matemática establecida en tales juegos.
La culpa tal vez no era de los jugadores, sino de la ausencia de fuentes de información especializadas y serias en la aplicación de la Estadística y de la Teoría de la Probabilidad a los juegos de azar. En efecto, si uno analiza las grandes obras sobre estadística y probabilidad del siglo XIX escritas por verdaderos genios matemáticos de la talla de Laplace, Gauss, Poisson, Quetelet o Chebyshev, encuentra que estos sabios para poder explicar los conceptos básicos usados en sus obras acuden inicialmente a ejemplos muy simples basados en el lanzamiento de monedas, el lanzamiento de dados, la extracción aleatoria de cartas de un mazo, la extracción aleatoria de balotas de una urna, el análisis del Problema de los Puntos, etc., pero luego estos sabios se elevan a las alturas intelectuales y se adentran en la axiomatización de los conceptos explicados ligando su aplicación a la solución de problemas más trascendentales que merecían toda su atención, tales como el desciframiento de las órbitas de los planetas, la forma como se comporta la luz, el cálculo de la trayectoria de los planetoides, el cálculo de la resistencia de los metales usados en la fabricación de las mercancías, el cálculo del grado de error cometido en una observación, el desvío esperado en el comportamiento de una variable en un experimento de laboratorio, el cálculo esperado en el crecimiento de la población, el cálculo de la ocurrencia de posibles siniestros asegurados, etc. En las obras de estos grandes autores matemáticos no hay referencias a la manera práctica de aplicar y sacar provecho del Muestreo Estadístico, la Distribución Normal, la Varianza, la Desviación Típica o los Niveles de Confianza a juegos de azar concretos como el Baccarat, el Trente‑et‑Quarante, la ruleta francesa, el Chuck‑a‑Luck, las loterías, etc.
Lo anterior no significa que durante el siglo XIX no se hayan escrito obras de literatura especializada sobre los juegos de azar, pues de hecho se escribieron muchas, mereciendo mención especial por su popularidad las siguientes:
An exposure of the arts and miseries of gambling, (1843). Escrita por Jonathan H. Green y publicada en Filadelfia.
Traité du Trente‑Quarante contenant des analyses et des faits pratiques du plus haut intéret suivis d’une collection de plus de 40.000 coups de banque, (1853). Escrita por G. Grégoire y publicada en París.
Nouveau manuel complet des jeux de calcul et de hasard ou Nouvelle Académie des Jeux, (1853). Escrita por Lasserre, Lebrun y Leroy, y publicada en París.
Routledge’s Whist Player’s Handbook, (1854). Escrita por N. Routledge y publicada en Londres.
Jeux de la Roulette et du Trente et Quarante, Méthode, (1880). Escrita por Menaldo y publicada en Niza.
Le jeu public et Monaco, (1882). Escrita por Le Docteur Prompt, y publicada en Paris.
Les grands jeux: Roulette, Trente & Quarante, Baccarat, Bourse; (1885). Escrita por Pierre Boissier y publicada en París.
Il Giuoco del Lotto, (1886). Escrita por M. de Ciutiis y publicada en Nápoles.
Une lune de miel à Monte Carlo, (1887). Escrita por Adolphe Belot y publicada en Paris.
Girotechnie ou la description scientifique de la roulette, (1890). Escrita por el doctor C. Surville y publicada en Niza.
Montecarlo occulto, Montecarlo palese, (1899). Escrita por Barone York y publicada en Turín.
Sin embargo, estas obras, y muchas otras de su mismo estilo escritas y publicadas en el siglo XIX, se dedican principalmente a explicar las reglas aplicables a populares juegos de azar como el veintiuno, el póquer, el whist, la ruleta, el Trente‑et‑Quarante, el baccarat, etc., pero no ofrecen un análisis serio de esos juegos que se fundamente en el cálculo de probabilidades o en el estudio estadístico de los resultados aleatorios. Realmente esas obras se limitan a proponerle al lector la aplicación de una serie de sistemas de colocación de apuestas, martingalas y progresiones que generalmente están basadas en las «falacias del jugador», sin ofrecer una verdadera prueba matemática de su efectividad frente a la Banca, todo lo cual es adobado además con una serie de anécdotas, especulaciones, recomendaciones y observaciones basadas sólo en la experiencia personal del autor de cada obra. En verdad es muy difícil creer que esas obras tienen un auténtico carácter científico, debido a la gran cantidad de especulaciones y suposiciones que emplean en la fundamentación de los diversos temas que tratan.
¿Por qué los grandes genios matemáticos y científicos del siglo XIX no aprovechaban sus conocimientos para escribir obras especializadas y serias sobre los juegos de azar?
Quizá muchos matemáticos, contables, ingenieros y científicos de esa época, que habían sido consultados por los mismos empresarios administradores de los casinos que perfeccionaron los modernos juegos de azar para así garantizar las ganancias de la Banca, sabían que si los juegos de azar tienen un comportamiento aleatorio que estadísticamente es próximo al modelo de la Distribución Normal, entonces no vale la pena gastar las neuronas tratando de formular sistemas matemáticos de apuestas que supuestamente prometen obtener ganancias exorbitantes en los juegos de azar, cuando realmente en muy contados casos el jugador verá ocurrir una inusitada racha favorable que se desvié significativamente más allá del comportamiento promedio del juego, lo cual tiene una probabilidad de ocurrencia siempre muy baja.
Tal vez por eso tampoco resulta extraño que desde el siglo XIX muchos jugadores hayan terminado parapetados en la lectura de obras que hablan de milagrosos sistemas de apuestas que sólo se basan en las falacias, o que, en el peor de los casos, al intentar encontrar sistemas infalibles de apuestas que puedan vencer a la Banca, hayan terminado por revivir las viejas creencias místicas sobre la «Diosa Fortuna» (el uso de talismanes, patas de conejo, fe ciega en las corazonadas, etc.) que son propias de aquella remota época pagana y oscurantista en que aún en los juegos de azar no regía la ventaja matemática perfeccionada a favor de la Banca.
Bibliografía consultada:
HALD, Anders. A history of mathematical statistics from 1750 to 1930. John Wiley & Sons, New York, 1998.
KILBY, J. y FOX, J. Casino operations management. John Wiley & Sons, New York, 2005.
KOYRE, Alexandre. Estudio de historia del pensamiento científico. Editorial Siglo XXI, Ciudad de México, 1978.
STIGLER, Stephen. The history of statistics: the measurement of uncertainty before 1900.Belknap Press/Harvard University Press, 1990.
WIKIPEDIA. Consulta de los términos: Expected Value; Gambler’s Fallacy; Gambling; History of Statistics; House Edge; Wagering Business.
Fuente: http://www.eyeintheskygroup.com, 2014.
———————–
Más información relacionada:
Juego Seguro on line en España
La industria de las apuestas continúa su escalada
Cómo hacer un backup efectivo
junio 12, 2014
No hay nada más viejo que el backup de hoy
Por Ariel Torres
Haciendo un poco de orden encuentro una caja. La caja contiene fotos de mis antepasados. Casi ninguna expone fechas o nombres, por lo que, a estas alturas, carecen de significado. Una imagen vale más que mil palabras, siempre y cuando tenga un epígrafe de 60 caracteres. Al menos, si se trata de una foto documental.
Es obvio que conozco esa caja y su contenido desde hace mucho. Mi pensamiento no recala en los epígrafes; en cambio, medito sobre lo que han perdurado esas imágenes. En algunos casos, calculo, cerca de un siglo. Entonces giro la cabeza y miro la pila de discos externos que descansa sobre mi mesa de trabajo. No puedo sino reírme. Me imagino algún descendiente que trata de acceder esas unidades dentro de 80 o 90 años. Bueno, sí, es humor geek, lo admito. Pero estamos todos en la misma. Sacamos 2500 fotos durante un viaje y después los JPG quedan por ahí, en el disco duro, en una carpeta. A lo sumo, las tagueamos y copiamos a un disco externo. ¿Qué tan perdurables son esos documentos?
Nos guste o no, nuestra capacidad de producir documentos digitales es inversamente proporcional a nuestra certeza de seguir conservándolos en el futuro. Una invisible e infinitesimal debilidad estructural en el disco rígido, y adiós, miles de fotos, textos y videos invaluables, irreemplazables, se evaporarán, habiendo existido siempre en un limbo digital intangible.
Es que no importa, como me han dicho en más de una oportunidad, que los registros en papel y acetato tampoco sean para siempre. No es el punto. El punto es que los registros digitales son microscópicos y están sellados en una caja negra. Carecen de la franqueza del papel y el acetato, cuyo deterioro podemos detectar a tiempo y, de alguna forma, rescatar el contenido. En el caso de los discos duros existe la tecnología SMART ( Self-Monitoring, Analysis, and Reporting Technology ), que avisa cuando la unidad tiene algún problema de salud, pero he visto fallar dos discos duros de forma catastrófica, de un día para el otro, sin el menor aviso de SMART.
Más aún -anoto en el margen-, hoy es imposible para la mayoría de las personas acceder a los contenidos de un simple diskette, que dejaron de usarse hace tan sólo una década (Dell anunció en febrero de 2003 que sus equipos hogareños ya no tendrían lectora de diskettes). El papel y el acetato no necesitan baterías, sistemas operativos, lectores ni formatos especiales.
No, no me interesa volver al laboratorio fotográfico ni retomar la máquina de escribir, pero es menester reducir los riesgos de la burbuja documental en la que vivimos. ¿Cómo? Con un backup. (Y, nota en el margen también, usando formatos de archivo públicos y abiertos, porque de nada sirve un backup que dentro de 25 años no puede decodificarse.)
Hay un solo tipo de backup efectivo: el que está automatizado. ¿Por qué? Porque el otro, el manual, es la típica tarea que dejamos para mañana, y los discos fallan siempre la noche anterior a mañana. Cierto que hay empresas que intentan recuperar la información, pero no siempre es posible y se trata de algo bastante costoso. En ocasiones, más costoso que un disco externo nuevo.
Las máquinas, en cambio, no dejan estas cosas para mañana, no se olvidan, no postergan. A propósito, y por experiencia, verificar de vez en cuando que los respaldos estén produciéndose como corresponde nunca está de más.
Plan A, B, C, D…
Ahora, vamos a intentar armar un plan de backup en el mundo real y con el mínimo costo posible. Un plan así echa mano de dos tácticas: la copia de respaldo local (costo del software: cero; se requiere de un disco externo o de otra computadora con un disco espacioso) y la copia en la nube (los servicios que menciono aquí son gratis, pero hay también muy buenas empresas de backup comerciales, si se necesita más espacio de almacenamiento). Otra cosa: hacer doble copia local y almacenar cada una en lugares diferentes de la casa no es ninguna mala idea.
Sé que suena un poco exagerado, y seguirá pareciéndolo hasta que pierdas las fotos de tu primogénito en un nanosegundo por la falla de un disco rígido. Por eso, aunque suene a mucho, la idea es que ninguna eventualidad nos deje sin documentos valiosos e irrecuperables.
El primer requisito para que un plan de bajo costo como éste funcione es ser realista con el espacio de almacenamiento. Cuando alguien me pregunta cómo hacer copia de respaldo de 1 terabyte de datos, mi respuesta es que quizás está guardando más de lo que debería. Un terabyte equivale a sacar unas 300 fotos por día, todos los días, con un buen smartphone durante 10 años. Equivale a la música en MP3 de aproximadamente 800 CD. Me encanta la música, tengo como 50 GB de MP3 de mis discos compactos. ¿Pero 1 tera?
Está bien, sí, es verdad, sería fantástico que pudiéramos apretar un botón y que todo (todo) se transfiriese a la nube en un instante. IBM e Intel están trabajando en ese tipo de tecnologías. Pero no es para ahora. Ni para mañana a la tarde. Si querés que sea un sistema económico, hay que reducir las expectativas. De lo contrario hace falta contratar un servicio online de 499 dólares al año por 500 GB (en Dropbox), 799,50 dólares al año por 1 TB (en iDrive) o 600 dólares al año por 1 TB en Google Drive, por citar tres ejemplos.
Eso sí, la transferencia instantánea te la debo. Falta bastante para eso todavía. Por eso, CrashPlan, el prestigioso servicio de backup comercial de Code42 ( www.code42.com ), ofrece la posibilidad de enviar el primer pack de datos en un disco duro.
No hay nada de desproporcionado, sin embargo en enormes cantidades de datos, en ciertos casos. Por ejemplo, si te dedicás al cine o a la música. Ahí es menester invertir dinero porque esos archivos son invariablemente gigantescos. Por un lado, y si el volumen es realmente enorme, habría que considerar seriamente las cintas de backup. Por otro, el servicio en la nube de Amazon, llamado S3 (por Simple Storage Service), parte de los Amazon Web Services, puede guardar hasta 5 TB. En este sitio se pueden consultar las características y los precios: http://aws.amazon.com. Tienen una capa gratuita de 5 GB, pero, aviso, hace falta una tarjeta de crédito válida incluso para acceder al plan sin cargo. Por su parte, Google Drive tiene un plan de 16 TB (sí, terabytes). Cuesta 800 dólares por mes.
*******
Así que nos proponemos que el backup se haga de manera automática, local y remotamente, y sin tener que pagar más que el hardware, si acaso. No voy a hacer la lista de todas las opciones existentes. Son muchas y nos llevaría todo el día. Más bien, lo que sigue es un mecanismo de backup local que vengo usando desde hace muchos años sin que haya fallado ni una vez, más dos o tres opciones nubosas que me gustaron y también parecen ser robustas. Aclaro, ya que estamos, que los fabricantes de discos externos tienen en general soluciones profesionales que hay que revisar, si las necesidades de backup exceden el horizonte doméstico o de oficina hogareña que estoy esbozando aquí.
La copia local
Mi preferido para las copias locales en Windows es SyncBack Free (www.2brightsparks.com/freeware/freeware-hub.html ), que va por la versión 6, es muy sólido, completo y, no menos importante, fácil de usar. En este post de mi blog Freeware en lanacion.com, hay más información sobre cómo obtener, instalar y configurar SyncBack Free ( http://blogs.lanacion.com.ar/freeware/packs/syncback/ ).
SyncBack queda en segundo plano y a la hora señalada hace copia de seguridad en un disco externo, en otro disco dentro de la misma máquina, en otra máquina dentro de la red o en un FTP. De momento, todo lo que debemos considerar es dónde y cómo vamos a guardar las copias de respaldo.
Para volúmenes razonables, los discos externos son económicos y, si se los trata con extremo cuidado, duran mucho tiempo. Golpearlos, sobre todo si están andando, es una Muy Mala Idea. También hay modelos de discos externos que ofrecen almacenamiento en la nube sin cargo, aunque no es mayor, hasta donde he visto, que el de los servicios gratis que menciono más abajo.
¿Cuándo hacer backup? Todos los días no es ninguna mala idea; puede programarse el perfil para que lo haga durante la noche. Si se usa una notebook, la programación (el apartado Cuándo en SyncBack) permite instruir al perfil para que despierte al equipo para ejecutarse, incluso si el usuario no ha abierto sesión. Así resolvemos el asunto de la automatización.
La otra opción, que uso mucho, es emplear los discos de otras computadoras dentro de mi red local para hacer backup (3 máquinas en diferentes sitios, en mi caso). Si tenés al menos otra máquina siempre encendida, podés usarla para crear copias adicionales. En general, la redundancia es la principal salvaguardia contra la burbuja documental. Pero hay algo más.
Como se puede observar, para que este plan funcione de forma automática los discos externos deberían estar siempre conectados. He tenido discos externos conectados durante varios días sin problemas, y de hecho apagan el motor luego de un tiempo de inactividad. Pero me temo que de todas formas no es la mejor idea. No, cuando menos, sin un UPS que proteja contra cortes de luz y tormentas eléctricas severas. Una computadora en red es, por lo tanto, una opción siempre encendida muy práctica. Si esto no es posible, habrá que echar mano de Internet, como sigue.
En la nube
Aunque hace no mucho esto sonaba a cuento de hadas, hoy es más fácil hacer backup en servidores remotos mediante Internet que programar el respaldo local. Hay muchos servicios de este tipo, todos bastante conocidos: SkyDrive (https://skydrive.live.com), Dropbox (https://www.dropbox.com), Google Drive (https://drive.google.com) y iDrive ( https://www.idrive.com ), entre otros. Andan muy bien, tienen sus propias aplicaciones para PC y smartphones, y ofrecen de 2 a 5 GB sin cargo, que pueden extenderse (hasta 18 GB, en Dropbox y iDrive, por citar dos) mediante invitaciones a otras personas o compartiendo la dirección del servicio en las redes sociales. Más interesante todavía, si uno se suscribe a todos ellos, puede sumar una cantidad interesante de espacio. Y si no tenés más que una computadora, solucionan el asunto de la automatización, al menos de forma remota, de manera sencilla y bastante segura.
Probé Dropbox, iDrive y Google Drive. Los tres sincronizan de inmediato y son muy fáciles de usar. No me gusta que iDrive me sugiera suscribirme a un plan pago cada tanto, eso es adware y por lo tanto ya no es tan gratis; lo sobrelleva con una muy buena aplicación de Escritorio en la que se pueden elegir las carpetas por respaldar y la opción de sincronizar en tiempo real. Dropbox hace lo mismo por medio de la Carpeta Dropbox; lo que arrojes allí, irá a la nube en el momento. Google Drive combina un poco de las otras dos y está, como es normal en las aplicaciones de la compañía de Mountain View, muy bien hecha. Las tres se mostraron estables durante semanas en Windows 7 y 8.
El único límite, si no queremos abonar una cuota, es la cantidad de gigabytes; 5, 10 o 15 GB no alcanzan para guardar todo, como dije. Pero sí para hacer respaldo de lo fundamental; es nuestra caja con fotos de la modernidad.
Por el momento, pues, la solución es resguardar solamente lo que consideramos más valioso. Tendemos a hacer 15 tomas idénticas del mismo paisaje. Total, ¡no hay límite! Quizás, hasta que aparezcan soluciones que hoy suenan a mágicas, debamos habituarnos a seleccionar la que quedó mejor y copiar en el respaldo solamente ésa. Pasaríamos así, en el ejemplo anterior, de 15 MB a 1 MB..
Matemáticas y juegos de azar
junio 11, 2014
Matemáticas y juegos de azar.
Reseña de Ricardo Miró.
Matemáticas y juegos de azar. Jugar con la probabilidad.
Autor: John Haigh
Tusquets Editores, S.A. Colección: Metatemas.
Julio de 2004. 387 páginas.
La teoría de probabilidad, de larga maduración en la historia de la ciencia, es una rama de las matemáticas que se desarrolló de manera muy acelerada durante la primera mitad del siglo XX, construyendo sus fundamentos analíticos sobre un sólido cuerpo axiomático, especialmente en los ámbitos académicos de Francia, Polonia, Hungría y la por entonces Unión Soviética.
En la actualidad, los métodos de análisis y los ámbitos de aplicación de dicha teoría han impregnado vastas áreas del conocimiento y de la ciencia en general, como por ejemplo la física, la astronomía o la economía, y también humanidades como la sociología o la lingüística. Asimismo, es notable su presencia en las ciencias naturales como la geología o la biología, por citar algunos pocos ejemplos de manera explícita. No puede dejar de observarse, por otra parte, que la teoría de la probabilidad ha irradiado su influencia inclusive en una de las ramas más puras de las mismas matemáticas, como ha sido el caso de la denominada teoría de los números.
Este último contacto actualmente resulta esencial para el estudio, desarrollo y perfeccionamiento de los métodos y algoritmos criptográficos diseñados para preservar la seguridad de los sistemas informáticos complejos, de alta sensibilidad en la vida pública, como lo constituyen el dinero electrónico en el campo financiero o la firma digital en el ámbito jurídico.
Fuente: Revista Ciencia Hoy. Volumen 14, nº 83. Octubre – Noviembre 2004.
Más información relacionada:
Juego Seguro on line en España
La industria de las apuestas continúa su escalada
——————————————————————————————————-
Juegos de azar
Los juegos de azar son juegos en los cuales las posibilidades de ganar o perder no dependen de la habilidad del jugador sino exclusivamente del azar. La mayoría de ellos sean también juegos de apuestas cuyos premios están determinados por la probabilidad estadística de acertar la combinación elegida. Mientras menores sean las probabilidades de obtener la combinación correcta, mayor es el premio. Hasta la fecha, el premio más elevado otorgado por un juego de azar se ha dado en Estados Unidos, en 1998, con 295 millones de dólares, que fue repartido entre 13 operarios.
Principalmente es útil la destreza del jugador para calcular las posibilidades que se deriven de una o varias acciones, en relación siempre con el azar; además, el jugador debe ser hábil para reducir la probabilidad de resultados desfavorables y aumentar la de los favorables mediante sus acciones. Ganar o perder en esta clase de juegos depende, en buena medida, de la habilidad de los jugadores, pero el componente impredecible que es el azar puede arrebatar la victoria hasta al jugador más experimentado y diestro.
Orígenes
Los sumerios y asirios utilizaban un hueso extraído del talón de animales denominado astrágalo o talus, que tallaban para que pudieran caer en cuatro posiciones distintas. Los juegos con dados se originaron en los tiempos del Imperio Romano , aunque no se conoce apenas las reglas con las que jugaban. Uno de estos juegos, denominado «hazard», palabra que en inglés y francés significa riesgo o peligro, fue introducido en Europa con la Tercera Cruzada. Las raíces etimológicas del término provienen de la palabra árabe «al-azar», que significa «dado».
Juegos de Azar más populares
Bingo
El bingo, originario de Italia, consiste en un bombo con un número determinado de bolas numeradas en su interior (75 o 90). Los jugadores juegan con cartones con números aleatorios escritos en ellos, dentro del rango correspondiente, 1-75 o 1-90. Un locutor o cantor va sacando bolas del bombo, cantando los números en voz alta. Si un jugador tiene dicho numero en su cartón (el de 24 números es el más habitual) lo tacha, y el juego continua así hasta que alguien consigue marcar todos los números de una línea y el cartón.
La probabilidad de obtener una línea o el cartón entero depende del número de cartones que están interviniendo en el juego, por lo que dependerá del número de personas que estén jugando así como del número de cartones con que cada participante juegue. Como en este juego se sacan número hasta que alguien “canta bingo”, es decir, posee el cartón con los 24 números, la probabilidad depende del número de cartones en juego, así como, del control del jugador sobre sus cartones.
El número de posibles cartones únicos de bingo es: 552,446,474,061,128,648,601,600,000
Águila o Sol
Este sencillo juego, en el que se suele lanzar sobre una superficie horizontal una moneda al aire y gana el que eligió la cara vista hacia arriba. Cuenta con diversos nombres según la parte del mundo en el que nos encontremos: cara o ceca en Argentina; cara o sello en Chile, Panamá y Venezuela; cara o corona en el Salvador; cara o cruz en Ecuador, España y Puerto Rico; cara o escudo en Honduras y Guatemala; águila o sol en México; cara o número en Paraguay; etc… Como sólo hay 2 posibles elecciones, la probabilidad de acierto es del 50%.
Dados
Los sumerios y asirios utilizaban un hueso extraído del talón de animales como ovejas, ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer en cuatro posiciones distintas, por lo que son considerados como los precursores de los dados. El juego de los dados consiste en lanzar un objeto de forma poliédrica sobre una superficie horizontal. Los posibles resultados numéricos están marcados en cada una de las caras del poliedro y se eligen tomando, normalmente, el resultado marcado en la cara que queda vista hacia arriba. El dado más convencional cuenta con seis caras por lo que la probabilidad de obtener un número (de los 6) es de 1 entre 6, es decir, 16,67%. Si lanzamos 2 dados 6 caras será del 4,76%. En China y la India se jugaban los dedos de la mano a los dados.
Lotería
Su origen se remonta al siglo XV cuando los comerciantes genoveses idearon este sistema como estrategia de venta, al estar constituidos los premios por mercancías.
En un sorteo de un cupón, la probabilidad de que te toque depende, del número de billetes en juego, así como del número de series. Como ejemplo se pondrá el sorteo extraordinario de Navidad en España, donde se ponen en juego 170 series de 85.000 billetes, de los cuales 13.334 se llevan premio. La probabilidad de que nos toque el premio mayor con un solo cupón es de 1 entre 14 millones y medio (170 series x 85.000 billetes).La cuantía del premio a recibir no sólo depende de la probabilidad de acierto, sino también del porcentaje que se devuelva como premio de la cantidad jugada, que suele ser de un 70%.
Quiniela (España)
En cuanto a las quinielas, su acierto depende del número de posibilidades o posibles elecciones. Si hacemos una apuesta sencilla, tenemos que hacer frente a 3 elevado a la 14 de casos posibles, ya que en cada uno de los catorce partidos tenemos tres posibles resultados: 1, X, 2. Por lo tanto, hay que dividir nuestra apuesta (1) entre todas las posibilidades (3 a la 14), con lo que para llevarse el pleno hay una probabilidad de 1 entre casi 5 millones. La diferencia con otras formas de apuestas es que aquí, además del azar, existe una mayor probabilidad de acierto, que depende de la diferencia entre los equipos de fútbol en juego.
Lotería Primitiva o «Lotto»
En este tipo de lotería, se tiene una serie de números, de los cuales una cantidad son los que resultan ganadores. En el caso de que sean 49 y seis los ganadores, la probabilidad que hay de ganar el premio máximo con una apuesta sencilla es de 1 entre 13.983.816, es decir, las posibles combinaciones de 6 números sobre 49 números.
Pozo de la quiniela
Para participar en el juego, el apostador debe elegir dos números de tres cifras o si lo deseara, la terminal de juego le generará automáticamente la apuesta. Si esos dos números de tres cifras salen en cualquier orden entre los cinco primeros premios del extracto, se consideraran ganadores del juego. El premio se conformará destinando, del total de lo recaudado, un cuarenta por ciento (40%). La probabilidad de acierto es de 1 entre 49850.
Máquinas Tragamonedas
Este juego a cambio de una cantidad de dinero se ofrece ocasionalmente un premio. Existen de dos tipos: las máquinas programadas (habituales en salones de juego y bares), en la que, según un programa interno, después de un número de juegos, la máquina ha de devolver una parte del ingreso que se ha realizado (en torno al 70%); las máquinas de azar (habituales en casinos), en las que dependen exclusivamente del azar. El mayor premio de una tragamonedas fue dado en Atlantic City (Estados Unidos) con más de diez millones de dólares, que se habían acumulado como «bote» durante años, y a cambio de sólo una moneda de cinco centavos.
Ruleta
El juego de la ruleta, típico de los casinos, debe su origen al matemático francés Blaise Pascal, de ahí que su nombre viene del término francés roulette, que significa rueda pequeña. En un principio poseía 36 números (la suma de los primeros 36 números da el número mágico por excelencia: 666) y a finales del siglo XIX, los hermanos Blanc la modificaron añadiéndole un nuevo número, el 0, y la introdujeron inicialmente en el Casino de Montecarlo. Esta ruleta cuenta con una proporción de premios de 36/37, que deja un margen para la casa del 2,7% (en Europa) o el 5,4% (en EE.UU.) si cuenta con dos ceros.
Fuente: Wikipedia, Maths, WR.
Aprenda a conocer sus límites
junio 11, 2014
¿Está demasiado ocupado? Aprenda a conocer sus límites.
Por Sue Shellenbarger.
Una amiga a la que admira le acaba de pedir que encabece una actividad de recaudación de fondos. Usted tiene un empleo de tiempo completo y el encargo parece implicar una gran dedicación.
Pero su amiga es una madre que trabaja y está involucrada en el centro de padres de la escuela de sus hijos, hace poco participó en su primera maratón y tiene una vida social muy activa. ¿Por qué no puede usted hacer tantas cosas como ella? ¿Y cómo darse cuenta de que ha asumido demasiados compromisos?
La cantidad adecuada de actividades varía según cada individuo. Lamentablemente, la mayoría de las personas no sabe cuándo alcanza sus límites y es hora de rechazar nuevas labores. Muchos siguen el ejemplo de otros, como un jefe que nunca dice que no a demandas nuevas o un colega que combina carrera y familia como mejor puede.
Aprender a detectar y prestar atención a los signos de advertencia de sobrecarga exige práctica y planificación, según personas que encontraron sus límites por las malas.
Hace seis años, Michael Mawdsley seguía acumulando actividades hasta llegar a trabajar 80 horas semanales, ayudando a criar a sus dos hijos pequeños y colaborando en la junta directiva de un grupo de donación de órganos sin fines de lucro.
El ejecutivo estadounidense afirma que competía para ser percibido como el más trabajólico. «Me gustaba que mi jefe supiera que le había enviado el primer e-mail de la mañana y el último del día», reconoce.
Además de sufrir de insomnio y problemas estomacales, se volvió impaciente con los empleados. Cuando su jefe le advirtió que podría perder su empleo si no mejoraba su trato, finalmente se dio cuenta de que estaba «en el límite», asegura.
Asesorado por un entrenador, delegó tareas administrativas y redujo sus horas de trabajo semanal a 50. Se tomó más tiempo para escuchar a sus subordinados y estar en casa con su esposa e hijos.
«Estoy más consciente cuando tomo demasiadas responsabilidades», indica. Cuando nota señales tempranas de sobrecarga, como fatiga, respiración rápida o tensión en sus hombros, se dice a sí mismo que ya llegó al punto máximo y deja tiempo para dormir más o tener momentos de esparcimiento. Desde entonces, fue ascendido dos veces.
La capacidad de cada persona de manejar múltiples tareas y actividades está formada por la genética y las primeras experiencias, explica Amit Sood, profesor de la Escuela de Medicina de la Clínica Mayo, en Rochester, en el estado de Minnesota.
Algunas personas heredan la tendencia a ser más susceptibles al estrés y la sobrecarga. Quienes reciben muchos cuidados y calidez de pequeños y experimentan una adversidad temprana sólo suficiente para desarrollar adaptabilidad pero no demasiado, suelen estar mejor capacitados para hacer frente a estas situaciones, dice Sood.
La personalidad también juega un papel destacado. El altruismo es un rasgo que ayuda a las personas a dar un sentido a sus labores y actividades, y les permite hacer más sin sufrir efectos negativos, sostiene Sood.
En cambio, la gente con un carácter neurótico, que es más propensa a experimentar emociones negativas como ansiedad e ira, suele tener más tensión al combinar distintos roles, según un estudio de 2012 publicado en la revista especializada Journal of Vocational Behavior.
Cali Yost estima que 15% de los empleados de las cientos de empresas donde ha realizado sesiones de capacitación logran manejar largas listas de tareas sin mayores inconvenientes. Estas personas que se fijan metas altas, que ella llama «talentos naturales», suelen tener un solo calendario para todas sus actividades laborales, familiares, personales y de la comunidad, ya que esto los ayuda a ver el panorama más general y no olvidar sus compromisos.
No obstante, pocas personas tienen una buena comprensión de su capacidad para manejar tareas y actividades múltiples. Cuando se sobrecargan, lo primero que nota la mayoría de la gente es que «las pelotas comienzan a caer,» dice Yost. «No pasas a buscar a tu hijo, u olvidas una llamada con un cliente».
Otros síntomas iniciales de sobrecarga pueden incluir insomnio, enfermedades menores, un alza de la presión o dolores frecuentes. Las señales emocionales incluyen irritabilidad y ansiedad. Las relaciones y la vida social se suelen deteriorar.
La sobrecarga también tiene consecuencias cognitivas, al afectar la memoria y la concentración. Puede resultar difícil apartarse del trabajo y relajarse, lo cual inicia una espiral descendente de fatiga y pérdida del tiempo, según un estudio publicado en en el International Journal of Stress Management.
Marguerite Samms se sintió sobrepasada en 2007, cuando trabajaba hasta 12 horas al día mientras criaba cuatro hijos, de entre 5 y 11 años. Ansiosa y agotada, «ya no podía tomar decisiones inteligentes», señala. «Sentía que cosas pequeñas me superaban». Durante una reunión con su jefe no supo que decir. «Lo único que salió de mi boca fue renunció», recuerda. Su jefe le dio licencia por dos semanas y le redujo su carga laboral, dice la ejecutiva de una empresa de salud. Desde entonces, Samms ha aprendido a detectar señales de sobrecarga y ha formado un grupo de amigos y colegas que la ayuda a monitorear cómo gasta su tiempo y energía.
En una aparente paradoja, algunas personas aprenden a mantener el equilibrio adecuado al sumar a su lista de tareas una actividad que disfrutan. Eso puede energizarlos y darles la perspectiva necesaria para dejar de lado actividades que no son divertidas, dice Pat Mathews, un asesor de liderazgo.
Amy Rupert, directora general de aprendizaje en Chicago de la firma de asesoría Coaching Out of the Box, le recomendó a un cliente que pasará 15 minutos más en la ducha todos los días. «Era lo único que podía realizar en un comienzo», relata. Rupert les aconseja a sus clientes hacerse una pregunta antes de asumir una nueva tarea: «si acepto, ¿a qué cosas renuncio?«.
Rachel Davidson pone su límite en perder horas de sueño. Necesita siete horas por noche, dice la directora de una fundación y ex jueza, que vive en Nueva York. Con los años, aprendió a rechazar solicitudes de participar en comités y hacer trabajo voluntario. Cada vez que le proponen una nueva actividad, se pregunta: «Esto significa dos horas menos de sueño. ¿Vale la pena?».
Fuente: Teh Wall Street Journal, 30/05/14.
Murió ayer en Nueva York el hombre más viejo del mundo
junio 10, 2014
Murió ayer en Nueva York el hombre más viejo del mundo.
El considerado hombre más longevo del mundo, el inmigrante polaco Alexander Imich, murió ayer en Nueva York a los 111 años, después de una intensa vida en la que se había dedicado a la química y además había sido presidente del Centro de Investigación de Fenómenos Anómalos en la ciudad de Nueva York.
De familia judía, Imich se exilió en Estados Unidos en 1952 después de haber abandonado su país con su esposa en 1939, cuando los nazis invadieron Polonia.
Según informó ayer el New York Daily News, Imich, nacido el 4 de febrero de 1903, murió plácidamente en una residencia de ancianos en el Upper West Side de Mahattan, y se había convertido en el hombre más viejo del mundo el 24 de abril pasado, cuando falleció el italiano Arturo Licata a los 111 años y 357 días.
Imich, completamente lúcido, dio por aquellos meses una entrevista a la NBC y cuando le preguntaron el secreto de su longevidad, contestó con humor que era “simplemente no morirme”. Aunque también la atribuyó a los genes, a una nutrición apropiada, no haber tomado alcohol y “al hecho de que mi esposa no hemos tenido hijos”.
Michael Mannion, un viejo amigo de Alexander, dijo que “la enorme curiosidad (de Imich) y su capacidad para convertir la adversidad en algo positivo fueron importantes factores en su vida. Esas cualidades fueron evidentes incluso en sus últimas semanas y días”.
Doctorado en zoología por la universidad de Cracovia, en Estados Unidos se convirtió en un eminente parapsicólogo. Quedó viudo en 1986.
Tras su muerte, ahora es el japonés Sakari Momoi, nacido solo un día después que Imich, el que se ha convertido en el hombre más viejo del mundo. Otra japonesa, Misao Okawa, es la mujer más longeva, con 116 años y nacida el 5 de marzo de 1898. La preeminencia femenina es absoluta: hay 66 mujeres más longevas que Imich.
Fuente: Clarín; 10/06/14.
A los 116 años, murió el hombre más viejo del mundo. (2013)
JAPÓN – Un japonés que fue reconocido por Guinness World Records como la persona más vieja del mundo murió este miércoles. Jiroemon Kimura nació en 1897 tuvo siete hijos, 14 nietos, 25 bisnietos y 15 tataranietos. Trabajó 40 años como cartero, nunca fumó y siempre vivió saludablemente. (AP)
Un japonés que fue reconocido por Guinness World Records como la persona más vieja del mundo murió este miércoles. Jiroemon Kimura nació en 1897 tuvo siete hijos, 14 nietos, 25 bisnietos y 15 tataranietos. Trabajó 40 años como cartero, nunca fumó y siempre vivió saludablemente. (AP)
La persona más longeva del mundo hasta la actualidad, el japonés Yiroemon Kimura, falleció a los 116 años. Según sus propias palabras, su secreto para tener una larga vida fue comer con medida, «sin predilecciones ni aversiones».
Kimura, que había nacido el 19 de abril de 1897 en Kyotango, murió en un hospital local, donde era atendido por una neumonía.
De acuerdo al libro Guiness de los récords, fue el japonés fue el primer hombre en la historia en llegar a los 116 años. Tuvo siete hijos -cinco de los cuales todavía viven-, 14 nietos, 25 bisnietos y 14 tataranietos. Trabajó como funcionario de correos y, tras jubilarse, se dedicó a la agricultura hasta que cumplió 90 años. A lo largo de su vida, vivió bajo los regímenes de cuatro emperadores.
Se había convertido en el hombre más viejo el 28 de diciembre de 2012, cuando tenía 115 años y 253 días, después de romper la marca impuesta por Christian Mortensen (1882-1998), un inmigrante danés que vivía en Estados Unidos.
“Yiroemon Kimura fue una persona excepcional», afirmó Craig Glenday, editor en jefe de los récord mundiales Guinness. “Por ser el único hombre en haber vivido 116 años -la mayor cantidad de años que se ha autentificado plenamente- tiene verdaderamente un lugar en la historia del mundo”.
El funeral, según confirmaron las autoridades de Kyotango, será el viernes. “El señor Kimura fue y siempre será un tesoro para nosotros, para nuestro país y el mundo”, manifestó el alcalde Yasushi Nakayama.
Ahora, el título de la persona más anciana recayó en otra japonesa, Misao Okawa, de 115 años, que vive en Osaka.
Mientras que el hombre vivo más viejo, de acuerdo con el Grupo de Investigación Gerontológica de EE.UU., es James McCoubrey, quien nació en Canadá el 13 de septiembre de 1901. Con 111 años, es la 32ª persona viva más vieja del mundo, de acuerdo con la lista del grupo, donde todos los que lo preceden son mujeres.
Fuente: Clarín; 12/06/13.
Pan y circo en Brasil
junio 10, 2014
Pan y circo en Brasil.
Por Emma Elliott Freire.
“El hecho que Brasil haya sido elegido para patrocinar La Copa del Mundo en 2014 es una razón para festejar y estar muy contentos”, dijo el presidente Luiz Inácio Lula Da Silva cuando se anunció en octubre del 2007 a Brasil como país anfitrión. “El fútbol no es sólo un deporte para nosotros. Es más que eso: el fútbol para nosotros es una pasión, una pasión nacional”. Y los brasileros estuvieron de acuerdo, al ritmo de un frenético baile en las calles y fuegos artificiales en todas partes.
Dos años más tarde, Río de Janeiro era elegida como sede para los Juegos Olímpicos de Verano de 2016. El presidente derramó lágrimas de alegría y diciendo más de una vez: “Ha llegado nuestra hora”.
En un momento que la Copa del Mundo y los juegos olímpicos parecieran ser una oportunidad inmejorable para presentar a Brasil en la escena internacional. Esta posibilidad tiene aún más relevancia en tanto que los brasileros deben cargar sobre sus hombros con una supuesta declaración de Charles de Gaulle que se refería a que “Brasil no es un país serio”.
Pero las aspiraciones de Brasil puestas en la Copa Mundial se han evaporado. Es palpable en la mayoría de los brasileros un gran desencanto y pesimismo. Ven en la Copa del Mundo una humillación nacional. Y hay un antes y después para el brasilero corriente después de presenciar las acciones represivas del gobierno en pos de hacer presentable al país para este gran evento.
Para los miles de extranjeros que viajarán por la Copa del Mundo, el primer contacto será el Aeropuerto de Belo Horizonte. La ciudad es el centro del negocio minero más lucrativo de Brasil y será anfitriona de seis fechas.
Pero apenas salí del avión, ya en el aeropuerto noto que algo no esta muy bien en los preparativos de la Copa del Mundo. Aparecen los primeros indicios. Se suponía que iba a encontrarme con un país modernizado. Desafortunadamente nada en ningún lugar está terminado. Casi todas las construcciones están a cielo abierto, inconclusas. Topándome con andamios en cada esquina. El aire esta lleno de polvillo. Los niveles de ruido producidos por la construcción son tan altos que hacen necesario que el personal de la aerolínea tenga que estar gritándole a cada uno de los pasajeros durante los trámites de arribo.
Y nada de esto mejora una vez afuera. La cantidad de construcciones iniciadas modificaron los ritmos normales de tráfico, incluso estacionar se convierte en una odisea. Sobre la avenida Antonio Carlos, la vía principal de Belo Horizonte el tráfico a sus lados es aceptable pero el centro de la avenida es una zona enorme en construcción. La ciudad ha sumado sendas para los autobuses pero las mismas no estarán listas sino en unos cuantos años.
Unos costos muy altos
El mundial de Brasil está por convertirse en la Copa del Mundo más cara de la historia.
Aunque las estimaciones sobre el total varían es muy probable que el costo exceda los catorce billones de dólares, más que lo que costaron, sumadas, las tres Copas del Mundo anteriores. Brasil decidió destinar 12 estadios para La Copa del Mundo. África del Sur sólo tuvo 10 cuando lo patrocinó en 2010. El uso futuro de los estadios de Brasil está envuelto en el misterio. Así, el Arena Da Amazonia atrajo un especial encono de parte de los brasileros. Está ubicado en lo profundo de la selva amazónica y no hay vuelos locales que puedan llevar 44 pasajeros, un número de asientos básico para cada equipo. Además de los tres trabajadores que murieron por accidentes laborales. Viajé para Brasilia, la capital, donde vi el magnífico Estadio Nacional con 72.000 localidades. Le pregunté a mis guías si la selección de fútbol local lo usaría después de La Copa del Mundo. Se rieron y me contestaron que, “esa es la pregunta del millón”. El equipo local juega en las divisiones inferiores y apenas asisten a sus partidos algunos cuantos de sus seguidores. Por cierto Brasilia es una ciudad rica y así es como sus habitantes se pueden permitir el lujo de algunos mega conciertos, pero este no es sino un uso ocasional para el estadio.
En la preparación para La Copa del Mundo, Brasil también emprendió proyectos de infraestructura a gran escala. Pero muchos no serán terminados a tiempo, y los que están listos podrían tener un impacto de negativa. “Grandes tramos de este estos proyectos traen aparejados más males que beneficios ”, dijo Anthony Ling, un arquitecto urbanista brasilero, autor del blog: Rendering Freedom (http://www.renderingfreedom.com/). «Los ejemplos más obvios son los puentes en las carreteras urbanas que implican un modo de planificar el tráfico muy «moderno» que básicamente subsidia con fondos públicos el uso del medio individual de locomoción. Estos puentes sobre las carreteras también eliminan cualquier tipo de actividad peatonal en los alrededores restringiendo la accesibilidad del transporte público». Y agrega que muchas ciudades tenían previamente sus propios planes de infraestructura que fueron alterados para encajar en los de la Copa del Mundo, borrando de este modo su eficiencia original».
La mayoría de las ciudades brasileras tienen áreas que se encuentran crónicamente por debajo de los niveles básicos de desarrollo. Y los brasileros están preocupados de lo que lleguen a pensar los extranjeros cuándo arriben y vean los barrios bajos y los edificios. “Los americanos tienen estándares altos. No quedarán impresionados (positivamente) por lo que ven aquí”, dice Gianluca, un abogado que tiene su oficina en Brasilia.
De las favelas a los estadios
Por la Avenida Antonio Carlos, viajando para ver el partido en Belo Horizonte, probablemente los turistas nunca sepan que están sobre las antes llamadas favelas. Estos barrios pobres solían encontrarse a lo largo de la carretera. Cada ciudad en donde se jugará la Copa del Mundo ha utilizado el espacio público para montar sus proyectos de infraestructura, ahí donde antes se encontraban los barrios pobres aunque en la mayoría de los casos no hubo problemas.
«Se han removido muchos barrios pobres, teniendo en cuenta que nadie tenía títulos de propiedad sobre los espacios de dominio público. De modo tal que por sus casas se les dio, o, no, una pequeña suma de dinero», dijo Ling. «Alrededor del 80/90% de las favelas se encuentran en tierra fiscal. Básicamente ocupan esa tierra y no tienen ningún título de propiedad. No importa si ocupan el lugar hace cien años, el gobierno puede hacer lo que se le plazca».
Algunas cifras estiman que el número de personas removidas de sus casas con motivo de la Copa del Mundo es de alrededor 250.000. Todos ellos desesperadamente pobres.
Estos traslados de personas ha suscitado muy pocos comentarios en la opinión pública. Muchos brasileros especialmente de derecha incluso han apoyado estas prácticas. Ven a los habitantes de las favelas como invasores cuando toman tierras que no son de ellos.
Además de ver las favelas como lugares fortificados para el crimen. Muchas están en mayor o menor medida gobernadas por vendedores de drogas locales. «Los dealers no solo utilizan a las drogas como poder, sino que también controlan toda el área», dice Rodrigo Constantino, un economista que escribe para Veja, una de las revistas más conocidas de Brasil. “Las personas tienen que pagarle a los vendedores de drogas y los jefes de las favelas para usar energía o mirar televisión”. Así, muchos brasileros terminan favoreciendo a estos dealers sin tener otra salida.
En los últimos años el gobierno de Brasil lanzó un programa de «pacificación» de las favelas mediante el envío de unidades de elite de la policía con el fin de retomar una mayor presencia en el lugar. Recientemente, con la proximidad de la Copa del Mundo el gobierno recurrió aún más drásticamente a esta estrategia. El ejército ha ocupado algunas favelas en Río de Janeiro y estará allí hasta que finalice el mundial. Muchos brasileros se encuentran intranquilos con esto aunque sientan que es necesario controlar el crimen.
“Estoy muy preocupado por el abuso policial, pero, acá, es como un campo de batalla”, dice Constantino. “Es como los métodos del gobierno de Estados Unidos en Irak. Usted tiene que recordar que está en Irak y no en la ciudad de Nueva York. La policía entra en una favela bajo fuego de armas de guerra. No es como en Copacabana. Ahí es una realidad completamente diferente. Muchos policías mueren cada año en la guerra contra los dealers de las favelas”.
Grobbel es un americano que ha vivido en Brasil los últimos 20 años. Y piensa que el despliegue militar de tropas contra ciudadanos brasileros es una práctica normal en el contexto de la historia de ese país. «Brasil -dice- no tiene las mismas restricciones que el ejército en los Estados Unidos». «Brasil siempre ha tenido un control piramidal a lo largo de su historia. Eso hace posible las cosas también para el ejército».
Tapando protestas
Las favelas no son los únicos lugares en donde el gobierno brasilero intenta tapar las cosas. Esta preparado también para contener el descontento social. Gastará apenas 85 millones de dólares en la seguridad durante La Copa del Mundo y destacará una fuerza de seguridad de 170.000 agentes de policía propia y privada. Hay razones para preocuparse: el último verano, las masivas manifestaciones antigubernamentales sacudieron el país.
Se iniciaron en junio del 2013 en San Pablo, cuando un pequeño grupo de extrema izquierda protestó por el incremento en el boleto de autobús. Pronto las protestas se propagaron, y millones se volcaron a las calles para expresar una gran variedad de quejas. Muchos estaban en contra de lo gastado en los estadios para la Copa del Mundo con los fondos públicos mientras los hospitales de Brasil y las escuelas permanecen por debajo de un nivel aceptable.
El gobierno rápidamente prometió una reforma, pero después de finalizadas las protestas no hubo nada en concreto. “Las autoridades tomaron conciencia del malestar popular, pero no pienso que vayan a hacer algo cosa”, opina Alexandre Barros, un asesor de políticas de riesgo de Brasilia.
No hay ya manifestaciones a gran escala, pero algunos desilusionados todavía tratan de expresar su descontento con el estado de cosas. “Hay algo de amargura. Habrá pirotecnia en las calles y a la gente no se la escucha por eso su actitud será la de quemar cosas», opina Grobbel.
Los Black Bloc son un pequeño grupo que utilizan de máscara los anarquistas de izquierda que han llamado la atención de los medios. «Ellos han estado utilizando las protestas», dice Constantino. «Son una minoría realmente pequeña en las protestas, pero están muy organizados con armas, piedras y molotovs. Han estado intentando crear un clima de violencia y caos».
En febrero, un cámara llamado Santiago Andrade fue muerto por una piedra supuestamente arrojada por los manifestantes. Esto motivó a los miembros del congreso de Brasil a introducir un proyecto de ley anti-terrorista que pudiera sancionar penalmente las protestas violentas. «El problema es que algunos artículos del proyecto son vagos y abren la posibilidad muy peligrosa de criminalizar casi cualquier tipo de protesta contra el gobierno», dice Bruno Garschagen del Instituto Mises en Brasil. “Además, esa clase de legislación aumentará la fuerza del gobierno sobre la sociedad brasilera, especialmente en contra de sus adversarios”.
Los patrocinadores de este proyecto de ley habían esperado promulgarlo antes de la Copa del Mundo. Sin embargo, debido a las preocupaciones sobre su ambigua redacción el proyecto ha sido demorado sin más debates en el congreso.
Haciendo blanco en los manifestantes individuales
Como parte de sus esfuerzos para impedir nuevas protestas la policía brasilera ha estado citando a las personas que marcharon el año pasado para interrogarlos. Juliano Torres, director ejecutivo de Estudiantes para la Libertad en Brasil, recibió una citación. Tomó parte en algunas manifestaciones del año pasado, llevando consigo una consigna que decía: «Ninguna fiesta es gratis», y, «Privaticen la Copa del Mundo».
Durante el interrogatorio, la policía preguntó acerca de sus conexiones con diversos grupos libertarios y querían saber quien financiaba su trabajo. Le mostraron fotos de su participación en las protestas de este último verano. Y también tenían una foto suya en una manifestación que había organizado cinco años atrás. Después de dos horas se le permitió retirarse y no volvió a tener contacto con la policía de nuevo. «Estuve muy preocupado durante dos días, pero ahora pienso que esta todo bien», dijo. Piensa que el único objetivo que tenían era el de disuadirlo a formar parte de nuevas protestas. De hecho, concluyó que ir a manifestaciones era perder el tiempo.
Torres conoce a dos personas, ambas con una orientación ideológica muy diferente que fueron también citadas para un interrogatorio en la estación de policía.»La policía está operando sobre una zona gris de la ley por aquí». “No es ni legal ni ilegal”, dice Torres. En este momento trabaja en una nueva organización el Instituto Pela Justica (Instituto de la Justicia). Uno de sus fines será el de ayudar a los ciudadanos brasileros a demandar judicialmente a la policía cuando realicen estos tipos de interrogatorios.
Constantino cree que la policía está cubriendo con sus interrogatorios una amplia red que comprende alrededor de 1000 citaciones. «Tratan de dar con alguien que se encuentre vinculado de algún modo con el movimiento de los Black Bloc», dijo.
Grobbel cree que la ideología libertaria de Torres es considerada peligrosa porque sacude el corazón mismo de la sociedad brasilera. “Todo se reduce a la cuestión de como Brasil se encuentra en esta situación. Hay una burocracia muy grande. La sociedad esta cerrada en una secuencia que va de pasar un examen, conseguir un puesto en el Estado, y así piensan incluso las partes de las sociedad con mayor solvencia».
Pocas expectativas para un gran evento
Con estos nubarrones sobre la Copa del Mundo los brasileros no están de humor para celebrar. Normalmente a estas alturas, los brasileros estarían debatiendo ansiosamente las posibilidades de su selección nacional. Ahora, la Copa del Mundo es solo objeto de risas y comentarios sarcásticos. La leyenda popular que dice “imagina na copa ” («sueña la copa») es usada cuando sucede algo malo como en las esperas por los embotellamientos. Algunos brasileros con los que me encontré piensan dejar el país durante el mundial, y muchos me dijeron que les gustaría hacerlo. Tengo el presentimiento que la gente quiere que pase de una vez la Copa del Mundo y que todo sea ya parte del pasado.
El estado de ánimo probablemente mejore un poco cuando la selección local comience a jugar, aunque eso no será suficiente. “Las personas tienen internet ahora, y ven que las cosas en Brasil no están tan bien en comparación con otros países ” dice Grobbel. “No se conformarán simplemente con ganar un partido de fútbol”.
Fuente: Fundación Atlas, traducido de The Freeman, junio 2014.
The Freeman es una publicación de The Foundation for Economic Education (FEE).












