El Teorema de Bayes en el Análisis de Inteligencia

julio 1, 2020

“Bayes ingenuo” en apoyo del análisis de inteligencia

Por José-Miguel Palacios.

Un interesante artículo de Juan Pablo Somiedo[1], aparecido a finales de 2018, nos recordaba que el teorema de Bayes[2], en su versión más elemental (lo que se suele llamar “Bayes ingenuo”) puede seguir siendo útil en análisis de inteligencia.

El teorema de Bayes en el análisis de inteligencia

Se puede argumentar que todo análisis de inteligencia es bayesiano en su naturaleza. En esencia consiste en obtener unas evidencias iniciales, simples fragmentos de una realidad bastante compleja, para formular después hipótesis explicativas, recolectar más evidencia y verificar cuál de nuestras hipótesis se ajusta mejor a la evidencia disponible. Algo que no es esencialmente distinto de la “lógica bayesiana”, es decir, de ir modificando nuestras valoraciones subjetivas iniciales a medida que vamos recibiendo evidencias más o menos consistentes con ellas.

En las décadas de 1960 y 1970 hubo varios intentos de utilizar directamente el teorema de Bayes para fines de análisis de inteligencia. Algunos de ellos han sido documentados en las publicaciones del Centro para el Estudio de la Inteligencia de la CIA[3]. Los resultados, sin embargo, no llegaron a ser plenamente convincentes. Y una de las razones principales fue que el mundo real resultó ser demasiado complejo para los modelos elementales que deben considerarse al utilizar “Bayes ingenuo”. Y es que estos modelos presuponen la invariabilidad de la situación inicial (oculta a nuestros ojos), así como la independencia absoluto de los sucesos que vamos considerando. Este problema puede resolverse mediante el uso de “redes bayesianas”[4] y los resultados son matemáticamente correctos, aunque aquí el principal problema radica en conseguir modelar correctamente la realidad. Es el enfoque que fue seleccionado para el programa Apollo[5] y otros similares.

A pesar de todo, y con las debidas precauciones, el uso de “Bayes ingenuo” puede ayudarnos en algunos casos a valorar la evidencia de que disponemos. Para que ello sea así, tendríamos que prestar atención a neutralizar las principales debilidades del método. A saber:

a) Deberíamos utilizar únicamente evidencia relativamente “reciente” (algo que, medido en tiempo, puede tener distintos significados dependiendo de los casos). El problema es que Bayes nos da información sobre una situación preexistente y oculta (por ejemplo, la decisión que puede haber adoptado un determinado líder político) fijando nuestra atención en sus manifestaciones visibles. Si la evolución de la situación es bastante lenta (por ejemplo, la soviética durante el brezhnevismo medio y tardío), podemos asumir que no cambia sustancialmente durante años, por lo que el momento de obtención es escasamente relevante para la valoración de la evidencia. En situaciones más dinámicas, como suelen ser la actuales, las posiciones de los líderes se están modificando continuamente como consecuencia de los cambios que se producen en el entorno. Evidencia relativamente antigua puede referirse a una “situación oculta” que ya no es actual. Por ello, deberíamos utilizar solo evidencia bastante nueva y, si la crisis continúa, prescindir de la más antigua en beneficio de otra más reciente.

b) En la medida de lo posible, el conjunto de las hipótesis debería cubrir la totalidad de las posibilidades existentes, y no debería existir ningún solape entre las diferentes hipótesis. En la práctica, este objetivo es casi imposible de alcanzar, aunque cuanto más nos acerquemos a él, más fiables serán los resultados que obtengamos al aplicar “Bayes ingenuo”.

c) Las evidencias (“Sucesos”) deberían ser de un “peso similar” y no estar relacionadas entre sí[6].

En la práctica

Hemos elaborado una hoja de Excel[7], con la esperanza de que pueda ayudar con los cálculos matemáticos que esta técnica requiere. Para rellenarla, seguiremos los siguiente pasos, sugeridos por Jessica McLaughlin[8]:

1) Creamos un conjunto de hipótesis mutuamente excluyentes y colectivamente exhaustivas relativas al fenómeno incierto que queremos investigar. Como ya hemos explicado, es, quizá, uno de los pasos más difíciles. En general, resulta complicado imaginar hipótesis que sean por completo mutuamente excluyentes (sin ningún solape entre ellas). Y no lo es menos conseguir que el conjunto de ellas agote todas las posibilidades.

2) Asignamos probabilidades previas (pr.previa, en nuestra hoja de cálculo) a cada una de las hipótesis. La probabilidad previa es nuestra estimación intuitiva de la probabilidad relativa de cada una de las hipótesis. Dado que son mutuamente excluyentes y que cubren todas las posibilidades, la suma de las probabilidades previas debe ser 1. En nuestra tabla, expresamos las probabilidades en tantos por ciento.

3) Ahora debemos ir incorporando los “Sucesos” que nos servirán para valorar las hipótesis. El método reajusta las probabilidades de las hipótesis después de cada suceso, por lo que estos pueden añadirse secuencialmente, según se van produciendo o según tenemos noticia de ellos. Una buena elección de sucesos es muy importante para que el método produzca resultados aceptables. Los sucesos deben tener valor diagnóstico (es decir, deben ser más o menos probables según cuál de las hipótesis es la correcta) y, en lo posible, de un “peso” (importancia) similar.

4) Según incorporamos “Sucesos” a la tabla, les asignamos “verosimilitudes” (“verosim.”, en nuestra hoja de cálculo), relativas a cada una de las hipótesis. Se trata para cada caso de la probabilidad estimada por el analista de que el suceso ocurra, suponiendo que la hipótesis que estamos considerando sea correcta. En la tabla, esta probabilidad la expresamos por un entero entre 0 y 100, siendo 0 la imposibilidad total, y 100 la seguridad completa (de que el suceso se producirá suponiendo que la hipótesis se verifica). Obviamente, la suma de todas las verosimilitudes no tiene por que ser la unidad (100% o, según la notación que utilizamos en nuestra tabla, 100).

La propia tabla recalculará las probabilidades de las hipótesis una vez que hayamos computado cada “Suceso”. En nuestra tabla, podemos encontrar estas probabilidades recalculadas en la columna G (“probab.”).

5) Reiteraremos el proceso según añadimos nuevos sucesos. En nuestra tabla, cada nuevo suceso está representado 10 filas más abajo del anterior. Si agotamos los predefinidos en la tabla, podemos añadir más copiando el último “bloque” diez filas más abajo.

Un ejemplo: Crisis de Crimea, marzo de 2020

El proceso puede verse mucho más claro con la ayuda de un ejemplo. Utilizaremos el de la crisis de Crimea de 2014, en particular las dos semanas que siguieron a la caída del Presidente ucraniano Yanukovich, el 21 de febrero. Hemos rellenado la hoja Excel con una serie de “Sucesos” y el resultado puede encontrarse en la hoja prueba_crimea.xlsx[9]. Se trata, evidentemente, de un supuesto didáctico en el que la elección su “Sucesos” y la determinación de las verosimilitudes están condicionados por el interés en ilustrar algunos de los posibles resultados.

Como vemos, la técnica nos permite calcular en todo momento las probabilidades de las diversas hipótesis, y mantener este cálculo actualizado según vamos recibiendo nueva información. Algunas observaciones interesantes:

  1. a) A fecha 6 de marzo de 2014, consideraríamos casi seguro (probabilidad del 90%) que la intención rusa sea anexionar la península de Crimea.
  2. b) Sin embargo, unos días antes (según la tabla) no estaría tan claro. El 1 de marzo la hipótesis de la anexión era ya la más probable (55%), pero aún calculábamos una probabilidad notable (39%) de que los rusos estuvieran intentando crear una república virtualmente independiente sin poner en cuestión (formalmente) las fronteras reconocidas (modelo “Transnistria”).
  3. c) Tan solo unos días antes, hacia el 25-26 de febrero, la hipótesis más probable era aún que los rusos estuvieran intentando impedir que el nuevo gobierno de Kiev tomara el control efectivo de Crimea (probabilidad del 63-68%).

Con la tabla, podemos fácilmente excluir como sospechoso de desinformación un suceso que hemos aceptado previamente, modificar la verosimilitud de sucesos pasados a la luz de nueva evidencia, o cambiar las probabilidades previas de las que hemos partido. En todos estos casos, la tabla nos recalcula automáticamente todas las probabilidades.

Bayes ingenuo y Análisis de Hipótesis Alternativas (ACH)

En el fondo, la técnica de Bayes ingenuo no es muy diferente del Análisis de Hipótesis Alternativas (ACH) de Heuers. La lógica subyacente es la misma (conocer una realidad oculta gracias al estudio de sus manifestaciones visibles) y la diferencia principal radica en la forma de atacar el problema: mientras  Bayes ingenuo calcula las probabilidades relativas, ACH intenta descartar hipótesis por ser inconsistentes con la evidencia.

Para ilustrar mejor las diferencias entre estas dos técnicas, hemos elaborado una matriz (prueba ach_crimea.xlsx[10]) con los sucesos y las hipótesis del ejemplo sobre Crimea. Como sabemos, las diversas variantes de ACH se diferencian entre sí por la manera de contabilizar los resultados. En nuestro caso, marcaremos CC y contaremos 2 puntos cuando el suceso sea altamente consistente con la hipótesis, C (1 punto) cuando sea consistente, I (-1) cuando sea inconsistente y X (rechazo de la hipótesis) cuando sea incompatible. Con estas reglas, hemos llegado a los resultados que a continuación se indican:

a) La hipótesis de la Anexión parece la más probable, aunque seguimos atribuyendo una probabilidad considerable a la hipótesis del Caos. Las dos primeras hipótesis (Evitar el control de Kiev sobre la península y el modelo Transnistria) podrían ser descartadas.

b) Si elimináramos la última fila, es decir, si no tomáramos en consideración el suceso del 6 de marzo, las cuatro hipótesis seguirían siendo verosímiles, con dos de ellas (Anexión y Transnistria) vistas como claramente más probables.

Vemos, pues, que partiendo de una lógica similar, las dos técnicas nos conducen a resultados ligeramente distintos. Y en el proceso podemos apreciar algunos de los inconvenientes que cada una de ellas tiene:

a) En ACH el principal problema es que no siempre resulta fácil encontrar sucesos que desmientan alguna de las hipótesis (“coartadas”) por ser completamente incompatibles con ella. Y, en ocasiones, sucesos muy interesantes pueden ser sospechosos de desinformación.

b) En ausencia de “coartadas”, la puntuación en ACH depende mucho de la metodología de cálculo que se siga. La que hemos elegido es, quizá, excesivamente simple. Otras más complejas pueden resultar difíciles de aplicar (aunque hay programas informáticos que pueden servir de ayuda) y resultar en cierta medida arbitrarias.

c) El problema con Bayes ingenuo es que para muchos analistas no resulta intuitivo. El uso de la hoja Excel ayuda mucho a realizar los cálculos, pero puede oscurecer la lógica que hay detrás de ellos.

A modo de conclusión                                                 

a) El Teorema de Bayes no sirve para predecir el futuro, sino que nos ayuda a conocer una realidad pasada o presente que permanece oculta a nuestros ojos. Es obvio que si el Presidente del país X ha decidido invadir el país vecino Y, acabará haciéndolo, de no mediar alguna circunstancia que le haga cambiar de opinión. Pero lo que averiguamos no es el hecho futuro (que invadirá), sino el pasado (que ha tomado la decisión de hacerlo).

b) Bayes ingenuo (como también ACH) es más efectivo cuando se usa para estudiar una situación estable, cuando la evidencia se puede recolectar durante un período de tiempo suficientemente largo sin que la “incógnita” que intentamos resolver cambie apreciablemente. Porque cuando la “incógnita” cambia con relativa rapidez, como suele ser el caso durante las crisis actuales, diferentes observaciones realizadas en momentos distintos pueden ser producto de una “realidad oculta” que se ha modificado, que ya no es la misma. Por eso, si queremos que Bayes ingenuo funcione razonablemente bien con situaciones dinámicas, la recogida de datos debe realizarse en plazos de tiempo relativamente cortos. O debemos descartar los “sucesos” más antiguos, que pueden responder a una “realidad oculta” que ya no es real.

c) Más importante que las dos técnicas que hemos examinado en este post es la “lógica bayesiana” que subyace a ambas. En inteligencia (sobre todo, en inteligencia estratégica) es raro conseguir evidencias directas sobre la realidad que nos interesa. Esa realidad siempre permanece oculta a nuestros ojos y lo que podemos averiguar sobre ella es gracias a sus manifestaciones visibles.

d) Quien quiera ocultar una información valiosa no solo intentará protegerla de intentos directos de acceder a ella, sino que tendrá también en cuenta esas manifestaciones visibles, tan difíciles de ocultar. Y lo hará utilizando desinformación. Este es el principal problema para utilizar Bayes ingenuo (o ACH): distinguir la información correcta de la inexacta y de la desinformacón.

Y es que no resulta nada fácil ser un analista inteligente.


[1]     SOMIEDO, J.P. (2018). El análisis bayesiano como piedra angular de la inteligencia de alertas estratégicas. Revista de Estudios en Seguridad Internacional, 4, 1: 161-176. DOI: http://dx.doi.org/10.18847/1.7.10. Para una lista de las interesantes aportaciones de Somiedo al estudio de la metodología del análisis de inteligencia, ver https://dialnet.unirioja.es/servlet/autor?codigo=3971893.

[2]     Para una explicación rápida del teorema de Bayes, véase https://es.wikipedia.org/wiki/Teorema_de_Bayes.

[3]     Puede verse, por ejemplo, FISK, C.F. (1967). The Sino-Soviet Border Dispute: A Comparison of the Conventional and Bayesian Methods for Intelligence Warning. CIA Center for the Study of Intelligence. https://www.cia.gov/library/center-for-the-study-of-intelligence/kent-csi/vol16no2/html/v16i2a04p_0001.htm (acceso: 08.062020).

[4]     Los no familiarizados con las redes bayesianas pueden encontrar una introducción elemental de este concepto en https://es.wikipedia.org/wiki/Red_bayesiana.

[5]     Ver STICHA, P., BUEDE, D. & REES, R.L. (2005). APOLLO: An analytical tool for predicting a subject’s decision making. En Proceedings of the 2005 International Conference on Intelligence Analysishttps://cse.sc.edu/~mgv/BNSeminar/ApolloIA05.pdf (acceso: 08.06.2020).

[6]     Los que conozcan el histórico concurso de televisión Un, dos, tres, responda otra vez recordarán que una táctica muy eficaz para responder consistía en repetir un “objeto”, alterando alguna de sus características. Por ejemplo, si pedían “muebles que puedan estar en un comedor”, ir diciendo sucesivamente “silla blanca”, “silla negra”, “silla roja”, etc. Esta táctica aplicada a la técnica de “Bayes ingenuo” nos acabaría conduciendo inexorablemente a una hipótesis predeterminada. Claro que sería como hacernos trampas al solitario…

[7]     El nombre de la hoja es bayes_excel.xlsx, y puede encontrarse en https://bit.ly/2An58uc.

[8]     MCLAUGHLIN, J., & PATÉ-CORNELL, M.E. (2005). A Bayesian approach to Iraq’s nuclear program intelligence analysis: a hypothetical illustration. En 2005 International Conference on Intelligence Analysis. https://analysis.mitre.org/proceedings/Final_Papers_Files/85_Camera_Ready_Paper.pdf (acceso: 27.10.2018). También, MCLAUGHLIN, J. (2005). A Bayesian Updating Model for Intelligence Analysis:A Case Study of Iraq’s Nuclear Weapons Program. Honors Program in International Security Studies Center for International Security and Cooperation Stanford University.

[9]     Puede accederse a ella en la siguiente dirección: https://bit.ly/30veoY3.

[10]   Puede encontrarse en https://bit.ly/3dUsENL.

Fuente: serviciosdeinteligencia.com, 2020


Algoritmos Naive Bayes: Fundamentos e Implementación

¡Conviértete en un maestro de uno de los algoritmos mas usados en clasificación!

Por Víctor Román.

Victor RomanFollowApr 25, 2019 · 13 min read

Introducción: ¿Qué son los modelos Naive Bayes?

En un sentido amplio, los modelos de Naive Bayes son una clase especial de algoritmos de clasificación de Aprendizaje Automatico, o Machine Learning, tal y como nos referiremos de ahora en adelante. Se basan en una técnica de clasificación estadística llamada “teorema de Bayes”.

Estos modelos son llamados algoritmos “Naive”, o “Inocentes” en español. En ellos se asume que las variables predictoras son independientes entre sí. En otras palabras, que la presencia de una cierta característica en un conjunto de datos no está en absoluto relacionada con la presencia de cualquier otra característica.

Proporcionan una manera fácil de construir modelos con un comportamiento muy bueno debido a su simplicidad.

Lo consiguen proporcionando una forma de calcular la probabilidad ‘posterior’ de que ocurra un cierto evento A, dadas algunas probabilidades de eventos ‘anteriores’.

Ejemplo

Presentaremos los conceptos principales del algoritmo Naive Bayes estudiando un ejemplo.

Consideremos el caso de dos compañeros que trabajan en la misma oficina: Alicia y Bruno. Sabemos que:

  • Alicia viene a la oficina 3 días a la semana.
  • Bruno viene a la oficina 1 día a la semana.

Esta sería nuestra información “anterior”.

Estamos en la oficina y vemos pasar delante de nosotros a alguien muy rápido, tan rápido que no sabemos si es Alicia o Bruno.

Dada la información que tenemos hasta ahora y asumiendo que solo trabajan 4 días a la semana, las probabilidades de que la persona vista sea Alicia o Bruno, son:

  • P(Alicia) = 3/4 = 0.75
  • P(Bruno) = 1/4 = 0.25

Cuando vimos a la persona pasar, vimos que él o ella llevaba una chaqueta roja. También sabemos lo siguiente:

  • Alicia viste de rojo 2 veces a la semana.
  • Bruno viste de rojo 3 veces a la semana.

Así que, para cada semana de trabajo, que tiene cinco días, podemos inferir lo siguiente:

  • La probabilidad de que Alicia vista de rojo es → P(Rojo|Alicia) = 2/5 = 0.4
  • La probabilidad de que Bruno vista de rojo → P(Rojo|Bruno) = 3/5 = 0.6

Entonces, con esta información, ¿a quién vimos pasar? (en forma de probabilidad)

Esta nueva probabilidad será la información ‘posterior’.

Inicialmente conocíamos las probabilidades P(Alicia) y P(Bruno), y después inferíamos las probabilidades de P(rojo|Alicia) y P(rojo|Bruno).

De forma que las probabilidades reales son:

Formalmente, el gráfico previo sería:

Algoritmo Naive Bayes Supervisado

A continuación se listan los pasos que hay que realizar para poder utilizar el algoritmo Naive Bayes en problemas de clasificación como el mostrado en el apartado anterior.

  1. Convertir el conjunto de datos en una tabla de frecuencias.
  2. Crear una tabla de probabilidad calculando las correspondientes a que ocurran los diversos eventos.
  3. La ecuación Naive Bayes se usa para calcular la probabilidad posterior de cada clase.
  4. La clase con la probabilidad posterior más alta es el resultado de la predicción.

Puntos fuertes y débiles de Naive Bayes

Los puntos fuertes principales son:

  • Un manera fácil y rápida de predecir clases, para problemas de clasificación binarios y multiclase.
  • En los casos en que sea apropiada una presunción de independencia, el algoritmo se comporta mejor que otros modelos de clasificación, incluso con menos datos de entrenamiento.
  • El desacoplamiento de las distribuciones de características condicionales de clase significan que cada distribución puede ser estimada independientemente como si tuviera una sola dimensión. Esto ayuda con problemas derivados de la dimensionalidad y mejora el rendimiento.

Los puntos débiles principales son:

  • Aunque son unos clasificadores bastante buenos, los algoritmos Naive Bayes son conocidos por ser pobres estimadores. Por ello, no se deben tomar muy en serio las probabilidades que se obtienen.
  • La presunción de independencia Naive muy probablemente no reflejará cómo son los datos en el mundo real.
  • Cuando el conjunto de datos de prueba tiene una característica que no ha sido observada en el conjunto de entrenamiento, el modelo le asignará una probabilidad de cero y será inútil realizar predicciones. Uno de los principales métodos para evitar esto, es la técnica de suavizado, siendo la estimación de Laplace una de las más populares.

Proyecto de Implementación: Detector de Spam

Actualmente, una de las aplicaciones principales de Machine Learning es la detección de spam. Casi todos los servicios de email más importantes proporcionan un detector de spam que clasifica el spam automáticamente y lo envía al buzón de “correo no deseado”.

En este proyecto, desarrollaremos un modelo Naive Bayes que clasifica los mensajes SMS como spam o no spam (‘ham’ en el proyecto). Se basará en datos de entrenamiento que le proporcionaremos.

Haciendo una investigación previa, encontramos que, normalmente, en los mensajes de spam se cumple lo siguiente:

  • Contienen palabras como: ‘gratis’, ‘gana’, ‘ganador’, ‘dinero’ y ‘premio’.
  • Tienden a contener palabras escritas con todas las letras mayúsculas y tienden al uso de muchos signos de exclamación.

Esto es un problema de clasificación binaria supervisada, ya que los mensajes son o ‘Spam’ o ‘No spam’ y alimentaremos un conjunto de datos etiquetado para entrenar el modelo.

Visión general

Realizaremos los siguientes pasos:

  • Entender el conjunto de datos
  • Procesar los datos
  • Introducción al “Bag of Words” (BoW) y la implementación en la libreria Sci-kit Learn
  • División del conjunto de datos (Dataset) en los grupos de entrenamiento y pruebas
  • Aplicar “Bag of Words” (BoW) para procesar nuestro conjunto de datos
  • Implementación de Naive Bayes con Sci-kit Learn
  • Evaluación del modelo
  • Conclusión

Entender el Conjunto de Datos

Utilizaremos un conjunto de datos del repositorio UCI Machine Learning.

Un primer vistazo a los datos:

Las columnas no se han nombrado, pero como podemos imaginar al leerlas:

  • La primera columna determina la clase del mensaje, o ‘spam’ o ‘ham’ (no spam).
  • La segunda columna corresponde al contenido del mensaje

Primero importaremos el conjunto de datos y cambiaremos los nombre de las columnas. Haciendo una exploración previa, también vemos que el conjunto de datos está separado. El separador es ‘\t’.

# Importar la libreria Pandas 
import pandas as pd# Dataset de https://archive.ics.uci.edu/ml/datasets/SMS+Spam+Collection
df = pd.read_table('smsspamcollection/SMSSpamCollection',
sep='\t',
names=['label','sms_message'])# Visualización de las 5 primeras filas
df.head()

Preprocesamiento de Datos

Ahora, ya que el Sci-kit learn solo maneja valores numéricos como entradas, convertiremos las etiquetas en variables binarias, 0 representará ‘ham’ y 1 representará ‘spam’.

Para representar la conversión:

# Conversion
df['label'] = df.label.map({'ham':0, 'spam':1})# Visualizar las dimensiones de los datos
df.shape()

Introducción a la Implementación “Bag of Words” (BoW) y Sci-kit Learn

Nuestro conjunto de datos es una gran colección de datos en forma de texto (5572 filas). Como nuestro modelos solo aceptará datos numéricos como entrada, deberíamos procesar mensajes de texto. Aquí es donde “Bag of Words“ entra en juego.

“Bag of Words” es un término usado para especificar los problemas que tiene una colección de datos de texto que necesita ser procesada. La idea es tomar un fragmento de texto y contar la frecuencia de las palabras en el mismo.

BoW trata cada palabra independientemente y el orden es irrelevante.

Podemos convertir un conjunto de documentos en una matriz, siendo cada documento una fila y cada palabra (token) una columna, y los valores correspondientes (fila, columna) son la frecuencia de ocurrencia de cada palabra (token) en el documento.

Como ejemplo, si tenemos los siguientes cuatro documentos:

['Hello, how are you!', 'Win money, win from home.', 'Call me now', 'Hello, Call you tomorrow?']

Convertiremos el texto a una matriz de frecuencia de distribución como la siguiente:

Los documentos se numeran en filas, y cada palabra es un nombre de columna, siendo el valor correspondiente la frecuencia de la palabra en el documento.

Usaremos el método contador de vectorización de Sci-kit Learn, que funciona de la siguiente manera:

  • Fragmenta y valora la cadena (separa la cadena en palabras individuales) y asigna un ID entero a cada fragmento (palabra).
  • Cuenta la ocurrencia de cada uno de los fragmentos (palabras) valorados.
  • Automáticamente convierte todas las palabras valoradas en minúsculas para no tratar de forma diferente palabras como “el” y “El”.
  • También ignora los signos de puntuación para no tratar de forma distinta palabras seguidas de un signo de puntuación de aquellas que no lo poseen (por ejemplo “¡hola!” y “hola”).
  • El tercer parámetro a tener en cuenta es el parámetro stop_words. Este parámetro se refiere a las palabra más comúnmente usadas en el lenguaje. Incluye palabras como “el”, “uno”, “y”, “soy”, etc. Estableciendo el valor de este parámetro por ejemplo en english, “CountVectorizer” automáticamente ignorará todas las palabras (de nuestro texto de entrada) que se encuentran en la lista de “stop words” de idioma inglés..

La implementación en Sci-kit Learn sería la siguiente:

# Definir los documentos
documents = ['Hello, how are you!',
'Win money, win from home.',
'Call me now.',
'Hello, Call hello you tomorrow?']# Importar el contador de vectorizacion e inicializarlo
from sklearn.feature_extraction.text import CountVectorizer
count_vector = CountVectorizer()# Visualizar del objeto'count_vector' que es una instancia de 'CountVectorizer()'
print(count_vector)

Para ajustar el conjunto de datos del documento al objeto “CountVectorizer” creado, usaremos el método “fit()”, y conseguiremos la lista de palabras que han sido clasificadas como características usando el método “get_feature_names()”. Este método devuelve nuestros nombres de características para este conjunto de datos, que es el conjunto de palabras que componen nuestro vocabulario para “documentos”.

count_vector.fit(documents)
names = count_vector.get_feature_names()
names

A continuación, queremos crear una matriz cuyas filas serán una de cada cuatro documentos, y las columnas serán cada palabra. El valor correspondiente (fila, columna) será la frecuencia de ocurrencia de esa palabra (en la columna) en un documento particular (en la fila).

Podemos hacer esto usando el método “transform()” y pasando como argumento en el conjunto de datos del documento. El método “transform()” devuelve una matriz de enteros, que se puede convertir en tabla de datos usando “toarray()”.

doc_array = count_vector.transform(documents).toarray()
doc_array

Para hacerlo fácil de entender, nuestro paso siguiente es convertir esta tabla en una estructura de datos y nombrar las columnas adecuadamente.

frequency_matrix = pd.DataFrame(data=doc_array, columns=names)
frequency_matrix

Con esto, hemos implementado con éxito un problema de “BoW” o Bag of Words para un conjunto de datos de documentos que hemos creado.

Un problema potencial que puede surgir al usar este método es el hecho de que si nuestro conjunto de datos de texto es extremadamente grande, habrá ciertos valores que son más comunes que otros simplemente debido a la estructura del propio idioma. Así, por ejemplo, palabras como ‘es’, ‘el’, ‘a’, pronombres, construcciones gramaticales, etc. podrían sesgar nuestra matriz y afectar nuestro análisis.

Para mitigar esto, usaremos el parámetro stop_words de la clase CountVectorizer y estableceremos su valor en inglés.

Dividiendo el Conjunto de Datos en Conjuntos de Entrenamiento y Pruebas

Buscamos dividir nuestros datos para que tengan la siguiente forma:

  • X_train son nuestros datos de entrenamiento para la columna ‘sms_message’
  • y_train son nuestros datos de entrenamiento para la columna ‘label’
  • X_test son nuestros datos de prueba para la columna ‘sms_message’
  • y_test son nuestros datos de prueba para la columna ‘label’. Muestra el número de filas que tenemos en nuestros datos de entrenamiento y pruebas
# Dividir los datos en conjunto de entrenamiento y de test
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(df['sms_message'], df['label'], random_state=1)print('Number of rows in the total set: {}'.format(df.shape[0]))print('Number of rows in the training set: {}'.format(X_train.shape[0]))print('Number of rows in the test set: {}'.format(X_test.shape[0]))

Aplicar BoW para Procesar Nuestros Datos de Pruebas

Ahora que hemos dividido los datos, el próximo objetivo es convertir nuestros datos al formato de la matriz buscada. Para realizar esto, utilizaremos CountVectorizer() como hicimos antes. tenemos que considerar dos casos:

  • Primero, tenemos que ajustar nuestros datos de entrenamiento (X_train) en CountVectorizer() y devolver la matriz.
  • Sgundo, tenemos que transformar nustros datos de pruebas (X_test) para devolver la matriz.

Hay que tener en cuenta que X_train son los datos de entrenamiento de nuestro modelo para la columna ‘sms_message’ en nuestro conjunto de datos.

X_test son nuestros datos de prueba para la columna ‘sms_message’, y son los datos que utilizaremos (después de transformarlos en una matriz) para realizar predicciones. Compararemos luego esas predicciones con y_test en un paso posterior.

El código para este segmento está dividido en 2 partes. Primero aprendemos un diccionario de vocabulario para los datos de entrenamiento y luego transformamos los datos en una matriz de documentos; segundo, para los datos de prueba, solo transformamos los datos en una matriz de documentos.

# Instantiate the CountVectorizer method
count_vector = CountVectorizer()# Fit the training data and then return the matrix
training_data = count_vector.fit_transform(X_train)# Transform testing data and return the matrix. Note we are not fitting the testing data into the CountVectorizer()
testing_data = count_vector.transform(X_test)

Implementación Naive Bayes con Sci-Kit Learn

Usaremos la implementación Naive Bayes “multinomial”. Este clasificador particular es adecuado para la clasificación de características discretas (como en nuestro caso, contador de palabras para la clasificación de texto), y toma como entrada el contador completo de palabras.

Por otro lado el Naive Bayes gausiano es más adecuado para datos continuos ya que asume que los datos de entrada tienen una distribución de curva de Gauss (normal).

Importaremos el clasificador “MultinomialNB” y ajustaremos los datos de entrenamiento en el clasificador usando fit().

from sklearn.naive_bayes import MultinomialNB
naive_bayes = MultinomialNB()
naive_bayes.fit(training_data, y_train)

Ahora que nuestro algoritmo ha sido entrenado usando el conjunto de datos de entrenamiento, podemos hacer algunas predicciones en los datos de prueba almacenados en ‘testing_data’ usando predict().

predictions = naive_bayes.predict(testing_data)

Una vez realizadas las predicciones el conjunto de pruebas, necesitamos comprobar la exactitud de las mismas.

Evaluación del modelo

Hay varios mecanismos para hacerlo, primero hagamos una breve recapitulación de los criterios y de la matriz de confusión.

  • La matriz de confusión es donde se recogen el conjunto de posibilidades entre la clase correcta de un evento, y su predicción.
  • Exactitud: mide cómo de a menudo el clasificador realiza la predicción correcta. Es el ratio de número de predicciones correctas contra el número total de predicciones (el número de puntos de datos de prueba).
  • Precisión: nos dice la proporción de mensajes que clasificamos como spam. Es el ratio entre positivos “verdaderos” (palabras clasificadas como spam que son realmente spam) y todos los positivos (palabras clasificadas como spam, lo sean realmente o no)
  • Recall (sensibilidad): Nos dice la proporción de mensajes que realmente eran spam y que fueron clasificados por nosotros como spam. Es el ratio de positivos “verdaderos” (palabras clasificadas como spam, que son realmente spam) y todas las palabras que fueron realmente spam.

Para los problemas de clasificación que están sesgados en sus distribuciones de clasificación como en nuestro caso. Por ejemplo si tuviéramos 100 mensajes de texto y solo 2 fueron spam y los restantes 98 no lo fueron, la exactitud por si misma no es una buena métrica. Podríamos clasificar 90 mensajes como no spam (incluyendo los 2 que eran spam y los clasificamos como “no spam”, y por tanto falsos negativos) y 10 como spam (los 10 falsos positivos) y todavía conseguir una puntuación de exactitud razonablemente buena.

Para casos como este, la precisión y el recuerdo son bastante adecuados. Estas dos métricas pueden ser combinadas para conseguir la puntuación F1, que es el “peso” medio de las puntuaciones de precisión y recuerdo. Esta puntuación puede ir en el rango de 0 a 1, siendo 1 la mejor puntuación posible F1.

Usaremos las cuatro métricas para estar seguros de que nuestro modelo se comporta correctamente. Para todas estas métricas cuyo rango es de 0 a 1, tener una puntuación lo más cercana posible a 1 es un buen indicador de cómo de bien se está comportando el modelo.

from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_scoreprint('Accuracy score: ', format(accuracy_score(y_test, predictions)))print('Precision score: ', format(precision_score(y_test, predictions)))print('Recall score: ', format(recall_score(y_test, predictions)))print('F1 score: ', format(f1_score(y_test, predictions)))

Conclusión

  • Una de las mayores ventajas que Naive Bayes tiene sobre otros algoritmos de clasificación es la capacidad de manejo de un número extremadamente grande de características. En nuestro caso, cada palabra es tratada como una característica y hay miles de palabras diferentes.
  • También, se comporta bien incluso ante la presencia de características irrelevantes y no es relativamente afectado por ellos.
  • La otra ventaja principal es su relativa simplicidad. Naive Bayes funciona bien desde el principio y ajustar sus parámetros es raramente necesario.
  • Raramente sobreajusta los datos.
  • Otra ventaja importante es que su modelo de entrenamiento y procesos de predicción son muy rápidos teniendo en cuenta la cantidad de datos que puede manejar.

Fuente: medium.com, 2019


Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter


.

.

Para saber más sobre Big Data

mayo 9, 2020

Big Data. Conceptos, tecnologías y aplicaciones

El libro que tengo en las manos es una excelente aportación para el conocimiento del público en general del gran paradigma que conmueve los cimientos de nuestro mundo, el Big Data. Se trata de Big Data. Conceptos, tecnologías y aplicaciones, en la colección Qué sabemos de, escrito por dos expertos, David Ríos Insúa y David Gómez Ullate.

Comentaremos brevemente el contenido de este libro, aunque en entradas sucesivas seguiremos hablando de algunos de los temas que, al menos a mí, me han resultado tan interesantes como para querer saber más sobre ellos.

Una de las cuestiones más preocupantes del big data es que una gran parte de ese tsunami de datos lo estamos proporcionando nosotros mismos de manera gratuita y casi sin darnos cuenta, como si no nos importara. Y con esos datos, hay compañías que hacen negocios.  Google recibe 4 millones de peticiones por minuto, en Facebook compartimos 2 millones y medio de piezas por minuto, cada día enviamos 400 millones de tuits.

big data

La importancia de los datos y su análisis tiene un origen comercial, como conocer mejor a los clientes, sus gustos, como llegar mejor a ellos. Y si antiguamente (por ejemplo, Gallup) había que hacer encuestas, los avances tecnológicos (internet, móviles, GPS, …) han facilitado la tarea. Se dice que hay unos 15.000 millones de sensores distribuidos en el mundo, y no paran,

Pero estos datos se dan en bruto, tenemos que pulirlos y almacernarlos para poder usarlos. Y después tenemos que aplicar diferentes tecnologías para extraer información útil de los mismos. Y ahí es donde entran las matemáticas. Los autores muestran como una de las bases claves es la Estadística. El otro pilar es la Infomática. A lo largo del libro describen ampliamente como estas dos disciplinas interactúan en el Big Data. Y ello les lleva a hablar del aprendizaje automático (machine learning), redes neuronales, inteligencia artificial, ciberseguridad, y muchos otros temas.

Es muy relevante como las administraciones públicas están tan lejos de las grandes corporaciones empresariales y no están utilizando estas nuevas herramientas en beneficio de la sociedad; hay un enorme potencial en su uso, por ejemplo, en la medicina, tal y como detallan en uno de sus capítulos.

Aunque a veces la lectura nos produce el temor al Gran Hermano, los aspectos positivos son muchos, como ocurre casi siempre con la ciencia. El Big Data no es la panacea a todos los problemas de este mundo pero si que nos ofrece un gran cantidad de oportunidades. Enhorabuena a los autores por este magnífico libro que en apenas 134 páginas no nos da respiro.

big brother

Sobre los autores

David Ríos Insúa. Es AXA-ICMAT Chair en Análisis de Riesgos Adversarios en el ICMAT-CSIC y numerario de la Real Academia de Ciencias Exactas, Físicas y Naturales. Es catedrático de Estadística e Investigación Operativa (en excedencia). Previamente ha sido profesor o investigador en Manchester, Leeds, Duke, Purdue, Paris-Dauphine, Aalto, CNR-IMATI, IIASA, SAMSI y UPM. Entre otros, ha recibido el Premio DeGroot de la ISBA por su libro Adversarial Risk Analysis. Es asesor científico de Aisoy Robotics. Ha escrito más de 130 artículos con revisión y 15 monografías sobre sus temas de interés que incluyen la inferencia bayesiana, la ciencia de datos, el análisis de decisiones y el análisis de riesgos, y sus aplicaciones, principalmente, a seguridad y ciberseguridad.

David Gómez-Ullate Oteiza. Es investigador en la Universidad de Cádiz y profesor titular de Matemática Aplicada en la Universidad Complutense de Madrid. Su labor reciente se centra en la transferencia de conocimiento al sector industrial en ciencia de datos e inteligencia artificial. Dirige proyectos en el sector aeronáutico, seguros y biomédico aplicando técnicas de visión artificial y procesamiento de lenguaje natural.

___

Manuel de León (CSIC, Fundador del ICMAT, Real Academia de Ciencias, Real Academia Canaria de Ciencias, Real Academia Galega de Ciencias).

Fuente: madrimasd.org, 2020.



Vincúlese a nuestras Redes Sociales:

LinkedIn      YouTube      Facebook      Twitter


inteligencia de negocios

.

.

La Inteligencia Artificial no es neutra

enero 23, 2020

¿Decidirá un robot si puedes recibir un riñón o el préstamo de tu casa?

ROBOT

“Los modelos y algoritmos predictivos” indican a los pobres “como inversiones arriesgadas y padres problemáticos”, se lee en un artículo reciente de la Civiltá Cattolica

La Inteligencia Artificial no es neutra. La sustitución del hombre para maximizar objetivos y tareas a través de las máquinas o la robótica abre un debate serio sobre el impacto de la Inteligencia Artificial y su incidencia en la vida de millones de personas, especialmente aquellas pobres y marginadas.

“Los pobres en un mundo dominado por los big data” es el tema clave presentado en el artículo, titulado: Intelligenza artificiale e giustizia sociale. Una sfida per la Chiesa, publicado recientemente por La Civiltá Cattolica (18 enero / 01 de febrero 2020 –  Año 171, pág. 121 – 131, Sumario  4070).

Antonio Spadaro S.J y Paul Twomey ponen el énfasis en las potencialidades de acompañar el cambio tecnológico actual con la sabiduría humanista de la Iglesia. Además porque la tecnología e ingeniería robótica y sus implicaciones son impredecibles y ambiguas, para el trabajo y el empleo, la manufactura, la agricultura y los sistemas alimentarios, los servicios de salud, la lucha contra la pobreza y la marginación.

Precisamente, la Iglesia busca ser profética en el tiempo del “big data”, es decir, en la época inquieta e incierta de esos datos de cuyo volumen, complejidad y velocidad, sin control, se está forjando el desarrollo de la “Inteligencia Artificial” y la New Economy.

Se trata, según Spadaro y Twomey, de comprender el fenómeno con el intento de canalizarlo desde la perspectiva de la “justicia social”. Existen desafíos y oportunidades, pero abordar la cuestión desde el “bien común” podría inclinar la balanza a favor de la dignidad de la persona y no de su manipulación.

Los big data, “datos necesarios para alimentar los motores de aprendizaje automático pueden llevar a una manipulación y a la explotación de los pobres: Los pobres del XXI siglo son, al mismo tiempo de quien no tiene dinero, los que, en un mundo basado sobre los datos y sobre las informaciones, aquellos ignorados, ingenuos y explotados”, se lee en el artículo.

“Los modelos y algoritmos predictivos” indican a los pobres “como inversiones arriesgadas y padres problemáticos”. Así, vigilancia, manipulación y control asoman como una amenaza en la vida de los pobres en la era de la IA, donde cada gesto o comportamiento se digitalizan en algoritmos sin alma y emociones con fines gubernativos, comerciales y públicos.

La influencia de esos sistemas avanzados de análisis podría hacer más complejo y menos humano la asistencia social, la defensa de la privacidad, la aplicación de leyes y el crédito para sectores ya marginados.

La Iglesia está ahí para ofrecer una reflexión sobre los aspectos éticos y espirituales, por ejemplo en el caso especifico de los códigos y los prejuicios a su alrededor. “El código de programación está escrito por seres humanos. Por lo tanto, su complejidad puede acentuar los defectos que inevitablemente acompañan a cualquier tarea que realizamos”.

Las preconcepciones y el sesgo en la escritura de los algoritmos son inevitables. Y pueden tener efectos muy negativos sobre los derechos individuales, la elección, la colocación de los trabajadores y la protección de los consumidores”.

La revista de los Jesuitas en Roma, cuyos textos son revisados por la Santa Sede antes de su publicación, propone una mirada realista respecto a los sesgos presentes y futuros.  “Sobre el código que viene escrito hoy se basarán los futuros sistemas de la IA por muchos años posteriores”.

De hecho, los investigadores han encontrado prejuicios de varios tipos presentes en los algoritmos, en el software adoptado para las admisiones en las universidades, en los recursos humanos, en las calificaciones de crédito, en los bancos, en los sistemas de manutención de niños, en los sistemas de seguridad social y en otros”.

En definitiva, “los algoritmos no son neutrales. La creciente dependencia de la economía socioeconómica de la IA da un enorme poder a quienes programan sus algoritmos”.

Riesgo de una mayor marginación de los vulnerables. Un análisis del impacto social de los grandes datos y de la IA muestra que su tendencia a tomar decisiones sobre la base de un perfil insuficiente y una retroalimentación limitada conduce a una mayor marginación de los pobres, los indigentes y los vulnerables”.

Por eso, la propuesta es que los futuros Bill Gates o Mark Zuckerberg y otros genios de la programación y de la informática, conciban las consecuencias éticas de sus negocios y descubrimientos para bien de la humanidad entera. Así como ha advertido el Papa Francisco en su discurso enviado al Foro Económico de Davos en enero de 2018.

Spadaro y Twomey afirman que la evolución de la IA contribuirá en gran medida a plasmar el siglo XXI.  “La Iglesia está llamada a escuchar, a reflexionar y a comprometerse proponiendo un marco ético espiritual a la comunidad de la IA, de esta manera prestar un servicio a la comunidad universal. Según la tradición de la Rerum Novarum, se puede decir que aquí hay una llamada a la justicia social”.

La cuestión sigue abierta: ¿Qué será de la vida de millones de personas, externas a los círculos decisionales de expertos y de empresas especializadas en Inteligencia Artificial volcadas con millones de dólares en la carrera tecnológica que pretende incidir en cuestiones vitales, tales como la salud, el trabajo, las aseguraciones, las pensiones, la privacidad, la instrucción, etc.? 

En efecto, la Pontificia Academia de las Ciencias en mayo de 2019, invitó a expertos internacionales a la Ciudad del Vaticano para abordar las preocupaciones de la Iglesia sobre los fundamentos científicos de la innovación de la IA / robótica; las relaciones persona-robot y las implicaciones para la sociedad.

Asimismo, el papa Francisco ha recibido en audiencia privada a líderes del campo tecnológico como el presidente de Microsoft, Brad Smith, el pasado 13 de febrero de 2019, para valorar el bien común en futuras innovaciones. A una platea de los representantes de empresas como Apple, Facebook, Google, Francisco también planteó el beneficio de la IA para que los menores no tengan acceso a material pornográfico y ser protegidos de otras amenazas a su inocencia.

Además, de alertar a las élites del mundo también sobre el mal uso de la inteligencia artificial para manipular la opinión de millones de personas y “envenenar” los debates públicos, a través de un mensaje al pasado Foro Económico Mundial en Davos (27.09.2019).

Artículo de la Civiltá Cattolica: INTELLIGENZA ARTIFICIALE E GIUSTIZIA SOCIALE. Una sfida per la Chiesa

Fuente: es.aleteia.org, 23/01/20.


Vincúlese a nuestras Redes Sociales:  LinkedIn      Twitter


.

.

Ya los robots crean anuncios publicitarios

noviembre 25, 2018

Lexus presenta el primer comercial escrito por una Inteligencia Artificial

Las plataformas de Inteligencia Artificial también tienen vocación artística. Lo descubrimos hace dos años con Sunspring, el primer cortometraje escrito por una IA. Y ahora Lexus lleva las cosas un paso más allá.

La compañía automotriz acaba de presentar el primer anuncio comercial para TV con un guión escrito por una inteligencia artificial. Y debemos decir que el resultado es incluso más innovador que las propuestas escritas usualmente por humanos.

lexus

El video central de la campaña Driven by Intuituion de Lexus fue escrito por la supercomputadora Watson de IBM. Demostrando una vez más el poder de esta plataforma.

La historia, tal como podemos ver tiene un ritmo y desarrollo poco convencional. Aunque resulta efectiva en el balance último.

Para lograrlo Watson analizó los últimos 15 años de comerciales de anuncios de coches y otras marcas premiadas.

Tanto video, como audio y texto. Con especial énfasis en los elementos de inteligencia emocional. Todo para establecer patrones y tendencias, que llevaron a la historia vista ahí arriba.

Como parte del experimento el equipo de producción; junto al director ganador del Óscar, Kevin MacDonald (El Último Rey de Escocia), respetó cada línea del libreto.

Lo que se filmó es exactamente lo que escribió la IA. Y gracias a eso el Lexus ES tiene este anuncio único en su clase.

Fuente: fayerwayer.com, 22/11/18.

.

robot


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


como ganar dinero con youtube

.

.

Siete profesiones que caerán en el olvido

agosto 25, 2018

Las primeras 7 profesiones que caerán en el olvido por culpa de la inteligencia artificial

Ante el rápido avance de las tecnologías, estos empleos serán los primeros en caer en el olvido en un futuro próximo.

robot

.

 

Muchas personas comparten cierto entusiasmo sobre las comodidades que los algoritmos inteligentes y los robots van a traer a nuestra vida cotidiana y permanecen optimistas sobre sus puestos de trabajo. Mientras tanto los empleos de los que se empezará a expulsar a los humanos en primer lugar no se limitarán simplemente al trabajo para los que carecen de experiencia o la labor manual.

La automatización robótica será responsable para el 2020 de la pérdida de más de 5 millones de puestos de trabajo en 15 naciones desarrolladas, informa la revista ‘Forbes’ citando un informe del Foro Económico Mundial.

Otro estudio, elaborado por la corporación IDC, supone cambios dramáticos en la mano de obra y la cultura laboral debido a innovaciones robóticas, incluidas nuevas leyes, nuevos cargos y nuevos métodos de trabajar al lado de compañeros no solamente humanos.

donde quieras office estilo de vida internet

Camioneros

Hay unos 3,5 millones de camioneros en Estados Unidos hoy en día, pero si se cumplen las predicciones de que dentro de menos de una década un tercio de todos los camiones circularán de manera autónoma, ya es tiempo que los conductores empiecen a entrenarse para nuevos empleos.

Otto Motors, una empresa con apoyo financiero de Uber fundada por exempleados de Google responsables de la inteligencia artificial, tiene como objetivo convertir a los conductores humanos en obsoletos.

Obreros

El sistema SAM es dos a tres veces más productivo que los albañiles humanos. Coloca 1.200 ladrillos al día, en comparación con los 300-500 colocados por los humanos. Y esto es solo el comienzo de la automatización en la construcción.

Los operadores de grúas y los conductores de buldóceres deben prepararse para que las máquinas inteligentes les arrebaten los empleos en breve.

Personal de apoyo jurídico

Conforme al informe de Deloitte Insight, el 39% de los empleos en el sector jurídico será automatizado para el 2020. Revisar la documentación y buscar información pertinente para los casos legales son tareas que van bien con las capacidades de la inteligencia artificial.

Por el momento la infiltración de la inteligencia artificial se limita a diligencias de auditoría, la búsqueda de datos electrónicos y evaluación de contratos, pero su aplicación va expandirse en el futuro, sin duda alguna.

Doctores y otro personal médico

Los robots ya están siendo empleados en la medicina de hoy en día y van a responder a la demanda crítica de servicios médicos por la creciente población mundial.

Varias organizaciones médicas ya están introduciendo sistemas computarizados para la detección y tratamiento del cáncer. Los diagnósticos y cirugía son ámbitos apropiados para el uso de robots.

Contables

Calcular cifras, manejar hojas de balance, cuentas a pagar y recibir, evaluar pérdidas y ganancias y mantener el inventario son tareas donde los robots pueden ser más competentes que los humanos. Por lo tanto hay que esperar un significativo crecimiento en la contabilidad robótica en los próximos años.

El trabajo de analistas financieros también corre riesgos, dado que el análisis de la inteligencia artificial es capaz de detectar una tendencia de forma más rápida y precisa.

Escritores de informes

Los novelistas, tal vez, van a mantener el trabajo pero los escritores de informes y los escritores financieros probablemente estén en riesgo de irse al paro.

Las máquinas están siendo enseñadas y son cada vez más competentes en la creación del contenido legible.

Vendedores

A medida que más personas se fijan en el comercio electrónico y la búsqueda basada en precio, especificaciones y disponibilidad de cada artículo que quieren comprar, la figura del vendedor tradicional -de productos simples- va siendo eliminada de la ecuación.

Fuente: actualidad.rt.com, 29/04/17.


Más información:

La mutación del Trabajo

El Futuro del Trabajo Hoy

Diez claves sobre el Trabajo del Futuro

La digitalización moldea el futuro del trabajo


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


oportunidades on line

.

.

La industria turística se suma a la inteligencia artificial

febrero 7, 2018

El futuro es hoy: el mundo turístico se asoma a la inteligencia artificial

Habitaciones inteligentes, apps que conocen de antemano lo que el cliente quiere, recorridos virtuales de los sitios que se quieren visitar… las nuevas tecnologías están tomando el sector turístico, que espera aprovechar la mina de oro de los datos personales.

.

Una habitación de hotel personalizada de forma automática según los gustos del cliente, apps que permiten elegir de antemano la temperatura y la luz de los cuartos, así como a Picasso o Van Gogh en las pantallas digitales de las paredes, un espejo de reconocimiento facial en lugar de un recepcionista, anteojos de realidad virtual en reemplazo de folletos, valijas-robot… las nuevas tecnologías están tomando el sector turístico, que espera aprovechar la mina de oro de los datos personales.

“Incluso la cerradura es inteligente. Se abre y se cierre con la aplicación Whatsapp del teléfono del cliente”, explicaba Carlos Méndez, responsable de innovación en la consultora tecnológica francesa Altran, que presentó su prototipo esta semana en el salón internacional de turismo “Fitur”, que se celebra en Madrid.

.

Si bien algunos hoteles proponen versiones más básicas, dicha habitación, destinada a los hoteles de lujo, integra los últimos avances en materia de reconocimiento de voz. De esta forma, el cliente puede pedir una pizza en 40 idiomas. El colchón, equipado de captores, registra todos los movimientos del huésped, lo que permite al dueño del establecimiento ofrecerle café si ve que no ha dormido bien.

Más allá del aspecto tecnológico, la inteligencia artificial promete un conocimiento extremadamente íntimo del cliente. “La tecnología nos va a permitir conocer las necesidades del cliente antes de que el cliente sepa que tiene esas necesidades“, augura Álvaro Carrillo de Albornoz, director del Instituto Tecnológico Hotelero. Un conocimiento forjado gracias a los datos personales facilitados en el momento de reservar en internet, pero también una vez el cliente en el hotel. Y todo ello por obra y gracia de la tecnología “beacon” -más o menos autorizada según los países-, un dispositivo que permite detectar el emplazamiento de los teléfonos inteligentes en el hotel o en la ciudad.

Un mundo de algoritmos

.

Alimentados por estos datos, los algoritmos de la inteligencia artificial perfilan las costumbres y preferencias del cliente, para fidelizarlo ofreciéndole un recibimiento a medida, o bien venderle productos adicionales. Si el algoritmo “sabe que cuando vienes con tu mujer al hotel no sueles cenar en el restaurante porque pides room-service (servicio a la habitación), te dicen que en ese momento hay menú especial en la habitación con botella de champán. En cambio, si vienes con niños, te intentarán dar una oferta con menú para niños en el restaurante del hotel“, explica Carrillo de Albornoz.

Aparte, estas herramientas tecnológicas pueden ayudar a mejorar el rendimiento del hotel. “Se puede automatizar perfectamente todas las compras. Por ejemplo, cuando (el hotel) tiene una llegada masiva de ingleses, va a tener que comprar más bacon (tocino)”, explica Rodrigo Martínez, director de la asesoría Hotel Servicers.

.

Los fabricantes del artilugio más de moda, las gafas de realidad virtual (RV), también buscan entrar en el sector turístico. De momento “estamos en una fase totalmente pionera. Mostramos la realidad virtual, la gente dice ‘oh qué maravilla’, pero a la hora de contratar, no compra. No está en las prioridades de su presupuesto de marketing”, expone Marcial Correal, presidente de la Sociedad española de agencias de viaje con realidad virtual, que promociona esta herramienta.

inteligencia artificialLa cadena hotelera Palladium, con sede en las islas Baleares, se lanzó en la aventura. Sus agentes comerciales ya no van con folletos para presentar sus establecimientos a las agencias de viaje, sino que trabajan con lentes de realidad virtual. Para cada hotel hay videos disponibles, en los que se pueden “visitar” las habitaciones, las piscinas y los restaurantes. “Es mucho mas difÍcil engañar con anteojos de realidad virtual”, dice César Urbina, de la agencia de realidad virtual “Iralta”. Los anteojos están disponibles a precios accesibles, entre 50 y 600 euros, aunque los videos producidos a medida pueden costar de 2.000 a 150.000 euros.

Ajedrez, inteligencia artificial y aprendizaje

diciembre 18, 2017

Anatoly Karpov y una lección sobre cómo aprendemos

La velocidad con que las máquinas «aprenden» a jugar al ajedrez hace pensar sobreel ritmo en el que la inteligencia artificial puede desarrollarse e influir en la economía.

Por Sebastián Campanario.

A mediados de 2010, Anatoly Karpov, ex campeón mundial de ajedrez, visitó Buenos Aires invitado por la Fundación Najdorf. Además de su fama como gran maestro, Karpov es economista -tiene un doctorado por la Universidad de Moscú- y encabeza un exitoso grupo inversor, con foco en el sector hotelero de Europa del Este. En su viaje a la Argentina participó en distintas exhibiciones y brindó una entrevista, en la que se le preguntó quién consideraba que había sido el mejor jugador de la historia. Puntualmente, si se juntaban en un torneo todos los ex campeones mundiales (él, Garry Kasparov, Bobby Fischer, Raúl Capablanca, etcétera), cada uno en su mejor momento o pico de juego, quién ganaría.

Karpov meditó la respuesta por un momento, como si estuviera pensando una jugada. Es una persona modesta, de un perfil mucho más bajo que su rival histórico, Kasparov, con quien durante años protagonizó lo que Harvard Business Review calificó como «la rivalidad más enconada de la historia de los deportes en el siglo XX». Su primera respuesta fue que el Fischer de 1972 -cuando derrotó en el match del siglo al ruso Boris Spassky, en Islandia- probablemente haya sido el ajedrecista que más lejos estuvo del pelotón que lo seguía. «Ganó algunos de los matchs clasificatorios por 6-0, aplastando a sus rivales -me dijo en una entrevista-. En términos estadísticos fue un outlier total, una proeza equivalente a ganar un torneo de grand slam sin ceder un solo game«.

Pero luego precisó su respuesta: el vencedor sería sin duda el último campeón (el indio Viswanathan Anand al momento de la charla, el noruego Magnus Carlsen hoy). «En ajedrez hay aprendizaje, y muchas aperturas que se jugaban hace algunas décadas fueron descartadas porque se les encontraron puntos débiles. Así que hay una ventaja grande para el último campeón», explicó.

inteligencia artificialLa respuesta de Karpov resuena a partir de un nuevo hito de la inteligencia artificial logrado en forma reciente. El programa Alpha Zero logró aplastar a otro software fuerte en un match a cien partidas sin perder ninguna. Pero lo revolucionario no fue el resultado, sino cómo se logró: Alpha Zero no necesitó aprender de millones de partidas anteriores, sino que simplemente se le enseñaron las reglas y en 24 horas se convirtió en el jugador más potente del planeta. Las décadas que a los humanos nos llevaron desechar aperturas se transformaron en horas en al caso del algoritmo: en las primeras dos horas, el programa parecía entusiasta probando la apertura francesa, pero luego la descartó. Su enamoramiento de la Caro-Kahn duró mucho menos.

«Lo interesante aquí es que no se necesitó big data para superar la performancehumana: sólo las reglas y tiempo para aprender (un día)», dice a LA NACION Marcelo Rinesi, experto en ciencia de datos e investigador del Instituto Baikal. «La observación inevitable, creo, es que la experiencia y el conocimiento acumulados por la especie humana son realmente pocos: no sabíamos nada de ajedrez, y seguramente no sabemos nada de matemáticas, programación, medicina, diseño industrial ni arquitectura», agrega.

Tres años atrás, la empresa DeepMind, que pertenece a Google, se puso como objetivo desarrollar un algoritmo que pudiera competir contra los mejores jugadores de Go del mundo, un juego tremendamente complejo, con trillones de jugadas probables, que no puede abordarse con la «fuerza bruta» computacional como la que IBM usó con Deep Blue 20 años atrás para derrotar a Kasparov. En marzo de 2016, cuando el programa Alpha Go se enfrentó a Lee Sedol, el mejor jugador del mundo, las apuestas estaban diez a uno a favor del humano. El resultado fue un 4-1 para el algoritmo. El programa aprendía, a velocidad supersónica, de millones de partidas previas, y un año después derrotó con un inapelable 3-0 al chino Ke Jie, un joven prodigio cuyo talento en Go es comparable al de Carlsen en ajedrez.

El salto cuántico se produjo luego, cuando la firma logró una versión más potente sin necesidad de acudir a partidas previas y pudo, en muy pocas semanas, traducir esa expertise del Go al ajedrez. Demis Hassabis, el fundador de DeepMind, fue a los 13 años un genio del juego ciencia, segundo a nivel mundial en esa categoría detrás de la húngara Judit Polgar.

Para Axel Rivas, experto en educación y profesor de la Udesa, la experiencia de Alpha Zero implica una lección relevante para la forma en que adquirimos conocimientos en el siglo XXI: «Tenemos que ser capaces de enseñar una serie de reglas y métodos fundamentales a nuestros alumnos. Pero también tenemos que enseñarles a cuestionar esos principios y reconstruirlos de maneras alternativas. Durante siglos enseñamos reglas (quizá como las primeras máquinas fueron programadas paso a paso), pero para enseñar metacognición tenemos que enseñar a vulnerarlas, o al menos a intentarlo«.

Según Rinesi, este tipo de eventos dan la pauta de que «se acelerarán los tiempos de avances esperados para biología, medicina e ingeniería. La única diferencia entre una partida de ajedrez y diseñar un nuevo dispositivo es que las reglas son más imperfectas y la partida, más complicada, pero ambas cuestiones implican sólo el desafío de acumular datos para refinar modelos y aumentar la escala de procesamiento».

En el último mes aparecieron varios estudios que buscan mapear los últimos avances de la inteligencia artificial y buscan responder la pregunta de cuán rápido, y en qué intensidad, esta tecnología exponencial transformará la economía. Uno de estos trabajos es un «AI Index» del MIT. Según un artículo de Steve Lohr en The New York Times, todos estos trabajos coinciden en que la inteligencia artificial en su estado actual sirve para menos cosas de las que creemos, pero que avanzará más rápido de lo que estimamos y tendrá un impacto mucho mayor que el que se pronostica.

La historia de Alpha Zero no está exenta de críticas. La semana pasada, José Camacho Collado, matemático, investigador en IA y gran maestro de ajedrez, publicó un análisis en Medium donde señaló una decena de razones para tomar con cautela el logro de DeepMind, entre ellas que sólo se publicaron algunas partidas y que no se eligió como contrincante la versión de software más poderosa.

La respuesta de Karpov, con la humildad de no mencionarse a sí mismo como probable ganador del hipotético torneo con los mejores del mundo, viene con una reivindicación: la forma de juego de Alpha Zero, resaltó Albert Silver, el sitio de ajedrez Chess News, es mucho más «humana»: su dinámica se basa en «filtrar» los caminos que parecen más promisorios y enfocar la profundidad y esfuerzo de análisis por ahí, como hacen los jugadores de carne y hueso.

Al contrario de los programas anteriores, mucho más agresivos, que van «a todo o nada», Alpha Zero no escapa de posiciones cerradas, en las cuales se trata de sacar una mínima ventaja y luego exprimirla con paciencia al máximo, ahogando al contrincante en forma lenta. Esta estrategia de boa constrictor fue refinada en su momento por el ex campeón Tigran Petrosian y llevada a su máximo nivel de brillantez por el propio Karpov. Por eso, destacó el artículo de Chess News, si Alpha Zero tuviera que emparentar su juego con alguno de los humanos conocidos, sería sin duda con el de Anatoly Karpov.

Fuente: La Nación, 15/12/17.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


Cómo lograr su Libertad Financiera

.

.

La automatización eliminará 800 millones de empleos

diciembre 1, 2017

La robótica eliminará hasta 800 millones de empleos en pocos años

.

Entre 400 y 800 millones de personas en todo el mundo se verán afectadas por la automatización y tendrán que encontrar una nueva ocupación desde hoy hasta el 2025, según un informe realizado por la consultoría McKinsey Global Institute.

Los efectos del fenómeno calculados por la consultoría varían de acuerdo con la proyección que se tome en cuenta: si la automatización de las economías avanza a un ritmo intenso o gradual.

robotsLos responsables del documento de McKinsey señalan que los bajos sueldos en México conllevarán a un impacto menos intenso de la automatización en el país latinoamericano: del total de 68 millones de personas que formarán la fuerza laboral mexicana en el 2025, unos 9 millones se verán desplazadas.

“México tiene una población joven y una fuerza laboral que está creciendo. El nivel de los sueldos puede disminuir la implementación de la automatización en el país”, destaca la consultoría.

McKinsey analizó el efecto de la robotización en 46 economías que representan casi el 90% del PIB mundial. Además, hizo proyecciones detalladas del impacto de la automatización en seis países: Estados Unidos, China, Alemania, Japón, México e India. La consultoría destaca que los países tienen que encontrar maneras de reubicar a los trabajadores desplazados por la automatización. “En los escenarios en que algunos de los desplazados llevan años para encontrar un nuevo trabajo, el desempleo crece en el corto y medio plazo. A largo plazo se reduce el desempleo y el mercado laboral se ajusta, pero con un menor crecimiento de los sueldos”, afirman.

Además, los cambios tecnológicos golpearán con más fuerza a los trabajadores con menos estudios. Por otro lado, las personas con formación universitaria o posgrado serán los que menos se verán afectados. Entre las actividades más afectadas señaladas por la consultoría, están los operadores de maquinas y los empleados en cadenas de fast food, además de trabajadores que hacen la colecta y procesamiento de datos.

“Las profesiones altamente dependientes de las actividades que identificamos como más susceptible a la automatización —trabajos físicos o procesamiento de datos— serán probablemente las más afectadas”, afirman los responsables del informe. “Ocupaciones que requieren alto nivel de especialización o una alta exigencia de interacción social y emocional serán menos susceptibles a la automatización hasta el 2025”, dicen.

Pese a los efectos esperados en el mercado laboral, los investigadores destacan que la innovación, el crecimiento económico adecuado y las inversiones pueden generar una creación de empleos suficiente para compensar los puestos que serán perdidos por la automatización.

Fuente: tynmagazine.com, 01/12/17.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


Cómo lograr su Libertad Financiera

.

.

Los robots y el futuro del trabajo

noviembre 29, 2017

Santiago Bilinkis: «En vez de repartir el dinero se podrá distribuir el trabajo»

Según el emprendedor y tecnólogo podría ser una solución alternativa al ingreso universal, ya que se logrará producir la misma riqueza con la mitad del empleo.

Por Sofía Terrile.Santiago Bilinkis
Santiago Bilinkis.
. 

¿Están cómodos?», preguntó el emprendedor y tecnólogo Santiago Bilinkis al auditorio. «Bien, porque mi meta es que dejen de estarlo», continuó. Luego trajo una «buena noticia»: la Argentina lidera a nivel global. El problema es en qué: en el porcentaje de trabajos que van a ser reemplazados por robots. «Seguramente no les sorprenda porque se está hablando de esto en todos lados», dijo. Explicó que no es una tendencia nueva: basta con ver empleos como los de las operadoras telefónicas, que se fueron perdiendo con los avances tecnológicos.

robot jetsonsSin embargo, señaló una diferencia entre esos avances del pasado y los del presente: «Las computadoras primero reemplazaron trabajos más físicos. Después los manuales. Ahora se viene el mayor cambio en la historia del trabajo: reemplazarán nuestras piernas, nuestras manos y nuestra cabeza». ¿Cómo será posible? Con la tecnología de deep learning o aprendizaje profundo, es decir, la capacidad de las máquinas de aprender de su propia experiencia.

Un ejemplo es la evolución de AlphaGo (un programa de inteligencia artificial desarrollado por Google que le ganó al campeón del juego oriental Go), llamada AlphaGo Zero: esta versión aprendió sola, ningún humano intervino para enseñarle. El resultado es que le gana a todos los seres humanos que existen e incluso a su precursor, y que logró todo eso en sólo cuarenta días. Bilinkis dio un dato más en su disertación: se trata de computadoras que no solamente calculan sino que además innovan. «Cuando triunfó ante el número uno del Go, este calificó las movidas de la máquina como «hermosas», con un nivel de creatividad jamás visto», dijo.

⇒ Ver Video: Los nuevos Paradigmas del siglo XXI

Abogados, médicos, periodistas… nadie se salvará, pero además, las máquinas serán superadoras en capacidad de aprendizaje y procesamiento de información. «Ya tenemos inteligencias artificiales mejores que cualquier ser humano en diseñar inteligencias artificiales: esto se vuelve iterativo y el terremoto recién empieza», advirtió, y siguió: «No estamos reaccionando. Todos vieron estas noticias y nadie hizo nada al respecto: no cambiaron su plan de carrera en el mediano plazo, no se pusieron a pensar qué es lo que la inteligencia artificial tiene para aportar a sus empleos, no se sentaron con sus hijos a plantearles un cambio en sus estudios».

banner trabajo siglo xxi 01

.

Visión de futuro

En las columnas de radio que el creador de Officenet hace regularmente, encuesta a personas respecto del futuro del empleo. Una de estas preguntas fue: «¿Creen que su trabajo va a ser transformado por la inteligencia artificial?» El 70% de los oyentes respondió que no. Otra pregunta: «¿Te considerás listo para los cambios?» El 70% dijo que sí. Explicó el problema del futuro del empleo: «Sabemos que nuestros trabajos van a dejar de existir tal como los conocemos en los próximos diez años y que van a ser reemplazados por empleos completamente nuevos, pero no sabemos cómo pueden llegar a ser».

Bilinkis también contó cómo se están preparando los gerentes de Recursos Humanos. Hace 10 años, reclutaban personas con conocimiento técnico y dedicación, gente que llegara temprano, se quedara hasta tarde y que tuviera habilidades bien orientadas a las tareas requeridas. Actualmente, las palabras en boga son «habilidades blandas e interpersonales«, «resiliencia» y «comunicación». Pero dentro de 10 años todo girará alrededor de la innovación, la creatividad y el aprendizaje continuo.

«Lo más importante es redefinir la educación -continuó el especialista-. Si en el colegio de sus hijos les están enseñando habilidades duras y ética del trabajo, los están preparando para el pasado. Necesitamos rompedores de reglas, no cumplidores».

Detalló que las personas de entre 15 a 19 años dedican casi 1200 horas anuales a aprender, es decir, seis horas por cada día hábil; pero entre los de 35 y 54 ese promedio baja drásticamente hasta 23 horas al año; y luego de los 55 es insignificante, es decir, más cercano a cero.

«En vez de dedicar 100% del tiempo a aprender durante el 20% de nuestra vida y después trabajar y tener experiencia, la fórmula debería ser la inversa: el 20% de nuestro tiempo el 100% de nuestra vida», expresó. Y añadió que «todas las organizaciones quieren ser innovadoras», pero que eso sólo puede suceder «si la gente está actualizada», y recomendó incentivar las capacitaciones en las empresas.

Centauros y empatía

Para finalizar, compartí dos conceptos con el auditorio. El primero, convertirse en «centauros». Rememoró el caso de Gary Kasparov, el reconocido jugador de ajedrez ruso, quien en 1997 jugó una partida contra la máquina Deep Blue, capaz de procesar 200 millones de jugadas por segundo, y perdió. Luego surgió el concepto de «ajedrez centauro», en el que juega una persona junto a una máquina contra otra persona con otra máquina. «Es decir, híbridos que reúnen lo mejor de los dos mundos. No gana el mejor ajedrecista ni el mejor software, gana quien mejor armoniza ambas virtudes. Si vamos a tener que pelear contra las computadoras, estamos fritos», dijo.

Lo conectó con el segundo concepto: la empatía. «Las máquinas seguro harán diagnósticos médicos mucho más rápidos, ningún doctor va a vencer a una computadora en conocimiento, pero si a mí en algún momento me tienen que dar una mala noticia en materia de salud, voy a preferir que me lo diga una persona», sostuvo. Recomendó aprender a lidiar con el ego y apostar por la conexión para «llenar de humanidad lo que hacemos». Por otro lado, aconsejó desarrollar el pensamiento prospectivo, ya que cuanto más rápido se mueve algo, más lejos hay que poder ver.

Para las ideas finales, dijo que «nadie garantiza que el trabajo alcanzará para todos» y que tampoco se sabe qué podrá ocurrir en un futuro no tan lejano. «Esto lleva a otra discusión que está teniendo mucho lugar y que es separar el ingreso del trabajo y crear un ingreso universal para que todas las personas puedan tener sus necesidades básicas cubiertas. Esto no se discute en Corea del Norte sino en Silicon Valley y en buena parte del mundo desarrollado», advirtió el emprendedor.

En sus encuestas radiales, también consultó a sus oyentes si podrían ser felices con una asignación universal y sin la posibilidad de volver a trabajar. Una gran mayoría respondió que no: «Sentir que es tratada con justicia es muy importante para la gente», aclaró, y agregó que «en el futuro, si se puede producir la misma riqueza y hace falta la mitad del trabajo, en vez de repartir el dinero se puede repartir el trabajo» y que eso dará lugar a cuidar mejor las relaciones personales y a tener tiempo para desarrollar hobbies. [Esto es: reducción de la jornada laboral]

Finalmente, Bilinkis concluyó: «Si creen que cambiar es arriesgado, prueben el riesgo de no cambiar».

El desafío de cara al futuro

Tips para entender los empleos que vienen:

23 – Aprendizaje

Son las horas anuales que ocupan los adultos de entre 35 y 55 para aprender. Los de entre 15 y 19 emplean 1200 horas anuales

Empatía: Ningún doctor va a vencer a una máquina en velocidad para hacer un diagnóstico, pero la persona seguirá siendo necesaria para comunicar, sobre todo en momentos difíciles

Riesgo: «Los que creen que cambiar es un riesgo deben probar el riesgo que implica no cambiar», dice Santiago Bilinkis

Fuente: La Nación, 29/11/17.


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


sea su propio jefe

.

.

Elon Munsk -CEO de Tesla- augura problemas en el mundo laboral

julio 18, 2017

El sombrío pronóstico del CEO de Tesla sobre los riesgos que enfrenta la humanidad

Elon Musk advirtió que la tecnología amenazará todos los trabajos hoy en manos de humanos.

.

Ante un audiencia compuesta por los gobernadores más importantes de los EEUU, el empresario multimillonario y referente de la Silicon Valley Elon Musk advirtió sobre los potenciales riesgos y consecuencias casi inevitables del ascenso de tecnologías apalancadas en la inteligencia artificial.

El sudafricano radicado en los EEUU al mando de la firma de vehículos eléctricos Tesla Motors y de la startup de viajes comerciales al espacio SpaceX destacó la importancia de crear cuanto antes un organismo regulatorio para guiar el desarrollo y la implementación de la tecnología que se perfila como la más influyente para la humanidad en el mediano plazo.

El pasado sábado durante la reunión de la Asociación Nacional de Gobernadores que tuvo lugar en Rhode Island, Musk se mostró pesimista en cuanto al impacto de la inteligencia artificial sobre los puestos de trabajo hoy ocupados por seres humanos y hasta se atrevió a anticipar que podría generarse una guerra debido a la expansión de la influencia de robots con capacidades humanoides.

 Es el mayor riesgo que enfrentamos como civilización. Cuando digo que los robots lo harán todo es todo, sin duda

Riesgos vinculados al desempleo masivo y la desestabilización social son los dos aspectos fundamentales que el cofundador de PayPal recomienda abordar desde un punto de vista regulatorio a la brevedad.

«Tengo acceso a la inteligencia artificial más vanguardista, y creo que la gente debería estar realmente preocupada por ello. La inteligencia artificial es un riesgo fundamental para la existencia de la civilización humana» aseguró Musk.

Además alertó sobre el peligro de que dispositivos con inteligencia artificial conectados a Internet puedan generar una rebelión en contra de la humanidad, algo que se ha visto hasta el hartazgo en filmes de ciencia ficción donde las máquinas se unen para «vengarse» de sus creadores.

«Se podría comenzar una guerra haciendo falsas noticias, falsificando cuentas de correo electrónico y emitiendo falsos comunicados de prensa. Simplemente manipulando información. La pluma es más poderosa que la espada» compartió Musk ante los gobernadores presentes.

El multimillonario ayudó a crear OpenAI, un grupo de investigación sin fines de lucro que aboga por el desarrollo seguro de la inteligencia artificial. «Una vez que se gane conciencia a nivel masivo, la gente tendrá mucho miedo» advirtió.

Criticado por algunos de los presentes por, supuestamente, alentar la desaceleración del progreso y la innovación que coloca a los EEUU como el referente tecnológico a nivel mundial, Musk aseguró que las regulaciones no harán que compañías nacionales dejen el país.

robotsMás allá de su postura alarmista, Musk se encuentra desarrollando Neuralink, un proyecto que busca conectar el cerebro con dispositivos electrónicos y sus vehículos eléctricos cuentan con tecnología de inteligencia artificial que permite un manejo completamente autónomo sin depender del conductor.

Fuente: infobae.com, 2017.

Más información:

La mutación del Trabajo

Diez claves sobre el Trabajo del Futuro

Fábrica china sustituye al 90% del personal con robots

Argentina: 2/3 de los empleos pueden ser robotizados


Vincúlese a nuestras Redes Sociales:

Google+      LinkedIn      YouTube      Facebook      Twitter


sea su propio jefe

.

.

Página siguiente »