The New Mind Control – ¿Google nos manipula?
mayo 3, 2016 · Imprimir este artículo
The New Mind Control. «Subliminal Stimulation», Controlling People without Their Knowledge
By Robert Epstein – Offshore-Manual’s Newsletter – April 2016
*** Ver más abajo la traducción automática al español ***
Over the past century, more than a few great writers have expressed concern about humanity’s future. In The Iron Heel (1908), the American writer Jack London pictured a world in which a handful of wealthy corporate titans – the ‘oligarchs’ – kept the masses at bay with a brutal combination of rewards and punishments. Much of humanity lived in virtual slavery, while the fortunate ones were bought off with decent wages that allowed them to live comfortably – but without any real control over their lives.
In We (1924), the brilliant Russian writer Yevgeny Zamyatin, anticipating the excesses of the emerging Soviet Union, envisioned a world in which people were kept in check through pervasive monitoring. The walls of their homes were made of clear glass, so everything they did could be observed. They were allowed to lower their shades an hour a day to have sex, but both the rendezvous time and the lover had to be registered first with the state.
In Brave New World (1932), the British author Aldous Huxley pictured a near-perfect society in which unhappiness and aggression had been engineered out of humanity through a combination of genetic engineering and psychological conditioning. And in the much darker novel 1984 (1949), Huxley’s compatriot George Orwell described a society in which thought itself was controlled; in Orwell’s world, children were taught to use a simplified form of English called Newspeak in order to assure that they could never express ideas that were dangerous to society.
These are all fictional tales, to be sure, and in each the leaders who held the power used conspicuous forms of control that at least a few people actively resisted and occasionally overcame. But in the non-fiction bestseller The Hidden Persuaders (1957) – recently released in a 50th-anniversary edition – the American journalist Vance Packard described a ‘strange and rather exotic’ type of influence that was rapidly emerging in the United States and that was, in a way, more threatening than the fictional types of control pictured in the novels. According to Packard, US corporate executives and politicians were beginning to use subtle and, in many cases, completely undetectable methods to change people’s thinking, emotions and behaviour based on insights from psychiatry and the social sciences.
Most of us have heard of at least one of these methods: subliminal stimulation, or what Packard called ‘subthreshold effects’ – the presentation of short messages that tell us what to do but that are flashed so briefly we aren’t aware we have seen them. In 1958, propelled by public concern about a theatre in New Jersey that had supposedly hidden messages in a movie to increase ice cream sales, the National Association of Broadcasters – the association that set standards for US television – amended its code to prohibit the use of subliminal messages in broadcasting. In 1974, the Federal Communications Commission opined that the use of such messages was ‘contrary to the public interest’. Legislation to prohibit subliminal messaging was also introduced in the US Congress but never enacted. Both the UK and Australia have strict laws prohibiting it.
Subliminal stimulation is probably still in wide use in the US – it’s hard to detect, after all, and no one is keeping track of it – but it’s probably not worth worrying about. Research suggests that it has only a small impact, and that it mainly influences people who are already motivated to follow its dictates; subliminal directives to drink affect people only if they’re already thirsty.
Packard had uncovered a much bigger problem, however – namely that powerful corporations were constantly looking for, and in many cases already applying, a wide variety of techniques for controlling people without their knowledge. He described a kind of cabal in which marketers worked closely with social scientists to determine, among other things, how to get people to buy things they didn’t need and how to condition young children to be good consumers – inclinations that were explicitly nurtured and trained in Huxley’s Brave New World. Guided by social science, marketers were quickly learning how to play upon people’s insecurities, frailties, unconscious fears, aggressive feelings and sexual desires to alter their thinking, emotions and behaviour without any awareness that they were being manipulated.
By the early 1950s, Packard said, politicians had got the message and were beginning to merchandise themselves using the same subtle forces being used to sell soap. Packard prefaced his chapter on politics with an unsettling quote from the British economist Kenneth Boulding: ‘A world of unseen dictatorship is conceivable, still using the forms of democratic government.’ Could this really happen, and, if so, how would it work?
The forces that Packard described have become more pervasive over the decades. The soothing music we all hear overhead in supermarkets causes us to walk more slowly and buy more food, whether we need it or not. Most of the vacuous thoughts and intense feelings our teenagers experience from morning till night are carefully orchestrated by highly skilled marketing professionals working in our fashion and entertainment industries. Politicians work with a wide range of consultants who test every aspect of what the politicians do in order to sway voters: clothing, intonations, facial expressions, makeup, hairstyles and speeches are all optimised, just like the packaging of a breakfast cereal.
Fortunately, all of these sources of influence operate competitively. Some of the persuaders want us to buy or believe one thing, others to buy or believe something else. It is the competitive nature of our society that keeps us, on balance, relatively free.
But what would happen if new sources of control began to emerge that had little or no competition? And what if new means of control were developed that were far more powerful – and far more invisible – than any that have existed in the past? And what if new types of control allowed a handful of people to exert enormous influence not just over the citizens of the US but over most of the people on Earth?
It might surprise you to hear this, but these things have already happened.
To understand how the new forms of mind control work, we need to start by looking at the search engine – one in particular: the biggest and best of them all, namely Google. The Google search engine is so good and so popular that the company’s name is now a commonly used verb in languages around the world. To ‘Google’ something is to look it up on the Google search engine, and that, in fact, is how most computer users worldwide get most of their information about just about everything these days. They Google it. Google has become the main gateway to virtually all knowledge, mainly because the search engine is so good at giving us exactly the information we are looking for, almost instantly and almost always in the first position of the list it shows us after we launch our search – the list of ‘search results’.
That ordered list is so good, in fact, that about 50 per cent of our clicks go to the top two items, and more than 90 per cent of our clicks go to the 10 items listed on the first page of results; few people look at other results pages, even though they often number in the thousands, which means they probably contain lots of good information. Google decides which of the billions of web pages it is going to include in our search results, and it also decides how to rank them. How it decides these things is a deep, dark secret – one of the best-kept secrets in the world, like the formula for Coca-Cola.
Because people are far more likely to read and click on higher-ranked items, companies now spend billions of dollars every year trying to trick Google’s search algorithm – the computer program that does the selecting and ranking – into boosting them another notch or two. Moving up a notch can mean the difference between success and failure for a business, and moving into the top slots can be the key to fat profits.
Late in 2012, I began to wonder whether highly ranked search results could be impacting more than consumer choices. Perhaps, I speculated, a top search result could have a small impact on people’s opinions about things. Early in 2013, with my associate Ronald E Robertson of the American Institute for Behavioral Research and Technology in Vista, California, I put this idea to a test by conducting an experiment in which 102 people from the San Diego area were randomly assigned to one of three groups. In one group, people saw search results that favoured one political candidate – that is, results that linked to web pages that made this candidate look better than his or her opponent. In a second group, people saw search rankings that favoured the opposing candidate, and in the third group – the control group – people saw a mix of rankings that favoured neither candidate. The same search results and web pages were used in each group; the only thing that differed for the three groups was the ordering of the search results.
To make our experiment realistic, we used real search results that linked to real web pages. We also used a real election – the 2010 election for the prime minister of Australia. We used a foreign election to make sure that our participants were ‘undecided’. Their lack of familiarity with the candidates assured this. Through advertisements, we also recruited an ethnically diverse group of registered voters over a wide age range in order to match key demographic characteristics of the US voting population.
All participants were first given brief descriptions of the candidates and then asked to rate them in various ways, as well as to indicate which candidate they would vote for; as you might expect, participants initially favoured neither candidate on any of the five measures we used, and the vote was evenly split in all three groups. Then the participants were given up to 15 minutes in which to conduct an online search using ‘Kadoodle’, our mock search engine, which gave them access to five pages of search results that linked to web pages. People could move freely between search results and web pages, just as we do when using Google. When participants completed their search, we asked them to rate the candidates again, and we also asked them again who they would vote for.
We predicted that the opinions and voting preferences of 2 or 3 per cent of the people in the two bias groups – the groups in which people were seeing rankings favouring one candidate – would shift toward that candidate. What we actually found was astonishing. The proportion of people favouring the search engine’s top-ranked candidate increased by 48.4 per cent, and all five of our measures shifted toward that candidate. What’s more, 75 per cent of the people in the bias groups seemed to have been completely unaware that they were viewing biased search rankings. In the control group, opinions did not shift significantly.
This seemed to be a major discovery. The shift we had produced, which we called the Search Engine Manipulation Effect (or SEME, pronounced ‘seem’), appeared to be one of the largest behavioural effects ever discovered. We did not immediately uncork the Champagne bottle, however. For one thing, we had tested only a small number of people, and they were all from the San Diego area.
Over the next year or so, we replicated our findings three more times, and the third time was with a sample of more than 2,000 people from all 50 US states. In that experiment, the shift in voting preferences was 37.1 per cent and even higher in some demographic groups – as high as 80 per cent, in fact.
We also learned in this series of experiments that by reducing the bias just slightly on the first page of search results – specifically, by including one search item that favoured the other candidate in the third or fourth position of the results – we could mask our manipulation so that few or even no people were aware that they were seeing biased rankings. We could still produce dramatic shifts in voting preferences, but we could do so invisibly.
Still no Champagne, though. Our results were strong and consistent, but our experiments all involved a foreign election – that 2010 election in Australia. Could voting preferences be shifted with real voters in the middle of a real campaign? We were skeptical. In real elections, people are bombarded with multiple sources of information, and they also know a lot about the candidates. It seemed unlikely that a single experience on a search engine would have much impact on their voting preferences.
To find out, in early 2014, we went to India just before voting began in the largest democratic election in the world – the Lok Sabha election for prime minister. The three main candidates were Rahul Gandhi, Arvind Kejriwal, and Narendra Modi. Making use of online subject pools and both online and print advertisements, we recruited 2,150 people from 27 of India’s 35 states and territories to participate in our experiment. To take part, they had to be registered voters who had not yet voted and who were still undecided about how they would vote.
Participants were randomly assigned to three search-engine groups, favouring, respectively, Gandhi, Kejriwal or Modi. As one might expect, familiarity levels with the candidates was high – between 7.7 and 8.5 on a scale of 10. We predicted that our manipulation would produce a very small effect, if any, but that’s not what we found. On average, we were able to shift the proportion of people favouring any given candidate by more than 20 per cent overall and more than 60 per cent in some demographic groups. Even more disturbing, 99.5 per cent of our participants showed no awareness that they were viewing biased search rankings – in other words, that they were being manipulated.
SEME’s near-invisibility is curious indeed. It means that when people – including you and me – are looking at biased search rankings, they look just fine. So if right now you Google ‘US presidential candidates’, the search results you see will probably look fairly random, even if they happen to favour one candidate. Even I have trouble detecting bias in search rankings that I know to be biased (because they were prepared by my staff). Yet our randomised, controlled experiments tell us over and over again that when higher-ranked items connect with web pages that favour one candidate, this has a dramatic impact on the opinions of undecided voters, in large part for the simple reason that people tend to click only on higher-ranked items. This is truly scary: like subliminal stimuli, SEME is a force you can’t see; but unlike subliminal stimuli, it has an enormous impact – like Casper the ghost pushing you down a flight of stairs.
We published a detailed report about our first five experiments on SEME in the prestigious Proceedings of the National Academy of Sciences (PNAS) in August 2015. We had indeed found something important, especially given Google’s dominance over search. Google has a near-monopoly on internet searches in the US, with 83 per cent of Americans specifying Google as the search engine they use most often, according to the Pew Research Center. So if Google favours one candidate in an election, its impact on undecided voters could easily decide the election’s outcome.
Keep in mind that we had had only one shot at our participants. What would be the impact of favouring one candidate in searches people are conducting over a period of weeks or months before an election? It would almost certainly be much larger than what we were seeing in our experiments.
Other types of influence during an election campaign are balanced by competing sources of influence – a wide variety of newspapers, radio shows and television networks, for example – but Google, for all intents and purposes, has no competition, and people trust its search results implicitly, assuming that the company’s mysterious search algorithm is entirely objective and unbiased. This high level of trust, combined with the lack of competition, puts Google in a unique position to impact elections. Even more disturbing, the search-ranking business is entirely unregulated, so Google could favour any candidate it likes without violating any laws. Some courts have even ruled that Google’s right to rank-order search results as it pleases is protected as a form of free speech.
Does the company ever favour particular candidates? In the 2012 US presidential election, Google and its top executives donated more than $800,000 to President Barack Obama and just $37,000 to his opponent, Mitt Romney. And in 2015, a team of researchers from the University of Maryland and elsewhere showed that Google’s search results routinely favoured Democratic candidates. Are Google’s search rankings really biased? An internal report issued by the US Federal Trade Commission in 2012 concluded that Google’s search rankings routinely put Google’s financial interests ahead of those of their competitors, and anti-trust actions currently under way against Google in both the European Union and India are based on similar findings.
In most countries, 90 per cent of online search is conducted on Google, which gives the company even more power to flip elections than it has in the US and, with internet penetration increasing rapidly worldwide, this power is growing. In our PNAS article, Robertson and I calculated that Google now has the power to flip upwards of 25 per cent of the national elections in the world with no one knowing this is occurring. In fact, we estimate that, with or without deliberate planning on the part of company executives, Google’s search rankings have been impacting elections for years, with growing impact each year. And because search rankings are ephemeral, they leave no paper trail, which gives the company complete deniability.
Power on this scale and with this level of invisibility is unprecedented in human history. But it turns out that our discovery about SEME was just the tip of a very large iceberg.
Recent reports suggest that the Democratic presidential candidate Hillary Clinton is making heavy use of social media to try to generate support – Twitter, Instagram, Pinterest, Snapchat and Facebook, for starters. At this writing, she has 5.4 million followers on Twitter, and her staff is tweeting several times an hour during waking hours. The Republican frontrunner, Donald Trump, has 5.9 million Twitter followers and is tweeting just as frequently.
Is social media as big a threat to democracy as search rankings appear to be? Not necessarily. When new technologies are used competitively, they present no threat. Even through the platforms are new, they are generally being used the same way as billboards and television commercials have been used for decades: you put a billboard on one side of the street; I put one on the other. I might have the money to erect more billboards than you, but the process is still competitive.
What happens, though, if such technologies are misused by the companies that own them? A study by Robert M Bond, now a political science professor at Ohio State University, and others published in Nature in 2012 described an ethically questionable experiment in which, on election day in 2010, Facebook sent ‘go out and vote’ reminders to more than 60 million of its users. The reminders caused about 340,000 people to vote who otherwise would not have. Writing in the New Republic in 2014, Jonathan Zittrain, professor of international law at Harvard University, pointed out that, given the massive amount of information it has collected about its users, Facebook could easily send such messages only to people who support one particular party or candidate, and that doing so could easily flip a close election – with no one knowing that this has occurred. And because advertisements, like search rankings, are ephemeral, manipulating an election in this way would leave no paper trail.
Are there laws prohibiting Facebook from sending out ads selectively to certain users? Absolutely not; in fact, targeted advertising is how Facebook makes its money. Is Facebook currently manipulating elections in this way? No one knows, but in my view it would be foolish and possibly even improper for Facebook not to do so. Some candidates are better for a company than others, and Facebook’s executives have a fiduciary responsibility to the company’s stockholders to promote the company’s interests.
The Bond study was largely ignored, but another Facebook experiment, published in 2014 in PNAS, prompted protests around the world. In this study, for a period of a week, 689,000 Facebook users were sent news feeds that contained either an excess of positive terms, an excess of negative terms, or neither. Those in the first group subsequently used slightly more positive terms in their communications, while those in the second group used slightly more negative terms in their communications. This was said to show that people’s ‘emotional states’ could be deliberately manipulated on a massive scale by a social media company, an idea that many people found disturbing. People were also upset that a large-scale experiment on emotion had been conducted without the explicit consent of any of the participants.
Facebook’s consumer profiles are undoubtedly massive, but they pale in comparison with those maintained by Google, which is collecting information about people 24/7, using more than 60 different observation platforms – the search engine, of course, but also Google Wallet, Google Maps, Google Adwords, Google Analytics, Chrome, Google Docs, Android, YouTube, and on and on. Gmail users are generally oblivious to the fact that Google stores and analyses every email they write, even the drafts they never send – as well as all the incoming email they receive from both Gmail and non-Gmail users.
According to Google’s privacy policy – to which one assents whenever one uses a Google product, even when one has not been informed that he or she is using a Google product – Google can share the information it collects about you with almost anyone, including government agencies. But never with you. Google’s privacy is sacrosanct; yours is nonexistent.
Could Google and ‘those we work with’ (language from the privacy policy) use the information they are amassing about you for nefarious purposes – to manipulate or coerce, for example? Could inaccurate information in people’s profiles (which people have no way to correct) limit their opportunities or ruin their reputations?
Certainly, if Google set about to fix an election, it could first dip into its massive database of personal information to identify just those voters who are undecided. Then it could, day after day, send customised rankings favouring one candidate to just those people. One advantage of this approach is that it would make Google’s manipulation extremely difficult for investigators to detect.
Extreme forms of monitoring, whether by the KGB in the Soviet Union, the Stasi in East Germany, or Big Brother in 1984, are essential elements of all tyrannies, and technology is making both monitoring and the consolidation of surveillance data easier than ever. By 2020, China will have put in place the most ambitious government monitoring system ever created – a single database called the Social Credit System, in which multiple ratings and records for all of its 1.3 billion citizens are recorded for easy access by officials and bureaucrats. At a glance, they will know whether someone has plagiarised schoolwork, was tardy in paying bills, urinated in public, or blogged inappropriately online.
As Edward Snowden’s revelations made clear, we are rapidly moving toward a world in which both governments and corporations – sometimes working together – are collecting massive amounts of data about every one of us every day, with few or no laws in place that restrict how those data can be used. When you combine the data collection with the desire to control or manipulate, the possibilities are endless, but perhaps the most frightening possibility is the one expressed in Boulding’s assertion that an ‘unseen dictatorship’ was possible ‘using the forms of democratic government’.
Since Robertson and I submitted our initial report on SEME to PNAS early in 2015, we have completed a sophisticated series of experiments that have greatly enhanced our understanding of this phenomenon, and other experiments will be completed in the coming months. We have a much better sense now of why SEME is so powerful and how, to some extent, it can be suppressed.
We have also learned something very disturbing – that search engines are influencing far more than what people buy and whom they vote for. We now have evidence suggesting that on virtually all issues where people are initially undecided, search rankings are impacting almost every decision that people make. They are having an impact on the opinions, beliefs, attitudes and behaviours of internet users worldwide – entirely without people’s knowledge that this is occurring. This is happening with or without deliberate intervention by company officials; even so-called ‘organic’ search processes regularly generate search results that favour one point of view, and that in turn has the potential to tip the opinions of millions of people who are undecided on an issue. In one of our recent experiments, biased search results shifted people’s opinions about the value of fracking by 33.9 per cent.
Perhaps even more disturbing is that the handful of people who do show awareness that they are viewing biased search rankings shift even further in the predicted direction; simply knowing that a list is biased doesn’t necessarily protect you from SEME’s power.
Remember what the search algorithm is doing: in response to your query, it is selecting a handful of webpages from among the billions that are available, and it is ordering those webpages using secret criteria. Seconds later, the decision you make or the opinion you form – about the best toothpaste to use, whether fracking is safe, where you should go on your next vacation, who would make the best president, or whether global warming is real – is determined by that short list you are shown, even though you have no idea how the list was generated.
Meanwhile, behind the scenes, a consolidation of search engines has been quietly taking place, so that more people are using the dominant search engine even when they think they are not. Because Google is the best search engine, and because crawling the rapidly expanding internet has become prohibitively expensive, more and more search engines are drawing their information from the leader rather than generating it themselves. The most recent deal, revealed in a Securities and Exchange Commission filing in October 2015, was between Google and Yahoo! Inc.
Looking ahead to the November 2016 US presidential election, I see clear signs that Google is backing Hillary Clinton. In April 2015, Clinton hired Stephanie Hannon away from Google to be her chief technology officer and, a few months ago, Eric Schmidt, chairman of the holding company that controls Google, set up a semi-secret company – The Groundwork – for the specific purpose of putting Clinton in office. The formation of The Groundwork prompted Julian Assange, founder of Wikileaks, to dub Google Clinton’s ‘secret weapon’ in her quest for the US presidency.
We now estimate that Hannon’s old friends have the power to drive between 2.6 and 10.4 million votes to Clinton on election day with no one knowing that this is occurring and without leaving a paper trail. They can also help her win the nomination, of course, by influencing undecided voters during the primaries. Swing voters have always been the key to winning elections, and there has never been a more powerful, efficient or inexpensive way to sway them than SEME.
We are living in a world in which a handful of high-tech companies, sometimes working hand-in-hand with governments, are not only monitoring much of our activity, but are also invisibly controlling more and more of what we think, feel, do and say. The technology that now surrounds us is not just a harmless toy; it has also made possible undetectable and untraceable manipulations of entire populations – manipulations that have no precedent in human history and that are currently well beyond the scope of existing regulations and laws. The new hidden persuaders are bigger, bolder and badder than anything Vance Packard ever envisioned. If we choose to ignore this, we do so at our peril.
—Robert Epstein is a senior research psychologist at the American Institute for Behavioral Research and Technology in California. He is the author of 15 books, and the former editor-in-chief of Psychology Today. This article is a preview of his forthcoming book, The New Mind Control.
The above by Robert Epstein.
Best wishes for your continued success.
Sterling Fisher
Offshore-Manual – April 2016
Traducción Automática (usando el traductor de Google)
El control de nueva mente. «La estimulación subliminal», controlando a la gente sin su conocimiento
Por Robert Epstein – Offshore-Manual’s Newsletter
Durante el siglo pasado, más de unos pocos grandes escritores han expresado su preocupación por el futuro de la humanidad. En El talón de hierro (1908), el escritor estadounidense Jack London imaginó un mundo en el que un puñado de titanes corporativos ricos – los «oligarcas» – mantuvo a raya a las masas con una combinación brutal de premios y castigos. Gran parte de la humanidad vivía en la esclavitud virtual, mientras que los más afortunados fueron comprados con salarios dignos que les permitieron vivir cómodamente – pero sin ningún control real sobre sus vidas.
En Nosotros (1924), el brillante escritor ruso Yevgueni Zamiatin, anticipándose a los excesos de la emergente Unión Soviética, la visión de un mundo en el que las personas se mantienen bajo control mediante la vigilancia omnipresente. Las paredes de sus casas estaban hechas de vidrio transparente, por lo que todo lo que hacían podían ser observados. Se les permitió reducir sus matices de una hora al día para tener relaciones sexuales, pero tanto el tiempo de encuentro y el amante tuvo que ser registrada por primera vez con el estado.
En Un mundo feliz (1932), el autor británico Aldous Huxley imaginó una sociedad casi perfecta en la que la infelicidad y la agresión habían sido diseñados de la humanidad a través de una combinación de la ingeniería genética y condicionamiento psicológico. Y en la novela mucho más oscuro 1984 (1949), compatriota de Huxley, George Orwell describe una sociedad en la que el pensamiento mismo fue controlado; en el mundo de Orwell, los niños se les enseñó a utilizar una forma simplificada de Inglés llamado neolengua con el fin de asegurar que nunca podrían expresar ideas que eran peligrosos para la sociedad.
Estos son todos los cuentos de ficción, para estar seguros, y en cada uno de los líderes que tenían la potencia usada formas visibles de control que al menos algunas personas se resistieron activamente y en ocasiones superaron. Pero en el éxito de ventas de no ficción The Hidden Persuasores (1957) – Recientemente lanzado en una edición 50º aniversario – el periodista estadounidense Vance Packard describe un tipo ‘extraña y más bien exótico «de la influencia que estaba emergiendo rápidamente en los Estados Unidos y que fue , en cierto modo, una amenaza mayor que los tipos de control de ficción ilustrados en las novelas. De acuerdo con Packard, EE.UU. ejecutivos corporativos y políticos estábamos empezando a utilizar sutil y, en muchos casos, métodos completamente indetectable a cambiar de pensamiento, las emociones y la conducta de las personas sobre la base de conocimientos de la psiquiatría y las ciencias sociales.
La mayoría de nosotros hemos oído hablar de al menos uno de estos métodos: la estimulación subliminal, o lo que se llama ‘Packard efectos subliminales’ – la presentación de mensajes cortos que nos dicen qué hacer, pero que se sellan de forma breve no nos damos cuenta que hemos visto ellos. En 1958, impulsado por la preocupación pública por un teatro en Nueva Jersey que supuestamente había escondido mensajes en una película para aumentar las ventas de helados, la Asociación Nacional de Radiodifusores – la asociación que establece normas para la televisión de Estados Unidos – modificó su código para prohibir el uso de mensajes subliminales en la radiodifusión. En 1974, la Comisión Federal de Comunicaciones opinó que el uso de este tipo de mensajes era «contraria al interés público». La legislación para prohibir los mensajes subliminales también se introdujo en el Congreso de Estados Unidos pero no ha promulgado. Tanto el Reino Unido y Australia tienen leyes estrictas que prohíben la misma.
estimulación subliminal es probable que todavía en amplio uso en los EE.UU. – es difícil de detectar, después de todo, y nadie es hacer el seguimiento de la misma – pero es probable que no vale la pena preocuparse. La investigación sugiere que tiene sólo un pequeño impacto, y que influye principalmente en personas que ya están motivados para seguir sus dictámenes; directivas subliminales para beber afectan a las personas sólo si ya estás sediento.
Packard había descubierto un problema mucho más grande, sin embargo – a saber, que las poderosas corporaciones estaban buscando constantemente, y en muchos casos ya la aplicación, una amplia variedad de técnicas de control de las personas sin su conocimiento. Describió una especie de conciliábulo en el que los vendedores trabajaron en estrecha colaboración con los científicos sociales para determinar, entre otras cosas, cómo conseguir que la gente a comprar cosas que no necesitan y cómo acondicionar los niños pequeños para ser buenos consumidores – inclinaciones que se nutren de forma explícita y entrenado en Un mundo feliz de Huxley. Guiados por las ciencias sociales, los vendedores estaban aprendiendo rápidamente cómo jugar a las inseguridades de la gente, debilidades, miedos inconscientes, sentimientos agresivos y deseos sexuales para alterar su pensamiento, las emociones y la conducta sin ninguna conciencia de que estaban siendo manipulados.
A principios de la década de 1950, dijo Packard, los políticos habían captado el mensaje y se empieza a mercancía a sí mismos utilizando las mismas fuerzas sutiles que se utilizan para vender jabón. Packard prologó su capítulo sobre la política con una cita inquietante del economista británico Kenneth Boulding: «Un mundo de dictadura no se ve es concebible, sigue utilizando las formas de gobierno democrático. ‘ Podría ser esto suceda, y si es así, ¿cómo funciona?
Las fuerzas que se describe Packard han vuelto más generalizada durante las décadas. La música relajante que todos oímos sobrecarga en los supermercados nos hace caminar más lentamente y comprar más comida, si lo necesitamos o no. La mayoría de los pensamientos y sentimientos intensos vacuos nuestros adolescentes experimentan desde la mañana hasta la noche son cuidadosamente orquestada por los profesionales de marketing altamente cualificados que trabajan en nuestras industrias de la moda y el entretenimiento. Los políticos trabajan con una amplia gama de consultores que ponen a prueba cada aspecto de lo que hacen los políticos con el fin de convencer a los votantes: ropa, entonaciones, expresiones faciales, maquillaje, peinados y discursos están todos optimizados, al igual que el envase de un cereal para el desayuno.
Afortunadamente, todas estas fuentes de influencia operar de forma competitiva. Algunos de los persuasores quieren que compremos o creemos una cosa, otros para comprar o creer otra cosa. Es la naturaleza competitiva de nuestra sociedad que nos mantiene, en general, relativamente libre.
Pero, ¿qué pasaría si las nuevas fuentes de mando empezaron a surgir que tenían poca o ninguna competencia? ¿Y si se desarrollan nuevos medios de control que eran mucho más poderoso – y mucho más invisible – que cualquiera que han existido en el pasado? ¿Y si los nuevos tipos de control permite un puñado de personas que ejercen una enorme influencia no sólo sobre los ciudadanos de los EE.UU., pero en la mayor parte de las personas en la Tierra?
Tal vez te sorprenda al oír esto, pero ya han sucedido estas cosas.
Para entender cómo las nuevas formas de trabajo de control de la mente, tenemos que empezar por mirar el motor de búsqueda – uno en particular: el más grande y mejor de todos ellos, a saber Google. El motor de búsqueda de Google es tan bueno y tan popular que el nombre de la compañía es ahora un verbo que se usa comúnmente en los idiomas en todo el mundo. Para algo ‘Google’ es mirar hacia arriba en el motor de búsqueda de Google, y que, de hecho, es la forma en la mayoría de los usuarios de computadoras en todo el mundo reciben la mayor parte de su información sobre casi todo en estos días. Ellos Google él. Google se ha convertido en la principal puerta de entrada a prácticamente todo el conocimiento, principalmente debido a que el motor de búsqueda es tan bueno en darnos exactamente la información que estamos buscando, casi al instante y casi siempre en la primera posición de la lista que nos muestra después de que lanzamos nuestra búsqueda – la lista de resultados de la búsqueda ».
Esa lista ordenada es tan bueno, de hecho, que alrededor del 50 por ciento de nuestros clics ir a los dos primeros elementos, y más del 90 por ciento de nuestros clics van a los 10 elementos que se enumeran en la primera página de los resultados; pocas personas miran a otras páginas de resultados, a pesar de que el número a menudo en los miles, lo que significa que probablemente contienen gran cantidad de buena información. Google decide cuál de los miles de millones de páginas web que se va a incluir en los resultados de búsqueda, y también decide cómo clasificar ellos. ¿Cómo se decide estas cosas es un profundo y oscuro secreto – uno de los secretos mejor guardados en el mundo, al igual que la fórmula de la Coca-Cola.
Debido a que las personas son mucho más propensos a leer y hacer clic en los elementos de rango superior, las empresas gastan miles de millones de dólares cada año tratando de engañar algoritmo de búsqueda de Google – el programa de ordenador que hace la selección y clasificación – en impulsar a otra muesca o dos. Moverse a un nivel superior puede significar la diferencia entre el éxito y el fracaso de una empresa, y entrando en las ranuras superiores puede ser la clave para grandes ganancias.
A finales de 2012, empecé a preguntarse si altamente calificados resultados de búsqueda podrían estar afectando más de las opciones del consumidor. Tal vez, Especulé, un resultado de búsqueda superior podría tener un pequeño impacto en las opiniones de la gente sobre las cosas. A principios de 2013, con mi socio Ronald E Robertson del Instituto Americano para la Investigación del Comportamiento y Tecnología en Vista, California, puse esta idea a una prueba mediante la realización de un experimento en el que 102 personas de la zona de San Diego fueron asignados aleatoriamente a uno de tres grupos. En un grupo, la gente vio los resultados de búsqueda que favorecían a un candidato político – es decir, resultados que unían a las páginas web que hizo que este candidato se vea mejor que su oponente. En un segundo grupo, la gente vio el ranking de búsqueda que favorecieron el candidato de la oposición, y en el tercer grupo – el grupo de control – La gente vio una mezcla de las clasificaciones que favorecían a ninguno de los candidatos. Los mismos resultados de búsqueda y las páginas web se utilizaron en cada grupo; la única cosa que difería para los tres grupos era el orden de los resultados de búsqueda.
Para realizar nuestro experimento realista, se utilizaron los resultados de búsqueda reales que unían a las páginas web reales. También se utilizó una verdadera elección – la elección de 2010 para el primer ministro de Australia. Se utilizó una elección extranjera para asegurarse de que nuestros participantes eran ‘indecisos’. Su falta de familiaridad con los candidatos aseguró este. A través de anuncios, que también reclutó a un grupo étnicamente diverso de los votantes registrados en un amplio rango de edad con el fin de adaptarse a las características demográficas clave de la población votante estadounidense.
A todos los participantes se les dio primero una breve descripción de los candidatos y luego se les pidió que calificaran de diversas formas, así como para indicar cuál de los candidatos que votaría por; como era de esperar, los participantes inicialmente a favor de ninguno de los candidatos en cualquiera de las cinco medidas que utilizamos, y el voto se dividió uniformemente en los tres grupos. A continuación, los participantes se les dio un máximo de 15 minutos en los que llevar a cabo una búsqueda en línea usando ‘kadoodle’, nuestro motor de búsqueda simulada, lo que les dio acceso a cinco páginas de resultados de búsqueda vinculados a las páginas web. La gente podía moverse libremente entre los resultados de búsqueda y páginas web, al igual que hacemos cuando se utiliza Google. Cuando los participantes completaron su busca, se les pidió que evaluar a los candidatos de nuevo, y también les pedimos nuevamente que iban a votar.
Hemos previsto que las opiniones y preferencias de voto de 2 o 3 por ciento de las personas en los dos grupos de polarización – los grupos en los que las personas estaban viendo la clasificación a favor de un candidato – se desplazarían hacia ese candidato. Lo que en realidad nos encontramos fue sorprendente. La proporción de personas que favorecen el candidato mejor clasificado del motor de búsqueda aumentó un 48,4 por ciento, y los cinco de nuestras medidas desplazado hacia ese candidato. Lo que es más, el 75 por ciento de las personas en los grupos de polarización parecía haber sido completamente conscientes de que estaban viendo sesgadas ranking de búsqueda. En el grupo control, las opiniones no cambian significativamente.
Esto parece ser un descubrimiento importante. El cambio que habíamos producido, lo que llamamos el Efecto de la manipulación de motores de búsqueda (o SEME, pronunciado ‘parecer’), que parecía ser uno de los mayores efectos en el comportamiento que se han descubierto. Nosotros no descorchar la botella de champán de inmediato, sin embargo. Por un lado, habíamos probado sólo un pequeño número de personas, y todos eran del área de San Diego.
Durante el próximo año o así, replicamos nuestros hallazgos tres veces más, y la tercera vez fue con una muestra de más de 2.000 personas provenientes de los 50 estados de Estados Unidos. En ese experimento, el cambio en las preferencias de voto fue del 37,1 por ciento e incluso más en algunos grupos demográficos – de hasta el 80 por ciento, de hecho.
También aprendimos en esta serie de experimentos que al reducir el sesgo ligeramente en la primera página de resultados de búsqueda – en concreto, mediante la inclusión de un elemento de búsqueda que favoreció el otro candidato en la tercera o cuarta posición de los resultados – podríamos enmascarar nuestra manipulación por lo que pocas o incluso ninguna gente eran conscientes de que estaban viendo las clasificaciones parciales. Todavía podríamos producir cambios dramáticos en las preferencias de voto, pero podríamos hacerlo invisible.
Todavía no hay Champagne, sin embargo. Nuestros resultados fueron fuerte y consistente, pero nuestros experimentos todos los involucrados una elección extranjera – que la elección de 2010 en Australia. Preferencias de voto podrían ser desplazados con los votantes reales en el medio de una campaña real? Estábamos escépticos. En las elecciones reales, la gente es bombardeada con múltiples fuentes de información, y también saben mucho sobre los candidatos. Parecía poco probable que una sola experiencia en un motor de búsqueda tendría mucho impacto en sus preferencias de voto.
Para averiguarlo, a principios de 2014, fuimos a la India poco antes de la votación se inició en la mayor elección democrática en el mundo – la elección Lok Sabha a primer ministro. Los tres candidatos principales eran Rahul Gandhi, Arvind Kejriwal, y Narendra Modi. Haciendo uso de las piscinas sujetos en línea y dos anuncios impresos y en línea, hemos contratado a 2.150 personas de 27 de 35 estados y territorios de la India para participar en nuestro experimento. Para participar, tuvieron que ser votantes registrados que aún no habían votado y que aún estaban indecisos sobre el sentido de su voto.
Los participantes fueron asignados aleatoriamente a tres grupos de motores de búsqueda, lo que favorece, respectivamente, Gandhi, Kejriwal o Modi. Como era de esperar, los niveles de familiaridad con los candidatos fue alta – entre 7,7 y 8,5 en una escala de 10. Nosotros predijimos que nuestra manipulación produciría un efecto muy pequeño, si lo hay, pero eso no es lo que encontramos. En promedio, hemos sido capaces de cambiar la proporción de personas que favorecen determinado candidato en más de un 20 por ciento en general y más del 60 por ciento en algunos grupos demográficos. Aún más preocupante, el 99,5 por ciento de los participantes mostró ninguna conciencia de que estaban viendo sesgadas ranking de búsqueda – en otras palabras, que estaban siendo manipulados.
casi invisibilidad de SEME Es curioso hecho. Esto significa que cuando la gente – incluyendo usted y yo – están mirando sesgadas ranking de búsqueda, se ven muy bien. Así que si en este momento, Google le resulta ‘candidatos a la presidencia de Estados Unidos la búsqueda que ve será probablemente se vería bastante aleatorio, incluso si llegan a favorecer a un candidato. Incluso tengo problemas para detectar el sesgo en el ranking de búsqueda, que yo sepa a estar sesgados (ya que fueron preparados por mi personal). Sin embargo, nuestros experimentos controlados aleatorizados nos dicen una y otra vez que cuando los artículos de más alto rango conectan con páginas web que favorecen a un candidato, esto tiene un impacto dramático en las opiniones de los votantes indecisos, en gran parte, por la sencilla razón de que la gente tiende a haga clic sólo en artículos clasificados superiores. Esto es realmente aterrador: al igual que los estímulos subliminales, SEME es una fuerza que no puede ver; pero a diferencia de los estímulos subliminales, que tiene un enorme impacto – como Casper el fantasma que empuja hacia abajo un tramo de escaleras.
Hemos publicado un informe detallado acerca de nuestros primeros cinco experimentos en SEME en las Actas de prestigio de la Academia Nacional de Ciencias (PNAS) en agosto de 2015. Nos habíamos encontrado de hecho algo importante, especialmente teniendo en cuenta el dominio de Google sobre búsqueda. Google tiene casi un monopolio en las búsquedas de Internet en los EE.UU., con un 83 por ciento de los estadounidenses que especifican Google como motor de búsqueda que utilizan con más frecuencia, de acuerdo con el Centro de Investigación Pew. Así que si Google favorece a un candidato en una elección, su impacto en los votantes indecisos podría fácilmente decidir el resultado de la elección.
Tenga en cuenta que habíamos tenido un solo tiro en nuestros participantes. ¿Cuál sería el impacto de favorecer a un candidato en las búsquedas de personas están llevando a cabo durante un período de semanas o meses antes de una elección? Es casi seguro que será mucho mayor que lo que estábamos viendo en nuestros experimentos.
Otros tipos de influencia durante una campaña electoral se equilibrada por fuentes de influencia en competencia – una amplia variedad de periódicos, programas de radio y cadenas de televisión, por ejemplo – pero Google, para todos los intentos y propósitos, no tiene competencia, y la gente confía en sus resultados de búsqueda implícitamente, en el supuesto de que misterioso algoritmo de búsqueda de la empresa es del todo objetiva e imparcial. Este alto nivel de confianza, combinado con la falta de competencia, Google pone en una posición única para impactar las elecciones. Aún más preocupante, el negocio de búsqueda de rango es completamente no regulado, por lo que Google podría favorecer a ningún candidato que le gusta sin violar ninguna ley. Algunas cortes incluso han dictaminado que el derecho de Google a la orden de rango de resultados de búsqueda que le plazca está protegido como una forma de libertad de expresión.
¿La empresa siempre a favor de determinados candidatos? En la elección presidencial de Estados Unidos de 2012, Google y sus principales ejecutivos donaron más de $ 800.000 y el presidente Barack Obama y sólo $ 37.000 a su oponente, Mitt Romney. Y en 2015, un equipo de investigadores de la Universidad de Maryland y en otros lugares mostró que los resultados de búsqueda de Google favorecieron sistemáticamente candidatos demócratas. Se ranking de búsqueda de Google muy sesgados? Un informe interno emitido por la Comisión Federal de Comercio de los Estados Unidos en 2012 llegó a la conclusión de que el ranking de búsqueda de Google ponen rutinariamente los intereses financieros de Google por delante de los de sus competidores, y las acciones de defensa de la competencia en curso en contra de Google, tanto en la Unión Europea y la India se basa en similares recomendaciones.
En la mayoría de los países, el 90 por ciento de búsqueda en línea se lleva a cabo en Google, lo que da a la compañía aún más potencia para voltear las elecciones que hay en los EE.UU., y con el aumento de la penetración de Internet rápidamente a nivel mundial, este poder es cada vez mayor. En nuestro artículo de PNAS, Robertson y yo calculado que Google ahora tiene el poder de dar la vuelta hacia arriba del 25 por ciento de las elecciones nacionales en el mundo sin que nadie sepa que esto está ocurriendo. De hecho, se estima que, con o sin una planificación deliberada por parte de los directivos de la empresa, las clasificaciones de búsqueda de Google se han impactando las elecciones durante años, con impacto creciente cada año. Y debido a que el ranking de búsqueda son efímeras, no dejan rastro de papel, lo que da a la empresa una negación completa.
El poder de esta magnitud y con este nivel de invisibilidad no tiene precedentes en la historia humana. Pero resulta que nuestro descubrimiento sobre SEME era sólo la punta de un iceberg muy grande.
Informes recientes sugieren que el candidato presidencial demócrata Hillary Clinton está haciendo un uso intensivo de los medios sociales para tratar de generar apoyo – Twitter, Instagram, Pinterest, Snapchat y Facebook, para empezar. En este escrito, que tiene 5,4 millones de seguidores en Twitter, y su personal está twitteando varias veces por hora durante las horas de vigilia. El principal candidato republicano, Donald Trump, tiene 5,9 millones de seguidores en Twitter y está twitteando con la misma frecuencia.
Medios de comunicación social es una amenaza tan grande para la democracia como el ranking de búsqueda parecen ser? No necesariamente. Cuando las nuevas tecnologías se utilizan de forma competitiva, no representan ningún peligro. Incluso a través de las plataformas son nuevos, por lo general, se utilizan del mismo modo que las vallas publicitarias y anuncios de televisión se han utilizado durante décadas: se pone un cartel en un lado de la calle; Me puse una sobre la otra. Yo podría tener el dinero para erigir vallas publicitarias más que tú, pero el proceso sigue siendo competitivo.
¿Qué ocurre, sin embargo, si estas tecnologías son mal utilizados por las empresas que los poseen? Un estudio realizado por Robert M Bond, ahora profesor de ciencias políticas en la Universidad Estatal de Ohio, y otros publicados en la revista Nature en 2012 describe un experimento éticamente cuestionable en el que, el día de elecciones en 2010, Facebook envió ‘ir a votar’ recordatorios a más de 60 millones de sus usuarios. Los recordatorios causado cerca de 340.000 personas al voto que de otro modo no tendría. Escribiendo en la Nueva República en 2014, Jonathan Zittrain, profesor de derecho internacional en la Universidad de Harvard, señaló que, dada la enorme cantidad de información que ha recopilado sobre sus usuarios, Facebook podría fácilmente enviar dichos mensajes sólo a las personas que apoyan a un partido en particular o candidato, y que al hacerlo podría fácilmente dar la vuelta una elección cerrada – sin que nadie sepa que esto ha ocurrido. Y debido a que los anuncios, como el ranking de búsqueda, son efímeras, la manipulación de una elección de esta manera no dejaría rastro de papel.
¿Existen leyes que prohíben Facebook desde el envío de anuncios selectivamente a ciertos usuarios? Absolutamente no; de hecho, la publicidad dirigida es cómo Facebook hace su dinero. Actualmente está Facebook manipulando las elecciones de esta manera? Nadie lo sabe, pero en mi opinión, sería tonto y posiblemente incluso impropio de Facebook que no lo hiciera. Algunos candidatos son mejores para una empresa que otros, y los ejecutivos de Facebook tienen una responsabilidad fiduciaria a los accionistas de la compañía para promover los intereses de la compañía.
El estudio Bond fue ignorado en gran medida, pero otro experimento Facebook, publicado en 2014 en PNAS, provocó protestas en todo el mundo. En este estudio, durante un período de una semana, 689.000 usuarios de Facebook fueron enviados fuentes de noticias que contenían o bien un exceso de términos positivos, un exceso de términos negativos, o ninguno. Los que están en el primer grupo, posteriormente, utilizó términos ligeramente más positivos en sus comunicaciones, mientras que los del segundo grupo utilizó términos un poco más negativos en sus comunicaciones. Esto fue dicho para mostrar que la gente » estados emocionales podrían ser manipulados deliberadamente en una escala masiva por una compañía de medios de comunicación social, una idea que muchas personas encuentran molesto. Las personas también estaban molestos de que un experimento a gran escala en la emoción se había llevado a cabo sin el consentimiento explícito de cualquiera de los participantes.
perfiles de los consumidores de Facebook son, sin duda, masiva, pero palidecen en comparación con los establecidos por Google, que está recopilando información sobre las personas 24/7, con más de 60 diferentes plataformas de observación – el motor de búsqueda, por supuesto, pero también Google Wallet, Google Maps , Google Adwords, Google Analytics, Chrome, Google Docs, Android, YouTube, y así sucesivamente. Los usuarios de Gmail son generalmente ajenos al hecho de que Google almacena y analiza todos los correos electrónicos que escriben, incluso las corrientes de aire que nunca envían -, así como todo el correo entrante que reciben de los dos usuarios distintos a Gmail Gmail y.
De acuerdo con la política de privacidad de Google – a la que uno asiente cada vez que se utiliza un producto de Google, incluso cuando éste no hubiera sido informada de que él o ella está usando un producto de Google – Google puede compartir la información que recopila sobre usted con casi cualquier persona, incluidos los organismos gubernamentales . Pero nunca con usted. privacidad de Google es inviolable; la suya es inexistente.
Podría Google y ‘los que trabajamos’ (idioma de la política de privacidad) utilizar la información que están acumulando sobre usted para propósitos nefastos – para manipular o coaccionar, por ejemplo? Podría información inexacta en los perfiles de las personas (que la gente no tiene manera de corregir) limitar sus oportunidades o arruinar su reputación?
Ciertamente, si Google se dedicó a fijar una elección, se podría echar mano de su primera base de datos masiva de información personal para identificar sólo aquellos votantes que están indecisos. Entonces podría, día tras día, graduaciones enviar a medida que favorecen a un candidato que sólo aquellas personas. Una ventaja de este enfoque es que haría que la manipulación de Google extremadamente difícil para los investigadores a detectar.
Las formas extremas de monitoreo, ya sea por la KGB en la Unión Soviética, la Stasi en Alemania del Este, o Gran Hermano en 1984, son elementos esenciales de todas las tiranías, y la tecnología está haciendo el seguimiento y la consolidación de los datos de vigilancia más fácil que nunca. En 2020, China habrá puesto en marcha el más ambicioso sistema de vigilancia del gobierno jamás creado – una única base de datos denominada Sistema de Crédito Social, en el que múltiples clasificaciones y registros de todas sus 1,3 millones de ciudadanos se registran para facilitar el acceso de los funcionarios y burócratas. A primera vista, ellos sabrán si alguien ha plagiado el trabajo escolar, fue tardanza en el pago de facturas, orinaron en público, o en blogs en línea de forma inapropiada.
A medida que las revelaciones de Edward Snowden dejaron claro, nos estamos moviendo rápidamente hacia un mundo en el que los gobiernos y las corporaciones – a veces trabajando juntos – están recogiendo enormes cantidades de datos sobre cada uno de nosotros todos los días, con pocas o ninguna leyes que restringen cómo aquellos datos pueden ser utilizados. Cuando se combina la recolección de datos con el deseo de controlar o manipular, las posibilidades son infinitas, pero tal vez la posibilidad más alarmante es la expresada en la afirmación de Boulding que una «dictadura invisible ‘era posible’ usando las formas de gobierno democrático».
Desde Robertson y yo presentamos nuestro informe inicial sobre SEME a PNAS a principios de 2015, hemos completado una serie de experimentos sofisticados que han mejorado en gran medida nuestra comprensión de este fenómeno, y otros experimentos se completará en los próximos meses. Tenemos un sentido mucho mejor ahora de por qué es tan poderoso SEME y cómo, en cierta medida, puede ser suprimida.
También hemos aprendido algo muy preocupante – que los motores de búsqueda están influyendo mucho más de lo que las personas compran y los que votan por. Ahora tenemos evidencia que sugiere que en prácticamente todos los temas en los que las personas son inicialmente indecisos, el ranking de búsqueda están afectando a casi todas las decisiones que las personas toman. Están teniendo un impacto en las opiniones, creencias, actitudes y comportamientos de los usuarios de Internet en todo el mundo – por completo sin el conocimiento de la gente que esto está ocurriendo. Esto está sucediendo con o sin la intervención deliberada por parte de funcionarios de la compañía; incluso los denominados procesos de búsqueda orgánica » generar periódicamente los resultados de búsqueda que favorecen un punto de vista, y que a su vez tiene el potencial de inclinar la opinión de millones de personas que están indecisos sobre un tema. En uno de nuestros recientes experimentos, resultados sesgados cambiaron opiniones de la gente sobre el valor de la fractura hidráulica en un 33,9 por ciento.
Quizás aún más preocupante es que el puñado de personas que muestran la conciencia que están viendo sesgadas ranking de búsqueda cambiar aún más en la dirección prevista; simple hecho de saber que una lista está sesgada no significa necesariamente que la protección del poder del SEME.
Recuerde lo que el algoritmo de búsqueda está haciendo: en respuesta a la consulta, que es la selección de un puñado de páginas de entre los miles de millones que están disponibles, y se está ordenando a esas páginas web usando criterios secretas. Segundos después, la decisión que tome o la opinión que forman – acerca de la mejor pasta de dientes para usar, si la fractura hidráulica es seguro, donde hay que ir en sus próximas vacaciones, ¿quién sería el mejor presidente, o si el calentamiento global es real – se determina por esa corta lista que está demostrado, a pesar de que no tiene idea de cómo se generó la lista.
Mientras tanto, detrás de las escenas, una consolidación de los motores de búsqueda se ha venido realizando en voz baja, para que más personas están utilizando el motor de búsqueda dominante, incluso cuando creen que no lo son. Debido a que Google es el mejor motor de búsqueda, y porque arrastra el Internet se ha convertido en rápida expansión prohibitivamente caro, cada vez más los motores de búsqueda están dibujando su información de líder en vez de generar por sí mismos. El acuerdo más reciente, reveló en un comunicado al regulador bursátil en octubre de 2015, fue entre Google y Yahoo! Inc.
De cara a la edición de noviembre el año 2016 elecciones presidenciales de Estados Unidos, veo señales claras de que Google está apoyando a Hillary Clinton. En abril de 2015, Clinton contrató a Stephanie Hannon lejos de Google para ser su director de tecnología y, hace unos meses, Eric Schmidt, presidente del holding que controla Google, crear una empresa semi-secreta – El trabajo de base – para el concreto propósito de poner Clinton en el cargo. La formación de las bases llevó a Julian Assange, fundador de Wikileaks, para doblar ‘arma secreta’ de Google Clinton en su búsqueda de la presidencia de Estados Unidos.
Ahora tenemos que calcular los viejos amigos de Hannon tienen el poder de conducir entre 2,6 y 10,4 millones de votos a Clinton el día de las elecciones sin que nadie sepa que esto está ocurriendo y sin dejar un rastro de papel. También pueden ayudar a ganar la nominación, por supuesto, al influir en los votantes indecisos durante las primarias. Los votantes indecisos siempre han sido la clave para ganar las elecciones, y nunca ha habido una manera más potente, eficiente y de bajo costo para influir en ellos que SEME.
Estamos viviendo en un mundo en el que un puñado de empresas de alta tecnología, a veces mano a mano de trabajo con los gobiernos, no sólo están monitoreando la mayor parte de nuestra actividad, sino que también están controlando de forma invisible cada vez más de lo que pensamos, sentimos, hacer y decir. La tecnología que ahora nos rodea no es sólo un juguete inofensivo; también ha hecho posibles manipulaciones no detectables y no rastreables de poblaciones enteras – manipulaciones que no tienen precedentes en la historia humana y que actualmente se encuentran más allá del alcance de las normas y leyes vigentes. Los nuevos persuasores ocultos son más grandes, más audaz y más malo que nada Vance Packard jamás imaginado. Si optamos por hacer caso omiso de esto, lo hacemos a nuestro propio riesgo.
—Robert Epstein es un psicólogo investigador del Instituto Americano para la Investigación del Comportamiento y Tecnología en California. Es autor de 15 libros, y el ex editor en jefe de la revista Psychology Today. Este artículo es un adelanto de su próximo libro, El Control de nueva mente.
Lo anterior por Robert Epstein.
Los mejores deseos para su éxito continuo.
Sterling Fisher
Offshore-Manual – April 2016
Comentarios
Algo para decir?
Usted debe estar logueado para escribir un comentario.