Artículo

Seguridad y Defensa, 12(23), págs. 63-80.

Sesgos cognitivos en el análisis de inteligencia1

Cognitive bias in intelligence analysis

Tendenciosidades cognitivas na análise de inteligência

CLAUDIO AUGUSTO PAYÁ SANTOS2

2 Doctorando en Ciencias Humanas, Sociales y Jurídicas de la Universitat International de Catalunya, España, y de la Universita Luiss Guido Carli, Italia. Magíster en Inteligencia de la Universita della Calabria, Italia. Magíster en Grafoanálisis Europeo, peritaciones y análisis de la Universidad Autónoma de Barcelona, España. Magíster en Seguridad e Inteligencia de la Libera Universita Hugo Grotius, Italia. Licenciado en Criminología de la Universidad de Alicante, España. Coordinador de Área de Seguridad y Defensa de la Universidad Nebrija y Coordinador de la Catedra de Análisis y resolución de Conflictos Nebrija-Santander. Contacto: cpaya@nebrija.es

Recibido: 24 de enero de 2017

Aprobado: 13 de mayo de 2017


Resumen

Es un hecho que el entorno de seguridad actual se caracteriza por desafíos que son cognitivamente difíciles de comprender, tales como: las amenazas terroristas, la proliferación de armas de destrucción masiva y la guerra no estatal, hacen que se deba de actuar sobre secuencias diferentes a los desafíos clásicos, donde los eventos imprevistos e impredecibles no responden a patrones previsibles. Este hecho es especialmente cierto cuando se interactúa en el escenario internacional y aún más, en el caso de ocuparnos de la seguridad nacional o en las grandes crisis de seguridad de los últimos veinte años, ya sea el 11 de Septiembre, la Primavera Árabe, el fiasco de las armas de destrucción masiva de Irak, el Estado Islámico, la actuación de los lobos solitarios, la ruptura de Siria y su éxodo, la anexión de Crimea, o el enfrentamiento nuclear entre India y Pakistán, donde todos estos eventos aparecen como una sorpresa para los agentes pertinentes. Esto parece sugerir que las emergencias militares actuales desafían tanto el poder de predicción como la capacidad de intervención. El propósito de este trabajo es analizar cómo la estructura de nuestra maquinaria mental influye y constriñe los análisis de inteligencia, ocupándonos del funcionamiento de la mente humana, y en concreto del tipo de razonamiento que se utiliza, qué limitaciones encuentra y en qué herramientas se puede confiar, centrándonos en cómo estas características cognitivas afectan a los analistas de inteligencia dadas las limitaciones ambientales peculiares, discutiéndose en particular, la heurística y los prejuicios que constituyen los efectos secundarios adversos de los juicios bajo la incertidumbre, y los peligros de la plausibilidad intuitiva de los juicios cuando no se basan en hechos; además del impacto que el tiempo y la presión tienen en la exactitud de los resultados.

Palabras clave: análisis de inteligencia, incertidumbre, seguridad, sesgos cognitivos.


Abstract

It is a fact that the present security atmosphere is characterized by challenges that are cognitively difficult to understand, tales such as terrorist threats, proliferation of weapons of mass destruction and non-state warfare, make it necessary to act on different scenarios. Classic challenges, where unforeseen and unpredictable events do not respond to predictable patterns. This is especially true when interacting on the international stage and even more, in the case of hidden national security in the major security crises of the last twenty years, whether on September 11, the Arab Spring, failure of the weapons of mass destruction of Iraq, the Islamic State, the acting of the solitary wolves, the rupture of Syria and its exodus, the annexation of Crimea, or the nuclear confrontation between India and Pakistan, where all these events appear as a surprise for the relevant actors. This seems to suggest that military emergencies challenge both the power of prediction and the capacity for intervention. The purpose of this project is to analyze how the structure of our mental machinery influences and constrains the analysis of intelligence, the workings of the functioning of the human mind, and in particular the type of reasoning it uses, what limits are found and what tools can be trust, focusing on how these cognitive characteristics affect intelligence analysts given the peculiar environmental limitations, discussing in particular, the heuristics and prejudices that constitute the adverse side effects of judgments under the uncertainty and dangers of intuitive plausibility the judgments when they are not based on facts; in addition to the impact that time and pressure have on the accuracy of the results.

Keywords: Intelligence analysis, uncertainty, security, cognitive bias.


Resumo

É um fato que o ambiente de segurança atual se caracteriza pelos desafios que são cognitivamente difíceis de compreender, tais como as ameaças terroristas e a proliferação das armas de destruição em massa. A guerra não estatal faz com que se tenha que encarar de forma diferente os desafios clássicos, onde os eventos imprevistos e imprevisíveis não respondem a padrões esperados. Esta condição é especialmente correta quando se interage no cenário internacional e, mais ainda, no caso de nos ocuparmos da segurança nacional ou, ainda, nas grandes crises de segurança verificadas nos últimos vinte anos, quais sejam o 11 de Setembro, a Primavera Árabe, o fiasco das armas de destruição em massa no Iraque, o Estado Islâmico, a atuação dos lobos Solitários, a ruptura da Síria e seu êxodo, a anexação da Crimeia, ou enfrentamento nuclear entre a Índia e o Paquistão, quando todos esses eventos aparecem como uma surpresa para os agentes envolvidos. Isso parece sugerir que as agências militares atuais desafiam tanto poder de predição como também a capacidade de intervenção. O propósito deste projeto é analisar como a estrutura da nossa maquinaria mental influi e comprime as análises de inteligência, ocupando a todos do funcionamento da mente humana e, de forma concreta, do tipo de raciocínio que se utiliza, quais as limitações que encontra e quais ferramentas com as quais pode contar, concentrando a todos em como essas características cognitivas afetam os analistas de inteligência, dadas as limitações ambientais peculiares, discutindo em particular a heurística e os preconceitos que constituem os efeitos secundários adversos dos julgamentos sob incerteza, e os perigos da plausibilidade intuitiva e dos julgamentos quando estes não se baseiam em fatos, além do impacto que o tempo e a pressão têm na exatidão dos resultados.

Palavras-chaves: análise de inteligência, incerteza, segurança, tendências cognitivas.


La incertidumbre multidimensional de la seguridad

La recopilación de información sobre los actores externos e internos para poder guiar las decisiones es probablemente tan antigua como las interacciones humanas, en particular en relación con las guerras y los conflictos 3. La presencia de "espías" y agentes de información ha sido constante desde la historia antigua, pero la inteligencia gubernamental organizada es evidentemente mucho más compleja, estando establecida de forma sólida desde las guerras mundiales y desarrollada a partir del enfrentamiento de la Guerra Fría, cuando los estudios estratégicos experimentaron su avance más significativo. Las "reglas del juego" han cambiado desde la aparición de nuevos actores, las situaciones ya no están limitadas por los tratados, estatutos y costumbres "tradicionales". Anteriormente existieron acontecimientos que ofrecieron esquemas de análisis más razonables y cognitivamente más sencillos de procesar, pero en el entorno actual de la seguridad, son definidas como "asimétricas" 4 las situaciones no convencionales, no equilibradas o no estatales de la mayoría de las amenazas de nuestros días, dicho entorno de seguridad es visto generalmente como inherentemente incierto.

Fitzsimmons (2006) ofrece una discusión correcta sobre el papel y el efecto de la incertidumbre en la planificación estratégica. Esta incertidumbre multidimensional que abarca no sólo la estrategia y la táctica, también la política y la ética, hace que la identificación y evaluación de las posibles amenazas, difícilmente interpretables cognitivamente, hagan que todos los esfuerzos; el trabajo para predecir amenazas, por quién, y por donde surgirán, se hayan vuelto mucho más complejas.

El número de actores estratégicos con la capacidad, la motivación y con recursos para atacar blancos de interés vital ha aumentado gracias, entre otras cosas, a la llegada de las tecnologías de la información. Los efectos de las armas que de forma creíble podrían causar daños importantes son mejorados constantemente por las innovaciones técnicas. Las amenazas que se originan en cualquiera de las posibles dimensiones militares, tierra, mar, aire, el espacio, y ahora el ciberespacio, pueden ser objetivos estratégicos principales, en cualquiera de las dimensiones (Russel, 2006).

En tal ambiente, maximizar el número y la fiabilidad de la información disponible no es suficiente para garantizar la eficacia de inteligencia. Las nuevas tecnologías facilitan el trabajo de recopilación de datos y aumentan la cantidad de información disponible, aumentando la presión sobre las capacidades cognitivas de los analistas llamados a sacar conclusiones de esos datos. Por un lado, la cantidad de elementos "secretos" se ha reducido, por el otro, la incertidumbre en torno a nuevos actores y nuevas tendencias de la guerra han aumentado el número de "misterios" que los analistas deben tener en cuenta. Por lo tanto, los analistas a menudo tienen que lidiar con demasiados datos con el fin de predecir hechos que son, por definición, imposibles de conocer. En este sentido, los estudios de inteligencia se suelen distinguir en dos tipos; por un lado, los secretos o puzzles, que suponen información que, si bien es cognoscible, es casi imposible de conocer en la práctica (como una nota sobre el paradero de terroristas o el programa nuclear de un país). Y el otro tipo, constituido por los misterios, que se refieren a material incognoscible, que por lo general hace referencia a sucesos futuros (por ejemplo, la siguiente etapa de una guerra), y que sólo puede ser evaluado a través de la probabilidad (Treverton, 2005).

Esta revolución de la información ha hecho que sea aún más importante que los analistas posean una comprensión clara de las amenazas a las que se enfrentan y de lo que motiva y presiona a la gente que está detrás de ellos. A falta de un conocimiento claro, el aumento de la información disponible, en lugar de facilitar su trabajo, hace que sea más difícil para los analistas de inteligencia destilar la información utilizable a partir de una gran cantidad de datos.

La psicología cognitiva, ha demostrado que los seres humanos en su comprensión del mundo están sujetos a la influencia indebida, entre otras cosas por factores irrelevantes más claramente recordados, de circunstancias ambientales (tales como la urgencia, el miedo o paranoia), y los prejuicios sociales y culturales. Como consecuencia de ello, sobre todo en caso de circunstancias sin precedentes, se convierte en fundamental para las personas que evalúan una situación, el ser conscientes de las dificultades cognitivas que se presentan en la información a analizar, en entornos particularmente difíciles, inciertos, ambiguos, o presionados por el tiempo y el medio ambiente estresante de la inteligencia internacional. Cuando se trata de cuestiones de inteligencia hay un cierto grado de error, lamentable pero inevitable, dada la naturaleza inherentemente incierta de la información deseada, los seres humanos frente a la incertidumbre pueden cometer errores de forma sistemática.

Para realizar un análisis de inteligencia menos propenso al sesgo sistemático, es crucial para los analistas, ser conscientes de las dificultades cognitivas que ocasiona el razonamiento sobre eventos inciertos. Los errores sistemáticos en la forma en que procesamos la información incierta son naturales y, en cierta medida, posiblemente inevitables. Sin embargo, pueden ser mitigados, e incluso eliminados totalmente. Empero, se convierte en esencial para superar esos errores sistémicos que son naturales, analizar los modos y los límites de nuestras capacidades mentales.

El razonamiento humano

Herbert Simón, (1995) en sus primeros estudios sobre la mente humana en la década de los 40, propuso el concepto de "limitada" o de racionalidad limitada", argumentando que, frente a la espectacular complejidad del mundo, el hombre no puede cumplir con un ideal exacto de racionalidad, siendo necesario utilizar distintas estrategias para simplificar su entorno. Posteriormente, Daniel Kahneman y Amos Tversky (1974), explicaron la simplificación del pensamiento intuitivo y explicaron una veintena de sesgos, generados como consecuencias de las formas particulares de la estructura de nuestro cerebro, independientemente de la emocionalidad de la persona (Kahneman, 2011). Estos autores afirmaron que en primer lugar es necesario cambiar la forma en que la mente humana percibe algunos errores cognitivos que nuestra mente comete de forma sistemática llamémosle de "manera natural" y están arraigados en la maquinaria de nuestra salud mental y que depende fundamentalmente de la capacidad de pensamiento de las personas que lo llevan a cabo.

La medida limitada del razonamiento humano

Herbert A. Simón (1957) utilizó por primera vez la expresión "racionalidad limitada" para indicar que el poder intelectual humano estaba sujeto a limitaciones, siendo consciente el citado autor, de que se situaba en la ruptura directa de la teoría neoclásica de la conducta y la toma de decisiones, que hacía hincapié en un hombre de una casi perfecta racionalidad en la selección de la opción que maximiza sus intereses (Gigerenzer & Selten, 2001). El objetivo de su trabajo fue proporcionar una visión más realista de cómo el ser humano selecciona opciones y toma decisiones, con una capacidad limitada de conocimiento y están sesgados por sus preferencias personales y sociales.

En primer lugar, el agente (el llamado homo oeconomicus) tiene conocimiento de todas las características relevantes de su medio ambiente (Simón, 1955). Es una persona racional, capaz de decidir y actuar, con conocimiento que persigue lograr beneficios personales siguiendo principios de menor esfuerzo y mayor logro. En segundo lugar, el agente posee un conjunto estable y consistente de las preferencias, sin perjuicio de las propiedades de transitividad (si la opción A se prefiere a la opción B, y se prefiere la opción B a la opción C, a continuación, la opción A se prefiere la opción C), integridad (dado cualquier conjunto de opciones, la persona que toma las decisiones siempre puede compararlas), el dominio (si la opción A es débilmente mejor, mejor en al menos un aspecto, mientras permanece igual en todas los demás, que la opción B, entonces la opción A siempre debe de ser preferida), cancelación (a la hora de elegir entre dos o más opciones, los factores comunes no deben de ser considerados relevantes para la elección), invariancia (a la hora de elegir entre dos o más opciones, la persona que toma las decisiones no debe de ser influenciada por la forma en que las opciones se presentan) y continuidad (la persona que toma las decisiones siempre debe de preferir una alternativa entre el mejor y el peor resultado a un resultado intermedio seguro, siempre que el valor esperado de la mejor opción sumada con el valor esperado de la peor opción sea superior al valor de la opción intermedia).5

En tercer lugar, tiene habilidades de cálculo perfecto, que le permiten evaluar correctamente los diferentes posibles resultados y finalmente es, perfectamente egoísta, y su objetivo es maximizar su rentabilidad. Estos supuestos centrales tienen un fuerte atractivo intelectual, ya que permiten de forma lógica y matemática teorías sobre la elección y el comportamiento, pero tienen poca relación tanto con las características cognitivas de los agentes y con el entorno en el que están llamados a tomar decisiones (Simón, 1955). En otras palabras, son también ideales para trabajar, ya que se da un tratamiento al ser humano como máquina computacional perfectamente calibrada y que sólo se ocupa de hechos conocidos.

Los seres humanos no están biológicamente preparados para calcular grandes cantidades de datos de forma instantánea y perfecta, y mucho menos para hacer predicciones fuera de ellos, pues generalmente no se posee la totalidad de la información y, además, las predicciones realizadas están sujetas a una serie de limitaciones ambientales (tiempo, espacio, normas sociales, emocionales, etc.) que restringen aún más la gama de opciones. Estas limitaciones inherentes tanto a las características cognitivas de los analistas y al entorno en el que se encuentran, implican que la racionalidad humana real puede ser en el mejor de los casos una aproximación muy cruda y simplificada para el tipo de racionalidad global que está implícita (Simón, 1955).

Sin embargo, esto no implica que los hombres sean fundamentalmente irracionales, la racionalidad no perfecta y la irracionalidad son dos realidades esencialmente diferentes. Un agente puede ser definido como "irracional" cuando deliberadamente actúa en contra de su propio interés, pone su fe en estrategias ineficaces (probadas), o no tiene ningún control sobre sus propias facultades mentales (Gigerenzer & Selten, 2001). Todo esto implica que, en la formación de un producto de inteligencia, los hombres no son capaces de elegir la mejor opción idealmente, ya que no tienen toda la información necesaria que les permita formularla, ni tienen un tiempo ilimitado o las facultades cognitivas para continuar la investigación. Estas limitaciones no nos llevan a la elección de la primera opción suficientemente buena que se puede encontrar, de hecho, podría, sencillamente, no existir una estrategia óptima. En palabras de Gigerenzer & Selten (2001):

Las razones específicas son numerosas, incluyendo (a) si existen varios objetivos en conflicto, la optimización puede convertirse en una carga computacional pesada e insoportable; (b) si existen objetivos inconmensurables, la optimización puede ser imposible; (c) si existen razones inconmensurables (o señales), la optimización puede ser imposible, (d) si las alternativas son desconocidas y necesitan ser generadas en un largo proceso de búsqueda, los modelos de optimización no son aplicables ya que asumen un conjunto de elecciones finitas conocidas; (e) si no se conocen las señales o razones y necesitan ser generadas en un largo proceso de búsqueda, los modelos de optimización no se aplican ya que asumen un conjunto finito conocido de predictores; (f) si se desconocen las consecuencias futuras de las acciones y eventos, los modelos de optimización no son aplicables ya que asumen un conocido conjunto finito de consecuencias; y (g) si se intenta la optimización de la multitud de decisiones a las que un organismo se enfrenta en tiempo real, puede llevar a la parálisis por una saturación de cálculo (pp. 40-41).

Instrumentos de razonamiento mental y heurístico

El análisis de inteligencia es que los analistas nunca serán capaces de observar la totalidad de los datos que tienen desde una perspectiva "demiurgica" 6, la absorción y la conexión de todos los puntos disponibles en pocos segundos se limitará no sólo por el tiempo y las circunstancias, sino por su propia capacidad de imaginar y por su capacidad de apartarse de lo que han aprendido a conocer como "normal", así como por su capacidad para formular varias alternativas. Existen una serie de estrategias simplificadoras, a menudo en función del tipo de problema al que nos enfrentamos, con el fin de hacer que el mundo exterior sea más "digerible". En este sentido, podemos observar dos categorías principales que son particularmente relevantes: las mentalidades y las expectativas, y la heurística y los sesgos.

Mentalidad y expectativa

Es uno de los hallazgos más estables de la psicología cognitiva es la afirmación de que se tiende a percibir el mundo en base a una serie de "mentalidades" o "conjunto perceptual", que ayudan a ordenar la complejidad del entorno. Aunque hay una tendencia a pensar en las capacidades de percepción como un proceso pasivo en el que se limita a grabar la "realidad", varios estudios han demostrado que se tiene tendencia a reconstruir la realidad de acuerdo con algunas nociones preconcebidas en lugar de acercarse a dicha realidad con la mente en blanco (Plous, 1993).7

La percepción se entiende mejor como un proceso de inferencia a través del cual las personas conforman su propia versión de la realidad, basada en las entradas y los estímulos que reciben de sus sentidos (Heuer, 1999). En otras palabras, las personas forman un modelo subjetivo del mundo en el que se encuentran a sí mismos, y basan su interacción con el mundo objetivo en su modelo subjetivo de la realidad (Iwai, 1981). No obstante, se deben hacer aquí algunas breves distinciones.

Un modo de pensar se define en términos generales como "una actitud mental fija o disposición que predetermina las respuestas de una persona y sus interpretaciones de las situaciones". Las expectativas dependen de la forma de pensar, en un cierto sentido, son una consecuencia de la forma de pensar, y se definen como " la creencia de que algo va a suceder o la creencia de que algo debe ser de cierta manera". La distinción es sutil y debido a esto los dos términos se puede utilizar indistintamente. Para centrarnos en esta distinción, podemos pensar en estilos cognitivos y expectativas. Las expectativas son una consecuencia de lo que hemos aprendido y de cómo hemos organizado nuestra forma de pensar.

La heurística y los sesgos

La mayoría de las heurísticas o atajos mentales se basan en lo que se ha denominado "sustitución de atributo", o razonamiento orientado a poder evitar cálculos complicados. En circunstancias medias o normales, son muy útiles para hacer frente a la complejidad y a la ambigüedad cuando se dispone de una cantidad limitada de tiempo y con las capacidades mentales limitadas. No obstante, en muchas circunstancias estas estrategias simplificadoras pueden dar lugar a errores sistemáticos conocidos como sesgos cognitivos.

Los sesgos cognitivos no son sesgos posibles que se puedan atribuir al juicio personal (tal como una predisposición emocional o cultural para una determinada respuesta, un impedimento organizacional o social, etc.). Los sesgos cognitivos son los errores más consistentes y predecibles que se producen como consecuencia de determinados procedimientos mentales para el procesamiento de la información (Heuer, 1999), y son comparables a las ilusiones ópticas mentales, que apenas podemos evitar ver a modo de respuestas automáticas a situaciones que no desaparecen incluso cuando se es consciente del error. Esto puede suceder tanto con ilusiones ópticas reales como con sesgos cognitivos (Kahneman, 2011).

Análisis de inteligencia cognitiva y sesgos

Las dos herramientas principales de razonamiento que hemos identificado en la argumentación anterior, la mentalidad y la heurística, afectan al juicio en las circunstancias específicas de la realización de un análisis de inteligencia. En este sentido los analistas de inteligencia trabajan en un ambiente que los hace más propensos a lo que se denomina "cierre prematuro". El "cierre prematuro" es un término utilizado principalmente en la medicina, en referencia al hecho de que los médicos podrían no estar dispuestos a cambiar un diagnóstico que han hecho previamente, incluso a la vista de nuevas pruebas (Kumar, Kanna & Kumar, 2011).

En general, el "cierre", cuando se refiere a los conocimientos provenientes de la formación, se refiere a la necesidad de una respuesta definitiva a un tema en particular (o más general), y por lo general implica un rechazo hacia respuestas ambiguas (Krugalsky & Webster, 1996). En el caso del análisis de inteligencia, es extraño que los analistas puedan tratar con respuestas ambiguas, y es igualmente extraño que tengan el lujo de poseer tiempo para pensar en todas las posibles respuestas que los datos propongan. Como tales, son significativamente propensos a cierre prematuro (Heuer, 1999).

La incertidumbre

Casi por definición, las actividades de inteligencia han de tratar con la incertidumbre. La razón del análisis y de la inteligencia es escapar lo más lejos posible de la "niebla" de la incertidumbre que cubre los eventos, y por lo tanto, situarnos en una posición adecuada cuando surge la necesidad de hacer juicios y tomar decisiones acerca de dichos eventos. El término original, Nebel des Krieges ("niebla de guerra", en español) fue empleado por primera vez por Carl von Clausewitz, en referencia a la incertidumbre que a la que se enfrentaban los líderes militares con respecto a las capacidades militares (tanto las suyas como las de sus adversarios), las intenciones, circunstancias, etc.

Sin embargo, la capacidad del análisis de inteligencia para resolver esta incertidumbre es limitada: ya se refiera a la incertidumbre sobre hechos desconocidos, como los futuros desarrollos: un tipo de incertidumbre comúnmente llamada "misterio, por lo general definidos en los estudios de inteligencia como futuros eventos, pero para los que existen varios resultados posibles y que pueden ser identificados y calificados como probables (Treverton, 2005); o se refiere a hechos que son susceptibles de conocimiento en un principio, pero casi imposibles de conocer en la práctica (como el paradero de un terrorista conocido o los programas nucleares de una nación).

A excepción de algunos casos en la recogida de información en circulación, el tipo de información que los analistas de inteligencia reciben es incompleta, incierta, e incluso puede llegar a ser contradictoria. Las mentalidades tienden a ser más relevantes en el proceso de inferencia cuando hay pocos hechos complejos, para dar sentido a una situación. En ausencia de evidencias para sostener un juicio o evaluación de una situación, las experiencias precedentes o suposiciones acerca de ese tipo de situación ofrecen modelos generales de cómo es probable que evolucione de modo que nuestra mente, suministra esquemas previamente organizados en base a los precedentes y otras hipótesis a considerar. Mientras que, en otros escenarios se correrá el riesgo de adaptarse a la poca evidencia disponible en esquemas mentales, que podrían no ser válidos para la situación considerada (Heuer, 1999).

Percepciones sesgadas: la consistencia y el sesgo de confirmación

La incertidumbre o ambigüedad también tienen un riesgo adicional. Entre las propiedades relevantes de razonamiento humano se encuentra la tendencia general a buscar patrones y coherencia que pudieran "dar sentido" al mundo (Fischhoff & Chauvin, 2011). Esto generalmente implica buscar una cadena causal para explicar los eventos y acciones. La búsqueda de causas y efectos es un proceso inferencial (la causalidad no es algo que pueda ser físicamente "observada", sólo se deduce). Los altos niveles de incertidumbre pueden complicar significativamente cualquier fallo en ese sentido (Heuer, 1999). Por otra parte, una tendencia a favorecer las explicaciones causales puede generar varios problemas y, por tanto, basar un juicio en el supuesto de que los hechos consistirán en una relación causal, esta puede generar riesgos, desde la no inclusión de la aleatoriedad o accidentes entre las causas potenciales de la sobreestimación en la consistencia del comportamiento de otros actores (estatales o no estatales).

Estos dos errores (subestimación de la aleatoriedad y una sobreestimación de la consistencia) pueden sesgar significativamente cualquier evaluación sobre la situación actual y su previsible evolución. Tal sesgo hace que "aprender de los propios errores" sea más difícil para un analista de inteligencia que para otras profesiones y, además, complica la definición de las normas que deben cumplir los analistas y las agencias de inteligencia.8

La búsqueda de la causalidad combinada con una escasez de pruebas provoca un riesgo significativo de encontrar nexos de causalidad donde no las hay, o, en otros términos, la formación de un juicio prematuro que parece plausible, pero se mantiene mayormente por las expectativas y el deseo de coherencia para de forma intuitiva, formar una hipótesis antes de tener todos los hechos relevantes, puede afectar a los analistas de información, sobre todo para aquellos que confirman su propia hipótesis. Con este planteamiento, la cuestión afecta en muchos casos a la respuesta, produciéndose un fenómeno general denominado "efecto framing". Si, además, un analista o toda una agencia plantean una hipótesis con una respuesta ya en la mente (como puede ser el caso especial si tenemos presente una mentalidad fuerte y escasas evidencias), se corre el riesgo de caer en el famoso sesgo cognitivo conocido como "el sesgo de confirmación" (Fischhoff & Chauvin, 2011).

Los resultados de estos dos fenómenos son dos de los sesgos sobre el juicio que hemos mencionado en el apartado anterior. La primera y más evidente forma en que el sesgo de confirmación puede afectar a un juicio es a través de la percepción selectiva. La definición más simple de este fenómeno es "que percibimos lo que esperamos percibir" (Heuer, 1999). Esto significa que nuestra atención se centrará automáticamente en hechos que confirman o refuerzan una idea o hipótesis ya formada. Es necesario tener en cuenta la diferencia entre esperar y desear: la percepción selectiva no proviene de una ilusión (todo lo contrario, ya que el analista puede fácilmente ser arrastrado por la paranoia o pesimismo como por el optimismo); es más bien una forma de atención imperfecta a los hechos que confirman o refuerzan una idea o hipótesis ya formada. El corolario de esta cuestión es que necesitaremos más información, y esta de manera inequívoca, para evitar el sesgo que se puede producir al reconocer un fenómeno inesperado.

En otras palabras, el sesgo de confirmación y las distintas formas de pensar pueden crear expectativas sobre lo que percibimos que guíen nuestra atención y hagan que sea más difícil "ver" eventos o hechos que no se ajustan a esas expectativas. Las implicaciones para el análisis de inteligencia son evidentes: enfocando su atención a lo que se "espera", los analistas podrían perder o malinterpretar la información relevante que contraste o desacredite su hipótesis, o resaltar un evento completamente nuevo.

Lo que esto implica para el análisis de inteligencia es que una vez que se ha encontrado una explicación para un evento será muy difícil de desacreditarlo, incluso cuando se proporcionan nuevas pruebas, incluso las nuevas pruebas serán adaptadas a la explicación ya existente. Además, incluso cuando se ajusta un juicio para adaptarse a nuevas pruebas, la hipótesis de partida es probable que sirva como un "ancla", lo que reduce la cantidad de ajuste, por ello, la estimación final será a menudo más cercana a la suposición original de lo que la evidencia justifica. Este fenómeno, es uno de los prejuicios más sistemáticos en la toma de decisiones humana. Llamado "anclaje"9 (Tversky & Kahnemans, 1974).

Plausibilidad, representatividad y el pensamiento alternativo

Como se ha comentado, la mente humana es particularmente sensible a la coherencia, hasta tal punto que la consistencia interna en un conjunto de pruebas puede afectar significativamente al propio sentido de la confianza en su juicio final. En promedio, se tienden a formar juicios que tienden a seleccionar la opción que abarca la mayor cantidad de pruebas dentro de un escenario consistente lógicamente (Heuer, 1999). La consistencia da credibilidad en la imagen formada y su verosimilitud reduce los incentivos para buscar explicaciones alternativas, lo que significa que una explicación que parece plausible a menudo encuentra su razón en el hecho de que es más fácil imaginar, lo que en la literatura se denomina sesgo de representatividad (Tversky & Kahneman, 1974).

Ya se ha comentado el hecho de que a menudo los analistas de inteligencia quedan abandonados a su suerte cuando tienen que realizar inferencias. Especialmente cuando los hechos reales son escasos y la existe la necesidad de ofrecer una respuesta, en esas situaciones van a tener que depender de patrones y experiencias anteriores. Sin embargo, lo que constituye un error es forzar la consistencia a través de la inferencia sobre los hechos en cuestión; es decir, examinar toda la evidencia disponible como prueba de lo que ya se piensa. Un ejemplo muy ajustado puede ser la interpretación del alcance de los tubos de aluminio y de las instalaciones móviles en el caso de las armas de destrucción masiva de Irak.

Las racionalizaciones de nuestros procesos de pensamiento nos llevan a que tengan sentido en base a la evidencia disponible, este un error en el que es muy fácil caer, pero es un error que las agencias de inteligencia no pueden permitirse, especialmente cuando se usan sus conclusiones públicamente: aunque ambas están basadas en la evidencia y los juicios basados en la inferencia pueden ser válidas, deben mantenerse diferenciadas con el fin de evaluar la solidez por las que se sustentan.

Por otra parte, a pesar de que la plausibilidad es atractiva, no puede convertirse en algo que lo abarque todo: uno de los principales peligros en la búsqueda de una teoría que se adapte a nuestro sentido de la coherencia es que va a ser más difícil oponerse a ella o aplicar un razonamiento alternativo, y el razonamiento alternativo es una de las principales herramientas para contrastar los efectos "deletéreos" de anular la mentalidad y los sesgos cognitivos. Cuando un escenario no sólo se supone, es además convincente en vista de las experiencias pasadas, a la evidencia disponible y a los razonamientos comparativos, hace que la motivación para buscar explicaciones alternativas se reduzca considerablemente.

La presión del tiempo y la precisión

Existe un último punto sobre el que llamar la atención cuando se habla de análisis de inteligencia, supone que los analistas están llamados a hacer una predicción exacta en una cantidad de tiempo muy limitado. De hecho, sobre todo en situaciones de crisis o sorpresa, la demanda de análisis interpretativo es mayor durante las inmediatos dos o tres días después de los eventos (Heuer, 1999). Aun cuando no sea el caso de periodos de tiempo ridículamente cortos, la formación de juicios exactos en un calendario "comprimido" no es una tarea fácil, especialmente en el campo del análisis de inteligencia.

En general, las personas aumentan su capacidad de ofrecer una respuesta rápida a través del ensayo y error o a través de la práctica repetida. A medida que los analistas de inteligencia no pueden confiar en un comportamiento repetido, y que si podría formar un precedente razonable en otros campos, como el diagnóstico médico o pensamiento de ajedrez.10 Es un hecho de que la urgencia con la que a menudo se exigen los informes de inteligencia crea las condiciones para un "cierre prematuro", o al menos en lo que se denomina, "saltar a las conclusiones". Para empeorar las cosas, si la conclusión se basa en evidencia escasa pero constante, los analistas podrían ser demasiado confiados en su juicio y, de nuevo, reacios a cambiar a la vista de nuevas pruebas (Heuer, 1999).

Conclusiones

El operar en un mundo tan complejo e incierto como el de los análisis de inteligencia implica que un cierto grado de insuficiencia siempre sea inevitable; frente a la escasa evidencia, el engaño rampante, y el tiempo limitado, la inteligencia no puede simplemente esperar siempre "hacerlo bien" en todas las ocasiones. De hecho, una buena inteligencia debe de ser capaz de identificar las incertidumbres que subyacen en su juicio, y por lo tanto aceptar la posibilidad de que sus estimaciones podrían estar equivocadas.

Siendo el 80% de acierto un excelente resultado en el análisis de hechos inciertos, todavía implica un 20% de probabilidad en cuanto a que el análisis será erróneo, y que este error no va a ser debido a fallos de inteligencia. La mayoría de los fallos de inteligencia actuales e históricos casi nunca han sido resultado de un fallo de los datos disponibles, las tecnologías actuales nos permiten un suministro diario casi ilimitado de información de la que extraer conclusiones de inteligencia, aunque, a menudo, el resultado se pierde entre una gran cantidad de datos, o "señales", es decir, los datos de predicción, se pierden entre el "ruido" y entre datos irrelevantes (Wohlstetter, 1962).

Las señales se pasan por alto, o se rechazan de plano porque no parecen encajar en la visión aceptada sobre el tema (Heuer, 1999). Los dos elementos principales causales del fracaso en la inteligencia son más bien la psicología y la política, la capacidad de analizar los datos, y la capacidad de comunicar y actuar sobre ellos (Betts, 1978). En términos generales, existe un acuerdo "tácito" sobre el hecho de que ser consciente de los propios procesos mentales, nos lleva a la obligación de argumentar las creencias y explicaciones arraigadas en cada uno, y que el escuchar una hipótesis alternativa puede beneficiar significativamente la formación de la propia sentencia (Jervis, 1976). Un método sistemático que contempla explicaciones alternativas y resultados, ofrece una manera de garantizar que los analistas no descarten hipótesis potencialmente relevantes e información de apoyo que de cómo resultado la pérdida de oportunidades para advertir adecuadamente (CIA, 2009).

Los analistas sólo pueden producir informes válidos si tienen al menos una idea general de lo que están viendo (Beebe & Pherson, 2012). Este tipo de necesaria dependencia del conocimiento a priori, los hace, sin embargo, más propensos a no reconocer el cambio y caer dentro de uno o más de los sesgos y errores mencionados en los apartados anteriores. La continua aparición de acontecimientos inesperados o contrarios a la intuición en los análisis de inteligencia alerta de que sus efectos negativos pueden ser contenidos o, al menos, reducidos.

1 Artículo de reflexión vinculado al grupo de investigación "Catedra Nebrija - Santander de análisis y resolución de conflictos" de la Universidad Antonio de Nebrija, España.

3 Desde el famoso arte de la guerra, en el que se menciona en repetidas ocasiones el uso de espías con el fin de llevar a cabo con éxito una campaña del general de Sun Tzu (Capítulo 13, VI a.c. aproximadamente), a la Biblia, donde Moisés mandó a 12 "agentes" para explorar y reportar sus hallazgos en la tierra de Canaán (números 13: 1-33, al menos III siglo a.c.).

4 La definición, apareció por primera vez en 1997 en una discusión sobre Estrategia Nacional de Seguridad en Estados Unidos. Esta definición se ha utilizado como alternativa para todos los tipos de conflicto que no suponían el enfrentamiento dual clásico que la Guerra Fría había establecido como central en las discusiones estratégicas. Las únicas características comunes que parece que se han mantenido a lo largo de todas las posibles interpretaciones han sido una disparidad absoluta de recursos y activos entre los adversarios, y/o una forma no-convencional (generalmente entendida como no legal, con referencia a las normas aprobadas que se establecen durante el conflicto) manera de hacer la guerra. Las características comúnmente compartidas también incluyen una explotación militar del adversario, y/o de las debilidades políticas y sociales para alcanzar la meta propia y compensar la propia inferioridad recursos (estrategias de compensación), y el hecho de que en la mayoría de los casos se implicaba al menos un actor no estatal (aun cuando es financiada o se utiliza como representación mediante un estado). Como se puede entender, el fenómeno actual es prácticamente nuevo en la guerra. Sin embargo, se hace referencia de forma continua a la novedad o al menos a algo que requiere formas innovadoras para su manejo.

5 Para más información, ver Plous (1993).

6 Se define como "Término procedente del griego "demiourgós" (etimológicamente, servidor del pueblo, maestro en un arte, artesano). Es el nombre con el que Platón se refiere en su cosmología (Timeo) al hacedor del universo, presentándolo como un semidiós que actúa como causa eficiente al ordenar la materia preexistente, pero que se hallaba en estado caótico, tomando como modelo la perfección y la belleza del "kosmos noetós" (mundo de las Ideas)." (Webdianoia, s. f)

7 Uno de los experimentos más tempranos y más conocidos de la percepción selectiva se publicó en 1949 por Jerome Bruner y Leo Postman. Otras contribuciones importantes en la percepción son las de: Hastorf y Cantril (1954), Bugelski y Alampay (1961) y Wilson y Abrams (1977).

8 Para una discusión adicional sobre la retrospección y la inteligencia se puede consultar Heuer, 1999.

9 Para más información sobre el efecto de anclaje en la inteligencia, ver Heuer (1999) y Plous (1993).

10 Una discusión interesante sobre los análisis de los maestros de ajedrez, se puede consultar en Chase y Simon, 1973).

Referencias

Beebe, S. M. & Pherson, R.H. (2012). Cases in Intelligence Analysis: Structured Analytic Techniques in Action. Thousand Oaks, CA: CQ.

Betts, R. K. (1978). Analysis, war, and decision: Why intelligence failures are inevitable. World Politics, vol. 31, Num. 1, pp. 61-89.

Betts, R.K. (2007). Two Faces of Intelligence Failure: September 11 and Iraq’s Missing WMD. Political Science Quarterly, vol. 122 Num. 4, pp. 585-606.

Bruner, J.S & Postman, L. (1949). On The Perception of Incongruity: A Paradigm. Journal of Personality J Personality, Vol.18 num. 2, pp. 206-223.

Bugelski, B.R, & Alampay, D.A. (1961). The role of frequency in developing perceptual sets. Canadian Journal of Psychology, Vol. 15, pp. 205-211.

Central Intelligence Agency (CIA) Documents. (2009). A Tradecraft Primer: Structured Analytic Techniques for Improving Intelligence Analysis. Washington D.C.: US Government.

Clausewitz, K. V. (2002). De la guera. Librodot.com

Fischhoff, B. & Chauvin, C. (2011). Intelligence Analysis. Behavioral and Social Scientific Fundations. Washington, DC: The National Academies Press.

Fitzsimmons, M. (2006). The Problem of Uncertainty in Strategic Planning. Survival: Global Politics and Strategy, Vol. 48 Num. 4, pp. 131-146.

Gigerenzer, G. & Selten, R. (2001). Bounded Rationality: The Adaptive Toolbox. Cambridge, MA: MIT.

Hastorf, A.H. & Cantril, H. (1954). Selective Perception: They saw a game: A case study. Journal of Abnormal and Social Psychology, Vol. 49 Num 1. pp. 129-134.

Heuer, R.J., (1999). Psychology of intelligence analysis. Washington, DC: Center for the Study of Intelligence, Central Intelligence Agency.

Heuer, R.J. & Pherson, R.H. (2011). Structured Analytic Techniques for Intelligence Analysis. Washington D.C.: CQ Press.

Iwai, K. (1981). Disequilibrium Dynamics: A theoretical analysis of inflation and unemployment. New Haven and London: Yale University Press.

Jervis, R. (1976). Perception and Misperception in International Politics. New Jersey: Princeton University Press.

Kahneman, D. (2011). Thinking, Fast and Slow. New York: Farrar, Straus and Giroux. E-pub.

Kahneman, D. Y Tversky A. (1974). Judgment Under Uncertainty: Heuristics and Biases, Science, vol.185, Num. 4157, pp. 1124-1131.

Kugransky, A.W. & Webster, D.M. (1996). Motivated Closing of the Mind: "Seizing" and "Freezing’. Psychological Review, vol. 103, Num. 2, pp. 263-283.

Kumar, B., Kanna, B. & Kumar, S. (2011). The pitfalls of premature closure: clinical decision-making in a case of aortic dissection. BMJ Case Reports. Londres: https://goo.gl/ZxBFSM

Plous, S. (1993). The Psychology of Judgement and Decision Making. New York: McGraw-Hill.

Russell, J.A. (2006). Proliferation of Weapons of Mass Destruction in the Middle East: Directions and Policy Options in the New Century. Houndmills, Basingstoke, Hampshire, UK: Palgrave Macmillan.

Simon, H.A. (1955). A Behavioral Model of Rational Choice. The Quarterly Journal of Economics, vol. 69 num. 1, pp. 99-118.

Simon, H.A. (1957). Models of Man. New York: Wiley.

Treverton, G.F. (2005). Making Sense of Transnational Threats: Workshop Reports. Santa Monica. California, USA. RAND Corporation.

Wilson, G.T. & Abrams, D. (1977). Effects of alcohol on social anxiety and physiological arousal. Cognitive Research and Therapy, Vol.1 Num. 3, pp. 195-210

Wohlstetter, R. (1962). Pearl Harbor; Warning and Decision. Stanford, CA: Stanford UP