Introducción
La capacidad de previsión no se obtiene ni de dioses ni de los espíritus, ni por analogía con eventos pasados, ni por conjeturas. Proviene, únicamente, de las informaciones de quienes conocen el estado real del enemigo
Sun Tzu
Habitamos un mundo que es a la vez complejo e incierto. A pesar de las limitaciones, los Gobiernos y los responsables públicos se esfuerzan en obtener la mejor información posible en calidad y cantidad, con el fin de tomar las mejores decisiones y realizar los planes más adecuados. Este hecho es especialmente incierto cuando se interactúa en el escenario internacional y aún más en el caso de ocuparnos de la seguridad nacional. Debido a las particulares condiciones en las que nuestro mundo se encuentra se hace necesario cada vez más, que los servicios de inteligencia realicen análisis cada vez más afinados. Es precisamente sobre el análisis, donde residen gran parte de los errores de inteligencia (Wastell 2010).
Anteriormente, existieron acontecimientos que ofrecieron esquemas de análisis de inteligencia más razonables y cognitivamente más fáciles de procesar que el mundo frenético de las últimas décadas. Los estudios estratégicos de inteligencia han seguido avanzando hasta la actualidad, considerando una multitud de asuntos relacionados con el uso potencial o real del poder con propósitos políticos, ocupando a un número creciente de investigadores y modelándose, por tanto, como un área multidisciplinar, capaz de mejorar sus enfoques y contribuciones con recursos intelectuales con origen en diferentes disciplinas: las Relaciones Internacionales y la Ciencia Política, así como de la Psicología, la Economía, el Derecho, la Sociología o las Matemáticas, entre otras.
Las nuevas amenazas en seguridad
El entorno actual de seguridad, por lo general, define las situaciones como “asimétricas” para transmitir mejor el carácter no convencional, no equilibrado y no estatal de la mayoría de las amenazas de nuestros días. Todo el mundo ha tenido algo que decir sobre las amenazas y conflictos asimétricos. La definición, apareció por primera vez en 1997, en una discusión sobre Estrategia Nacional de Seguridad en Estados Unidos. Esta definición se ha utilizado como alternativa para todos los tipos de conflicto que no suponían el enfrentamiento dual clásico que la Guerra Fría había establecido como central en las discusiones estratégicas.
Las únicas características comunes, que parece que se han mantenido a lo largo de todas las posibles interpretaciones, han sido una disparidad absoluta de recursos y activos entre los adversarios, y/o una forma no-convencional (generalmente, entendida como no legal, con referencia a las normas aprobadas que se establecen durante el conflicto) manera de hacer la guerra. Las características compartidas también incluyen una explotación del adversario, y/o de las debilidades políticas y sociales para alcanzar la meta propia y compensar la propia inferioridad recursos (estrategias de compensación), y el hecho de que en la mayoría de los casos se implicaba al menos un actor no estatal (aun cuando es financiada o se utiliza como representación mediante un Estado). Como se puede entender, el fenómeno actual es casi nuevo en la guerra. Sin embargo, se hace referencia de forma continua a la novedad o al menos a algo que requiere formas innovadoras para su manejo donde la inteligencia debe tomar las riendas.
La sociedad internacional comprendió el 11 de septiembre de 2001, que el adversario al que se enfrentaba no podía combatirse con las mismas políticas e instrumentos que habían servido para hacer frente a las amenazas tradicionales existentes hasta el momento. Se trataba de una amenaza asimétrica, vaporosa e impredecible ante la cual el instrumento militar perdía su eficacia en tanto el terrorismo no podía ser embestido al no operar en un territorio delimitado y no tener un ejército profesional. Al Qaeda se caracterizaba por adoptar una estructura reticular. Ante semejante escenario, la intervención militar como instrumento contraterrorista debía de pasar a un segundo plano dando mayor protagonismo a los servicios de inteligencia. El entorno de la seguridad es visto como inherentemente incierto. Fitzsimmons (2006) ofrece una discusión correcta sobre el papel y el efecto de la incertidumbre en la planificación estratégica. Esta incertidumbre dimensional, que abarca no solo la estrategia y la táctica, también la política y la ética, hace que la identificación y evaluación de las posibles amenazas, difícilmente interpretables cognitivamente, hagan que todos los esfuerzos, el trabajo para predecir amenazas, por quién, y por donde surgirán, se hayan vuelto mucho más complejas.
El número de actores estratégicos con la capacidad, la motivación y con recursos para atacar blancos de interés vital ha aumentado gracias, entre otras cosas, a la llegada de las tecnologías de la información. Los efectos de las armas, que de forma creíble podrían causar daños importantes son mejorados constantemente por las innovaciones técnicas. Las amenazas que se originan en cualquiera de las posibles dimensiones militares, tierra, mar, aire, bajo el agua, el espacio, y ahora el ciberespacio, pueden ser objetivos estratégicos principales, en cualquiera de las dimensiones (Russel 2006). Las “reglas del juego” han cambiado desde la aparición de nuevos actores, las situaciones ya no están limitadas por los tratados, estatutos y costumbres “tradicionales”.
En tal ambiente, maximizar el número y la fiabilidad de la información disponible no es suficiente para garantizar la eficacia de la inteligencia. Las nuevas tecnologías facilitan el trabajo de recopilación de datos y aumentan la enorme cantidad de información disponible, aumentando la presión sobre las capacidades cognitivas de los analistas llamados a sacar conclusiones de esos datos. Por un lado, la cantidad de elementos “secretos” se ha reducido, por el otro, la incertidumbre en torno a nuevos actores y nuevas tendencias de la guerra han aumentado el número de “misterios” que los analistas deben tener en cuenta.
Por lo tanto, los analistas de inteligencia a menudo tienen que lidiar con demasiados datos con el fin de predecir hechos que son, por definición, imposible de conocer. Obsérvese que en los estudios de inteligencia se suele distinguir entre dos tipos de “desconocidos”: por un lado, los secretos o puzles, que suponen información que es cognoscible, en principio, pero casi imposible de conocer en la práctica (como una nota sobre el paradero de terroristas o el programa nuclear de un país), y por otro, los misterios, que es puro material incognoscible, que por lo general hace referencia a sucesos futuros (por ejemplo, la siguiente etapa de una guerra), y que solo puede ser evaluado a través de la probabilidad (Treverton 2005). Esta revolución de la información ha hecho que sea aún más importante que los analistas de inteligencia posean una comprensión clara de las amenazas a las que se enfrentan. El aumento de la información disponible, en lugar de facilitar su trabajo, hace que sea más difícil a los analistas de inteligencia destilar la información utilizable a partir de una gran cantidad de datos.
La “racionalidad limitada”, del razonamiento humano
Herbert Simon (1995), en sus pioneros estudios sobre la mente humana en la década de los años 40, propuso el concepto de “racionalidad limitada”, argumentando que, frente a la espectacular complejidad del mundo, el hombre no puede cumplir con un ideal exacto de racionalidad, siendo necesario utilizar distintas estrategias para simplificar su entorno. Simon argumentó que, frente a la espectacular complejidad del mundo, el hombre no puede cumplir con un ideal exacto de racionalidad, siendo necesario utilizar distintas estrategias para simplificar su entorno. Unos quince años más tarde, en un ensayo publicado en 1974, el futuro ganador del Premio Nobel Daniel Kahneman y Amos Tversky, explicaron la simplificación del pensamiento intuitivo y explicaron una veintena de sesgos, generados como consecuencias de las formas particulares de la estructura de nuestro cerebro, independientemente de la emocionalidad de la persona (Kahneman 2011). Sin embargo, como anticipamos, el análisis de la inteligencia y en particular, un análisis no estandarizado depende fundamentalmente de la capacidad de pensamiento de las personas que lo llevan a cabo.
El sistema de razonamiento humano
Los filósofos antiguos plantearon la cuestión de dos “almas” en cuanto a nuestra capacidad para pensar: una, irracional, emocional, instintiva y asociada a un lado “animal” de la naturaleza humana; y una segunda, racional, lógica, reflexiva, más cerca de la parte “divina” de nuestro ser. El debate ha sido históricamente más fuerte entre la parte “irracional” de nuestra mente y su contraparte más “racional”. El caso más conocido es la metáfora de Platón sobre el mito del auriga que conduce un carro tirado por dos caballos alados, representando cada uno de ellos la parte racional e irracional del alma, ambos gobernados por el auriga o la razón. Para una discusión más amplia sobre el desarrollo histórico del concepto de racionalidad en oposición a la probabilidad psicológica, se puede consultar a Gigerenzer y Selten (2001).
En el siglo pasado esta vieja dicotomía de pensamiento se plasmó en dos “sistemas” de razonamiento que son complementarios e interactivos, el Tipo o Sistema Uno y el Tipo o Sistema Dos, de acuerdo con la primera definición dada por los psicólogos Stanovich y West (2002). El Sistema Uno es el más antiguo biológicamente hablando, es sobre todo intuitivo, inconsciente asentado sobre la base de la inteligencia emocional, cognitivo y sin esfuerzo; en consecuencia, tiende a llegar a conclusiones rápidas sobre la base de la “heurística”, o a llegar a atajos cognitivos, en lugar de usar la lógica; la característica que le define es el procesamiento autónomo. El Sistema Dos es biológicamente más reciente, deliberado y consciente, se basa en la lógica y supone un esfuerzo cognitivo; en consecuencia, se requiere una mayor cantidad de energía mental para llegar a una conclusión, y es por lo general más lento que el Sistema Uno. Gracias al sistema dos poseemos unas ciertas características cognitivas indispensables para el pensamiento hipotético (Evans y Stanovich 2013). El Sistema Dos se considera normalmente como el centro de nuestro sentido de la elección y la concentración (Kahneman 2011).
Esta división operativa en dos “tipos” de razonamientos aporta información importante sobre la capacidad de la mente humana para hacer frente a cuestiones complejas. Los seres humanos provienen de una larga historia evolutiva en la que hacer frente al mundo, en circunstancias normales, es más complejo de lo que nos permite nuestra capacidad de procesamiento. La división de nuestras capacidades de pensamiento en dos sistemas que interactúan supone menos esfuerzo y buenos resultados para hacer frente a situaciones de rutina.
El Sistema Uno, es nuestro “equipo” de primera respuesta. Tiene algunos defectos fundamentales que no pueden ser evitados (a pesar de que se pueden corregir, gracias al Sistema Dos) y que se derivan del tipo de razonamiento que se aplica a la situación: este sistema ofrece rápidamente reacciones sin esfuerzo. El Sistema Uno tiene que simplificar la compleja situación en la que se encuentra en algo más manejable, por lo general, mediante la sustitución de esa situación compleja por una situación más fácil que pueda ser comparable (lo que se denomina “sustitución de atributo”). Este proceso no es voluntario sino más bien automático: cada situación se considera dentro de los modelos de lo ya conocido o experimentado (a modo de prueba y error), o se reduce a algo similar para el que ya existen respuestas, lo que implica que cuando sucede la excepcional, nuestras primeras reacciones están poco orientadas a apreciarla y más bien tienden a inclinarse en algo más familiar que podría no ser lo adecuado para comprenderlas. En pocas palabras, la respuesta rápida y sin esfuerzo del Sistema Uno tiene un precio, ya que su precisión está lejos de ser perfecta y que de hecho puede ser sistemáticamente equivocada (sesgo).
El Sistema Dos, por desgracia, no es inmune a los errores sistemáticos, aunque dichos errores tienen un origen bastante diferente. Mientras que el Sistema Uno no está estructurado para hacer frente a una situación compleja e inesperada (con la excepción de las respuestas instintivas, por ejemplo, salir corriendo al oír disparos), el Sistema Dos puede, mediante un tiempo de respuesta, abordar cuestiones más difíciles y evaluar situaciones inesperadas a través de la lógica y de la razón. Sin embargo, ni siquiera la lógica y la razón, pueden trascender al hecho de que el cerebro humano no está estructurado para ser una calculadora inmediata, sin límites. Si se le pide realizar una tarea difícil, como una multiplicación de dos dígitos, el Sistema Dos es capaz de intervenir y resolverlo, con un costo de tiempo y la inversión de un gran esfuerzo. Si se complica la tarea, por ejemplo, en una multiplicación mental de tres dígitos, sin escribir, una persona promedio puede darse por vencida cuando se enfrenta con el hecho de que no posee la capacidad mental para realizar la tarea. El Sistema Dos, en definitiva, está sometido a limitaciones, diferentes de las desviaciones sistemáticas de atajos cognitivos del Sistema Uno, son limitaciones más bien basadas en el hecho de que nuestra capacidad de esfuerzo mental es, en términos económicos, escasos, y que no se puede gastar más de lo que tenemos.
En resumen, el Sistema Uno no es un sistema de análisis. Trabaja para ofrecer una primera respuesta, de forma rápida y, dentro de los límites de su experiencia y de los instintos naturales, apropiada. Sin embargo, estas respuestas automáticas están llenas de una serie de desviaciones sistemáticas que pueden distorsionar los resultados. El analista del equipo es el Sistema Dos, que depende en lo que respecta a la información sobre lo que se Sistema Uno deja pasar. Sin embargo, incluso el Sistema Dos tiene sus defectos: a pesar de que está estructurado para resolver problemas complejos, no posee una capacidad de cálculo infinito, en otras palabras, este sistema está limitado por la naturaleza y por las circunstancias.
La medida limitada del razonamiento humano
Cuando Herbert A. Simon (1957) utilizó por primera vez la expresión “racionalidad limitada” para indicar que el poder intelectual humano estaba sujeto a limitaciones, fue consciente de que se situaba en la ruptura directa de la teoría neoclásica de la conducta y la toma de decisiones, que hacía hincapié en un hombre de una casi perfecta racionalidad en la selección de la opción que maximiza sus intereses (Gigerenzer y Selten 2001). Las aportaciones de Simon vulneran las bases de las teorías clásicas de la maximización, racionalidad y equilibrio económico general. Según Simon, los mercados no están totalmente abiertos como afirma el modelo económico clásico, precisamente, porque los tomadores de decisiones, especialmente los más significativos, tienen una capacidad limitada de conocimiento y están sesgados por sus preferencias personales y sociales.
De hecho, los seres humanos no estamos psicológicamente (¿deberíamos decir biológicamente?) preparados para calcular grandes cantidades de datos de forma instantánea y perfecta, y mucho menos para hacer predicciones fuera de ellos, pero para la mayoría de las realidades independientes, no poseemos la totalidad de la información. Además, las predicciones realizadas están sujetas a una serie de limitaciones ambientales (tiempo, espacio, normas sociales, emocionales, etc.) que restringen aún más la gama de opciones. Estas limitaciones inherentes tanto a las características cognitivas de los agentes y al entorno en el que se encuentran, implican que la racionalidad humana real puede ser en el mejor de los casos una aproximación muy cruda y simplificada para el tipo de racionalidad global que está implícita (Simon 1955).
Sin embargo, esto no implica que los hombres sean irracionales. La racionalidad no perfecta y la irracionalidad son dos realidades diferentes. Un agente puede ser definido irracional cuando deliberadamente actúa en contra de su propio interés, pone su fe en estrategias ineficaces (probadas), o no tiene ningún control sobre sus propias facultades mentales (Gigerenzer y Selten 2001, 40).
Todo esto implica que, en la formación de una resolución o sentencia, los hombres no son capaces de elegir la mejor opción idealmente, ya que no tienen toda la información necesaria que les permita formularla, ni tienen un tiempo ilimitado o las facultades cognitivas para continuar la investigación. Estas limitaciones no nos llevan a la elección de la primera opción suficientemente buena que se puede encontrar, de hecho, podría, no existir una estrategia óptima (Gigerenzer y Selten 2001, 41). Lo que esto implica para el análisis de inteligencia es que los analistas nunca serán capaces de observar la totalidad de los datos que tienen desde una perspectiva “demiurgica”, la absorción y la conexión de todos los puntos disponibles en pocos segundos se limitará no solo por el tiempo y por las circunstancias, sino por su propia capacidad de imaginar y por su capacidad de apartarse de lo que han aprendido a conocer como “normal”, así como por su capacidad para formular varias alternativas.
Instrumentos de razonamiento mental y heurístico: mentalidad y expectativa; heurística y sesgos
Existen una serie de estrategias simplificadoras, a menudo en función del tipo de problema al que nos enfrentamos, con el fin de hacer que el mundo exterior sea más “digerible”. En este sentido, podemos observar dos categorías principales que son particularmente relevantes: las mentalidades y las expectativas, y la heurística y los sesgos. Aunque hay una tendencia a pensar en nuestras capacidades de percepción como un proceso pasivo en el que nos limitamos a grabar la “realidad”, varios estudios han demostrado que tenemos tendencia a reconstruir la realidad de acuerdo con algunas nociones preconcebidas en lugar de acercarnos a dicha realidad con la mente en blanco (Plous 1993). Uno de los experimentos más tempranos y más conocidos de la percepción selectiva se publicó en 1949 por Jerome Bruner y Leo Postman. Otras contribuciones importantes en la percepción son las de Hastorf y Cantril (1954), Bugelski y Alampay (1961), y Wilson y Abrams (1977).
La percepción se entiende mejor como un proceso de inferencia a través del cual las personas conforman su propia versión de la realidad, basada en las entradas y los estímulos que reciben de sus sentidos (Heuer 1999). En otras palabras, las personas se forman un modelo subjetivo del mundo en el que se encuentran a sí mismos, y basan su interacción con el mundo objetivo en su modelo subjetivo de la realidad (Iwai 1981). Debemos, no obstante, hacer aquí algunas breves distinciones.
Un modo de pensar se define en términos generales como “una actitud mental fija o disposición que predetermina las respuestas de una persona y sus interpretaciones de las situaciones”. Las expectativas dependen de la forma de pensar, en un cierto sentido, son una consecuencia de la forma de pensar, y se definen como “la creencia de que algo va a suceder o la creencia de que algo debe ser de cierta manera”. La distinción es sutil y debido a esto los dos términos se puede utilizar indistintamente. Para centrarnos en esta distinción, podemos pensar en estilos cognitivos y expectativas. Las expectativas son una consecuencia de lo que hemos aprendido y de cómo hemos organizado nuestra forma de pensar. Son categorías de un solo sistema y reacciones automatizadas que dictan lo que va a llegar al Sistema Dos y qué impresiones subjetivas pasarán a él.
Una vez observados estos instrumentos de razonamiento que hemos descrito como mentalidad y expectativa, veamos ahora esta perspectiva respecto a la heurística y los sesgos. Ya hemos introducido el concepto de heurísticas o atajos mentales, como uno de los principales instrumentos que el Sistema Uno utiliza para considerar el medio ambiente circundante. La mayoría de las heurísticas se basan en lo que se ha denominado “sustitución de atributo”, o razonamiento orientado a poder evitar cálculos complicados. Se ha comentado que en circunstancias medias o normales, son muy útiles para hacer frente a la complejidad y a la ambigüedad cuando se dispone de una cantidad limitada de tiempo y con las capacidades mentales limitadas. Sin embargo, en muchas circunstancias estas estrategias simplificadoras pueden dar lugar a errores sistemáticos conocidos como sesgos cognitivos.
Los sesgos cognitivos no son sesgos posibles que se puedan atribuir al juicio personal (tal como una predisposición emocional o cultural para una determinada respuesta, un impedimento organizacional o social, etc.). Los sesgos cognitivos son los errores más consistentes y predecibles que se producen como consecuencia de determinados procedimientos mentales para el procesamiento de la información (Heuer 1999), y son comparables a las ilusiones ópticas mentales, que apenas podemos evitar ver a modo de respuestas automáticas a situaciones que no desaparecen incluso cuando se es consciente del error. Esto puede suceder tanto con ilusiones ópticas reales como con sesgos cognitivos (Kahneman 2011). Algunos de los sesgos cognitivos más comunes se enumeran en la tabla 1. A pesar de que el primer grupo (sesgos perceptuales) no puede ser adecuadamente catalogados como sesgos cognitivos, ya que más bien se refieren a cómo los acontecimientos se perciben que a la forma en que se procesan, se ha optado por incluirlos ya que representan otro tipo de error sistemático derivado del trabajo inherente de la mente, y están estrictamente correlacionados con la mentalidad.
Sesgos perceptuales | Pruebas para la evaluación de los sesgos |
---|---|
Expectativas. Tenemos la tendencia a percibir lo que esperamos percibir. Es necesaria más información (sin ambigüedades) para reconocer un fenómeno inesperado. | Consistencia. Las conclusiones extraídas de una pequeña cantidad de datos consistentes generan más confianza que los extraídos de un conjunto más amplio de datos menos consistentes. |
Resistencia. Las percepciones se resisten al cambio, incluso frente a pruebas nuevas. | Falta de información. Es difícil juzgar el impacto potencial de la prueba a la que le falta información, incluso si se conoce el vacío de información. |
Ambigüedad. La exposición inicial a los estímulos ambiguos o difusos interfiere con la percepción exacta, incluso después de disponer de más y mejor información. | Evidencia desacreditada. A pesar de la evidencia que la soporta una percepción puede estar equivocada, la percepción no puede cambiar rápidamente. |
Sesgos en la estimación de probabilidades | Sesgos en la percepción de la causalidad |
Disponibilidad. Las estimaciones de probabilidad se ven influidas por la facilidad con que uno puede imaginar un evento o recordar casos similares. | Racionalidad. Los eventos son vistos como parte de un patrón ordenado, causal. La aleatoriedad de accidentes y errores tienden a ser rechazada como explicaciones para los fenómenos observados. Por ejemplo, se sobreestima el grado en que otras personas o países sigan una política coherente, racional, objetivo de maximización. |
Anclaje. Las estimaciones de probabilidad se ajustan de forma incremental en respuesta a nueva información o a un análisis más detallado. | Atribución. El comportamiento de los demás se atribuye a una naturaleza fija de la persona o del país, mientras que nuestro propio comportamiento se atribuye a la situación en la que nos encontramos. |
Exceso de seguridad. En la traducción de los sentimientos de la seguridad en una estimación de probabilidad, las personas a menudo tienen exceso de confianza, especialmente si tienen una experiencia considerable. | |
Fuente: Central Intelligence Agency (2009). |
Los sesgos en el análisis de inteligencia
Las dos herramientas principales de razonamiento que hemos identificado en la argumentación anterior, la mentalidad y la heurística, afectan al juicio en las circunstancias específicas de la realización de un análisis de inteligencia. En este sentido, los analistas de inteligencia trabajan en un ambiente que los hace más propensos a lo que se denomina “cierre prematuro”. El “cierre prematuro” es un término utilizado en la medicina, en referencia al hecho de que los médicos podrían no estar dispuestos a cambiar un diagnóstico que han hecho previamente, incluso a la vista de nuevas pruebas (Kumar, Kanna y Kumar 2011). En general, el “cierre”, cuando se refiere a los conocimientos provenientes de la formación, se refiere a la necesidad de una respuesta definitiva a un tema en particular (o más general), y por lo general implica un rechazo hacia respuestas ambiguas (Krugansky y Webster 1996). En el caso del análisis de inteligencia, es extraño que los analistas puedan tratar con respuestas ambiguas, y es igualmente extraño que tengan el lujo de poseer tiempo para pensar en todas las posibles respuestas que los datos propongan. Como tales, son significativamente propensos a cierre prematuro (Heuer 1999).
La incertidumbre
La razón del análisis y en particular el análisis de la inteligencia militar, es escapar lo más lejos posible de la “niebla” de la incertidumbre que cubre los eventos, y por lo tanto, situarnos en una posición adecuada cuando surge la necesidad de hacer juicios y tomar decisiones acerca de dichos eventos. El término original, nebel des krieges (“niebla de guerra”, en español) fue empleado por primera vez por Carl von Clausewitz, en referencia a la incertidumbre que a la que se enfrentaban los líderes militares con respecto a las capacidades militares (tanto las suyas como las de sus adversarios), las intenciones, circunstancias, etc.
Sin embargo, la capacidad del análisis militar de inteligencia para resolver esta incertidumbre es limitada: ya se refiera a la incertidumbre sobre hechos desconocidos, como los futuros desarrollos: un tipo de incertidumbre comúnmente llamada “misterio”, por lo general, definidos en los estudios de inteligencia como futuros eventos, pero para los que existen varios resultados posibles y que pueden ser identificados y calificados como probables (Treverton 2005); o se refiera a hechos que son susceptibles de conocimiento en un principio, pero casi imposibles de conocer en la práctica (como el paradero de un terrorista conocido o los programas nucleares de una nación). A excepción de algunos casos en la recogida de información en circulación, el tipo de información que los analistas de inteligencia reciben es incompleta, incierta, e incluso puede llegar a ser contradictoria. Las mentalidades tienden a ser más relevantes en el proceso de inferencia cuando hay pocos hechos complejos, para dar sentido a una situación. En ausencia de evidencias para sostener un juicio o evaluación de una situación, las experiencias precedentes o suposiciones acerca de ese tipo de situación ofrecen modelos generales de cómo es probable que evolucione de modo que nuestra mente, suministra esquemas previamente organizados en base a los precedentes y otras hipótesis a considerar, mientras que en otros escenarios se correrá el riesgo de adaptarse a la poca evidencia disponible en esquemas mentales, que podrían no ser válidos para la situación considerada (Heuer 1999).
Percepciones sesgadas: la consistencia y el sesgo de confirmación
Entre las propiedades relevantes de razonamiento humano se encuentra la tendencia general a buscar patrones y coherencia que pudieran “dar sentido” al mundo (Fischhoff y Chauvin 2011). Esto implica buscar una cadena causal para explicar los eventos y acciones. La búsqueda de causas y efectos es un proceso inferencial (la causalidad no es algo que pueda ser físicamente “observada”, solo se deduce). Los altos niveles de incertidumbre pueden complicar significativamente cualquier fallo en ese sentido (Heuer 1999). Por otra parte, una tendencia a favorecer las explicaciones causales puede generar varios problemas y, por tanto, basar un juicio en el supuesto de que los hechos consistirán en una relación causal, esta puede generar riesgos, desde la no inclusión de la aleatoriedad o accidentes entre las causas potenciales de la sobreestimación en la consistencia del comportamiento de otros actores (estatales o no estatales).
Estos dos errores (subestimación de la aleatoriedad y una sobreestimación de la consistencia) pueden sesgar significativamente cualquier evaluación sobre la situación actual y su previsible evolución. Tal sesgo hace que “aprender de los propios errores” sea más difícil para un analista de inteligencia que para otras profesiones y, además, complica la definición de las normas que deben cumplir los analistas y las agencias de inteligencia (Heuer 1999). La búsqueda de la causalidad, combinada con una escasez de pruebas, provoca un riesgo significativo de encontrar nexos de causalidad donde no las hay, o, en otros términos, la formación de un juicio prematuro que parece plausible, pero se mantiene mayormente por las expectativas y el deseo de coherencia para de forma intuitiva, formar una hipótesis antes de tener todos los hechos relevantes, puede afectar a los analistas de información, sobre todo para aquellos que confirman su propia hipótesis. Con este planteamiento, la cuestión afecta en muchos casos a la respuesta, produciéndose un fenómeno general denominado “efecto framing”. Si, además, un analista o toda una agencia plantean una hipótesis con una respuesta ya en la mente (como puede ser el caso especial si tenemos presente una mentalidad fuerte y escasas evidencias), se corre el riesgo de caer en el famoso sesgo cognitivo conocido como “el sesgo de confirmación” (Fischhoff y Chauvin 2011).
Los resultados de estos dos fenómenos son dos de los sesgos sobre el juicio que hemos mencionado en el apartado anterior. La primera y más evidente forma en que el sesgo de confirmación puede afectar a un juicio es a través de la percepción selectiva. La definición más simple de este fenómeno es “que percibimos lo que esperamos percibir” (Heuer 1999). Esto significa que nuestra atención se centrará automáticamente en hechos que confirman o refuerzan una idea o hipótesis ya formada. Es necesario tener en cuenta la diferencia entre esperar y desear: la percepción selectiva no proviene de una ilusión (todo lo contrario, ya que el analista puede fácilmente ser arrastrado por la paranoia o pesimismo como por el optimismo); es más bien una forma de atención imperfecta a los hechos que confirman o refuerzan una idea o hipótesis ya formada.
El corolario de esta cuestión es que necesitaremos más información, y esta de manera inequívoca, para evitar el sesgo que se puede producir al reconocer un fenómeno inesperado. En otras palabras, el sesgo de confirmación y las distintas formas de pensar pueden crear expectativas sobre lo que percibimos que guíen nuestra atención y hagan que sea más difícil “ver” eventos o hechos que no se ajustan a esas expectativas. Las implicaciones para el análisis de inteligencia son evidentes: enfocando su atención a lo que se “espera”, los analistas podrían perder o malinterpretar la información relevante que contraste o desacredite su hipótesis, o resaltar un evento completamente nuevo.
Lo que esto implica para el análisis de inteligencia es que una vez que se ha encontrado una explicación para un evento será muy difícil de desacreditarlo, incluso cuando se proporcionan nuevas pruebas, incluso las nuevas pruebas serán adaptadas a la explicación ya existente. Además, incluso cuando se ajusta un juicio para adaptarse a nuevas pruebas, la hipótesis de partida es probable que sirva como un “ancla”, lo que reduce la cantidad de ajuste, por ello, la estimación final será a menudo más cercana a la suposición original de lo que la evidencia justifica. Este fenómeno, es uno de los prejuicios más sistemáticos en la toma de decisiones humana, llamado “anclaje” (Heuer 1999; Plous 1993).
Plausibilidad, representatividad y el pensamiento alternativo
La mente humana es particularmente sensible a la coherencia, hasta tal punto que la consistencia interna en un conjunto de pruebas puede afectar al propio sentido de la confianza en su juicio final. En promedio, formamos juicios que tienden a seleccionar la opción que abarca la mayor cantidad de pruebas dentro de un escenario consistente lógicamente (Heuer 1999). La consistencia da credibilidad en la imagen formada y su verosimilitud reduce los incentivos para buscar explicaciones alternativas, lo que significa que una explicación que parece plausible a menudo encuentra su razón en el hecho de que es más fácil imaginar, lo que en la literatura se denomina sesgo de representatividad (Tversky y Kahneman 1974).
A pesar de que la plausibilidad es atractiva, no puede convertirse en algo que lo abarque todo: uno de los principales peligros en la búsqueda de una teoría que se adapte a nuestro sentido de la coherencia es que va a ser más difícil oponerse a ella o aplicar un razonamiento alternativo, y el razonamiento alternativo es una de las principales herramientas para contrastar los efectos deletéreos de anular la mentalidad y los sesgos cognitivos. Cuando un escenario no solo se supone, es además convincente en vista de las experiencias pasadas, a la evidencia disponible y a los razonamientos comparativos, hace que la motivación para buscar explicaciones alternativas se reduzca de manera considerable.
La presión del tiempo y la precisión
Existe un último punto sobre el que llamar la atención cuando se habla de análisis de inteligencia, y que supone que los analistas están llamados a hacer una predicción exacta en una cantidad de tiempo muy limitado. De hecho, sobre todo en situaciones de crisis o sorpresa, la demanda de análisis interpretativo es mayor durante las inmediatos dos o tres días después de los eventos (Heuer 1999). Aun cuando no sea el caso de periodos de tiempo ridículamente cortos, la formación de juicios exactos en un calendario “comprimido” no es una tarea fácil, especialmente en el campo del análisis de inteligencia. En general, las personas aumentan su capacidad de ofrecer una respuesta rápida a través del ensayo y error o a través de la práctica repetida.
A medida que los analistas de inteligencia no pueden confiar en un comportamiento repetido, y que si podría formar un precedente razonable en otros campos, como el diagnóstico médico o pensamiento de ajedrez (Chase y Simon 1973). Es un hecho de que la urgencia con la que a menudo se exigen los informes de inteligencia crea las condiciones para un “cierre prematuro”, o al menos en lo que se denomina, “saltar a las conclusiones”. Para empeorar las cosas, si la conclusión se basa en evidencia escasa pero constante, los analistas podrían ser demasiado confiados en su juicio (Heuer 1999) y, de nuevo, reacios a cambiar a la vista de nuevas pruebas.
Sistematización de las técnicas de inteligencia
Un método sistemático que contempla explicaciones alternativas y resultados ofrece una manera de garantizar que los analistas no descarten hipótesis potencialmente relevantes e información de apoyo que de cómo resultado la pérdida de oportunidades para advertir adecuadamente (Central Intelligence Agency 2009). Motivados por el impulso de una serie de fracasos muy publicitados y el cambio general en el entorno de seguridad, en la última década varios estudios, dentro y fuera de la comunidad de inteligencia, se ha llevado a cabo un gran esfuerzo para entender cómo los sesgos cognitivos y la percepción errónea pueden ser corregidos. Una sistematización de sus resultados ha dado lugar a conjuntos de técnicas que podrían, en teoría, favorecer un mejor análisis. Entre ellas, la más relevante son las denominadas “técnicas de análisis estructurado” (Structured Analytic Techniques, SATs), un conjunto de técnicas desarrolladas por psicólogos y funcionarios de inteligencia (Heuer 1999; Heuer y Pherson 2011; Beebe y Pherson 2012). Las técnicas más destacadas se enumeran en la tabla 2. Una extensa discusión de cómo y cuándo se aplican estas técnicas de trabajo, está, por desgracia, fuera del alcance y el espacio de este trabajo.
Técnicas diagnósticas | Técnicas incorformistas | Técnicas de pensamiento imaginativo |
---|---|---|
Técnicas dirigidas principalmente a realizar argumentos analíticos, suposiciones o lagunas de inteligencia más transparentes. | Técnicas que desafían explícitamente el pensamiento actual. | Técnicas que tienen como objetivo el desarrollo de nuevas ideas, diferentes perspectivas y / o el desarrollo de los resultados alternativos. |
Verificación de supuestos clave Listar y revisar las hipótesis de trabajo, son la clave sobre los que se apoyan los juicios fundamentales | En defensa del diablo Desafiar una perspectiva, fuertemente arraigada puede llevar a una explicación diferente. | Tormenta de ideas Una actividad de grupo que se realiza sin cortapisas y diseñada para generar nuevas ideas y conceptos. |
Calidad en la verificación de información Evalúan la integridad y la solidez de las fuentes de información disponibles | Equipo a/Equipo b El uso de equipos independientes de análisis que contrastan dos (o más) puntos de vista o hipótesis en fuerte competencia | Dentro y fuera del pensamiento Se utiliza para identificar la gama de fuerzas básicas, factores y tendencias que marcarán indirectamente un problema. |
Indicadores o paneles de señalización del cambio Revisión periódica de una lista de eventos o tendencias observables para realizar un seguimiento de eventos, los objetivos del instructor, detectar tendencias emergentes, y advertencia de cambios imprevistos. | Impacto de la probabilidad del análisis Destaca un evento aparentemente poco probable que tendría importantes consecuencias políticas si hubiera sucedido. | Equipo rojo de análisis Modela el comportamiento de un individuo o grupo, tratando de replicar cómo un adversario podría pensar en un problema. |
Análisis de hipótesis en competencia Identificación de las explicaciones alternativas (hipótesis) y la evaluación de las pruebas que confirman o niegan las hipótesis. | Análisis. ¿Y si…? Asume que ha ocurrido un evento con un potencial (negativo o positivo) impacto y explica cómo podría suceder. | Futuros análisis alternativos Explora sistemáticamente múltiples maneras en que una situación se puede desarrollar cuando existe una gran complejidad e incertidumbre. |
Fuente: Central Intelligence Agency (2009). |
En conjunto, estas técnicas ofrecen lo que dos de sus creadores llaman un régimen de ejercicios para el cerebro (Beebe y Pherson 2012). Son en cierto sentido la sistematización de un sistema de alarma e intervención que trabaja en contra de lo que nuestra mente produciría más fácilmente. Su mayor obstáculo es que suponen un esfuerzo: obligar a la mente a trabajar con ciertos patrones significa desalojar nuestra primera respuesta, Sistema Uno, para obligar al Sistema Dos a estar mucho más presente de lo que nuestra asignación de energía normal podría permitir o exigir. Significa renunciar a algunas de nuestras maneras más fáciles de producir un juicio (mentalidades y heurísticas) con el fin de comprobar su efecto y pensar intuitivamente. En términos más dramáticos, significa ir en contra de nuestra forma más “natural” de pensar.
La inclusión de estas técnicas en la inteligencia no es fácil ni inmediata, ya que toma tiempo y recursos, dos elementos que rara vez abundan en los procedimientos de inteligencia. Como ya hemos comentado muchas veces, no son una garantía de éxito, sino un instrumento para minimizar el fracaso. Pero, aun así, ya que el mundo se vuelve más complejo y las amenazas a las que nos enfrentamos se convierten en transnacionales y no estatales, la necesidad de poseer unas capacidades cognitivas lo más afinadas posible, se convierte en algo fundamental. El hecho de que un cierto grado de error es inevitable. Ese grado de error se minimiza esencialmente evitando errores innecesarios, y esta es la contribución que la Psicología Cognitiva puede ofrecer al análisis de inteligencia.
Conclusiones
En términos psicológicos, podemos decir que la información actual en el entorno de seguridad hace que sea fundamental poseer unos procesos mentales particulares, es decir, un conocimiento a priori preciso o un modelo de cómo se originó una situación o evento en particular, con el fin de que al examinar la información disponible y que el analista no se ahogue en los datos. Para realizar un análisis de inteligencia menos propenso al sesgo sistemático, es crucial para los analistas militares, ser conscientes de las dificultades cognitivas que ocasiona el razonamiento sobre eventos inciertos. Los errores sistemáticos en la forma en que procesamos la información incierta son naturales y, en cierta medida, posiblemente inevitables. Sin embargo, pueden ser mitigados, e incluso eliminados totalmente.
Por tanto, se convierte en esencial para superar esos errores sistémicos que son naturales, analizar los modos y los límites de nuestras capacidades mentales. La mayoría de los fallos de inteligencia actuales e históricos casi nunca han sido resultado de un fallo de los datos disponibles, las tecnologías actuales nos permiten un suministro diario casi ilimitado de información de la que extraer conclusiones de inteligencia, sin embargo, a menudo, el resultado se pierde entre una gran cantidad de datos, o “señales”, es decir, los datos de predicción se pierden entre el “ruido” y datos irrelevantes (Wohlstetter 1962). Las señales se pasan por alto, o se rechazan de plano porque no parecen encajar en la visión aceptada sobre el tema (Heuer 1999). Los dos elementos principales causa de fracaso en la inteligencia son más bien la psicología y la política, la capacidad de analizar los datos, y la capacidad de comunicar y actuar sobre ellos (Betts 1978).