El problema, como decíamos, radica en que toda imagen resulta de un proceso de construcción y se construye bajo unos supuestos, contando con unos intereses y utilizando unas máquinas. Las máquinas que tenemos actualmente, alcanzan un límite de resolución de un milímetro cúbico, límite que se debe a la intensidad de la resonancia nuclear que se puede medir y a que el tiempo para llegar a obtener una señal de un espacio tan pequeño hace que los sujetos experimentales se desesperen. En un milímetro cúbico de nuestra materia gris hay varios millones de neuronas y varias decenas de miles de millones de sinapsis. La “localización” de la que ha hecho gala la ciencia hasta el momento ha consistido en algo así como si la intercepción de conversaciones telefónicas nos hubiesen permitido “localizar” una célula terrorista “en la comunidad de Madrid”. Si se trata de localizar un tumor, una lesión cerebral o un coágulo, realmente, tenemos más que de sobra. Nadie se va a morir porque le quiten medio milímetro cúbico de materia gris sana. Pero si queremos “localizar” las emociones, los sentimientos o la creatividad, lo logrado puede igualarse a absolutamente nada. Mientras nos reíamos de los medievales, de sus supersticiones acerca de las imágenes y de su pervivencia entre los cristianos ortodoxos, obtuvimos un sofisticado procedimiento para fabricar nuestros modernos iconos. Teníamos, en efecto, las imágenes ante nuestras narices, esas bonitas imágenes con colorines, esas minuciosas imágenes de nada, repetidas una y otra vez, hasta en 40.000 artículos, creando un corpus científico, una disciplina. ¿Cómo llegaron ahí, bajo nuestras narices? ¿cómo se las fabricó?
En principio la cosa resulta muy fácil, obvia. Se toma un sujeto, se le asigna una tarea y se le realiza una resonancia mientras lo hace. Si hay áreas de su cerebro que necesitan más aporte sanguíneo que el resto, hemos encontrado lo que buscábamos. Ahora bien, para que hablemos de ciencia, resulta necesario que no lo hagamos únicamente con un sujeto, hay que hacerlo con muchos. Y aquí viene el problema, ¿dos sujetos diferentes tienen el mismo cerebro? Si hablamos de su estructura general, resulta obvio que sí. Pero si hablamos de su constitución milímetro cúbico a milímetro cúbico, parece evidente que no habrá dos cerebros exactamente iguales. Y si, como modernos frenólogos que somos, nuestro objetivo consiste en localizar cerebralmente tal o cual actividad, entonces nos hallamos ante un problema mayúsculo. Localizar esa actividad, ¿en qué cerebro? ¿en el cerebro de quién? Aún peor, se supone que hacemos ciencia, luego no puede tratarse del cerebro de nadie, debemos referirnos “al cerebro en general”, a un constructo que, en realidad, nadie posee. Cuando todo esto comenzó, en la década de los 90 del siglo pasado, no había datos que permitieran saber cómo se hallaba estructurado el cerebro medio de los seres humanos milímetro cúbico a milímetro cúbico, dado que esa, precisamente, constituía la tarea que se iba a emprender. Así que los modernos frenólogos “normalizaron” la superficie del cerebro en base no a datos empíricos sino a ciertos supuestos estadísticos y a ciertas creencias acerca de cómo funcionaba el cerebro, que facilitaban la labor. De modo que ya tenemos un cerebro modelo construido sobre toda una serie de decisiones en el que iban a localizar “científicamente” las diferentes funciones. Pero los problemas no habían terminado.
Todos lo sabemos, rara vez hacemos una única cosa. Conducimos mientras recordamos la discusión con nuestro jefe, nos quedamos mirando los pechos de una chica mientras hacemos lo posible para que no se nos caiga la baba y nos concentramos en la lectura de un documento trascendental mientras recordamos la hora del partido del domingo. ¿Qué área del cerebro se lleva más sangre? ¿la del documento o la del partido? Nuevamente nos tropezamos con que, al comienzo del todo, no había datos que permitieran distinguir las aportaciones de sangre al cerebro que correspondían a la tarea asignada a los sujetos experimentales y aquellas que constituían mero “ruido”. Así que, una vez más, se recurrió a todo tipo de decisiones sobre supuestos estadísticos y de cómo funcionaba nuestro cerebro, que permitirían hacer “ciencia”. Lo que Eklund, Nichols y Knutsson han descubierto resulta extremadamente fácil, a saber, que el conjunto de decisiones adoptadas sobre las que se basan los programas más habitualmente utilizados para el mapeado cerebral, contienen errores. Una simple comparación con las amplias bases de datos de mediciones reales existentes al respecto muestran significativas divergencias, lo cual genera una catarata de errores en la creación de las imágenes. Todavía mejor, como subrayan Eklund, Nichols y Knutsson el núcleo de su trabajo consiste en comparar datos con teorías, por tanto, compartir datos resulta fundamental (algo que ya dejamos escrito por aquí). Afirmación ésta tanto más llamativa, cuando hablamos, supuestamente, de ciencia. Pues bien, en un muestreo realizado por ellos en 241 publicaciones (todas con notables diferencias entre lo que efectivamente mostraban y lo que se suponía que debían mostrar), los datos, los datos de las mediciones realmente efectuadas, brillaban por su ausencia, como viene siendo habitual en las publicaciones “científicas” de los últimos 50 años. Eso sí, apuesto a que tenían enormes fotografías con lindos colorines.
¿Creen que este artículo parará la catarata de ilustraciones de ese lugar de nuestro cerebro donde se halla lo que nos hace humanos? ¿Creen que Nature o Science comenzarán a pedir a los autores de sus artículos menos fotos y más tablas de mediciones? ¿Creen que servirá para que algún filósofo comience a ejercer esa sospecha de la que tanto ha leído, sobre los telediarios, sobre los periódicos, sobre las imágenes, sobre la ciencia tal y como se halla constituida hoy día? ¿Creen que servirá para que deje de propagarse la especie de que “la ciencia cuenta la verdad”? ¿Creen que minará los cimientos de nuestra fe en los modernos iconos, en la moderna frenología? ¿Por qué no?