domingo, 29 de enero de 2017

Que yo fuera o fuese interlocutado (1 de 2)

   El pasado viernes 13 de enero, la versión impresa de El País informaba que los propietarios de la torre Agbar de Barcelona habían decidido renunciar a sus pretensiones de convertir el citado edificio en hotel, debido al desgaste de varios años de tramitación “y a las dificultades para interlocutar con el gobierno de la ciudad”. El palabro tenía tal magnitud que cuando esa tarde intenté encontrarlo en la edición digital, había desaparecido. No obstante, me quedó la inquietud de quien ha tenido un encuentro en la tercera fase, así que me puse a buscar por Internet y, en efecto, allí encontré testimonios de otros avistamientos. En los foros de la Real Academia de la Lengua, quedaba constancia de su existencia al menos desde 2011. Se especulaba con que vio la luz en Chile, en Honduras o en la propia España y se afirmaba que, si bien aún no se halla recogida en el diccionario de la RAE, consta ya en el Diccionario de americanismos. Dada la práctica habitual de la academia de dar por bueno todo lo que se pronuncie, queda poco para la  canonización de semejante término. Dudo mucho, en cualquier caso, que tan feliz invento haya tenido su origen aquí. Los madrepatrios acostumbramos a maltratar el idioma por vía de la tergiversación gramatical o semántica más que por la vía inventiva, algo que me parece mucho más habitual allende los mares. En cualquier caso deben entenderme, aunque lo parezca, no me opongo a la innovación lingüística, bien al contrario, me fascina.
   La ingenua teoría de que el significado de una palabra viene dado por su uso, teoría que Wittgenstein se limitó a proponer para “la mayoría de los casos” y que sus epígonos han convertido en dogma de fe, nos deja en la absoluta inopia cuando se trata de explicar cómo surgen las palabras. Al parecer, una conjunción de letras se halla en el limbo de las palabras esperando que alguien la descubra y carente por completo de existencia mundanal, quiero decir, de significado. De repente, los hablantes comienzan a usarla, con lo que adquiere un significado ex nihilo. Dicho de otro modo el significado no existe y, súbitamente, comienza a existir, sin causa, razón ni motivo. Además, como Wittgenstein insistía en que no podía haber juegos del lenguaje privados, tenemos que no se trata de que alguien, de buenas a primeras, asigne un significado a lo que antes no constituía una palabra. Tiene que tratarse de un conjunto de hablantes, al menos dos, que comienzan a utilizar una palabra de la misma manera, quiero decir, asignan el mismo significado a una palabra a la vez. Dado que no han podido ponerse de acuerdo en ello, pues entonces habrían usado la palabra antes de que ésta tuviese significado, la única explicación consiste en que, por una telepatía extralingüística, han llegado a algún tipo de acuerdo. Si esto parece un poco raro, hay cosas mejores, por ejemplo, siguiendo semejante “explicación”, a los pañuelos de papel se los podría haber comenzado a llamar Kleenex antes de que tal empresa hubiese existido y “formica” designaría un tipo de plástico antes de que se hubiese fabricado por primera vez. En realidad, la teoría del significado como uso y la existencia de una comunidad de hablantes constituyen términos excluyentes porque no hay nada que garantice que yo uso un término exactamente de la misma manera que lo hacen los demás.
   El modo de evitar estas incongruencias pasa por anteponer un elemento al uso del término: la necesidad. Aparece una necesidad y, como consecuencia, algo, un artefacto, un producto, un partido político o una palabra, viene a satisfacerla. El propio Lamarck señalaba ya que la necesidad crea la función y Lázaro Carreter parece inclinarse por el bonito criterio de que no se deben admitir nuevas palabras en el idioma a menos que se necesiten, criterio que, de seguirse a rajatabla, nos tendría aún confinados en el latín. No obstante, a mi esta teoría siempre me han encantado, porque una versión de la misma aparece en Astérix en Bretaña. Allí se nos cuenta cómo los habitantes de las islas británicas bebían agua hervida, a veces “con una nube de leche”, hasta que Panorámix satisfizo su necesidad llevándoles unas hierbas de la India llamadas “té”. De modo semejante me imagino que durante siglos los europeos anduvieron dándose de cabezazos unos con otros debido al enorme mono de nicotina que tenían antes de que hubiese nacido Colón. Debió haber una especie de cuenta atrás que llegó al día en que, por fin, alguien trajo el tabaco al viejo continente, acabando con la inmensa necesidad que de él había. Y, todavía mejor, dado que las necesidades “están ahí” mientras no venga alguien a satisfacerlas, no se entiende por qué no hubo necesidad de productos para limpiar la vitrocerámica antes de que existieran las vitrocerámicas. Así llegamos a la cuestión que queríamos plantear: ¿qué necesidad había de crear un palabro como “interlocular”? Y si no había necesidad, ¿por qué hay quien ha comenzado a usarla, quiero decir, la ha dotado de significado?

domingo, 22 de enero de 2017

Un siglo desafortunado (y 3)

   Pensamos, con frecuencia, que la historia de la verdad no puede consistir más que en un desarrollo lineal, que la ciencia progresa unidireccionalmente y que la filosofía evoluciona con ella hacia formas más acertadas de plantear los problemas. No hay puntos de retorno, no hay vueltas atrás, no hay nada en ese camino que pueda asimilarse a un círculo o a un laberinto. Pero la verdad, como los árboles, nace con tronco endeble, y hay que apuntalarla hasta que eche sólidas raíces.
   El modo que tenemos los seres humanos de entendernos, la concepción que podemos alcanzar a formarnos de nosotros mismos, parecía seguir una línea muy clara desde 1857 hasta principios del siglo XX. Se sabía que las neuronas no constituyen el único tipo de células encargadas de procesar información, de reconocer estímulos externos ni de formar nuestra identidad. Se sabía, igualmente, que las neuronas no constituyen redes sólo en nuestro cerebro. Se sabía, por tanto, que atribuir a lo encerrado en nuestro cráneo la producción de todos los fenómenos considerados “mentales”, constituía un juicio arriesgado. Una concepción del ser humano rica, holística y basada en hechos, parecía hallarse al alcance de la mano. 
   Todo se torció con el cambio de siglo. Se impuso una visión del ser humano mutilada, simplista, basada en metáforas y ficciones. Se ignoraron los hallazgos de Metal’nikov porque no cuadraban con semejante imagen. A Langley no se lo podía ignorar, de modo que se optó por citarlo sin leerlo, pues de lo contrario se habría hallado en sus libros cosas que no podían existir. Las complejidades de la biología, sus abstrusos azares, ese maldito saber que nos obliga a entendernos como animales simbióticos, se dejó de lado. Si los escolásticos en sus oscuros tiempos buscaron en el mundo pistas para entender la mente de Dios, el siglo XX optó por escudriñar cuidadosamente un producto del cerebro, una máquina, para entender nuestra mente: el ordenador. Se obtenía, así, una guía mucho más simple, mecánica y determinista, mucho más conveniente pues, aunque sólo aportara extravíos y confusión. Ahora podía robársele el cuerpo al cerebro, aislar la conciencia de la realidad, arrojarnos a un mundo que forzosamente habría de caracterizarse como hostil. Esa caricatura, ese amago de hombre, constituyó el eje de las reflexiones del siglo XX. A todos les vino bien. Los científicos obtuvieron fácilmente dinero para sus investigaciones a cambio de algo que el siglo XX comenzó a apreciar más que el oro: imágenes. La industria halló argumentos sobrados para medicar cada aspecto de nuestra vida, incluyendo los males a los que en otra época se calificó de “espirituales”. La población, en general, fue adoctrinada en la idea de que, por mucho que se resistieran, en el fondo, ni sus destinos, ni sus vidas y ni siquiera sus pensamientos, se hallaban bajo su control. 
   ¿Y los filósofos? Los filósofos, se convirtieron en febriles lectores de novelas (cuando no en productores de las mismas), en obsesos consumidores de filmografías (cuando no en productores de las mismas), en roedores de contenidos televisivos (cuando no en contertulios de los mismos). En definitiva, los filósofos dejaron de hablar de la realidad para hablar acerca de la ficción, algo, sin duda, mucho más conveniente y mucho mejor visto por la sociedad. Embaucados por el mundo de la ficción, apenas si dudaron a la hora de subirse a un carro plagado de ellas. 
   Resulta difícil no ver en todo esto meros epifenómenos de un giro mucho más amplio, cuyo estudio habrán de afrontar generaciones futuras pues muchos de los que formamos las que actualmente viven apenas si hemos sido capaces de percibirlo. 
   Desde los años 70 del siglo XX, el esfuerzo por no ver los hechos comenzó a resultar insoportable. Se replicaron los experimentos de Metal’nikov, se recuperó el texto de Langley, gente como Michael D. Gershon, Michal Schwartz, Jonathan Kipnis, Fred Gage, se empeñaron en trabajar lejos de la corriente principal de su disciplina, recuperando, en algunos casos, un saber que nunca debió perderse. Poco a poco, lo que fueron encontrando resultó demasiado llamativo como para no verlo. Hoy día la neuroinmunología, la neurogastroenterología, la neurocardiología, van desplazando los límites del conocimiento hacia horizontes insospechados y todo el mundo espera de ellas enormes aportaciones. Falta mucho aún para que sus hallazgos pasen a formar parte del acervo popular. Mientras tanto queda la cuestión de cuándo se enterarán los filósofos de lo que viene pasando.

domingo, 15 de enero de 2017

Un siglo desafortunado (2)

   En 1974 llegan al mercado los primeros modelos de tomógrafos. Estos aparatos permitían la formación de imágenes a partir de la radiación de protones de algunas sustancias y, por tanto, el estudio de diferentes procesos en organismos vivos. Muy pronto fueron utilizados para obtener imágenes de cerebros durante la realización de tareas. Se inicia, pues, la identificación de las áreas celebrales encargadas de desempeñar diferentes cometidos.
   En 1977, H. Besedovsky y su equipo mostraron que el sistema nervioso podía responder a señales emitidas por el sistema inmunitario. La razón la encontraron Williams y Felten con sus respectivos equipos en 1981 y 1987: existen fibras nerviosas localizadas directamente en los órganos linfoides (timo, bazo, ganglios, etc.) Particular afinidad parecían tener por las células T y los macrófagos, algo un poco extraño porque las células que tienen receptores para los neurotransmisores en su membrana (entre otros, serotonina, acetilcolina, endorfinas, etc.) son los linfocitos B. Tradicionalmente se suelen definir las citoquinas como moléculas encargadas de transmitir señales entre las células del sistema inmunitario, pero, en realidad, diferentes células del cerebro presentan receptores para las citoquinas, particularmente en el hipocampo. Igualmente el cerebro posee la capacidad de fabricar citoquinas y, en reciprocidad, también el sistema inmunitario puede fabricar neurotransmisores. A estos datos hace falta añadirles dos matices. Primero que el 95% de la serotonina de nuestro organismo la genera el intestino. No se trata de un caso único cuando hablamos de neurotransmisores. Segundo que las relaciones entre sistema nervioso y sistema inmunitario se habrían visto claras mucho antes de haber prestado atención al sistema nervioso entérico pues el intestino constituye el órgano en torno al cual se mueve la mayor parte de las células implicadas en la reacción inmune.
   El mismo año en que Besedovsky muestra la indudable interacción entre sistema nervioso e inmunitario, I. Tiscornia publica “The Neural Control of Exocrine and Endocrine Pancreas”, artículo en el que pone de manifiesto que las secreciones pancreáticas se hallan bajo el control del sistema nervioso entérico.  
   En 1981, el filósofo Hilary Putnam publica “Brains in a vat”, en el que presenta la imagen un cerebro metido en una cubeta al que un científico loco mantiene con vida, presentándole estímulos que le llevan a recrear una realidad exactamente como la nuestra. A partir de este momento los filósofos se dedican a discutir si semejante argumento refuta el escepticismo o el realismo, pero lo que verdaderamente puede considerarse el logro de Putnam consiste en haber convencido a todo el mundo de que cuanto constituye nuestra realidad resulta un producto, exclusivamente, de nuestro cerebro, en el cual y únicamente en el cual, se desarrollan los procesos que podemos llamar “mentales”.
   Michael D. Gershon no olvidará ese año de 1981. Dedicado durante décadas al estudio del sistema nervioso entérico, se había acostumbrado a que lo trataran como la mascota de la Sociedad de Neurociencia norteamericana. En noviembre de 1981, durante la convención de Cinncinati, sin embargo, algunos de sus más fieles opositores mostraron datos que le daban la razón, la comunidad científica volvía a admitir que existen neuronas en el tracto digestivo, alrededor de cien millones. Muchos de los que ignoran la longeva historia del sistema nervioso entérico consideran a Gershon desde entonces el padre de la neurogastroenterología. 
   En 1991, Daniel Dennett publica La conciencia explicada. Aunque ya en las primeras páginas deja claro que no pretende explicar la conciencia y aunque se trataba de un libro para especialistas de diferentes procedencias, este escrito se convirtió en un bestseller, siendo leído habitualmente en un sentido fisicalista y reduccionista radical. Desde 1991, los debates en filosofía giran en torno a cómo habérselas con el hecho de que los contenidos mentales son, en última instancia, procesos químicos de nuestro cerebro, sin que nadie haya conseguido explicar qué otro verbo podría utilizarse en sustitución del verbo ser en la frase anterior.
   Ese mismo año aparecen los primeros estudios que elaboraban imágenes usando el contraste en el nivel de dependencia del oxígeno en sangre, la base de la técnica de fMRI, que proporciona localizaciones de hasta 1mm de exactitud en el desarrollo de actividades del cerebro.
   En 2004 el equipo de Jonathan Kipnis, demostró experimentalmente que la pérdida de linfocitos T en ratones provoca pérdida de habilidades cognitivas, habilidades cognitivas, por lo demás, que se recuperan en cuanto se les vuelven a inyectar sus correspondientes linfocitos. Numerosos experimentos, entre ellos algunos realizados con humanos, han confirmado posteriormente estos hallazgos.
   Desde 2012, diferentes equipos reportaron que las supuestas localizaciones cerebrales utilizando la técnica de fMRI se quedaban en nada cuando se utilizaban muestras de sujetos por encima del medio millar. Cuatro años después, Anders Eklund, Thomas E. Nichols and Hans Knutsson, publicaron “Cluster failure: Why fMRI inferences for spatial extent have inflated false-positive rates”, en el cual mostraban que un número indeterminado de imágenes obtenidas por la técnica de fMRI y que virtualmente podría incluirlas a todas, contenían errores de diversa magnitud.

domingo, 8 de enero de 2017

Un siglo desafortunado (1)

   En 1857 el anatomista y fisiólogo Georg Meissner publica "Über die Nerven der Darmwand", primera descripción de los ganglios nerviosos contenidos en las paredes del sistema digestivo. Aunque la fama le vino a Meissner por el descubrimiento de las terminaciones nerviosas responsables del tacto, su artículo atrajo la atención de otros fisiólogos, en particular de Leopold Auerbach, notable anatomista y neuropatólogo que en 1862 descubrió que tales ganglios componían toda una red encargada de controlar la motilidad intestinal. Semejante red recibe el nombre de plexo de Auerbach o plexo mientérico, de acuerdo con la denominación de Jacob Henle en su Handbuch der Nervenlehre des Menschen de 1871, escrito de tal calado que aún hoy puede comprarse en las librerías. 
   24 años después, en 1895, Jan von Dogiel, una vez más, anatomista y fisiólogo, en este caso ruso, describió los componentes de esa red y esos ganglios como neuronas, a las cuales clasificó en diferentes tipos en función de sus axones y dendritas. La clasificación de Dogiel generó rápidamente una polémica, entre otros, con Don Santiago Ramón y Cajal y, aunque todo el mundo le reconoce su carácter pionero, no ha dejado de causar disputas desde entonces. En cualquier caso, Dogiel asentó la idea de que los mamíferos y, por supuesto, el hombre, poseen neuronas más allá de su cráneo y su médula espinal, en concreto, a lo largo de todo el tubo que nos conforma y los órganos que a él afluyen.
   En 1913, Edmund Husserl publica sus Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, escrito en el que aparece por primera vez una tematización explícita de la epojé. La conciencia, dice Husserl, debe estudiarse procediendo a una serie de “reducciones”, entendidas como una sucesión de desconexiones que van separando los fenómenos mentales de los procesos físicos, biológicos o de referencia a una realidad exterior a la propia conciencia.
   1921 debió ser el año en que el sistema neuronal de nuestro aparato digestivo entraba por la puerta grande en la medicina. Ese año Sir Johannes Newport Langley, razonó que si de la columna vertebral apenas si salen un centenar de nervios hacia el aparato digestivo y si en éste había varios millones de neuronas (hoy se calcula que unos cien millones), entonces éstas debían constituir un sistema nervioso por sí mismo. Le dio, por tanto, el nombre con el que se lo conoce hasta hoy, sistema nervioso entérico y, en la que se convertiría en obra de referencia, The Autonomic Nervous System, le reconocía el carácter de tercer sistema nervioso, junto con el sistema central (encéfalo) y el periférico (médula espinal). Paradójicamente, sin embargo, 1921 marca el año en que el sistema nervioso entérico desapareció de la medicina. Por razones que no resultan fáciles de explicar, el libro de Langley, como digo, todo un clásico, se convirtió en uno de esos libros más citados que leídos, hasta el punto de que todo el mundo lo recuerda como el primer escrito en el que se canonizaba la existencia de dos sistemas nerviosos en el cuerpo humano, el central y el periférico. El sistema nervioso entérico, simplemente, cayó en el olvido.
   Ese mismo año de 1921, el zoólogo ruso Segei Metal’nikov asentado en el Institut Pasteur de París publica "L’immunité naturelle et acquise chez la chenille de Galleria melonella", artículo en el que demuestra que las larvas de Galleria melonella no frenan la producción de anticuerpos a menos que se inactiven sus ganglios nerviosos. Metal’nikov sospecha ya del vínculo entre sistema inmunitario y sistema nervioso, algo que acabará probando en "Rôle des reflexes conditionnels dans l’immunité", artículo cinco años posterior publicado junto a Victor Chorine. En él reflejaban sus experimentos con cerdos de guinea a los que les inyectaban tapioca o bacilos de antrax inactivos a la vez que les aplicaban calor o un arañazo en una pequeña área de la piel. La sola presencia del estímulo condicionado provocaba una producción de leucocitos semejante a la inyección del antígeno. Aunque metodológicamente criticables, los experimentos de Metal’nikov y Chorine pudieron replicarse sin problemas en los años 70 con criterios más rigurosos. En esencia puede decirse que a principios del siglo XX se había demostrado que el sistema inmunitario puede aprender.
    Probablemente, en septiembre de 1948, en el simposio de la Fundación Hixon sobre mecanismos cerebrales en el comportamiento, celebrado en el Instituto Tecnológico de California, John von Neumann, matemático de origen húngaro, enunció por primera vez la metáfora del ordenador. No me detendré en exponerla minuciosamente pues todos la tenemos dentro de nuestras cabezas como si no hubiese otro modo de pensarnos: el cerebro es como un ordenador. Sí merece la pena señalarse, primero, que en esta metáfora se obvian como irrelevantes las diferencias físicas entre un cerebro y un ordenador; segundo, que las semejanzas funcionales quedan convertidas en una identidad categorial, pues ambos, cerebro y ordenador, son el mismo tipo de máquina. Cualquier discusión posterior sobre la naturaleza de los seres humanos partirá, pues, del supuesto de que sólo tenemos una unidad de procesamiento de la información y que ésta no resulta modificada o alterada en su estructura o funcionamiento por ningún otro de los elementos que nos componen.

domingo, 1 de enero de 2017

Vientos del sur.

   Si no recuerdo mal en Lo que sueñan los lobos, de Yasmina Khadra (es decir, de Mohammed Moulessehoul), aparece como personaje incidental el chófer de un alto cargo del ejecutivo argelino. Tiene un trabajo que le sirve para alimentar a su familia, pero le ha obligado a ver muchas cosas que preferiría no haber contemplado. Aunque carece de inquietudes religiosas, acaba  diciendo algo así como que si para limpiar el país era necesaria la llegada de los islamistas al poder, bienvenidos fueran. El Frente Islámico de Salvación, ganó las municipales de 1990 y la primera vuelta de las generales de 1991, enarbolando la bandera de la honestidad frente al régimen del Frente de Liberación Nacional, que había gobernado desde la independencia de Argelia en 1962, hundiéndose cada vez más en el fango de una corrupción rampante. Esa pregunta que los occidentales se hacen con tanta frecuencia, cómo alguien puede votar a un partido que propone una involución a siglos pretéritos, tiene una respuesta extremadamente fácil, porque ellos, como nosotros, están hartos de pseudodemocracias en las que la elocuencia de las grandes palabras encubre los grandes negocios de unos cuantos amigotes. Se votó al FIS en Argelia con la misma mentalidad que ha llevado al Partido de la Justicia y el Desarrollo al gobierno de Marruecos, que ha estado a punto de llevar a la ultraderecha al poder en Austria y que ha puesto en la Casa Blanca a Donald Trump. 
   Mientras Argelia ardía en la barbarie de la guerra civil en la que desembocó el golpe de Estado del 91, Marruecos se mantuvo al margen de esta y otras olas de radicalización. En esencia contaba con dos muros de contención contra ellas. El primero es que el soberano marroquí, además de jefe del Estado, es considerado descendiente directo de Mahoma, por lo que ostenta el cargo de “líder religioso de los fieles”. En la práctica eso significa que cualquier movimiento islamista tiene que empezar por explicar cómo y por qué el Islam oficial no es el verdadero, asunto que el laicismo del régimen argelino convertía en superfluo. El segundo muro pasa por un Parlamento cuyas atribuciones han ido en aumento desde los años 80, hasta el punto de que hoy día Marruecos es una democracia tan aparente como cualquier otra de Europa. La diferencia con lo que sucede en el norte no reside en el juego político. La diferencia está en que en un país como España, las cuestiones de calado son decididas por una nebulosa de políticos y empresarios que pisan poco la Zarzuela y mucho la Moncloa, el cortijo del correspondiente presidente autonómico o la mansión del alcalde de turno. En Marruecos poco o nada se mueve sin la aquiescencia del Majzen, quedándole al Parlamento la potestad de hacer política pero no negocios. El resultado es que, desde Abdelsam Yasin, el islamismo marroquí se ha caracterizado por su predisposición a aceptar las reglas del juego político y la autoridad del monarca, sin por ello renunciar a islamizar la sociedad por vías pacíficas tales como la enseñanza y la persuasión. Los líderes del Partido de la Justicia y el Desarrollo, en el gobierno desde las últimas elecciones, exhiben, en efecto, formas suaves, tono moderado y nudos Windsor en sus corbatas. Han aguantado recuentos electorales que, una y otra vez, no mostraban el soporte popular que realmente tenían sin levantar jamás la voz, han condenado todos y cada uno de los atentados y han hecho lo posible por no ser vistos en compañías sospechosas. Sus discursos mantienen una línea de moderación y de acatamiento al régimen establecido por más que, de vez en cuando, en alguna entrevista, alguno de sus dirigentes saque los pies del tiesto.
   Muchas voces laicas de Marruecos vienen clamando que su moderación apenas es una pose, que el tono real del partido no es la voz de sus líderes, sino el que se vive durante las numerosas campañas contra los biquinis en las playas y que el PJD y el wahabismo importado por el Majzen han sido el caldo de cultivo para todos esos marroquíes que se dedican a apiolar infieles en buena parte del mundo musulmán. La verdad es que tales denuncias chirriaban con las reformas religiosas introducidas por Mohamed VI, la propia constitución de 2011 que consagra la libertad de culto y la imagen cotidiana del PJD. Sin embargo, este otoño, numerosas familias se han encontrado con que el colegio en el que estudiaban sus hijos ha cerrado sus puertas sin mayores explicaciones. A toda prisa han tenido que escolarizarlos en colegios alejados de su residencia y masificados o en uno de los múltiples colegios privados que han ido apareciendo sin mucho orden ni control y, sobre todo, sin que nadie sepa muy bien quién está en última instancia tras ellos. El gobierno se ampara en la necesaria reestructuración y modernización de los centros públicos, pero en un reciente artículo, Karim Boukhari daba cuenta de que, en un país en el que, insisto, nada ocurre sin que lo sepa el Majzen, los niños de cinco y seis años llegan a casa relatando los castigos que esperan a los impíos en la otra vida o cómo se debe lavar el cadáver de un buen musulmán. Por tanto, si algo debemos esperar del sur en los próximos años, no será que nos aporte vientos suaves.