domingo, 19 de febrero de 2017

Del buen vivir (2 de 2)

   Suele considerarse habitualmente que el cristianismo, tradición ajena al pensamiento griego, vino a lapidar lo que éste había aportado al mundo romano. Como resulta habitual, la realidad no es tan simple. Para empezar, buena parte de lo que llamamos Antiguo Testamento, fue redactado en épocas en las que el pensamiento hebreo había entrado en profuso contacto con el mundo griego. Por otra parte, lo que hoy día entendemos como “cristianismo” no procede de las prácticas, creencias y enseñanzas de romanos conversos sino de fuentes tan embebidas en las enseñanzas de la Grecia clásica como San Agustín y Santo Tomás. La esencia griega de Santo Tomás resulta tan palmaria que si en su época hubiesen existido los derechos de autor, habría terminado en la cárcel y no en la santidad. Nada hay en Santo Tomás que no estuviese antes en Aristóteles, así que no nos detendremos en él.
   En un sermón cuyo título parece sacado de los anuncios de contactos (“Sobre la disciplina cristiana”) San Agustín dedica al tema el apartado intitulado “Qué es vivir bien”. “Vivir bien” para San Agustín no es nada diferente de lo que hemos visto en Aristóteles, los estoicos, los escépticos y, sobre todo, los epicúreos, de hecho lo concibe como una consecuencia de vivir virtuosamente. Se separa de los griegos en dos puntos muy significativos. Primero, para San Agustín, el vivir bien no exige comodidades materiales como lo demuestra la cita de dos pésimas inversiones financieras mencionadas en Mateo 13, 44-46. Segundo, los preceptos para vivir bien deben estar comprendidos en un mandato breve y claro porque todos y no algunos, como querían Aristóteles y los helenistas, deben vivir bien. Huelga decir que San Agustín está asumiendo la identidad entre vivir bien y vivir cristianamente, esto es, Dios nos exige vivir bien. El buen cristiano se halla, pues, libre de miedos, temores, angustias y amenazas. Su vida es feliz, alegre, despreocupada. Aún más, la buena vida, lejos de ser momentánea, dura para siempre. El buen vivir para todos y en todo momento parece ser la base del cristianismo de San Agutín. A partir de aquí no encontraremos nada diferente de lo que hemos visto en Epicuro, incluyendo la idea de que sólo quien ha aprendido a vivir bien puede morir bien. ¿En qué consiste este buen vivir que podemos disfrutar todos, que, por tanto, debe poder resumirse en un mandato claro y simple y que complace a Dios? Esencialmente en el amor, en el amor a Dios y el amor al prójimo. El amor, dice San Agustín, es la base de la buena vida, entre otras cosas, porque si este amor es un amor conforme a los preceptos divinos, aleja de nosotros cualquier posible dolor. 
   Lo que realmente supuso una transformación decisiva en el asunto que estamos indagando fue el surgimiento del capitalismo. ¿Cómo se iba a conseguir que la masa de trabajadores que necesita tal sistema productivo, se sometiesen a la esclavitud temporal mientras mantenían como objetivo de sus vidas vivir bien? Aún más, cuando el capitalismo de producción se convirtió en un capitalismo de consumo, ¿cómo se podría conseguir que los sujetos comprasen estando convencidos de que, antes de cualquier compra, ya vivían bien? Se trató, precisamente, de lo contrario. Una sociedad de consumo sólo resulta sostenible si convence a los individuos de que no viven bien y que sólo vivirán bien el día que compren todo lo que se fabrica para ellos, algo, por definición, irrealizable. Se nos ha inculcado, por tanto, que vivir bien, en el sentido griego de la expresión, no está a nuestro alcance, de hecho, ni siquiera constituye un objetivo legítimo. No debemos centrar el objetivo de nuestras vidas en vivir bien, sino en "vivir mejor", astuta expresión que omite sistemáticamente el término con el que se realiza la comparación. Así nos hemos quedado todos, persuadidos de que no vivimos bien y ufanos de "vivir mejor" que... nuestros abuelos, los negritos de África o los pobres de Calcuta. Después uno viaja a Calcuta, a África o, más simple aún, le pregunta a sus abuelos y descubre que la gente es feliz con mucho menos, incluso más que nosotros y se nos queda esa cara de tontos que no entienden nada.
   Ahora podemos comprender el panorama actual. La pregunta por el buen vivir no constituye el eje central de ninguna de las teorías éticas contemporáneas si es que puede decirse de alguna de ellas que toque el tema aunque sea tangencialmente. La inmensa mayoría se centra, por contra, en la búsqueda de los procedimientos adecuados para que alcancemos un consenso en torno a la cantidad de mala vida que ha de tragarse cada uno. Ningún filósofo político actual se atrevería a afirmar que la legitimidad de un Estado radica en garantizar que sus ciudadanos vivan bien. No hay Estado que justifique su existencia en que pueda proporcionarle una buena vida a sus ciudadanos. Ni siquiera hay un proyecto político que  diga centrar sus objetivos en una vida buena. A lo sumo (¡cómo no!), se nos engatusa con la posibilidad de “vivir mejor”. 
   Hasta tal punto nos hallamos en el polo opuesto de la cultura clásica que una parte significativa del progresismo ha elegido como bandera no el “vivir bien”, sino el “morir bien”. El Estado, lejos de garantizar la buena vida de sus ciudadanos, debe garantizar su buena muerte. Ya no se trata de que una muerte buena sea consecuencia de una vida buena, se trata de que si uno muere bien es porque su vida, de un modo u otro, ha sido buena. Invirtiendo los razonamientos epicúreos se nos catequiza con que saber morir libera de los temores que nos embargan durante la vida o, mejor aún, se nos propone que aceptemos la buena muerte ya que nadie es capaz de vivir bien. Morir bien, y no vivir bien, es el máximo logro al que se nos permite aspirar si somos lo suficientemente progresistas como para querer cambiar las cosas. Porque, insisto, vivir bien ya no es un objetivo legítimo de los seres humanos. Muy al contrario, “vivir bien”, se ha convertido en motivo de reproche. Cuando decimos de Fulanito Detal que “vive muy bien”, cuando alguien nos dice “vosotros vivís muy bien”, no se está reconociendo la sabiduría de haber encontrado el camino para alcanzar el máximo objetivo de cualquier ser humano, se nos está echando en cara un egoísmo que no casa con aquel de quien procura las virtudes públicas, que no resulta subsanable por ninguna mano, por muy negra u oscura que sea, se nos está echando en cara, en definitiva, atentar contra el modelo productivo. La buena vida, la vida que persiguieron Aristóteles, los helenistas e incluso autores cristianos como San Agustín, se ha convertido en el reverso oscuro, en lo impensable, en aquello cuya exclusión sistemática constituye el fundamento mismo de la sociedad en la que vivimos.

domingo, 12 de febrero de 2017

Del buen vivir (1 de 2)

   Por mucho que se los señale como padres de nuestra cultura, lo cierto es que los griegos tenían un modo de entender las cosas bastante alejado del nuestro. Uno no puede evitar cierta sonrisa amarga cuando lee que para Platón, para Sócrates, para sus contemporáneos, ética y política eran idénticas. Ser bueno y ser buen ciudadano constituían elementos inseparables. Platón argumentaba impecablemente que quien no sabe gobernarse a sí mismo, difícilmente sabrá gobernar la ciudad. Por tanto, quien aspire a gobernar deberá demostrar previamente la virtud que adorna todos sus actos. Esto, que resulta aplicable al gobernante, vale en realidad para cualquiera. El egoísta, el que busca el beneficio propio del modo más rápido posible, sólo puede hacerle daño a la sociedad, pues si no piensa en sus allegados inmediatos, en aquellos con los que comparte su vida diaria, difícilmente pensará en quienes sólo le rodean accidentalmente y a los que no le une vínculo afectivo alguno. A diferencia de Mandeville, a diferencia de Smith, a diferencia de todos los liberales de diferente cuño que en el mundo han sido, Sócrates, Platón, sólo creían en lo que podían ver, en lo que pudiera observarse y no en “manos ocultas”, cualidades invisibles ni milagrosos equilibrios jamás alcanzados. Únicamente lo demostrable, lo tangible, aquello que cualquiera pudiese observar e, incluso, cuantificar, merecía ser pesado en la balanza de quien pretendiera aspirar al título de benefactor de la comunidad.
   La época de Sócrates y Platón llegó a su fin con la conquista macedonia de toda Grecia. La concepción de que ética y política configuran una unidad comenzó a agrietarse tras la constitución del imperio. El Estado emergió como algo extraño, ajeno, lejano y decididamente supraindividual. Los ciudadanos aceptaron que debían cumplir una función en él y obedecer sus reglas, pero que su hogar, el lugar que habitaban, lo que originalmente designó el término ethos, había pasado a formar parte de su exclusiva competencia. La ética aparece en Aristóteles como una disciplina distinta de la política y cuyo objetivo ahora no consiste en crear buenos ciudadanos, sino en alcanzar la felicidad. A esta felicidad la llama también Aristóteles el “sumo bien” y es identificada con “vivir bien”, pues, dice Aristóteles, obrar virtuosamente y vivir bien son lo mismo. Una ética conformada por principios generales en contra de los intereses y deseos del sujeto le hubiese parecido a Aristóteles un disparate. 
   Pero Aristóteles no deja de ser discípulo de Platón y aunque ética y política se constituyen en él como disciplinas separadas, afirma que el fin del Estado consiste en buscar la felicidad para todos sus miembros o, por decirlo utilizando términos sinónimos, el Estado debe procurar que todos sus ciudadanos vivan bien. Un Estado que pretenda únicamente “vivir”, está viciado desde sus orígenes y sólo en la medida en que pueda proporcionar a sus ciudadanos un buen vivir puede decirse legitimado en su existencia. Este buen vivir tiene un doble componente, por una parte, una vida regida por la facultad más elevada que poseen los seres humanos y que los distingue de las bestias, es decir, la razón. Por otra, para que se pueda obrar racionalmente sus necesidades básicas deben estar cubiertas en lo que se refiere a alimentación, vivienda, ropa y demás. Aristóteles considera imposible que todos pueden alcanzar semejante meta. De hecho, sus planteamientos suponen una base de esclavos más o menos amplia pues casi al inicio de la Política nos aclara que hay dos tipos de esclavitud, la permanente y la temporal, también llamada “trabajo asalariado” (si bien este pasaje es controvertido en lo que se refiere a su traducción exacta). En la cantidad de esclavos que necesite un Estado se juzga, precisamente, su bondad. El mejor Estado, dice Aristóteles, no es el que tiene tal o cual régimen político, es el que tiene una clase media más extensa, es decir, el que engloba a una población capaz alcanzar el buen vivir más amplia. 
   No debe extrañarnos que las éticas que aparecen tras Aristóteles, renuncien a la dimensión política para centrarse en el individuo. Se barre bajo la alfombra el hecho de que pocos podrán aspirar a la felicidad, es decir, al buen vivir, quedando éste restringido a la pequeña comunidad o al individuo singular, caso del escepticismo. El escéptico niega la posibilidad del conocimiento, niega la existencia de la verdad, niega, incluso, la necesidad de aceptar que existan otros, para quedarse en la epojé, en la suspensión de juicio que permite una buena vida, rodeado de las mínimas condiciones materiales exigidas por Aritóteles. Que para disfrutar del tabaco de una pipa haya que dejar sin agua los huertos de medio país y eso origine hambrunas, es algo que al escéptico no le afecta pues él suspende su juicio acerca de la existencia de negritos hambrientos. Por mucho que se haya presentado como principio epistemológico más o menos saludable, el escepticismo ha debido su popularidad a esa capacidad para engendrar la buena vida que disfruta todo aquel que decide ignorar las condiciones materiales de su existencia o las consecuencias últimas de sus decisiones.
   Suele decirse que para los estoicos la virtud consiste en vivir de acuerdo con la naturaleza, pero se obvia que ellos definían ese vivir de acuerdo con las leyes que rigen el cosmos, una vez más, como el buen vivir. “Vivir noblemente”, “vivir según la naturaleza” y “vivir bien”, eran para los estoicos términos intercambiables. Si predicaban la liberación de las pasiones se debe a que ninguna vida puede ser buena durante mucho tiempo dejándose arrastrar por ellas. Las pasiones se hallan sometidas a una continua fluctuación, a un perpetuo cambio, que nos empujan hacia situaciones contrarias a los designios naturales y que, por tanto, sólo pueden conducir al desastre. Obrar de un modo racional o lo que es lo mismo, obrar de acuerdo con la ley universal, dado que el universo está regido por una ley racional, constituyen la base de la virtud y el secreto para vivir bien.
   Aunque partiendo de principios diferentes, no otra cosa vamos a encontrar en la ética hedonista. Epicuro critica a quienes aconsejan “vivir bien al joven y morir bien al viejo”, por varios motivos. En primer lugar, porque el buen vivir no depende de la edad y en todas las épocas de la vida pueden encontrarse cosas agradables de las que disfrutar. En segundo lugar, porque vivir bien y morir bien son dos aspectos de lo mismo. No porque morir bien implique haber vivido bien o porque vivir bien implique saber morir, sino porque los consejos que nos da Epicuro para vivir bien incluyen eliminar el miedo a la muerte, así que si hemos aprendido a vivir bien, nada habrá en  la muerte que nos pueda parecer “malo”. El mismo principio conduce a Epicuro a rechazar el miedo a los dioses y a prescribirnos la búsqueda del placer, pues todo ello contribuye a la buena vida. Aún más, entendida de esta manera, una buena vida es aquella en la que se ha evitado tanto como ha sido posible el dolor. Buscar el placer y evitar el dolor se convierte, por tanto, en la máxima capital de todo el planteamiento epicúreo.

domingo, 5 de febrero de 2017

Que yo fuera o fuese interlocutado (2 de 2)

   Hubo una vez unos hombres, entre los primeros que llegaron a Europa, que, paseando por una bonita playa, "tuvieron la necesidad" de ponerle un nombre, así que sacaron del limbo de las palabras una cualquiera y llamaron a aquel sitio Cádiz o alguna cosa parecida. Del mismo modo, cierto explorador de territorios más septentrionales, por ejemplo, de la Rioja, decidió ponerle al pico más alto de la Sierra de la Demanda el nombre de su cuñado, Lorenzo o alguna cosa parecida. Desde entonces se usan Cádiz y San Lorenzo para designar esos dos puntos geográficos. Ciertamente, San Lorenzo se usa aquí para esto y en “San Lorenzo fue martirizado el 10 de agosto de 258", se usa para otra cosa. Resulta lógico pues no existe un significado común a juegos del lenguaje distintos. Esto conduce a un pequeño problema porque cuando Felipe II ordenó realizar una encuesta en la que se incluía aclarar a qué se debía el nombre de cada pueblo, un tercio de los encuestados (de hecho, los únicos que parecían saber por qué la localidad donde vivían se llamaba así), hacían alusión a que en el pueblo había  “peras” o “una alameda”. A los habitantes de Siles parece que la pregunta les tocó su vena etimológica y adujeron que el pueblo debía su nombre a que el verbo latino "sileo" significa callar y el pueblo siempre se encuentra callado. Pero mi respuesta favorita, sin duda, corresponde a los cordobeses de El Guijo, quienes afirmaron que el pueblo se llama de esa manera porque se halla rodeado de piedras pequeñas (“guijos”), lo cual no deja de resultar sorprendente porque el terreno sobre el que se asienta el pueblo, en realidad, tiene un origen volcánico y el flujo de agua más cercano, el Arroyo de la Matanza, ni siquiera pasa por la localidad. Todavía mejor, si nos hallásemos ante la respuesta correcta, ¿cuántos pueblos de España deberían llamarse “Guijo”?
   En 1998, Alberto Porlan publicó un libro fascinante, Los nombres de Europa. En sus casi 700 páginas se dedica a recoger una sucesión de topónimos obstinadamente repetidos a lo largo y ancho del viejo continente. Aceptemos que "Lorenzo" puede significar una cosa u otra, dependiendo del juego lingüístico en el que nos encontremos, quiero decir, de su uso,  pero ¿por qué la utilización de S. Lorenzo como topónimo va acompañada en un entorno de seis kilómetros por un topónimo Valvanera? Eso ocurre en La Rioja, en Salamanca, en Girona y, con ciertas variantes, en Orense y Lleida. Claro que también ocurre con St. Lawrence y Welwyn en Inglaterra, con St. Laurentius y Werfenau en Alemania, con S. Lorenzo y Valfenera en Italia, con Saint Laurent sur Sèvre y la Barbiniere, St. Laurent-en-Beaumont y Valbonais y St.-Laurent du Ver y Valbone, todas ellas en Francia. Cierto, en Francia hay muchos topónimos "Saint Laurent", pero ¿cuántas "Cádiz" hay en Europa? También muchas. Tenemos la Cádiz situada frente a Rota, la Kadijk holandesa situada frente a Rotterdam, la Gaditz alemana muy cerca de Rotta, la también alemana Kaditzsch, algo más alejada de Rötha, el villorrio británico de Catcliffe, cercano a Rotherham... 
   Supongamos que el azar y no la necesidad se hallase en el origen de las palabras. De hecho, no vamos a dejar el término “azar” sin definición. “Azar” no implica ausencia de causas, significa que no hay relación entre las características de esa palabra y la necesidad que viene a suplir. Supongamos que en las palabras, como en los genes, se producen “mutaciones”, que en lugar de sustituir una timina por una guanina, se sustituyese una “o” por una “a” y que de “interlocutor” surgiese “interlocutar”, o bien que se produzcan auténticas recombinaciones como en "escanear" o "jonrón". Supongamos que las palabras se hallan en una lucha por la existencia y que únicamente sobreviven las más aptas. Si Darwin definía “más apto” como aquel organismo que dejaba más descendencia nosotros definiremos como “palabra más apta” aquella que forma parte del repertorio de un conjunto más amplio de hablantes de una lengua. Ahora podemos entender la lucha entre las palabras como lucha por posiciones en las mentes de esos hablantes. Por tanto, lo que llamamos “significado” de una palabra no consiste en un objeto real o imaginario, no consiste en el uso que se hace de esa palabra, ante todo designa la posición que ocupa esa palabra en la mente de quienes comparten una lengua. Semejante posición determina el uso que se haga de ella. ¿Acaso no tenemos un modelo más simple y respetuoso con los hechos?
   Si el significado de una palabra se hallase en su posición, podríamos entender lo descubierto por Porlan, a saber, que los nombres forman estructuras posicionales que, como una rejilla, se aplican al territorio para ordenarlo y queda claro que “territorio” no hace referencia únicamente a la orografía. El posicionamiento de marcas que descubrieron Ries y Trout, el propio naming, al cual ya hemos hecho alusión en este blog, se seguirían ahora de un modo natural a partir de esta concepción del lenguaje, pues cualquier nombre se halla en nuestra mente porque ocupa una posición y eso incluye el nombre “Dios”, como muy bien supieron ver Nietzsche y Feuerbach. Aquí radica, pues, el poder de las palabras en su posición, no en su uso.

domingo, 29 de enero de 2017

Que yo fuera o fuese interlocutado (1 de 2)

   El pasado viernes 13 de enero, la versión impresa de El País informaba que los propietarios de la torre Agbar de Barcelona habían decidido renunciar a sus pretensiones de convertir el citado edificio en hotel, debido al desgaste de varios años de tramitación “y a las dificultades para interlocutar con el gobierno de la ciudad”. El palabro tenía tal magnitud que cuando esa tarde intenté encontrarlo en la edición digital, había desaparecido. No obstante, me quedó la inquietud de quien ha tenido un encuentro en la tercera fase, así que me puse a buscar por Internet y, en efecto, allí encontré testimonios de otros avistamientos. En los foros de la Real Academia de la Lengua, quedaba constancia de su existencia al menos desde 2011. Se especulaba con que vio la luz en Chile, en Honduras o en la propia España y se afirmaba que, si bien aún no se halla recogida en el diccionario de la RAE, consta ya en el Diccionario de americanismos. Dada la práctica habitual de la academia de dar por bueno todo lo que se pronuncie, queda poco para la  canonización de semejante término. Dudo mucho, en cualquier caso, que tan feliz invento haya tenido su origen aquí. Los madrepatrios acostumbramos a maltratar el idioma por vía de la tergiversación gramatical o semántica más que por la vía inventiva, algo que me parece mucho más habitual allende los mares. En cualquier caso deben entenderme, aunque lo parezca, no me opongo a la innovación lingüística, bien al contrario, me fascina.
   La ingenua teoría de que el significado de una palabra viene dado por su uso, teoría que Wittgenstein se limitó a proponer para “la mayoría de los casos” y que sus epígonos han convertido en dogma de fe, nos deja en la absoluta inopia cuando se trata de explicar cómo surgen las palabras. Al parecer, una conjunción de letras se halla en el limbo de las palabras esperando que alguien la descubra y carente por completo de existencia mundanal, quiero decir, de significado. De repente, los hablantes comienzan a usarla, con lo que adquiere un significado ex nihilo. Dicho de otro modo el significado no existe y, súbitamente, comienza a existir, sin causa, razón ni motivo. Además, como Wittgenstein insistía en que no podía haber juegos del lenguaje privados, tenemos que no se trata de que alguien, de buenas a primeras, asigne un significado a lo que antes no constituía una palabra. Tiene que tratarse de un conjunto de hablantes, al menos dos, que comienzan a utilizar una palabra de la misma manera, quiero decir, asignan el mismo significado a una palabra a la vez. Dado que no han podido ponerse de acuerdo en ello, pues entonces habrían usado la palabra antes de que ésta tuviese significado, la única explicación consiste en que, por una telepatía extralingüística, han llegado a algún tipo de acuerdo. Si esto parece un poco raro, hay cosas mejores, por ejemplo, siguiendo semejante “explicación”, a los pañuelos de papel se los podría haber comenzado a llamar Kleenex antes de que tal empresa hubiese existido y “formica” designaría un tipo de plástico antes de que se hubiese fabricado por primera vez. En realidad, la teoría del significado como uso y la existencia de una comunidad de hablantes constituyen términos excluyentes porque no hay nada que garantice que yo uso un término exactamente de la misma manera que lo hacen los demás.
   El modo de evitar estas incongruencias pasa por anteponer un elemento al uso del término: la necesidad. Aparece una necesidad y, como consecuencia, algo, un artefacto, un producto, un partido político o una palabra, viene a satisfacerla. El propio Lamarck señalaba ya que la necesidad crea la función y Lázaro Carreter parece inclinarse por el bonito criterio de que no se deben admitir nuevas palabras en el idioma a menos que se necesiten, criterio que, de seguirse a rajatabla, nos tendría aún confinados en el latín. No obstante, a mi esta teoría siempre me han encantado, porque una versión de la misma aparece en Astérix en Bretaña. Allí se nos cuenta cómo los habitantes de las islas británicas bebían agua hervida, a veces “con una nube de leche”, hasta que Panorámix satisfizo su necesidad llevándoles unas hierbas de la India llamadas “té”. De modo semejante me imagino que durante siglos los europeos anduvieron dándose de cabezazos unos con otros debido al enorme mono de nicotina que tenían antes de que hubiese nacido Colón. Debió haber una especie de cuenta atrás que llegó al día en que, por fin, alguien trajo el tabaco al viejo continente, acabando con la inmensa necesidad que de él había. Y, todavía mejor, dado que las necesidades “están ahí” mientras no venga alguien a satisfacerlas, no se entiende por qué no hubo necesidad de productos para limpiar la vitrocerámica antes de que existieran las vitrocerámicas. Así llegamos a la cuestión que queríamos plantear: ¿qué necesidad había de crear un palabro como “interlocular”? Y si no había necesidad, ¿por qué hay quien ha comenzado a usarla, quiero decir, la ha dotado de significado?

domingo, 22 de enero de 2017

Un siglo desafortunado (y 3)

   Pensamos, con frecuencia, que la historia de la verdad no puede consistir más que en un desarrollo lineal, que la ciencia progresa unidireccionalmente y que la filosofía evoluciona con ella hacia formas más acertadas de plantear los problemas. No hay puntos de retorno, no hay vueltas atrás, no hay nada en ese camino que pueda asimilarse a un círculo o a un laberinto. Pero la verdad, como los árboles, nace con tronco endeble, y hay que apuntalarla hasta que eche sólidas raíces.
   El modo que tenemos los seres humanos de entendernos, la concepción que podemos alcanzar a formarnos de nosotros mismos, parecía seguir una línea muy clara desde 1857 hasta principios del siglo XX. Se sabía que las neuronas no constituyen el único tipo de células encargadas de procesar información, de reconocer estímulos externos ni de formar nuestra identidad. Se sabía, igualmente, que las neuronas no constituyen redes sólo en nuestro cerebro. Se sabía, por tanto, que atribuir a lo encerrado en nuestro cráneo la producción de todos los fenómenos considerados “mentales”, constituía un juicio arriesgado. Una concepción del ser humano rica, holística y basada en hechos, parecía hallarse al alcance de la mano. 
   Todo se torció con el cambio de siglo. Se impuso una visión del ser humano mutilada, simplista, basada en metáforas y ficciones. Se ignoraron los hallazgos de Metal’nikov porque no cuadraban con semejante imagen. A Langley no se lo podía ignorar, de modo que se optó por citarlo sin leerlo, pues de lo contrario se habría hallado en sus libros cosas que no podían existir. Las complejidades de la biología, sus abstrusos azares, ese maldito saber que nos obliga a entendernos como animales simbióticos, se dejó de lado. Si los escolásticos en sus oscuros tiempos buscaron en el mundo pistas para entender la mente de Dios, el siglo XX optó por escudriñar cuidadosamente un producto del cerebro, una máquina, para entender nuestra mente: el ordenador. Se obtenía, así, una guía mucho más simple, mecánica y determinista, mucho más conveniente pues, aunque sólo aportara extravíos y confusión. Ahora podía robársele el cuerpo al cerebro, aislar la conciencia de la realidad, arrojarnos a un mundo que forzosamente habría de caracterizarse como hostil. Esa caricatura, ese amago de hombre, constituyó el eje de las reflexiones del siglo XX. A todos les vino bien. Los científicos obtuvieron fácilmente dinero para sus investigaciones a cambio de algo que el siglo XX comenzó a apreciar más que el oro: imágenes. La industria halló argumentos sobrados para medicar cada aspecto de nuestra vida, incluyendo los males a los que en otra época se calificó de “espirituales”. La población, en general, fue adoctrinada en la idea de que, por mucho que se resistieran, en el fondo, ni sus destinos, ni sus vidas y ni siquiera sus pensamientos, se hallaban bajo su control. 
   ¿Y los filósofos? Los filósofos, se convirtieron en febriles lectores de novelas (cuando no en productores de las mismas), en obsesos consumidores de filmografías (cuando no en productores de las mismas), en roedores de contenidos televisivos (cuando no en contertulios de los mismos). En definitiva, los filósofos dejaron de hablar de la realidad para hablar acerca de la ficción, algo, sin duda, mucho más conveniente y mucho mejor visto por la sociedad. Embaucados por el mundo de la ficción, apenas si dudaron a la hora de subirse a un carro plagado de ellas. 
   Resulta difícil no ver en todo esto meros epifenómenos de un giro mucho más amplio, cuyo estudio habrán de afrontar generaciones futuras pues muchos de los que formamos las que actualmente viven apenas si hemos sido capaces de percibirlo. 
   Desde los años 70 del siglo XX, el esfuerzo por no ver los hechos comenzó a resultar insoportable. Se replicaron los experimentos de Metal’nikov, se recuperó el texto de Langley, gente como Michael D. Gershon, Michal Schwartz, Jonathan Kipnis, Fred Gage, se empeñaron en trabajar lejos de la corriente principal de su disciplina, recuperando, en algunos casos, un saber que nunca debió perderse. Poco a poco, lo que fueron encontrando resultó demasiado llamativo como para no verlo. Hoy día la neuroinmunología, la neurogastroenterología, la neurocardiología, van desplazando los límites del conocimiento hacia horizontes insospechados y todo el mundo espera de ellas enormes aportaciones. Falta mucho aún para que sus hallazgos pasen a formar parte del acervo popular. Mientras tanto queda la cuestión de cuándo se enterarán los filósofos de lo que viene pasando.

domingo, 15 de enero de 2017

Un siglo desafortunado (2)

   En 1974 llegan al mercado los primeros modelos de tomógrafos. Estos aparatos permitían la formación de imágenes a partir de la radiación de protones de algunas sustancias y, por tanto, el estudio de diferentes procesos en organismos vivos. Muy pronto fueron utilizados para obtener imágenes de cerebros durante la realización de tareas. Se inicia, pues, la identificación de las áreas celebrales encargadas de desempeñar diferentes cometidos.
   En 1977, H. Besedovsky y su equipo mostraron que el sistema nervioso podía responder a señales emitidas por el sistema inmunitario. La razón la encontraron Williams y Felten con sus respectivos equipos en 1981 y 1987: existen fibras nerviosas localizadas directamente en los órganos linfoides (timo, bazo, ganglios, etc.) Particular afinidad parecían tener por las células T y los macrófagos, algo un poco extraño porque las células que tienen receptores para los neurotransmisores en su membrana (entre otros, serotonina, acetilcolina, endorfinas, etc.) son los linfocitos B. Tradicionalmente se suelen definir las citoquinas como moléculas encargadas de transmitir señales entre las células del sistema inmunitario, pero, en realidad, diferentes células del cerebro presentan receptores para las citoquinas, particularmente en el hipocampo. Igualmente el cerebro posee la capacidad de fabricar citoquinas y, en reciprocidad, también el sistema inmunitario puede fabricar neurotransmisores. A estos datos hace falta añadirles dos matices. Primero que el 95% de la serotonina de nuestro organismo la genera el intestino. No se trata de un caso único cuando hablamos de neurotransmisores. Segundo que las relaciones entre sistema nervioso y sistema inmunitario se habrían visto claras mucho antes de haber prestado atención al sistema nervioso entérico pues el intestino constituye el órgano en torno al cual se mueve la mayor parte de las células implicadas en la reacción inmune.
   El mismo año en que Besedovsky muestra la indudable interacción entre sistema nervioso e inmunitario, I. Tiscornia publica “The Neural Control of Exocrine and Endocrine Pancreas”, artículo en el que pone de manifiesto que las secreciones pancreáticas se hallan bajo el control del sistema nervioso entérico.  
   En 1981, el filósofo Hilary Putnam publica “Brains in a vat”, en el que presenta la imagen un cerebro metido en una cubeta al que un científico loco mantiene con vida, presentándole estímulos que le llevan a recrear una realidad exactamente como la nuestra. A partir de este momento los filósofos se dedican a discutir si semejante argumento refuta el escepticismo o el realismo, pero lo que verdaderamente puede considerarse el logro de Putnam consiste en haber convencido a todo el mundo de que cuanto constituye nuestra realidad resulta un producto, exclusivamente, de nuestro cerebro, en el cual y únicamente en el cual, se desarrollan los procesos que podemos llamar “mentales”.
   Michael D. Gershon no olvidará ese año de 1981. Dedicado durante décadas al estudio del sistema nervioso entérico, se había acostumbrado a que lo trataran como la mascota de la Sociedad de Neurociencia norteamericana. En noviembre de 1981, durante la convención de Cinncinati, sin embargo, algunos de sus más fieles opositores mostraron datos que le daban la razón, la comunidad científica volvía a admitir que existen neuronas en el tracto digestivo, alrededor de cien millones. Muchos de los que ignoran la longeva historia del sistema nervioso entérico consideran a Gershon desde entonces el padre de la neurogastroenterología. 
   En 1991, Daniel Dennett publica La conciencia explicada. Aunque ya en las primeras páginas deja claro que no pretende explicar la conciencia y aunque se trataba de un libro para especialistas de diferentes procedencias, este escrito se convirtió en un bestseller, siendo leído habitualmente en un sentido fisicalista y reduccionista radical. Desde 1991, los debates en filosofía giran en torno a cómo habérselas con el hecho de que los contenidos mentales son, en última instancia, procesos químicos de nuestro cerebro, sin que nadie haya conseguido explicar qué otro verbo podría utilizarse en sustitución del verbo ser en la frase anterior.
   Ese mismo año aparecen los primeros estudios que elaboraban imágenes usando el contraste en el nivel de dependencia del oxígeno en sangre, la base de la técnica de fMRI, que proporciona localizaciones de hasta 1mm de exactitud en el desarrollo de actividades del cerebro.
   En 2004 el equipo de Jonathan Kipnis, demostró experimentalmente que la pérdida de linfocitos T en ratones provoca pérdida de habilidades cognitivas, habilidades cognitivas, por lo demás, que se recuperan en cuanto se les vuelven a inyectar sus correspondientes linfocitos. Numerosos experimentos, entre ellos algunos realizados con humanos, han confirmado posteriormente estos hallazgos.
   Desde 2012, diferentes equipos reportaron que las supuestas localizaciones cerebrales utilizando la técnica de fMRI se quedaban en nada cuando se utilizaban muestras de sujetos por encima del medio millar. Cuatro años después, Anders Eklund, Thomas E. Nichols and Hans Knutsson, publicaron “Cluster failure: Why fMRI inferences for spatial extent have inflated false-positive rates”, en el cual mostraban que un número indeterminado de imágenes obtenidas por la técnica de fMRI y que virtualmente podría incluirlas a todas, contenían errores de diversa magnitud.

domingo, 8 de enero de 2017

Un siglo desafortunado (1)

   En 1857 el anatomista y fisiólogo Georg Meissner publica "Über die Nerven der Darmwand", primera descripción de los ganglios nerviosos contenidos en las paredes del sistema digestivo. Aunque la fama le vino a Meissner por el descubrimiento de las terminaciones nerviosas responsables del tacto, su artículo atrajo la atención de otros fisiólogos, en particular de Leopold Auerbach, notable anatomista y neuropatólogo que en 1862 descubrió que tales ganglios componían toda una red encargada de controlar la motilidad intestinal. Semejante red recibe el nombre de plexo de Auerbach o plexo mientérico, de acuerdo con la denominación de Jacob Henle en su Handbuch der Nervenlehre des Menschen de 1871, escrito de tal calado que aún hoy puede comprarse en las librerías. 
   24 años después, en 1895, Jan von Dogiel, una vez más, anatomista y fisiólogo, en este caso ruso, describió los componentes de esa red y esos ganglios como neuronas, a las cuales clasificó en diferentes tipos en función de sus axones y dendritas. La clasificación de Dogiel generó rápidamente una polémica, entre otros, con Don Santiago Ramón y Cajal y, aunque todo el mundo le reconoce su carácter pionero, no ha dejado de causar disputas desde entonces. En cualquier caso, Dogiel asentó la idea de que los mamíferos y, por supuesto, el hombre, poseen neuronas más allá de su cráneo y su médula espinal, en concreto, a lo largo de todo el tubo que nos conforma y los órganos que a él afluyen.
   En 1913, Edmund Husserl publica sus Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, escrito en el que aparece por primera vez una tematización explícita de la epojé. La conciencia, dice Husserl, debe estudiarse procediendo a una serie de “reducciones”, entendidas como una sucesión de desconexiones que van separando los fenómenos mentales de los procesos físicos, biológicos o de referencia a una realidad exterior a la propia conciencia.
   1921 debió ser el año en que el sistema neuronal de nuestro aparato digestivo entraba por la puerta grande en la medicina. Ese año Sir Johannes Newport Langley, razonó que si de la columna vertebral apenas si salen un centenar de nervios hacia el aparato digestivo y si en éste había varios millones de neuronas (hoy se calcula que unos cien millones), entonces éstas debían constituir un sistema nervioso por sí mismo. Le dio, por tanto, el nombre con el que se lo conoce hasta hoy, sistema nervioso entérico y, en la que se convertiría en obra de referencia, The Autonomic Nervous System, le reconocía el carácter de tercer sistema nervioso, junto con el sistema central (encéfalo) y el periférico (médula espinal). Paradójicamente, sin embargo, 1921 marca el año en que el sistema nervioso entérico desapareció de la medicina. Por razones que no resultan fáciles de explicar, el libro de Langley, como digo, todo un clásico, se convirtió en uno de esos libros más citados que leídos, hasta el punto de que todo el mundo lo recuerda como el primer escrito en el que se canonizaba la existencia de dos sistemas nerviosos en el cuerpo humano, el central y el periférico. El sistema nervioso entérico, simplemente, cayó en el olvido.
   Ese mismo año de 1921, el zoólogo ruso Segei Metal’nikov asentado en el Institut Pasteur de París publica "L’immunité naturelle et acquise chez la chenille de Galleria melonella", artículo en el que demuestra que las larvas de Galleria melonella no frenan la producción de anticuerpos a menos que se inactiven sus ganglios nerviosos. Metal’nikov sospecha ya del vínculo entre sistema inmunitario y sistema nervioso, algo que acabará probando en "Rôle des reflexes conditionnels dans l’immunité", artículo cinco años posterior publicado junto a Victor Chorine. En él reflejaban sus experimentos con cerdos de guinea a los que les inyectaban tapioca o bacilos de antrax inactivos a la vez que les aplicaban calor o un arañazo en una pequeña área de la piel. La sola presencia del estímulo condicionado provocaba una producción de leucocitos semejante a la inyección del antígeno. Aunque metodológicamente criticables, los experimentos de Metal’nikov y Chorine pudieron replicarse sin problemas en los años 70 con criterios más rigurosos. En esencia puede decirse que a principios del siglo XX se había demostrado que el sistema inmunitario puede aprender.
    Probablemente, en septiembre de 1948, en el simposio de la Fundación Hixon sobre mecanismos cerebrales en el comportamiento, celebrado en el Instituto Tecnológico de California, John von Neumann, matemático de origen húngaro, enunció por primera vez la metáfora del ordenador. No me detendré en exponerla minuciosamente pues todos la tenemos dentro de nuestras cabezas como si no hubiese otro modo de pensarnos: el cerebro es como un ordenador. Sí merece la pena señalarse, primero, que en esta metáfora se obvian como irrelevantes las diferencias físicas entre un cerebro y un ordenador; segundo, que las semejanzas funcionales quedan convertidas en una identidad categorial, pues ambos, cerebro y ordenador, son el mismo tipo de máquina. Cualquier discusión posterior sobre la naturaleza de los seres humanos partirá, pues, del supuesto de que sólo tenemos una unidad de procesamiento de la información y que ésta no resulta modificada o alterada en su estructura o funcionamiento por ningún otro de los elementos que nos componen.