ANTECEDENTES

UNIDAD 1

CONTENIDO DE LA UNIDAD

  • Texto explicativo

  • Imágenes

  • Video

  • Interacción

  • Actividades de aprendizaje

  • Facebook
  • Twitter
  • YouTube
  • Pinterest
  • Tumblr Social Icon
  • Instagram
QUEREMOS CONOCERTE!

Antes de iniciar, tu primera labor será grabar un pequeño video  en donde nos comentes tu nombre, tu profesión y cuáles son tus actividades. corre que esta primera actividad es para hoy!

Envíanos tu video por correo a: actividades@institutosuperiordeneurociencias.org

ANTECEDENTES

HISTÓRICOS

ANTES DE COMENZAR...

CONSEJOS Y RECOMENDACIONES PARA EL ESTUDIO Y DESARROLLO DE ESTE CURSO

Enriquecer su vida y ampliar su visión del mundo requiere mucho estudio.

Su mente no es como su estómago, algo que se pueda llenar pasivamente; se parece más a un músculo que se fortalece con el ejercicio.

Innumerables experimentos revelan que la gente aprende y recuerda mejor un material cuando lo dice con sus propias palabras, lo repite y luego lo revisa y lo repite de nuevo.

Por lo anterior para el estudio de este curso le sugerimos las siguientes técnicas:

Para estudiar un capítulo, primero explore, con una lectura superficial.

Recorra con la vista los títulos y observe cómo está organizado el capítulo.

Mientras se prepara para leer cada sección, use su título u objetivo de aprendizaje y pregunte aquello que usted debería responder. Para esta sección usted podría haber preguntado: ¿Cómo puedo llegar a dominar con mayor efectividad y eficiencia la información de este curso?

Luego lea activamente buscando la respuesta. En cada capítulo, lea solo lo máximo que pueda absorber sin cansarse. Lea de manera crítica y activa. Formule preguntas; realice anotaciones; considere las implicaciones ¿cómo se relaciona con su propia vida? ¿respalda o desafía sus suposiciones? ¿cuán convincente es la evidencia?

Una vez finalizada la lectura de cada sección, ensaye con sus propias palabras lo que leyó. Pruébese y trate de responder la pregunta que formuló, recitando lo que pueda recordar, luego mire lo que no pueda recordar.

Para finalizar, repase: lea las anotaciones realizadas, repare en la organización del capítulo y repáselo por completo con rapidez.

Explore, pregunte, lea, ensaye, repase.

Su proceso de aprendizaje puede mejorar con estas sugerencias adicionales:

Distribuya el tiempo para estudiar: uno de los descubrimientos más antiguos de la psicología y la neurociencia cognitiva es que el ejercicio espaciado favorece más la retención que el ejercicio acumulado. Usted recordará mejor el material si reparte el tiempo a lo largo de varios periodos de estudio -quizás una hora por día, 6 días a la semana - en lugar de hacerlo todo junto el mismo día, máxime cuando la fecha de evaluaciones cercana. Por ejemplo, en lugar de tratar de leer un capítulo completo de una sola vez, lea solo una de las secciones principales del capítulo y después haga otra cosa.

El espaciado de las horas de estudio requiere una actitud disciplinada para manejar su tiempo.

Ejercite el pensamiento crítico: mientras lee, tome en cuenta los valores o suposiciones de las personas ¿qué perspectivas o tendencia subyacen a un argumento? Evalúe la evidencia ¿es anecdótica, correlacional o experimental? Evalúe conclusiones ¿existen explicaciones alternativas?

Cuando la información sea respaldada o acompañada por imágenes y/o vídeos, escuche la idea principal y las ideas secundarias. Anótelas, formule preguntas durante y después (sí está observando un vídeo, interrumpa la secuencia y formule preguntas antes de continuar).

Insista en el aprendizaje: la neuroanatomía requiere atención, objetividad e identificación muy precisa de estructuras. Una vez más, la pedagogía, la psicología y la neurociencia cognitiva nos enseñan que “insistir en el aprendizaje mejora la retención”. Tendemos a sobreestimar cuánto sabemos. Usted puede entender un capítulo mientras lo está leyendo, pero si dedica un tiempo adicional para volverlo a leer, ponerse a prueba y para repasar lo que usted cree que sabe, retendrá por más tiempo el nuevo conocimiento adquirido.

Haga las evaluaciones y exámenes de manera inteligente: si una evaluación contiene preguntas de opción múltiple y un tema para desarrollar, lo primero que debe hacer es la pregunta. Tiene que leer con mucho cuidado el tema, teniendo muy en cuenta que es lo que se le pide. En una hoja escriba una lista de los puntos que le gustaría explicar y luego organícelos. Antes de desarrollarlos deje el tema y abóquese a las preguntas con múltiples opciones de respuesta.

(Mientras tanto puede continuar madurando el tema desarrollar. A veces las preguntas objetivas le traerán a la mente ideas pertinentes). Luego vuelva a leer el tema que se le pide que desarrolle, reconsidere lo que va a responder y empiece a escribir. Cuando termine, revise lo que ha escrito para eliminar los errores ortográficos y gramaticales que lo harían parecer menos competente de lo que es. Cuando lea las preguntas de múltiple opción, no se confunda tratando de imaginar cómo cada opción podría ser la correcta. En cambio, trate de responder cada pregunta como si fuera un ejercicio de complementar. Primero cubra las respuestas y formule una oración en su mente, recordando lo que sabe para completar la oración. Luego lea las respuestas en la prueba y encuentre la alternativa que más se parezca a su respuesta.

Al explorar la neuroanatomía, aprenderá mucho más que técnicas efectivas para estudiar. Este aprendizaje nos enseña a formular las preguntas importantes: como reflexionar de manera crítica mientras evaluamos las ideas y las creencias populares que compiten entre sí. Esto aumenta nuestra apreciación acerca de cómo nosotros, seres humanos, percibimos, pensamos, sentimos y actuamos. De este modo, enriqueceremos nuestras vidas y ampliaremos nuestra visión global.

UNIDAD 1. ANTECEDENTES HISTÓRICOS

OBJETIVOS DE APRENDIZAJE

  • Conocer las referencias generales del estudio del cerebro en diversas épocas de la historia.

  • Identificar a los personajes que en su época realizaron aportaciones sustanciales para la constitución de lo que hoy se conoce como neurociencia.

  • Analizar las bases que dieron comienzo al estudio del cerebro con apoyo de la tecnología.

  • Analizar el uso de la tecnología en el estudio actual del cerebro en distintas especies y la humana.

  • Conocer los conceptos generales que permitan iniciar y adentrarse en el estudio de la neurociencia.

En esta primer apartado, se analizarán los principales hitos que, a lo largo de la historia, han señalado el camino en la búsqueda constante de respuestas en torno a la mente y el cerebro. Se revisará la concepción que se tenía sobre el cerebro y de sus funciones durante la Edad antigua y la Edad media, así como los avances anatómicos y fisiológicos que ocurrieron en el Renacimiento y en siglos posteriores. Se abordarán el descubrimiento de la electricidad animal durante la Edad moderna y los debates del siglo XIX sobre la corteza cerebral y sus funciones. Ya en el siglo XX, se tratará con más detenimiento la figura y el papel desempeñado por Santiago Ramón y Cajal y su gigantesca e invaluable contribución a la comprensión del sistema nervioso y de su unidad fundamental, la neurona, que dio paso a la identificación de los primeros circuitos neuronales.

LA NEUROFISIOLOGÍA, LA PSICOLOGÍA  Y LA NEUROCIENCIA

La neurofisiología trata de estudiar el comportamiento de neuronas o grupos de neuronas aisladas. Los hechos establecidos por la neurofisiología elemental pueden ser aprovechados por la teoría matemática de redes neuronales para construir modelos que permitan identificar fenómenos neurofisiológicos como la memoria aprendizaje

Los principales hechos establecidos por la neurofisiología tenidos en cuenta en la construcción de modelos de redes neuronales son:

 

  • Un cerebro con gran cantidad de neuronas. El número de neuronas de un cerebro humano se ha estimado en más de 86 mil millones.

  • Las neuronas consisten en un cuerpo celular, una estructura dendrítica arbórea y un axón. Las neuronas son células vivas con un metabolismo similar al encontrado en el resto de células. Así el cuerpo celular o soma contiene un núcleo, vesículas, mitocondrias y otros orgánulos. A diferencias de otras células, además posee dendritas y axón. Las dendritas forman una estructura arbórea inmensa que puede extenderse por amplias áreas de un cerebro, los axones pueden llegar a tener más de un metro de longitud. Las neuronas generan potenciales eléctricos. Los potenciales eléctricos o potenciales de acción, también llamados pulsos eléctricos o chispas de voltaje, son fenómenos electrofisiológicos provocados porque las membranas celulares de las neuronas tienen propiedades activas que las hacen excitables o sensibles a potenciales eléctricos procedentes de otras neuronas. Estos potenciales eléctricos se originan usualmente en el extremo del axón y se propagan a lo largo de su longitud. Los potenciales eléctricos son los mecanismos básicos para la comunicaciónentre neuronas. Los potenciales de acción pueden considerarse como señales eléctricas que una neurona envía a otras. Cada neurona recibe muchas señales procedentes de otras neuronas (potencial convergente) y a su vez envía señalas a muchas otras (potencial emergente).

  • La neurofisiología tiene como objetivo comprender el funcionamiento del sistema nervioso, y el buen funcionamiento del sistema nervioso depende de que el flujo de información que este se encarga de transmitir, sea rápida y eficiente entre las neuronas y sus efectores.

  •  La información se transmite utilizando señales eléctricas, que se propagan a lo largo de los axones de las neuronas. Esta señal eléctrica se conoce como impulso nervioso, o potencial de acción.

Por lo anterior, las neurociencias tienen una evidente vinculación con otras disciplinas como la psicología, la medicina general, los procesos terapéuticos, la educación, las ciencias sociales y por consecuencia los sistemas de aplicación de justicia.

Desde el XXXIII congreso Interamericano de psicología, se reconoció el enfoque de los diferentes procesos que se llevan a cabo en investigación y en psicología. Desde este escenario, se observó como emerge con más contundencia para Latinoamérica el imperativo formador de las neurociencias en la psicología. Una disciplina que a diferencia de intentar reducir los fenómenos que subyacen al comportamiento humano, pretende contribuir a la explicación de los diferentes componentes que se inscriben en la dinámica de lo psíquico, y como esto operacionaliza la ejecución de conductas saludables o de vulnerabilidad. En este sentido, Noam Chomsky refería que la ignorancia se podía dividir en problemas y misterios; por lo anterior cabe decir que los problemas sugieren el uso de una intuición entrenada por la inferencia que nos delinea rutas para la explicación del fenómeno, sin embargo el misterio refleja justamente nuestra poca información en torno al fenómeno, el humano maravillado frente al evento responde con el mito o con la conjunción de variables que origine de cuenta de un símbolo que disminuya el peso en el imaginario que trae la incertidumbre. Actualmente y después de que en el 6 de abril de 2000 se anunciara públicamente la terminación del primer borrador del genoma humano que indicaba la localización de los genes dentro de los cromosomas , en incuestionable trazar una ruta de la variación de conductas y la vulnerabilidad de patologías relacionadas a la psiquiatría y a la psicología desde los patrones de susceptibilidad que cargamos en nuestra especie y que se soportan en nuestra historia evolutiva y la expresión diferencial de proteínas moduladas por la acción compleja de nuestros genes. Pues bien, los avances en la neurobiología de la dinámica humana; el cooperativismo y el castigo (punishment) como fuerzas innatas de los procesos sociales que evolucionan en las sociedades (Fehl, van der Post, & Semmann, 2011; Gneezy & Fessler, 2011; Strassmann, Page, Robinson, & Seeley, 2011). El altruismo y el egoísmo, como comportamientos que gobiernan la especie, y las presiones de selección explicitas que retan la eficacia humana en la cultura de unos más que de otros; contribuyen a una ruta explicativa de la susceptibilidad a la psicopatología y a la expresión de rasgos bizarros, saludables o de resiliencia suficiente para tolerar el estrés que supone la interacción con el medio y con los otros(Allen, 2011; Parker & Maestripieri, 2011). El psicólogo contemporáneo no puede escapar de esta realidad, observar la conducta humana y habilitar una aproximación desde las neurociencias como eje central para enfocar procesos de intervención terapéutica permitirá el desarrollo de árboles de decisión clínica y diagnostica más apropiados y avanzar en los esquemas de intervención, prevención y pronostico en la psicopatología.

UNIDAD 1. ANTECEDENTES HISTÓRICOS. PARTE I.  

Se estará de acuerdo en que una piedra rueda por el monte, ladera abajo, no tiene ni una pizca de psiquismo; se mueve, pero carece de comportamiento, en el sentido estricto y psicológico del término. Es un objeto, un conjunto de moléculas que sigue de forma ciega la acción de la gravedad, y no se adivina intención en su movimiento, ni el menor rastro de una subjetividad que sienta, que quiera algo (mucho menos) que piense. Tampoco en un muelle, aunque el movimiento sea propio y provenga de su interior. No se concederá intención a un girasol cuando sigue al sol, no parece de desee ir tras él, sólo es un impersonal automatismo  fotoquímico, similar a una reacción química en el tubo de ensayo. Y ¿que pasa con una cucaracha? ¿le reconocemos intención de huir del fuego o de nuestra sombra? desea escapar esta campeona de la velocidad - unos 350 km/hr en nuestra escala -? ¿se atisba un deseo en esa urgente y desesperada conducta de huída? ¿Algún psiquismo -entre comillas- debe poseer que no tiene la piedra o el girasol.

¿Siente dolor un pez? Los investigadores no acaban de ponerse de acuerdo, al menos en la forma en como lo sentimos nosotros - aunque bien dicho, su dolor sólo lo suponemos. Por otro lado, desde luego un perro si experimenta dolor al igual que un gato; a juzgar por sus aullidos y maullidos respectivamente habrá de concluirse que si, no siente daño o dolor, lo simulan magistralmente. Hoy sabemos que no es así.

En el siglo XVII, René Descartes, padre de la filosofía racionalista estaba convencido de que los animales eran simples autómatas hechos de carne y hueso. Un cruel comportamiento suyo, el Padre Malebranche, fue más allá y sostuvo que "los animales comían sin placer, lloraban sin dolor, crecían sin saberlo, no deseaban nada, no le temían a nada y nada conocían". Perpetró impasible toda la clase de salvajadas a perros y gatos ya que "al carecer de alma" no podían sentir emociones reales y sus muestras de sufrimiento únicamente eran movimientos mecánicos y vacíos, pura apariencia. Hoy nadie defendería esa descabellada hipótesis y, afortunadamente, hoy en día, es obligatorio el uso de anestesia en los protocolos de experimentación animal.

Tal como se analizará más adelante, un chimpancé se autoreconoce frente a un espejo, algo que un perro no hace, pero vive anclado en el "aquí y ahora". Los chimpancés tienen expresiones culturales y son capaces de utilizar herramientas, sin embargo, , dan escasas muestras de elaborar planes para más allá de unos cuantos minutos. Tampoco está claro si pueden inferir mentes en los demás; no hay evidencia de que los especímenes expertos enseñen a otros con menor experiencia o sean tratados de manera distinta; tampoco hay evidencia que sepan que los seres humanos vemos con los ojos. Los experimentos de Povinelli muestran a chimpancés pidiendo comida tanto a seres humanos invidentes (con los ojos tapados) como a personas con visión normal. Esta dificultad en inferir estados mentales en los demás es muy llamativa si se compara al chimpancé con el Homo sapiens: el ser humano tiene una asombrosa facilidad y predisposición para otorgar psiquismo incluso a objetos que carecen de el. Basta observar en una pantalla a un círculo moverse detrás de un cuadrado, para que inmediatamente lo percibamos en términos mentalistas: el cículo persigue con insistencia al cuadrado como si tuviera intención de alcanzarlo. Y conscientemente sabemos que no hay psiquismo por ningún lado, sólo 15 líneas de código en VisualBasic. Quizá sea el mismo mecanismo que ha llevado al hombre a creer e la existencia de fuerzas supremas o incluso paranormales.

Es necesario detenerse un momento. Nos hemos perdido algo en este recorrido de la piedra al Homo sapiens. La piedra estaba hecha de ciegas moléculas físicas, no cabía esperar nada extraordinario. ¿Acaso las moléculas de la cucaracha o incluso de los humanos son distintas y menos ciegas? ¿llevan incorporado algún componente del que emanan la conducta, las sensaciones, la conciencia? Pues no, la ciencia dice que están hechas de átomos comunes, los mismos que existen en el universo (al menos conocido por el hombre) es decir, de la tabla periódica. Así que el desafío es grandioso porque parafraseando al filósofo norteamericano John Searle (2000, p. 37-38) "toda nuestra vida mental está causada por la conducta de neuronas y todo lo que éstas hacen es incrementar o disminuir sus tasas de disparos. El inconveniente es este: ¿como es posible que disparos neurales físicos, objetivos, cuantitativamente describibles, causen experiencias cualitativas, privadas, subjetivas?. En realidad esta pregunta es esencial en distintas variantes, es la que se ha formulado la humanidad desde siempre y ocupa el núcleo del dilema mente - cuerpo o, más concretamente, mente - cerebro. Dicho de forma breve ¿como el cerebro crea una mente o incluso una simple sensación? ¿como se pasa de la electroquímica al pensamiento?

Problema mente-cerebro: el filósofo John Searle lo plantea así: "¿Como es posible que disparos neuronales físicos, objetivos, cualitativamente describibles causen experiencias cualitativas, privadas y subjetivas?"

PERSPECTIVA HISTÓRICA 

El primer documento escrito del que se tiene conocimiento y en el que aparece nombrado el órgano del cerebro fue el papiro quirúrgico de Edwin Smith, así llamado en honor a su descubridor. Corresponde a un papiro egipcio de aproximadamente el año 1700 a.C., el que a su vez, probablemente se basaba en un texto del 3000 también a.C. Parece que los antiguos egipcios no concedían ninguna importancia al cerebro ya que al preparar las momias lo extraían por la nariz y lo desechaban, mientras que conservaban con delicadeza otros órganos internos que debían acompañar a su dueño en la otra vida.

Fragmento del papiro quirúrgico de Edwin Smith (situado a la izquierda). A la derecha se muestra la imagen de James Henry Breasted egiptólogo a quien los herederos de Smith autorizaron para que estudiara el contenido del papiro. Actualmente, el documento se conserva en la Rare Book Room de la New York Academy of Medicine.

EL CEREBRO EN LA EDAD ANTIGUA Y LA EDAD MEDIA

En la actualidad sabemos sin lugar a dudas que la mente reside en el cerebro, pero esto no fue siempre así. En la Grecia antigua, Aristóteles (384-322 a.C.) creía que un órgano tan inmóvil, grasiento y escaso de sangre (en cadáveres) era prácticamente inútil. Lo consideraba una flema sobrante que a veces se filtraba hacia las fosas nasales en forma de moco, y que sólo servía para refrigerar la sangre, una especie de radiador natural. Juzgaba más lógico atribuir al corazón el origen de la función mental ya que de acuerdo a su consideración, ocupaba un lugar central del cuerpo, se movía, estaba caliente bombeando sangre y al detenerse implicaba la muerte. Esta concepción cardio céntrica contó con algunos partidarios hasta bien entrado el siglo XVII y quedan reminiscencias de ella en la etimología de palabras como: "cordura; "recuerdo"; "recordar", etc, cuya raíz latina es cor (corazón).

Sin embargo, no todos los autores clásicos compartían esta explicación cardiocéntrica. De forma paralela, una nueva corriente de pensamiento había surgido décadas antes a partir de las observaciones de Hipócrates (aproximadamente 460-377 a.C), el padre de la medicina. Son conocidas sus palabras sobre el protagonismo del cerebro: "Los hombres deberían saber que del cerebro y nada más que del cerebro vienen las alegrías, el dolor, el abatimiento y las lamentaciones" En su obra "Corpus hippocraticum" aparecen múltiples referencias a perturbaciones del movimiento causadas por una lesión cerebral y el autor vinculó certeramente las heridas en un lado de la cabeza con convulsiones y parálisis en la mitad opuesta del cuerpo.

Varios siglos después, Galeno (aproximadamente 130-200 d.C.) se convierte en una referencia clave durante largo tiempo. De origen griego, nacido en Pérgamo bajo el Imperio Romano, se trasladó a Roma y llegó a ser médico de la corte con cuatro emperadores sucesivos, enfrentándose a sectas y charlatanes de todo tipo. No pudo diseccionar cadáveres porque la ley romana lo prohibía, pero si lo hizo con algunas especies animales, entre ellas gatos, perros, camellos, leones, lobos, osos, comadrejas, pájaros y peces. No pudo hacerlo en invertebrados al carecer de cristales de aumento. Para estudiar el cerebro prefería los bueyes, porque, siendo un animal de gran tamaño, podía disponer con facilidad de sesos enteros ya deshuesados en el mercado. Hay una descripción muy citada en la que Galeno enseña a sus estudiantes, cómo llevar a cabo, paso a paso, la disección del cerebro de un buey de forma sistemática. Galeno prestó mucha atención a los nervios y presumía de que, por simple palpación, podía distinguir los sensitivos, más suaves que los motores, muy robustos porque transmiten el movimiento a los músculos. Hizo suya una tradición que se remontaba a los antiguos médicos de la Alejandría, según la cual, los nervios eran huecos, una especie de tubo por donde viajaban "los espíritus animales" del cerebro para mover las partes del cuerpo. Esta explicación duraría toda la edad media y la influencia de Galeno se extendió en Europa durante más de 1,000 años a través de sus abundantes escritos.

El periodo oscuro que supuso la Edad Media, no añadió ningún avance sustancial a las observaciones de la época clásica, se abandonó la experimentación y la ciencia se limitó a repetir las enseñanzas de los clásicos.

Junto a la creencia en los nervios huecos, la explicación medieval del cerebro consistiría fundamentalmente en la denominada "teoría ventricular". Los padres de la iglesia establecieron que los "espíritus animales" y por lo tanto, las funciones psíquicas se creaban en los ventrículos o cavidades cerebrales; para la Iglesia Cristiana, el tejido cerebral era demasiado etéreo, demasiado sucio para actuar de intermediario entre el alma y el cuerpo. Una diferencia importante con el periodo clásico es que e la edad media se tendía a localizar las principales facultades mentales en ventrículos específicos. Así, Nemesius, médico y obispo de Emesa en Siria, bastante influyente en su tiempo, resumió en el siglo IV lo esencial de la teoría ventricular: "Los sentidos tienen sus fuentes y raíces en los ventrículos frontales del cerebro, los de la facultad del intelecto están en la parte media y los de la memoria en la parte trasera. Todos los sentidos confluirían con sus nervios en un sentido común o senso cune, ubicado en el ventrículo frontal, donde también se alojaría el alma en el caso de los seres humanos". Por supuesto nada de esto corresponde a lo que hoy se sabe, de hecho, no existe un ventrículo frontal delantero.

EL CEREBRO EN EL RENACIMIENTO Y LA EDAD MODERNA

Con la llegada del Renacimiento europeo y el inicio de la Edad Moderna se volvió a la observación de la naturaleza y a la tabla de disecciones. De la repetición de los antiguos dogmas, basados en las traducciones árabe-latinas de los textos clásicos, se pasó a la búsqueda de conocimiento nuevo, lo que supuso un verdadero renacer en las creencias y pensamiento humanista. En este contexto, Leonardo Da Vinci (1452-1519)aplicó su extraordinario talento a la anatomía y quiso conocer la forma de los ventrículos cerebrales a través de un ingenioso método. Inyectó cera líquida caliente en el interior de esas cavidades y al enfriarse la cera, obtuvo por primera vez un modelo tridimensional de todo el sistema ventricular del cerebro. Da Vinci se decepcionó al comprobar que el modelo obtenido no encajaba con la doctrina medieval, pues no aparecía ningún ventrículo frontal que sirviera de alojamiento para la senso comune y el alma. Sin pretender renunciar a la teoría ventricular, Leonardo adoptó una solución de compromiso y recolocó la senso comune en el ventrículo medio. Lamentablemente al no publicar sus dibujos, estos descubrimientos tuvieron poco impacto en la anatomía de la época.

La monumental obra del italiano Andreas Vesalius o Vesalio (1514-1564) "De humani corporis fabrica, traducida como "De la estructura del cuerpo humano o también de los trabajos del cuerpo humano, publicada en 1543, constituye un hito en la historia de anatomía humana y quizás uno de los libros médicos más relevantes jamás escritos. Reúne el resultado de cientos de disecciones humanas y en ellas, Vesalio fue comprobando que la ciencia anatómica de su admirado Galeno distaba mucho de ser perfecta. Registró hasta 200 errores y afirmaciones que no encajaban con lo que él observaba y le sorprendió tanto aparente descuido en el maestro clásico, venerado generación tras generación. Así se resalta este hecho en Breve Historia del cerebro (Gonzalez, 2010 p. 29).

En una de las ocasiones en que es invitado a la Universidad de Bolonia, Vesalio ensambla un esqueleto humano como regalo para sus anfitriones. Junto a el coloca el esqueleto de in mono con el fin de apreciar las diferencias y de pronto, confirma algo que sospechaba tiempo atrás ¿como no se le había ocurrido antes? Galeno jamás había diseccionado a un ser humano! sus descripciones se ajustaban en realidad a la anatomía de un simio y otros animales. Fue toda una revelación que, en cierto modo, exculpaba al médico griego, pero ahora, quedaba todo por redescubrir! Así que este fue un poderoso acicate para la gigantesca aportación de Vesalio, quien comprendió las limitaciones que habían rodeado a Galeno, recordemos que el impero romano prohibió las disecciones humanas y jamás humilló en público o ante sus estudiantes la memoria del insigne precursor.

En sus 663 páginas De humani corporis fabrica recopila detalladísimas ilustraciones de admirable factura gracias a la destreza de un discípulo de Tiziano. Consta de siete libros agrupados como capítulos; el libro IV se dedica al sistema nervioso y el libro VII describe el cerebro. La obra de Vesalio tendría continuidad en el siglo siguiente en la extraordinaria contribución del médico de Oxford, Thomas Willis (1621-1675) al conocimiento detallado de la anatomía del cerebro humano.

Son tiempos de grandes cambios en los que se cuestionan creencias sacralizadas durante siglos. El mismo año en que aparece el mencionado texto de Vesalio, Copérnico publica su "De revolotionibus orbium coelestium, en el cual la tierra deja de ser el centro del universo; en cierto sentido, puede decirse que el tratado de Versalio constituye un giro copernicano de la anatomía humana: las enseñanzas del pasado dejan de ser la última palabra, la anatomía gelénica no es perfecta y ya no es el centro del conocimiento sobre el cuerpo humano. El telescopio de Galileo muestra manchas es un astro, el Sol, que se suponía perfecto; los elementos celestes ya no son fijos e inmutables sino que presentan irregularidades y siguen las mismas leyes que los cuerpos terrestres; la presencia de satélites orbitándo Jupiter contradice la doctrina oficial de que todo el orbe celeste gira en torno a la Tierra y refuerza la nueva teoría copérnica. El descubrimiento de la circulación de la sangre por William Harvey desafía también el modelo clásico de los cuatro humores. Es decir, se asiste a una transformación imparable en todos los frentes, a favor del nuevo viento de la historia.

Andreas Vesalius
Andreas Vesalius

EL SIGLO XVII Y RENÉ DESCARTES

La época en que Descartes vivió, escribió y, sobre todo, pensó era muy distinta de la de los grandes filósofos clásicos, aunque no menos estimulante intelectualmente.

 

La invención de la imprenta había dado a la cultura una difusión inconcebible en la época clásica, dominada aún por la tradición oral. Pero además, en esos años se estaba gestando uno de los alumbramientos más importantes de nuestra cultura: estaba naciendo la ciencia. Fueron muchos los descubrimientos que se realizaron en aquellos años (como puede constatarse en cualquier manual de historia de la ciencia), pero bastará destacar que en 1543, Vesalio había descrito la anatomía humana con tremendo rigor (siete volúmenes profusamente ilustrados) contradiciendo la tradición de Galeno, y que en el mismo año, Copérnico había hecho lo propio con la anatomía celeste (en contradicción con no menos ilustres antecedentes).

Tenía Descartes trece años (eso sí, ya era un estudiante universitario) cuando Galileo enfocó por primera vez su telescopio a las estrellas, y treinta y dos cuando Harvey demostró la teoría de la circulación de la sangre. La contribución del propio Descartes al surgimiento de la ciencia moderna fue de gran relevancia. Además de sus aportaciones a la matemática (particularmente, la geometría cartesiana), dotó a la ciencia de un método. Desde entonces, el método es lo que distingue a la ciencia de otros acercamientos al conocimiento de la realidad.

En su Discurso del método, Descartes se aplica a sí mismo cuatro preceptos:

i. No admitir como verdadera cosa alguna que no la conociese evidentemente como tal.

ii. Dividir cada una de las dificultades que examinase en tantas partes como fuera posible.

iii. Conducir ordenadamente mis pensamientos, comenzando por los objetos más simples y fáciles de conocer para ascender poco a poco, como por grados, hasta el conocimiento de los más complejos.

iv. Hacer en todas partes enumeraciones tan completas y revistas tan generales que estuviera seguro de no omitir nada.

La repercusión de estas cuatro reglas en la historia de la ciencia y de la teoría del conocimiento ha sido notable (en el próximo capítulo volveremos sobre este punto). Además, estas restricciones llevaron a Descartes a detallar una teoría del conocimiento que aclarase qué era eso de las evidentes.

La búsqueda del conocimiento consiste en reducir la realidad a unidades simples y evidentes, cuyo conocimiento le es dado al espíritu humano de forma innata. Descartes prescinde de los criterios de autoridad y tradición para la búsqueda del saber (incluyendo la autoridad de Aristóteles y, hasta cierto punto, la tradición cristiana), y busca una proposición esencial e irrefutable en la que fundar todo el edificio del saber.

Descartes encuentra que sólo de la duda puede surgir el verdadero conocimiento, y entonces duda de sus maestros, de sus razonamientos, de sus sentidos y hasta de su propia existencia. La duda como método (contenida en el precepto i) le lleva a una sola verdad autoevidente: el que duda está pensando, y el que piensa debe existir para poder hacerlo. Su frase cogito ergo sum (pienso, luego existo) se convierte en una de las sentencias filosóficas más famosas de la historia. No es sólo una proposición sobre el método, es también la esencia del racionalismo. El pensamiento es más evidente que la propia existencia. En el sistema de Descartes, unas pocas ideas innatas sirven de base a otras que nuestra razón puede derivar de ellas. En esto, el racionalismo cartesiano es menos radical y más sofisticado que el platónico. A pesar de lo cual, no terminó de convencer a muchos de los más relevantes filósofos de los años posteriores, como los empiristas británicos.

Descartes fue uno de los últimos grandes filósofos amateur. Utilizó la herencia de su padre para poder dedicarse a estudiar y recorrer el mundo durante toda su vida. Se levantaba a mediodía, después de una mañana de profunda reflexión. Nunca fue profesor y nunca se casó (aunque tuvo una hija que falleció a los cinco años, produciéndole el mayor dolor de su vida). Después de probar fortuna en los ejércitos de Holanda, Baviera y Hungría se retiró a la campiña francesa, desde donde cobró cierta fama como uno de los hombres más inteligentes de su tiempo.

Según cuenta el propio Descartes, cuando estaba en el ejército tuvo un sueño que podríamos llamar iniciático: se le apareció «el espíritu de la verdad» y le hizo ver que debía unificar todo el conocimiento humano bajo un sistema regido por las Matemáticas. A raíz de esto, rechazó su formación escolástica y decidió partir de cero. Dicen que utilizó su talento matemático en los juegos de azar, a los que era muy aficionado. También era un buen bailarín. Pero su vida se truncó cuando a la reina Cristina de Suecia se le ocurrió que podía permitirse recibir las enseñanzas de los hombres más sabios de su tiempo, y empezó por llamar a Descartes. El filósofo fue conducido a Suecia en un barco de guerra, e «invitado» a dar clases particulares a la reina durante cuatro o cinco horas al día a partir de las cinco de la mañana. Descartes no tenía buena salud, ni costumbre de madrugar de aquella forma, y menos en el helado invierno sueco. Murió de neumonía pocos meses después.

Al cabo de unos años, sus amigos franceses decidieron que el cuerpo de Descartes debía reposar en suelo galo y enviaron un ataúd a Suecia. Pero según las autoridades de aquel país, el ataúd era demasiado corto, así que colocaron en él el cuerpo sin cabeza, y enterraron de nuevo la cabeza en Suecia, hasta que un oficial del ejército desenterró el cráneo para guardarlo como recuerdo. Durante 150 años, «la noble calavera» anduvo en manos de diversos coleccionistas hasta que se volvió a enterrar en París. Quién le iba a decir al pobre Descartes que sus restos se convertirían durante años en una metáfora física del dualismo que él lideró.

Cada época intenta comprender el mundo natural tomando como modelo el conocimiento y el desarrollo tecnológico alcanzado en ese momento. Hoy después del vapor y la electricidad, el paradigma de referencia es el electrónico, y los ordenadores constituyen la mayor conquista técnica. Conceptos procedentes de la informática, como acceso directo, feedback, procesamiento de la información, memoria a corto y largo plazo, etc, se aplican con naturalidad a la psicología cognitiva y ayudan a describir aspectos concretos de la actividad mental. En el siglo XVII, el paradigma real era el mecánico: muelles para los relojes y el agua o el viento como las fuerzas que impulsaban la tecnología de punta de la época. Consecuentemente, Descartes se basó en los modelos mecánicos para explicar la conducta y el funcionamiento mental. Le fascinaban los autómatas o figuras móviles, muy comunes en las fuentes de los jardines y que merced a los principios hidráulicos, cambiaban de posición por la fuerza del agua, ejecutaban movimientos de cierta complejidad e incluso cantaban; o los muñecos mecánicos de las tiendas de las ciudades y los complicados mecanismos de relojería que los movían. Descartes consideró que los animales eran también autómatas, una especie de mecanismos de relojería naturales, cuya única diferencia era que estaban hechos de otros materiales -órganos y partes del cuerpo- y, eso si, con maquinarias más complejas, así lo explicaba en su discurso del método en 1637:

Su conclusión fue que el proceso de analizar la realidad hasta sus constituyentes más elementales nos llevaría a topar con verdades inmediatamente evidentes para nuestro espíritu. Estas verdades son las naturalezas simples. La labor del estudioso es distinguir lo simple de lo complejo para poder descomponer esto último y enfrentarse siempre a las naturalezas simples, que son las que hacen posible el conocimiento.

"...- - - lo cual no parecerá de ninguna manera extraño a los que, sabiendo cuántos autómatas o máquinas semovientes puede construír la industria humana, sin emplear sino poquísimas piezas en comparación de la gran muchedumbre de huesos, músculos, nervios, arterias, venas y demás partes que hay en el cuerpo de un animal, consideren este cuerpo como una máquina que, por ser hecha por manos de Dios, está incomparablemente mejor ordenada y posee movimientos más admirables que ninguna otra de las que puedan inventar los hombre..."

Las personas también son maquinarias, pero con una diferencia esencial: tienen alma. Descartes creía que los espíritus animales se formaban de la glándula pineal que sitúo erróneamente en el interior de un ventrículo. Según el filósofo francés, esta glándula que ya era conocida desde la antigüedad y recibía ese nombre por su parecido a un piñón, pendía libremente en la cavidad del ventrículo y estaba tapizada toda ella de finísimos conductos que filtraban la sangre y destilaban los espíritus animales.

"Si alguien dispara rápidamente su mano contra nuestros ojos, como para pegarnos, aunque sepamos que es nuestro amigo, que sólo hace eso en broma y que se guardara muy bien de causarnos mal alguno, no es sin embargo muy difícil no cerrarlos; lo que demuestra que no se cierran por intervención de nuestra alma, puesto que ello ocurre contra nuestra voluntad, sino que se cierran porque la máquina de nuestro cuerpo está construida de tal modo que al movimiento de esa mano hacia nuestros ojos provoca otro movimiento en nuestro cerebro, que conduce los espíritus animales a los músculos que hacen bajar los párpados..."

... Y por último, lo que hay de más notable en todo esto, es la generación de los espíritus animales, que son como una purísima y vivísima llama, la cual asciende de contínuo muy abundante desde el corazón al cerebro y se corre luego por los nervios a los músculos y pone en movimiento todos los miembros...Similarmente puedes haber observado en las grutas y fuentes en los jardines de nuestros reyes que la fuerza que hace el salto de agua desde su origen es capaz por sí misma de mover diversas máquinas o incluso hacerles tocar ciertos instrumentos o pronunciar ciertas palabras según las varias disposiciones de los tubos por los que el agua es conducida...

Y verdaderamente, uno podría comparar muy bien los nervios de la máquina que estoy describiendo (el cuerpo) a los tubos de los mecanismos de estas fuentes, sus músculos y tendones, a los diversos otros dispositivos y muelles que sirven para mover estos mecanismos, sus espíritis animales, al agua que conducen. El corazón es la fuente y las cavidades del cerebro, el acueducto principal...

En este sentido, Descartes se considera que fue el primero que hizo una descripción detallada del reflejo nervioso, aunque sin designarlo con ese término.

Dualismo cartesiano

Descartes es muy citado desde la neurociencia y la filosofía de la mente como paradigma de la concepción dualista del ser humano. Desde su punto de vista, el mundo se compone de dos clases de sustancias radicalmente distintas: la materias y el espíritu. (Res extensa y Res cogitans). La mente (alma) sería algo con existencia propia, una entidad separable del cuerpo. El cuerpo sin la mente es sólo una máquina, un autómata muy perfecto pero vacío, al igual que el de los animales. Descartes entiende que la mente y el cuerpo son entidades distintas pero deben estar íntimamente unidas y es precisamente en la glándula pineal donde - en su opinión - tiene lugar la profunda unión entre ambos. Hoy sin embargo, se sostiene un monismo básico: no hay por así decirlo, dos clases de átomos o elementos, unos "físicos" y otros dotados de "mente". La ciencia enseña que la mente es una función del cerebro y el cerebro es un órgano - eso sí, muy complejo - constituido por los mismos elementos básicos que el resto de los órganos y objetos del universo. Por lo que se sabe, dejando a un lado cualesquier creencia, la mente no es una entidad flotante separable del cuerpo. Cuando el cerebro muere y se descompone, desaparece todo vestigio de conducta y actividad mental de esa persona o animal; eso es lo que enseña una y otra vez la experiencia de la vida, generación tras generación sin excepciones. Si el cerebro se deteriora por alguna enfermedad neurodegenerativa, también se asiste, desgraciadamente a la paulatina disolución de la personalidad y de la función mental del enfermo. La mayor parte de la comunidad científica está de acuerdo en que la mente es producto del funcionamiento del cerebro, es decir, no acepta dualidad cartesiana de cuerpo y mente como entes disgregables con existencias propias. En esta dirección es ilustrativo el título que el neurocientífico Antonio Damasio, premio Príncipe de Asturias de 2005, escogió para uno de sus libros más celebres: "El error de Descartes". Sin embargo, en honor a la verdad, hay que decir que el rechazo del dualismo no es unánime. Algunas figuras prominentes, como el filósofo Karl Popper, el neurofisiólogo y premio Nobel, John Eccles, han defendido el dualismo durante toda su vida, pero esto es la excepción.

En cierto modo, la historia del cerebro es una historia paralela a la idea de la vida. Hace 200 años parecía inconcebible que la materia viva fuera de la misma clase que la inerte, se creía en la existencia de elan o una fuerza vital que confería a los seres vivos una naturaleza distinta. Ahora se sabe que los seres vivos se constituyen de ácido desoxirribonucléico (ADN) y amino ácidos formados por átomos de carbono, oxigeno,nitrógeno, azufre, etc. La diferencia en la especie humana y animal, radica en la organización de dichos elementos: la materia viva de los mismos ingredientes que la inerte pero organizados y combinados de un modo mucho más complejo.

Fin de los "espíritus animales".

Durante el siglo XVII, el largo reinado de los espíritus animales comenzó a tambalearse y en unas décadas cayó definitivamente. Al intentar explicarlos desde las leyes físicas de la hidrodinámica, se los vio con una miarda cada vez más naturalista y esto fue su sentencia de muerte porque sencillamente las observaciones no coincidían con lo que cabía esperar. Por ejemplo si los espíritus animales circulaban dentro de los nervios huecos, estos no se mostraban huecos por ninguna parte. Leuwenhoek, el gran pionero microscopista, por más que lo intentara no conseguía encontrar el orificio del nervio óptico de una vaca, pese a que Galeno había asegurado que era perceptible e incluso a simple vista. Si se ligaba un nervio con fuerza, no se hinchaba por la presión de los espíritus. El biólogo holandés Jan Swammerdam (1637-1680) llevó a cabo lo que algunos consideran uno de los experimentos más importantes del siglo XVII. Demostró de manera incontrovertible que cuando los músculos se contraen, éstos no aumentan de volumen por la llegada de espíritus animales a la masa muscular, siendo este un aspecto clave en la hipótesis espiritual. No debe olvidarse según Descartes, que los espíritus animales tenían una realidad material.

En este contexto, los últimos coletazos de los espíritus animales se producen en el siglo XVII, y René Descartes (1596-1650) sería uno de los últimos en defender su existencia, pero ahora con un aire nuevo, contemporáneo, propio de la Edad moderna. No realiza experimentos ni disecciones, es fundamentalmente un pensador y sus reflexiones apuntan a aspectos centrales del dilema "cuerpo-mente". Pretende explicar en funcionamiento de los espíritus animales de acuerdo con el conocimiento tecnológico de la época y esto supone, en realidad, un gran paso hacia su abandono definitivo.

Dualismo cartesiano
Dualismo cartesiano

PRIMER ACTIVIDAD DE APRENDIZAJE:  Elaborar un mapa conceptual en el que se aborden de manera breve pero concreta, las principales teorías sostenidas por René Descartes en sus conceptos de la Res Extensa y la Res Cogitans.

Las actividades deberán remitirse al correo: actividades@institutosuperiordeneurociencias.org a más tardar el día 12 de julio.

Los alumnos del GRUPO 3 de Neurología de la conducta y Neurocardiología, podrán remitir sus actividades hasta el día 27 de julio.

Los alumnos del GRUPO 3 de Neuropsicología Infantil podrán remitir sus actividades hasta el día 31 de julio.

Los alumnos del GRUPO D de Biopsicología, podrán remitir sus actividades hasta el día 9 de agosto

LECTURAS RECOMENDADAS descargables en PDF

UNIDAD 1.- ANTECEDENTES HISTÓRICOS. PARTE II. 

Electricidad animal.

Si los músculos del cuerpo no se contraen por la acción de unos misteriosos espíritus animales, como había demostrado Swammerdam, ¿cual es la causa entonces de su movimiento que tan dócilmente sigue la voluntad del cerebro?. El holandés comprendió que la ciencia de su época no podía resolver es dilema y confesó  impotente que la respuesta "se entierra en la impenetable oscuridad". Habría que esperar casi un siglo hasta los decisivos experimentos de Galvani.

En el siglo XVIII se puso de moda la electricidad estática generada por grandes máquinas de fricción. Inicialmente la máquina más común era una gran bola de azufre que se hacía girar en torno a un eje, mientras se colocaba una mano sobre ella; después se sustituyó por ruedas de vidrio y otros materiales más efectivos. El caso es que la persona quedaba tan cargada de electricidad, que causaba un tremendo chispazo al tocar cualquier objeto.

Junto a esto, la invención de la denominada "botella de Leyden" permitió almacenar la electricidad para uso futuro. En la alta sociedad de aquellos años era común un juego que  consistía en formar un círculo de personas cogidas de la mano y una botella Leyden en el extremo; cuando el círculo se cerraba, todos experimentaban una violenta pero inofensiva descarga. En los mercados, algunos tipos hacían demostraciones matando pajarillos o pequeños ratones de un chispazo. La nueva fuerza tenía también una propiedad asombrosa: era capaz de agitar piernas y brazos paralizados durante años; así que no es extraño que le atribuyeran virtudes casi milagrosas en su época, que el tiempo se encargaría de desmentir.  En ese ambiente del siglo de las luces, y una vez descartada la hipótesis de los espiríutus animales, los fisiólogos pensaron que talvés era electricidad lo que secretamente recorría los nervios para mover el cuerpo. Pero una cosa era plantear esa vaga posibilidad y otra demostrarlo de modo irrefutable como lo hizo Galvani.

Luigi Galvani (1737-1798) profesor de anatomía en la Universidad de Bolonia, llevó a cabo una serie de largos experimentos que no publicaría sino hasta 10 años después en su libro de 1791 "De viribis electricitattis in motu musculari: commentarius (Comentario sobre el efecto de la electricidad en el movimiento muscular). En lugar de la universidad, prefirió montar el laboratorio en su propia casa -como también harían Cajal y otros científicos - y ahhí dispuso de una amplia dotación de artilugios eléctricos -máquinas de fricción y botellas de Leyden - y la inestimable ayuda de su sobrino. Galvani empleó decenas de ranas en múltiples ensayos para corrobora su idea de que existía una electricidad propia del animal, probablemente generada en el cerebro que recorría los nervios y movía los músculos. Observó  que las preparaciones frescas de ancas de rana se contraían por acción de la chispa eléctrica de una máquina de fricción o incluoso por la electricidad ambiental en un día de tormenta. Finalmente, el experimento más contundente, fue, a su vez, el más sencillo. Tomó  un anca de rana recién muerta y estiró bien su nervio ciático hasta que lo puso en contacto con el propio músuculo del muslo y ¡sorpresa! el anca se contraía visiblemente sin necesidad de electricidad exterior. También obtuvo el mismo resultado al poner con contacto el nervio de una preparación con el nervio de otra. De esta manera, demostró que el fluido eléctrico procedía del interior del animal y que ese era el enigmático elemento que viajaba por los nervios y accionaba los músculos.

Con la llegada del renacimiento europeo y el inicio de la Edad moderna, se torna a la observación de la naturaleza y a la tabla de disecciones. Son tiempos de grandes cambios en los que se cuestionan creencias sacralizadas durante siglos.

Retrato de Luigi Galvani (1737-1798)

UNIDAD 1. ANTECEDENTES HISTÓRICOS. PARTE III. LA CORTEZA CEREBRAL Y LOS DEBATES SOBRE SU FUNCIÓN

Hoy se conoce que los procesos cognitivos más complejos se asientan sobre redes neuronales en las que participa de  modo fundamental la corteza o córtex cerebral. Durante el siglo XVIII, y antes, a esta envoltura gris rosácea se le consideró una mera e insignificante "corteza o revestimiento" que es el sentido que tiene la palabra córtex en latín. En el siglo XIX se comienza a comprender su importancia y podría afirmarse que, este es el siglo de la corteza cerebral y de los acalorados debates en torno a su función. Hay un eje de discusión que recorre la centuria, que es el entablado entre los localizacionistas, convencidos de que cada función mental se localiza en un lugar específico de la corteza y los holistas que ven a la corteza como un todo indiferenciado.

LA FRENOLOGÍA.

A principios del siglo XIX surgió  la denominada frenología, un movimiento - no clasificado como ciencia - fundado por el alemán Franz Joseph Gall (1758-1828) que ejercía una enérgica influencia a lo largo de los años siguientes. Apareció en un contexto repetitivo, una época en la que estaba en boga la fisiogmomía o arte - tampoco considerado como ciencia - de adivinar los rasgos de la personalidad a través de las características físicas de la cara y el cuerpo. Actualmente puede afirmarse en el terreno de la ciencia de las diferencias individuales, la correlación matemática entre rasgos físicos y rasgos psicológicos, es en general muy baja prácticamente nula, pero en aquella época la gente tendía a otorgar carta de naturaleza a esa convicción legitimada por "expertos" con pretensiones científicas. Sirva de anécdota que Darwin estuvo a punto de no embarcar en el Beagle porque al capitán Fitz-Roy no le gustó su nariz y temía que careciera, según los manuales, de la energía y determinación suficientes para el viaje. Quizá la historia científica de la evolución habría sido distinta por culpa de un apéndice nasal.

Franz Joseph Gall menospreciaba a la fisiognomía según él por ingenua y acientífica, pero desgraciadamente, incurrió también en el mismo error. El termino frenología procede del griego phrenos "mente" y logos "conocimiento" para designar a una ciencia de la mente. Este nombre lo introdujeron después sus seguidores, porque Gall siempre se refirió a su "ciencia" como "organología" o "tratado de los órganos de la mente". Partía del supuesto de que el aspecto de la cabeza informaba sobre las capacidades y personalidad del individuo. Veía al cerebro como un mosaico de órganos especializados en distintas funciones psicológicas, y el mayor o menor desarrollo de cada uno de estos órganos se reflejaba en la forma craneal. Así con una cuidadosa inspección del cráneo - craneoscopía - tomando medidas y observando los distintos abultamientos y prominencias, el frenólogo creía identificar la inteligencia y los rasgos psicológicos de cualquier persona. Gall propuso un listado de 27 funciones mentales localizadas en sitios muy concretos del cerebro. 19 de las cuales eran comunes a animales y seres humanos y ocho eran exclusivas de estos últimos.

Facultades mentales según la frenología

Compartidas por seres humanos y animales

1.- Instinto reproductor

2.- Amor por los hijos

3.- Afectividad o amistad

4.- Instinto de autodefensa o coraje

5.- Destructividad, instinto carnívoro o tendencia al asesinato

6.- Astucia

7.- Deseo de poseer cosas

8.- Orgullo

9.- Vanidad o ambisión

10.- Circunspección o cautela

11.- Memoria para hechos o cosas

12.- Sentido del lugar

13.- Memoria para palabras

14.- Memoria para personas

15.- Sentido del lenguaje

16.- Sentido del color

17.- Sentido de los sonidos o la música

18.- Sentido de los números

19.- Sentido de la mecánica o arquitectura

Exclusivas de los seres humanos

20.- Juicio

21.- Sentido de la metafísica

22.- Sátira e ingenio

23.- Talento poético

24.- Amabilidad y benevolencia

25.- Imitación

26.- Sentimiento religioso

27.- Firmeza de propósito

Por ejemplo, si un ladrón tendía a reincidir, Gall hallaba que su cráneo tenía muy desarrollada la zona de la función de adquirir o poseer cosas, esto lo complementaba con observaciones ocasionales en animales, por ejemplo, en una mascota que mostraba tendencia a comer cómoda "robada". Al comparar la cabeza de una madre amorosa con sus hijos y la de una mujer descuidada con los suyos, observaba que la de ésta última tenía la parte posterior menos prominente, que era donde supuestamente se alojaba en instinto reproductor y el amor filial.

Franz Joseph Gall visitaba prisiones y asilos para inspeccionar las peculiaridades craneales de ladrones, asesinos, lunáticos o deficientes mentales. También estudiaba las cabezas de personas brillantes que habían destacado en alguna cualidad. A los casos clínicos de enfermedad los consideraba poco valiosos por su carácter atípico y fortuito, pero si un paciente confirmaba sus ideas no dudaba en incluirlo como una prueba más. Gall sentía una verdadera pasión por la colección de cráneos; en París, llegó a reunir cerca de 300 de ellos, junto a un centenar de moldes de personas vivas. En su opinión, constituían un verdadero libro abierto que lo reafirmaba en sus convicciones. En ciertos círculos se bromeaba que al morir había de asegurarse de que el frenólogo no despojaría de la cabeza al cadáver de uno, por lo que hubo quien dejó escrita en el testamento, la prohibición de efectuar tal cosa. Cuando Gall falleció de un ictus en 1828, su cráneo pasó a engrosar la colección por expreso deseo suyo. La frenología arraigó durante las primeras décadas del siglo XIX, tanto entre las clases populares como en los circuitos intelectuales. El mismísimo Darwin fue diagnosticado por frenólogos según cuenta en su autobiografía.

"Si se puede confiar en los frenólogos, yo era idóneo en cierto sentido para ser clérigo. Hace unos años, los secretarios de una sociedad psicológica alemana me pidieron con toda seriedad por carta una fotografía. Algún tiempo después recibí las actas de una de sus reuniones en la cual se había debatido, al parecer, públicamente, sobre la forma de mi cabeza y uno de los ponentes había declarado que "tenía la protuberancia de la reverencia suficientemente desarrollada como para diez sacerdotes" (Darwin, 1887) (cursiva del autor).

Se afirmaba esta característica precisamente de él que, a lo largo de su vida y a medida que avanzó en el conocimiento de la naturaleza, fue derivando hacia un profundo agnosticismo. 

En primer lugar se demostró que el cráneo no reflejaba en absoluto la forma del cerebro, ni siquiera su tamaño. En segundo lugar, el método de Gall no fue riguroso y se basó en observaciones casuales que aceptaba caprichosamente en la medida que cumplían sus expectativas, y cuando no era así, las rechazaba con cualquier pretexto. Es decir, el método no estuvo al servicio de la verdad de los datos, sino al de unas ideas preconcebidas. A su más firme oponente, el académico francés Pierre Flourens (1794-1867), la Academie des Sciences le encargó poner a prueba las hipótesis de frenológicas mediante una metodología rigurosamente científica. Flourens inició en 1820 una larga serie de experimentos con animales, sobre todo, ranas, palomas, gallinas y otras aves y no halló rastro de especialización cortical, aunque hoy se sabe que la razón de ello es que estudió especies que no tienen la corteza poco desarrollada.

Como se señala en Breve historia del cerebro (antes mencionada), en este recorrido histórico se hace evidente una situación paradójica: un hombre, Gall, con una de base cierta - diferenciaciones funcionales en la corteza cerebral - pero común método acientífico es alejado de todos los estándares metodológicos, mínimamente exigibles, frente a un hombre con una metodología impecable, Flourens, pero cuya premisa básica - indiferenciación cortical - el futuro revelaría errónea. La moraleja de todo este asunto es que lo único que permitió avanzar, fue ciertamente, la metodología científica y rigurosa.

Si hoy se reconoce que la idea básica de la frenología - especialización funcional - de diferentes áreas de la corteza cerebral - no era descabellada, la aplicación de una metodología a científica y sesgada condujo a tesis totalmente erróneas que acabaron en el descrédito.

LOCALIZACIÓN DEL LENGUAJE:

En 1861, el neurofisiólogo francés, Pierre-Paul Broca (1824-1880) publicó lo que a juicio de muchos autores sería el informe clínico más importante del siglo XIX. En su publicación se demostró que hay una parte del cerebro especializada en las funciones lingüísticas, de manera que, si se lesiona, el habla desaparece o queda gravemente afectada (afasia de Broca). Esta historia se ha contado en innumerables ocasiones. El informe trataba de Leborgne, un paciente de 51 años transferido al servicio quirúrgico de Broca, en el hospital parisino Bicentre. Durante años había sufrido una parálisis de la mitad derecha del cuerpo junto a una llamativa incapacidad: no podía hablar, aunque oía bien y parecía entender el lenguaje. Se le conocía como "Monsieur Tan" o "Tan-Tan" porque era lo único que lograba pronunciar. Cuando Leborgne ingresó, su estado ya era crítico y murió una semana más tarde. Al practicarle la autopsia, Broca encontró una lesión importante en su cerebro, propiamente en el lóbulo frontal del hemisferio izquierdo. Presentó sus observaciones a la "Societé d´ Anthropologie" de la que era fundador y concluyó que esa lesión  era el origen de su incapacidad de hablar. El cerebro de Leborgne se conserva hasta hoy en el museo Dupuytren en País. 

El informe de Broca tuvo un impacto  científico y supuso un fuerte apoyo a las tesis localizacionistas porque demostraba claramente una localización cortical para una función específica. Sin embargo no era la primera vez que se relacionada "la pérdida del habla" con un daño cerebral. ¿Por que entonces resultó tan relevante?.

El historiador norteamericano y profesor emérito en psicología Stanley Finger propone cuatro razones:

a) Broca aportó  más información detallada que la ofrecida en casos anteriores; 

b) Broca delimitó su área del habla en una zona cortical muy distinta a las propuestas en casos anteriores;

c) Es espíritu de los tiempos había cambiado y, la comunidad científica esa más proclive a distinguir entre el sistema desacreditado de los "bultos" en el cráneo propuestos por los frenólogos décadas atrás y el nuevo enfoque de estudiar las lesiones del cerebro; y

d) La propia credibilidad de Broca, él no estaba  personalmente implicado en el debate localizacionista - holista y gozaba de un gran prestigio; no era un hombre impulsivo y defendía con firmeza sólo aquello de lo que estaba absolutamente seguro, por lo que se le percibió como un juez imparcial.

En los años posteriores al informe sobre  "Monsieur Tan", Paul Broca documentó varios casos adicionales que presentaban la misma zona lesionada, hoy conocida como -Área de Broca- y los mismos síntomas de pérdida o dificultad del habla. Todos ellos tenían la lesión en la parte izquierda del cerebro, de modo que, se puso de manifiesto la especial importancia que el hemisferio izquierdo tiene para el lenguaje en la gran mayoría de las personas.

Poco tiempo después, un neurólogo alemán de origen polaco, Carl Wernicke (1848-1905) refirió un nuevo tipo de trastorno del lenguaje causado también por daño cerebral. En este caso, la lesión se situaba más atrás, en el lóbulo temporal izquierdo, en una zona próxima al área auditiva, en donde el paciente mostraba síntomas muy distintos a los observados por Broca: dificultades graves de comprensión verbal. El informe constituyó la primera descripción clínica de los que hoy se denomina "afasia de Wernicke", en la que el enfermo, sin padecer sordera, no entiende lo que se le dice.

LOS EXPERIMENTOS DE BERLÍN:

El descubrimiento de la corteza motora.

Los casos clínicos de Broca y de otros neurólogos indicaban la existencia  de una zona en la corteza cerebral encargada del lenguaje humano. Este hallazgo apuntaba en la dirección de que quizá la corteza tuviese lugares particulares o localizaciones para otras funciones específicas y no sólo para el lenguaje. Lo anterior era uno de los aspectos del debate localizacionista-holista, pero faltaba la prueba experimental definitiva más allá de los casos clínicos. La demostración se produjo en Berlín, gracias a los célebres experimentos del tándem formado por los alemanes Gustav Fritsch (1838-1927) y Edward Hitzig (1838-1907), quizá los experimentos más importantes del siglo, en opinión muy extendida. Evidentemente, tratándose de ensayos sobre el cerebro, el sujeto forzosamente no tenía que ser humano. Adscritos al Instituto Fisiológico de Berlín y al no disponer esta institución de espacios y medios para animales, Hitzig ofreció su casa y habilitó una habitación como laboratorio para trabajar con perros. Buscaban descubrir alguna región cerebral que fuera responsable de los movimientos del animal y cuya existencia era materia de encendidas discusiones. La idea era acceder al cerebro canino (retirando fragmentos del cráneo) estimular con un electrodo  diversos puntos de la superficie y advertir si se obtenía un efecto visible en algún lugar del cuerpo. Sabían que cuando la electricidad era muy intensa, ésta se extiende por toda la corteza y desata convulsiones generalizadas, por lo que se sirvieron de una batería de corriente contínua y ellos mismos ensayaban sobre su lengua la mínima intensidad galvánica capaz de dar un calambre. Todo esto se practicaba "en vivo" y los primeros ensayos transcurrieron sin anestesia, de suerte que no es difícil imaginar los aullidos y el sufrimiento del animal; posteriormente emplearían un anestésico. Tras repetidos intentos, encontraron unas zonas relativamente escondidas en la parte anterior del cerebro, que al estimularlas originaban movimientos corporales del lado opuesto. Además, los movimientos seguían cierto orden en un punto concreto, la estimulación causaba contracciones de la pata delantera; al excitar  otro punto cercano, se desataban espasmos en el cuello; en otro, aparecían en la parte trasera. Se iba dibujando así, una especie de mapa cerebral en el que estaban representadas, de forma grotesca, las diversas partes del cuerpo. Y estas sacudidas eran repetibles si se volvían a estimular los mismos sitios. De esta forma, la mancuerna constituída por Fritsch e Hitzig demostró a la comunidad neurocientífica la existencia de una zona motora, origen del movimiento corporal y ambos investigadores han pasado a la historia como sus descubridores.

Gustav Fritsch y Edward Hitzig

LA CORTEZA SENSORIAL.

No puede concluirse la referencia del siglo XIX sin destacar la importancia del trabajo del escocés David Ferrier (1843-1928) y sus trabajos con primates.

Mediante los procedimientos de la lesión experimental y la estimulación eléctrica cerebral, Ferrier buscaba descubrir una hipotética corteza sensorial o aquellas partes de la corteza que presumiblemente se encargarían de la información procedente de los sentidos. Al comparar distintas especies, Ferrier observó que cuanto más evolucionado era el animal  más claros y significativos parecían los resultados, por lo que centró su investigación en el animal más próximo al ser humano. De esa manera pudo identificar distintas áreas sensoriales de la corteza, entre ellas la "auditiva primaria" y confeccionar un conjunto de mapas funcionales reunidos en su magnífica obra de 1866 "The Functions of the Brain". La obra presentaba magníficos dibujos del cerebro de un mono con mapas de las zonas responsables de las distintas funciones. Tal era su confianza sobre la existencia de estos mapas también en las personas, que las mismas zonas aparecen extrapoladas sobre el dibujo de un cerebro humano, aunque aún no había constancia experimental de ello.

Célebres fueron sus brillantes debates en el Congreso Internacional de Londres en 1881 y su posterior peripecia judicial tras recibir la denuncia de una influyente asociación londinense que lo acusaba de quebrantar el acta contra la crueldad a los animales. El juicio levantó una gran expectación mediática y profesional porque ponía en la picota a toda la investigación neurocientífica con animales vivos y ocupó páginas en los principales diarios británicos entre ellos el Times, ante una opinión pública dividida. Un buen número de especialistas escribió artículos a su favor en revistas científicas de todo el mundo. Tras varias sesiones abarrotadas de médicos y periodistas, Ferrier fue absuelto pues demostró que usaba anestesia en sus operaciones y no infligía daño innecesario a los animales. Con toda seguridad, en la decisión judicial influyeron la existencia de casos clínicos que se habían beneficiado de sus "mapas funcionales" como así adujo la defensa. Eran pacientes cuyos cirujanos, siguiendo los hallazgos de Ferrier habían podido predecir la ubicación de un tumor o un absceso cerebral, y trepanar el cráneo directamente sobre la zona sospechosa. En 1878, Ferrier junto a su amigo  John Hughlings Jackson, fundó la prestigiosa revista "Brain" que hoy continúa siendo una de las publicaciones de mayor impacto mundial en su ámbito.

Durante el siglo XIX se barajó la idea de que el cerebro tenía distintas partes identificables que probablemente podrían llevar a cabo diferentes funciones: la percepción, la emoción o el lenguaje se podían localizar en sistemas neurales anatómicamente diferenciados.

EL SIGLO XX. LAS NEURONAS Y LA QUÍMICA CEREBRAL

Hasta el siglo XIX, los principales avances sobre el cerebro se referían sobre todo a su estructura macroscópica, la que puede verse a simple vista. Al pasar al siglo XX, los interrogantes se tornaron más ambiciosos y el progreso de la microscopía y las técnicas de tinción abrieron nuevas posibilidades en el estudio de su estructura íntima. Es el siglo en el que se reconoció a la neurona como la unidad fundamental del sistema nervioso, la pieza básica que compone el cerebro así como los nervios de animales y personas.

A finales del siglo XIX, los anatomistas miraban perplejos las complicadas formas de las células nerviosas y, sobre todo, la intrincada maraña de filamentos que las rodeaba o procesos como se les denominaba. En ese tiempo ya era conocida la célula y se aceptaba la teoría celular de los seres vivos, pero existía el convencimiento de que el sistema nervioso era distinto y no se ajustaba a dicha teoría. Esta confusión nacía de dos problemas, primero no estaba claro si los largos axones y las más cortas pero ramificadas dendritas, visibles al microscopio, tenían algo que ver con los cuerpos celulares de las neuronas; estaba aún menos claro si ambos tipos de filamento se originaban desde una célula individual; En segundo lugar, los fisiólogos no podían visualizar la membrana de las células nerviosas, de manera que el sistema nervioso se presentaba como una inmensa red sin separaciones internas. El impulso nervioso correría libremente por aquella estructura reticular, y ésa era la explicación dominante -Teoría reticular- hacia el cambio de siglo.

Tan pronto como en 1873, un reticulista convencido tropezó con un hallazgo fortuito que habría de revolucionar la microscopía. El médico italiano Camilo Golgi (1843-1926) trabajaba en un hospital cercano a Milán y dedicaba parte de su tiempo a la investigación básica; cierto día se le ocurrió ensayar sobre las preparaciones nerviosas un nuevo procedimiento de tinción basado en el nitrato de plata. Sucedió en la humilde cocina del hospital habilitada como laboratorio y Golgi nunca explicó cómo le vino la idea de usar dicha sustancia, un material sensible a la luz que se estaba empezando a aplicar en la fotografía. Endureció sus muestras con dicromato potásico y luego las introdujo en una solución de nitrato de plata durante 2 o 3 días; finalmente las trató con baños de alcohol y aceites, las lavó y cortó en láminas para el portaobjetos. Cuando Golgi miró a través del microscopio, descubrió estupefacto que el nitrato de plata propiciaba una enorme "reazione nera" (reacción negra) que mostraba a las células  y los afilados filamentos en un negro intenso sobre un fondo amarillo ámbar con una nitidez tan extraordinaria que parecían delicados dibujos de tinta china.

Empleando su método, Camillo Golgi identificó una clase de célula nerviosa, bautizada con su nombre, dotada de unas extensiones (o dendritas) mediante las cuales conectaba entre sí otras células nerviosas. 

Continuó su detenido examen de las células nerviosas, obteniendo pruebas de la existencia en la célula de una red irregular de fibrillas, cavidades y gránulos (denominada aparato de Golgi) que desempeña un papel esencial en operaciones celulares tan diversas como la construcción de la membrana, el almacenamiento de lípidos y proteínas o el transporte de partículas a lo largo de la membrana celular.

Entre 1885 y 1893 se dedicó al estudio del paludismo, obteniendo, entre otros, resultados tan importantes como la distinción entre el paludismo terciano y cuartano en cuanto patologías provocadas por dos especies diferentes de un mismo protozoo parásito denominado Plasmodium, y la identificación del mencionado acceso febril como originado por la liberación por parte de dicho organismo de esporas en el flujo sanguíneo. En 1906 compartió con Ramón y Cajal el Premio Nobel de Fisiología y Medicina.

Años más tarde, el médico español Santiago Ramón y Cajal (1852-1934) introdujo algunos cambios en el método de tinción de Golgi que potenciarían notablemente su eficacia. Por algún motivo, hasta hoy desconocido, la "reacción negra" ocurre sólo en unas pocas neuronas -menos del 1% del total- lo cual es algo favorable, ya que si todas reaccionaran de la misma manera en la preparación, se obtendría una gran mancha obscura inservible. Sin embargo, esta propiedad representa un inconveniente: le confiere al método cierta impredictibilidad, porque el investigar no puede decidir de antemano que células y cuantas van a reaccionar. Esta circunstancia había frustrado a muchos investigadores y cuando Cajal tuvo noticia de la técnica, 14 años después, ésta había pasado relativamente inadvertida. 

Cajal comprobó que se obtenían mejores resultados si los cortes histológicos eran más gruesos -doble impregnación- lo que le permitió observar como se conectaban dos o más células. Al ver las imágenes espectaculares que se obtuvieron, no pudo reprimir el impacto que le causaron y así lo refirió en uno de sus libros más importantes intitulado "Textura del sistema nervioso del hombre y los vertebrados":

"Espectáculo inesperado: sobre un fondo amarillo perfectamente traslúcido aparecen desparramados filamentos negros lisos y delgados o espinosos y espesos; cuerpos negros, triangulares estrellados, fusiformes. Se diría que se trata de dibujos en tinta china sobre un papel transparente del Japón. El ojo está desconcertado, aquí todo es sencillo, claro, sin confusión, ya no es necesario interpretar, sino ver y constatar".

Cajal emprendió un estudio sistemático de la estructura íntima del sistema nervioso y tuvo una idea inteligente: trabajar sobre embriones y animales jóvenes. El compuesto de plata actúa mejor sobre los nervios desprovistos de la envoltura grasa de mielina y las neuronas destacan mucho más. Así reflexionaba en su autobiografía "Recuerdos de mi vida" de 1917:

"Puesto que la selva resulta impenetrable e indefinible, ¿por qué no recurrir al estudio del bosque joven, como si dijéramos en estado de vivero? Escogiendo bien la fase evolutiva (del embrión) las células nerviosas, relativamente pequeñas, destacan íntegras dentro de cada corte; las ramificaciones terminales del cilindroeje dibujándose clarísimas y perfectamente libres; los nidos pericelulares (...) aparecen sencillos, adquiriendo gradualmente intrincamiento y extensión; en suma, surge ante nuestros ojos, con admirable claridad y precisión, el plan fundamental de la composición histológica de la sustancia gris".

Cajal comenzó de este modo la increíble colección de dibujos que hoy se conoce, ejecutados a tinta china con una precisión y maestría geniales. Estudió cerebelos de aves, retinas, bulbos olfativos, cortezas, troncos cerebrales, médulas espinales y siempre encontraba el mismo patrón pese a la enorme variedad de formas neuronales. Dendritas y axones forman parte de un único cuerpo celular y son independientes de las dendritas y axones de otras neuronas; no hay, por lo tanto, continuidad, sino contigüidad entre elementos próximos pero distintos. Por más que buscó, no halló evidencia de que las conexiones se fusionaran en una red contínua. Fue surgiendo así un cuadro mucho más ordenado y comprensible del sistema nervioso: ahora se mostraba constituido por células nerviosas individuales, cada una con un cuerpo celular y sus propias conexiones; ya no era una colección de núcleos perdidos en una confusa maraña de filamentos. En palabras de un contemporáneo suyo, gracias Cajal "El bosque impenetrable del sistema nervioso se ha convertido en un parque regular y deleitoso".

¿Como dar a conocer al mundo los descubrimientos obtenidos de sus magníficas preparaciones?

Para aquel entonces, Cajal casado con doña Silveria Fañanás García con quien había procreado 7 hijos, era catedrático en la Universidad de Barcelona, pero era un hombre realmente con pocos recursos económicos, los cuales provenían de la cátedra. 

En el otoño de 1889 se celebraría en Berlín, Alemania el congreso más importante del mundo en su especialidad "Histología y Anatomía patológica" que reuniría a la élite de la anatomía mundial. El médico español consideró que sería una buena oportunidad para mostrar sus descubrimientos. Cajal no hablaba alemán, sólo un poco de francés, lo cual invariablemente dificultaría su comunicación con otros especialistas en aquel congreso.

Tras solicitar permiso del rector de la Universidad de Barcelona para asistir a dicho congreso, Cajal viajo a Berlín con el dinero de todos sus ahorros y con su microscopio bajo el brazo. Viajó en un vagón de tercera y se hospedó en un hostal de tercera en Berlín. El propio Cajal hace referencia de lo acontecido en su autobiografía al mencionar:

"Obtenido el permiso del rector (...) para tomar parte en las tareas del susodicho Congreso, reuní todos mis ahorros y me encaminé lleno de esperanzas a la capital del imperio germánico. (...) Desde muy temprano me instalé en la sala laboratorio ad hoc, donde en largas mesas y enfrente de amplios ventanales, brillaban numerosos microscopios. Desembalé mis preparaciones, requerí de dos o tres instrumentos amplificantes, además de mi excelente modelo Zeiss, traído por preparación, enfoqué los cortes más expresivos concernientes a la estructura del cerebelo, retina y médula espinal y en fin, comencé a explicar en mi pésimo francés ante los curiosos el contenido de mis preparaciones. Algunos histólogos me rodearon, pocos, porque según ocurre en tales certámenes, cada congresista atiende a lo suyo: después de todo, natural es que se prefiriera enseñar lo propio que examinar lo ajeno"


Cajal añade en su autobiografía que: "a los científicos extranjeros presentes en aquel Congreso “les chocaba, sin duda, encontrar un español aficionado a la ciencia y espontáneamente entregado a las andanzas de la investigación.”

Tal vez por ello, pocos de estos sabios, por entonces celebridades mundiales, atendían a sus explicaciones, y los que más o menos atendían, lo hacían con escepticismo… sin duda esperaban un fiasco…

Hasta ese momento, nada fuera de lo habitual estaba ocurriendo, Cajal debía ingeniárselas para llamar la atención de los asistentes, mayoritariamente figuras de prestigio mundial, entre quienes resaltaba Albert Kölliker uno de los más grandes anatomistas de la época, el patriarca de la anatomía alemana. Es justo en ese momento cuando Cajal abriéndose paso entre las multitudes se acerca a Kölliker, lo toma del brazo y literalmente lo arrastra hasta un rincón de la sala donde se encuentra su microscopio…y hablándole en su pobre francés, Cajal le explica a Kölliker sus investigaciones y descubrimientos mientras éste atendía a las mismas y observaba con asombro el microscopio con las muestras que el joven científico español había preparado. Kölliker alzó la mirada y le preguntó: ¿pero quién demonios es usted?

Era un hecho insólito, tratándose de un desconocido procedente de un país que apenas contaba para la ciencia médica internacional. Y aquí es imperante señalar un alto detalle y consideración que ennoblece a la profesión científica ya que lo que Cajal mostraba era un mazazo a la posición favorable a la red nerviosa sostenida por el propio Kölliker quien no dudó en felicitarlo e hizo lo imposible por franquear la barrera idiomática e introducirlo en los círculos del congreso. Siendo Cajal un personaje desconocido casi anónimo, quizá otro hubiera aprovechado su prestigio y autoridad para orillarlo a un segundo plano, pero Kölliker hizo justo lo contrario, su amor por la verdad se impuso a sus planteamientos personales.

En los siguientes meses Kölliker confirmó las observaciones de Cajal con el nuevo método y no vaciló en abandonar públicamente su enfoque reticularista. Pero no sólo eso, a sus 72 años, decidió estudiar español para traducir las obras de Cajal al alemán. ¡chapeau por Kölliker! personas así son las que el mundo y la ciencia necesita. Desde luego, Cajal jamás lo olvidó y en reiteradas ocasiones expresó su gratitud hacia el alemán con quien lo uniría una estrecha amistad.

A partir de ahí y con apoyo de Kölliker, Cajal fue reconocido en todas las universidades, tanto en Europa como en América. En 1900 recibió el premio "Moscú", en 1905, fue condecorado con la medalla "Helmholtz" de oro macizo; en 1906 premio Nobel que compartió con Camilo Golgi.

Albert Kölliker

Santiago Ramón y Cajal demostró y aportó a la ciencia y el mundo varias cosas, pero fundamentalmente dos:

Que el sistema nervioso está conformado por células nerviosas individuales e independientes que se comunican entre sí, demostrando definitivamente la validez de la teoría neuronal del sistema nervioso. Las neuronas se conectan a través de sus terminaciones, pero conservan su individualidad.

Que las neuronas actúan como elementos polarizados (principio de polarización dinámica), de forma que el impulso nervioso es unidireccional: entra por las dendritas al cuerpo celular y sale por el axón. La disposición de las fibras le confirmaba invariablemente esta idea al comparar las neuronas de entrada -retinas y otros órganos sensoriales- con las neuronas motoras de salida. Este descubrimiento constituyó un avance gigantesco , porque permitió trazar circuitos neuronales siguiendo el flujo de la señal nerviosa, como así hizo Cajal con flechas en sus dibujos.

Documental sobre la vida y trabajo de Santiago Ramón y Cajal

Santiago Ramón y Cajal

En opinión de muchos autores, la aportación de Santiago Ramón y Cajal supuso el nacimiento de la neurociencia contemporánea, por una doble razón: era un paso de gigante hacia la comprensión del funcionamiento del cerebro y del sistema nervioso en su conjunto, pero, al mismo tiempo, sentaba las bases para todo el programa de investigación futura. En palabras de Albright et al. (2000, p. 53) "En contraste con la caótica visión del cerebro que surgía del trabajo de Golgi, Gerlach y Deiters, quienes concebían al cerebro como una difusa red nerviosa en la que parecía posible todo tipo imaginable de interacción, Ramón y Cajal centró su análisis experimental sobre la función más importante del cerebro: el procesamiento de información. Ahora ya era posible comenzar a poner orden en aquel laberinto inabordable e iniciar el estudio de circuitos nerviosos específicos. No falta quienes comparan el impacto de Cajal en la neurociencia con el de Darwin en la biología o el de la teoría cuántica en la física. Así pues, su premio Nobel de 1906 fue cumplidamente merecido.

Santiago Ramón y Cajal

Incidente en la entrega del Premio Nobel

Un día de octubre de 1906, Santiago Ramón y Cajal recibió un telegrama con un escueto mensaje en alemán. "Carolisnische Institut verliehen Sie Nobel-preiss". Se le concede el Premio Nobel de Fisiología o Medicina junto a Camilo Golgi en reconocimiento a sus trabajos sobre la estructura del sistema nervioso. Curiosamente, Golgi era oponente científico , porque aún defendía la vieja teoría reticularista. Más tarde Cajal confesaría: "Que cruel ironía del destino emparejar, como gemelos siameses unidos por sus hombros, a adversarios científicos de caracteres tan contrastados". Hay gran expectación durante la ceremonia, y en los discursos le corresponde a Golgi el primer turno. De pronto, los asistentes, incluido el propio Cajal quedan sorprendidos. Lo esperable era que Golgi disertara sobre su método de tinción y las posibilidades que abrió a la neurociencia y que pasara revista de sus propios hallazgos, pero en lugar de eso, se dedica a resucitar la difunta doctrina reticular del sistema nervioso y arremete brutalmente, sin venir a cuento, contra la teoría neuronal. Además de que no era el lugar para plantear una polémica, supuso una torpe descortesía hacia su compañero de ceremonia, tratándose del principal defensor de la teoría neuronal. Se habían logrado formidables progresos en las últimas décadas y prácticamente ya nadie sostenía el viejo planteamiento reticularista al que el propio Kölliker había renunciado, pero Golgi hablaba como si nada hubiera cambiado desde 1873 cuando descubrió su método. Es muy probable que Cajal se hubiese sentido incómodo, pero, elegantemente no lo exteriorizó. Cuanto tocó su turno, leyó el discurso que tenía preparado y no hizo alusión a las agrias palabras de Golgi. 10 años después, Cajal escribiría sobre este incidente: "Hizo gala (Golgi) de una altivez y egolatría tan inmoderadas, que produjeron deplorable efecto en la concurrencia y yo temblaba de impaciencia al ver que el más elemental respeto a las conveniencias me impedía poner oportuna y rotunda corrección a tantos vitandos errores y a tantos intencionados olvidos".

Representación del discurso de Ramón y Cajal durante la entrega del premio Nobel.

Camilo Golgi

Ramón y Cajal

IMPORTANCIA DE LA SINAPSIS Y LA QUÍMICA CEREBRAL

Gracias a Cajal se sabía que el sistema nervioso no era una red continua, sino un conjunto de neuronas individuales conectadas entre si. Los siguientes interrogantes serían ¿en que consiste la unión entre dos neuronas mediante sus fibras nerviosas (dendritas y axones)? y ¿ como el impulso nervioso pasa a través de ellas?

Charles Sherrington (1857-1952) uno de los neurofisiólogos más notables del siglo XX, comprendió la importancia de la sinapsis, como así bautizó a esa conexión (Del griego. σύναψις sýnapsis que significa 'unión, enlace'.) y su papel en la transmisión nerviosa y en la integración del sistema nervioso en su conjunto. La sinapsis actuaría como una especie de <válvula>", permitiendo el paso en un sólo sentido y según sus cálculos, dentro de ella ocurriría una <pérdida de tiempo>, es decir, se desmoronaba la señal nerviosa, por lo que hipotetizó certeramente sobre la existencia de un gap o un pequeñísimo hueco, imposible de ver hasta la llegada del microscopio electrónico. Sherrington recibió en 1932 junto a Edgar Adrian (1889-1977) el premio Nobel de Fisiología o Medicina por sus <descubrimientos sobre las funciones de las neuronas >.

Por su parte, la figura clave fue el fisiólogo inglés Edgar D. Adrian (1889-1977), quien compartiría el Premio Nobel con Sherrington en 1932. Londinense de nacimiento y formado en Cambridge, pronto dirigió su empeño a desvelar la naturaleza del minúsculo y escurridizo impulso de las neuronas. El reto era impresionante, dados los instrumentos disponibles en su época; así lo planteaba Adrian en sus propias palabras:

"El primer problema de la conducción es si el impulso nervioso es una cantidad variable, o si cada fibra única del sistema nervioso es siempre de la misma fuerza. La investigación de esta cuestión es de singular dificultad a causa de que el impulso es tan intangible. Si estimulamos un nervio motor y registramos la contracción del músculo que inerva, concluimos que ha pasado un impulso nervioso desde el origen de la excitación hasta el músculo; pero ¿cómo podemos tener un contacto más estrecho con ese impulso nervioso, para aprender algo más que el mero hecho de que ha pasado o no a través del nervio?"

"Queremos saber cómo varía el impulso en intensidad, si es más fuerte cuando el estímulo es más fuerte […] Sólo cuando podamos medir el impulso nervioso empezaremos a conocer los elementos de la conducción".
(Lucas K. The conduction of the nervous impulse. London: Green, 1917; p. 4.)

Esto sólo sería posible tras los avances electrónicos que se produjeron, lamentablemente, por causa de la Segunda Guerra Mundial; concretamente, la invención de la válvula de vacío un dispositivo capaz de amplificar miles de veces las señales eléctricas. Se trataba del mismo tipo de válvulas de las radios de nuestros bisabuelos, aquellos receptores que se calentaban y tardaban minutos en encenderse antes de empezar a funcionar.

Adrian se puso en contacto con el estadounidense Herbert Gasser de la Washington University en St. Louis y, gracias a sus indicaciones, pudo construir un amplificador de tres etapas al que incorporó un rudimentario tubo de rayos catódicos para visualizar las señales.

Con la ayuda de un becario, el joven sueco Zotterman, Edgar Adrian consiguió la hazaña de «auscultar» por primera vez a una neurona individual y observar en detalle la forma de su impulso nervioso. Trabajaban con nervios y músculos de rana, y Zotterman recordaría por escrito aquellos momentos:

"Bajo un fuerte estrés emocional, nos apresuramos a registrar la respuesta a diferentes grados de estimulación. Adrian corría arriba y abajo, controlando el aparato de registro en la habitación oscura y revelando las placas fotográficas. Estábamos excitados, los dos éramos conscientes de que eso que ahora veíamos nunca había sido observado antes y que estábamos descubriendo un gran secreto de la vida: cómo los nervios sensoriales transmiten su información al cerebro". (Finger S. Minds behind the brain. A history of the pioneers and their discoveries. Oxford: Oxford University Press, 2000; p. 250).

Se había conseguido el santo grial: registrar a una sola neurona y desvelar su código secreto. El análisis de la señal destapó varios fenómenos; cada uno de ellos, un descubrimiento en sí mismo:

  • Se confirmó definitivamente la naturaleza tipo «todo o nada» del impulso nervioso. Todos los impulsos registrados tenían la misma fuerza, no había impulsos fuertes y débiles.

  • La neurona codificaba la intensidad de la sensación a través de la frecuencia de disparo. Los investigadores estiraron el músculo de la rana suspendido con distintos pesos. Comprobaron que con un peso de 1/4 g la neurona descargaba 21 veces por segundo; con 1/2 g lo hacía 27 veces, y con 1 g, 33. O sea, los nervios usaban una especie de código Morse con un único tipo de señal.

  • La neurona se adaptaba muy pronto ante una estimulación constante, reduciendo su tasa de disparos. Este rápido descenso después de cada estallido inicial de descargas sugería que los nervios estaban programados para responder a los cambios, más que a las condiciones estables.

Por lo tanto, las neuronas usaban un código universal basado en la frecuencia de los impulsos nerviosos o potenciales de acción. No había códigos eléctricos distintos para transmitir una sensación de luz, frío, o sonido. El código era el mismo y la diferencia estribaba en el lugar anatómico del cerebro a donde llegaba el mensaje. Una señal en la corteza visual sería interpretada como luz, mientras que la misma señal en la corteza auditiva se interpretaría como sonido. Una sensación débil no se codificaba por un impulso nervioso débil, sino por los mismos impulsos fijos, pero más espaciados. En palabras de Adrián: «Todos los impulsos se parecen, sea que el mensaje esté destinado a suscitar una sensación de luz, de contacto o de dolor; si los impulsos se agolpan, la sensación es intensa, si están dispersos y separados por un intervalo, la sensación es débil».

Descargas de una neurona individual registradas por Adrian y Zotterman (1926).

Desde el punto de vista metodológico, Adrian tuvo una sencilla y genial idea, que luego copiarían todos los laboratorios del mundo: como dispositivo de salida, además del tubo de rayos catódicos, decidió conectar un altavoz al amplificador, para escuchar las señales nerviosas. Con este sistema se puede oír crepitar a los nervios, además de visualizar la señal, y en muchas ocasiones resulta más fácil identificar con el oído el momento en que se consigue registrar a una neurona individual. Hoy es práctica habitual (para más detalles, v. González J. Breve historia del cerebro, cap. 5. Barcelona: Crítica, 2010; p. 145-59).

Los avances en las investigaciones demostrarían que los cambios operados en las sinapsis son de naturaleza química y resultan decisivos para que el cerebro y todo el sistema nervioso, registren información en su interior y modifiquen su funcionamiento como consecuencia de experiencias previas. Las primeras décadas del siglo XX sirvieron para desvelar la existencia de los neurotransmisores, tras los primeros hallazgos sobre la acetilcolina por parte del británico Henry Dale y el alemán Otto Loewi, galardonados en 1936 con el premio Nobel por sus descubrimientos relacionados con la transmisión química del impulso nervioso. En realidad, este nuevo enfoque supuso un "verdadero cambio" en la forma de entender el cerebro y el sistema nervioso. En palabras del historiador Elliot Valenstein:

"Como el desciframiento  del código genético y la creación de la bomba atómica, el descubrimiento de como funcionan las neuronas del cerebro es uno de los desarrollos fundamentales del siglo XX. El descubrimiento de los neurotransmisores revolucionó la forma de cómo pensamos acerca del cerebro y de lo que significa ser humano"

Activación del cerebro durante la lectura de palabras como <ajo>, <canela> o <jazmín>. Neuroimágenes obtenidas mediante la técnica de resonancia magnética funcional, en las que se muestran coloreadas las áreas más activas. Las zonas señaladas con flechas blancas corresponden a estructuras que participan en el procesamiento de los olores reales. 

Investigación llevada a cabo en la Universitat Jaume I de Castellón con la colaboración del Medical Research Council de Cambridge y publicada en la revista Neuroimagene.

En la vertiente aplicada, comenzaron a concebirse algunas enfermedades neurológicas en términos de excesos o deficiencias de estas sustancias. Así ocurrió enseguida con la miastenia grave y más tarde con la enfermedad de Parkinson.

A lo largo del siglo XX y durante los primeros años del XXI, se fueron sucediendo logros espectaculares sobre el sistema nervioso y su funcionamiento. La década de 1990 fue declarada la del <cerebro>. El catálogo de descubrimientos es amplio y muchos de ellos se analizarán con posterioridad. Gran parte de este avance ha sido de tipo metodológico y el progreso tecnológico ha marcado en gran medida la pauta de este conocimiento, principalmente en dos terrenos:

 

  • a) en animales, la posibilidad de registros de neuronas individuales ha revelado como la corteza procesa la información sensorial en sus primeras etapas, por ejemplo, el colosal trabajo de  David Hubel y Torsten Nils Wiesel en la década de 1960, sobre la corteza visual o los de Eric Kandel sobre la memoria, todos ellos merecedores del premio Nobel; y

  • b) en la investigación humana, las técnicas recientes de neuroimagen y de registro neurofisiológico ofrecen la oportunidad de observar al cerebro en acción.

Desde los inicios del siglo XX, los interrogantes se tornaron cada vez más ambiciosos y el progreso de la microscopía, las técnicas de tinción y las técnicas farmacológicas abrieron nuevas posibilidades en el estudio de las neuronas y de la química cerebral.

Gran parte de los progresos teóricos y aplicados de la neurociencia se han conseguido gracias a la experimentación animal.

 

ACTIVIDAD DE APRENDIZAJE:  A continuación analizaremos dos temas de reflexión de los que deberás compartir tu opinión en el siguiente recuadro de comentarios a más tardar el día 12 de julio.

Los alumnos del GRUPO 3 de Neurología de la conducta y Neurocardiología, podrán remitir sus actividades hasta el día 27 de julio.

Los alumnos del GRUPO 3 de Neuropsicología Infantil podrán remitir sus actividades hasta el día 31 de julio.

Los alumnos del GRUPO D de Biopsicología, podrán remitir sus actividades hasta el día 9 de agosto

Para este ejercicio, las opiniones que se compartirán en el foro de discusión no tendrán límite de caracteres, sin embargo entre más analítica y elaborada sea tu opinión, mejor reforzarás este tema y permitirá a su vez interactuar con otros compañeros.

¿Podría pensar una máquina?

A continuación se planteará una cuestión que en las próximas décadas cobrará plena actualidad y que en el momento presente lleva a reflexionar sobre aspectos fundamentales acerca de lo que es una mente y la relación con su soporte material. Curiosamente, fue un asunto que, en otros términos, ya Descartes abordó 400 años atrás. El planteamiento se basa en las siguientes referencias bibliográficas:

  • Churchland PM, Churchland PS. Un debate sobre inteligencia artificial: ¿podría pensar una máquina? Investigación y Ciencia 1990;162:28-24.

  • González J. Breve historia del cerebro. Barcelona: Crítica, 2010; p. 292-5.

  • Searle J. ¿Es la mente un programa informático? Investigación y Ciencia 1990;162:10-6.

En la década de 1940 se construyó el Electronic Numerical Integrator and Computer (ENIAC) (Fig. web 1-4), el primer ordenador electrónico de propósito general. Pesaba varias toneladas y ocupaba una sala de casi 200 m2. Se componía de más de 17.000 válvulas de vacío y cada pocos minutos se fundía una de ellas, por lo que un grupo de operadores tenía que estar pendiente de reponerlas. 


Aunque el objetivo inicial era bélico, pronto se demostró que las nuevas máquinas eran algo más que simples «masticadores» de números. También se revelaron competentes en el manejo de información simbólica y hallaron nuevas y más elegantes soluciones a teoremas clásicos de la lógica matemática. Por un momento parecía que no había límites a sus posibilidades. En la década de 1960 se creía que hoy, en el siglo XXI, estaríamos rodeados de robots y máquinas inteligentes con las que nos comunicaríamos «de tú a tú», como hacemos entre los seres humanos. Para la psicología, los ordenadores constituyeron una nueva metáfora que ayudó a alumbrar al naciente paradigma de la psicología cognitiva. Términos de la cibernética como procesamiento de la información, acceso directo, memoria a corto y largo plazo, memoria de trabajo, etc. se trasladaron y aplicaron con naturalidad a la psicología cognitiva para describir aspectos del funcionamiento mental.

Lo cierto es que el desarrollo informático ha sido vertiginoso en términos cuantitativos. Cualquier ordenador personal contiene miles de veces el sistema informático de la National Aeronautics and Space Administration (NASA) que llevó al hombre a la luna. El saldo de los últimos 50 años ha sido una mezcla agridulce de éxitos y fracasos. Por una parte, las computadoras son capaces de vencer o hacer tablas con el campeón mundial de ajedrez o resolver sistemas de ecuaciones de miles de incógnitas y, por otra, no alcanzan al talento de un simple insecto para desenvolverse en un entorno cambiante. Esta dicotomía es el reflejo de dos formas distintas de trabajar: procesamiento serial en los computadores y paralelo en los cerebros. Hoy los científicos se conformarían con lograr construir vehículos de decisión autónoma que deambularan por la superficie marciana sin quedar encallados ante el primer obstáculo.

Pero dentro de algunos años podrán tener sentido algunas preguntas que ahora suenan a ciencia ficción, por ejemplo: ¿podría llegar a pensar una máquina? Ante esta cuestión, el filósofo de la mente John Searle hace una declaración previa:

«¿Puede una máquina tener pensamientos conscientes en el mismo sentido en que los tenemos usted y yo? Si entendemos por “máquina” un sistema material capaz de desempeñar funciones (¿y qué otra cosa podría, si no, significar?), resulta que los seres humanos somos máquinas de una clase biológica especial y, como los seres humanos piensan, es evidentemente cierto que hay máquinas capaces de pensar.»

Aquí hay un debate entre diferentes posiciones de la que podría denominarse escuela filosófica californiana: por un lado, el filósofo John Searle, de la Universidad de California en Berkely, y, por otro, los esposos Paul y Patricia Churchland, de la Universidad de California en San Diego.


Todo va a depender de una cuestión más profunda, para la que no hay respuesta aún: ¿en qué consiste pensar? Si el pensamiento, y toda la vida mental asociada, es el producto de las conexiones entre millones de unidades elementales de procesamiento –neuronas–, y es precisamente la consecuencia de esas interconexiones, entonces podrían obtenerse tener resultados semejantes en cualquier sistema que incorporara la misma estructura de enlaces. Es posible crear chips que funcionen como neuronas individuales, y en un futuro podrían conectarse millones de ellos entre sí, configurando sistemas de estructuras.


Si el pensamiento surge como una propiedad emergente de millones de contactos que se intercambian información entre sí, y no como una propiedad de la materia que constituye a esos contactos, entonces habría que contestar afirmativamente a la pregunta que se está analizando. Porque en ese caso, el hecho de que esa complejísima estructura de interconexiones esté implementada en un tipo de materia u en otro se tornaría anecdótico. Sería irrelevante que las unidades interconectadas fueran de carne –materia orgánica– o de silicio, si realizaran las mismas funciones. Del mismo modo que las operaciones simbólicas y numéricas son las mismas sobre unos materiales u otros; 2 + 2 son 4 tanto en una calculadora de circuitos de acero como en otra de circuitos de cobre, de estaño, o de nervios de calamar, porque la esencia del cómputo no está en el material de los circuitos sino en cómo éstos se conectan entre sí (igual que un jaque mate sería el mismo con fichas de ajedrez de madera o de plástico). Insistiendo: si el pensamiento y las propiedades psicológicas del cerebro respondieran a esa lógica computacional, la materia de los circuitos no sería determinante y cabría imaginar máquinas artificiales con propiedades mentales. Ésta es la postura que defienden los esposos Churchland y quienes se encuadran en la denominada posición fuerte de la IA (inteligencia artificial).


Por el contrario, la posición de John Searle y sus seguidores tiene otro enfoque, en la denominada posición débil de la IA. Para Searle, el pensamiento es un producto biológico de un órgano particular, el cerebro, del mismo modo que la digestión lo es del estómago. El cerebro produce, «segrega» vida mental, al igual que el hígado segrega bilis o el páncreas insulina. Una máquina, un ordenador, podrían «simular» la inteligencia e incluso el pensamiento, pero esto no sería pensamiento real, del mismo modo que un ordenador puede simular la digestión, o la combustión de los hidrocarburos, pero esta simulación no es una combustión real que mueva a un coche. En fin, éstas son dos posturas claramente divergentes, en un planteamiento aún abierto.

EMPLEO DE ANIMALES EN LA INVESTIGACIÓN NEUROCIENTÍFICA.

Este tema de reflexión se enmarca, en realidad, en otro más amplio sobre el uso de los animales en la experimentación biomédica, más allá del campo estrictamente neurocientífico.


A través de los siglos, el ser humano se ha servido de los animales en beneficio propio, considerándolos un recurso natural aprovechable como alimento, transporte, fuerza de trabajo, entretenimiento o compañía. El uso de los animales en la ciencia supone menos del 1 % de esa utilización general. En el momento actual hay al respecto cierta controversia planteada por razones éticas.


A continuación, después de leer los principales argumentos a favor y en contra, se sugiere que el lector reflexione sobre este asunto y exponga su propia opinión personal de forma razonada. Convendría también que supiera distinguir entre los distintos grados de oposición a la experimentación animal.


Los experimentos neurocientíficos se llevan a cabo con muchas clases de animales, desde invertebrados, como moscas, caracoles, gusanos, etc., hasta mamíferos y primates como el chimpancé. Por ejemplo, los descubrimientos sobre las bases celulares de la memoria que llevaron a Eric Kandel al Premio Nobel salieron de experimentos sobre el molusco marino Aplysia, porque los mecanismos básicos estudiados eran comunes a todo el reino animal –las neuronas de una babosa no son esencialmente distintas de las del Homo sapiens. El animal rey del laboratorio es la rata, útil en un sinnúmero de trabajos. Otras investigaciones requieren, por su naturaleza, actuar sobre organismos más próximos al ser humano, como los primates.


Afortunadamente, en la actualidad, la mayoría de las personas se preocupan por el bienestar de los animales y condenan su sufrimiento innecesario. Los neurocientíficos comparten esta preocupación y siguen unos procedimientos reglamentados para tratar correctamente a los animales en los estudios de laboratorio. Lo cierto es que la mayoría de los conocimientos sobre el sistema nervioso procede de experimentos con animales. En medicina, 144 de los 189 Premios Nobel otorgados han sido por investigaciones con animales que han servido para salvar y mejorar la vida de miles de personas.


Los neurocientíficos siguen unas reglas que, de acuerdo con la revisión de Bear et al. (2007), son las siguientes:

 

  1. Los animales son utilizados únicamente en experimentos importantes que pueden hacer progresar el conocimiento del cerebro y del sistema nervioso.

  2. Se toman todas las medidas establecidas para disminuir al mínimo posible el dolor y la incomodidad (uso de anestésicos, analgésicos, etc.).

  3. Se consideran todas las posibles alternativas a la experimentación animal.

Estos pasos son garantizados a través de comités éticos que deben aprobar la investigación, y la autorización debe figurar en todos los trabajos publicados.


La mayoría de las personas aceptan la necesidad de experimentación animal para que la ciencia avance, siempre que se respeten las reglas éticas establecidas al respecto. No obstante, en algunos países en las últimas décadas han surgido con fuerza organizaciones que se oponen frontalmente a todo tipo de experimentos con animales, a veces con actividades más o menos violentas como pintadas en las puertas de los laboratorios y otras acciones. ¿Habría que prescindir de cualquier estudio en que intervengan animales? ¿Estaríamos dispuestos a privarnos de los avances necesarios para el tratamiento de, por ejemplo, enfermedades neurodegenerativas como la de Parkinson o la de Alzheimer y demencias que afectan a millones de seres humanos (y cuya investigación neurobiológica es principalmente animal)? Desde distintos ámbitos científicos y no científicos se han llevado a cabo campañas de información en este terreno. Una de ellas es la Foundation for Biomedical Research.

Sería aconsejable que el estudiante, después de manejar toda la información necesaria, supiera plantear el tema en toda su complejidad. Además de la documentación disponible en la red, se recomiendan los siguientes libros, como exponentes de las dos posturas.


A favor de la experimentación animal, siguiendo las pautas éticas establecidas:

  • Sueiro E. Comunicación y ciencia médica: investigar con animales para curar a personas. Madrid: CSIC, 2010.

En contra de la experimentación animal:

  • Regan T. Jaulas vacías. El desafío de los derechos de los animales. Barcelona: Altarriba, 2006.

Después de leer con atención los detalles de ambas posiciones y sus respectivas razones  ¿cuál es tu opinión al respecto? Justifica tu argumento e intenta sostenerlo con argumentos razonados en el siguiente cuadro de diálogo a más tardar el día 24 de junio.

PRINCIPIOS DE LA NEUROCIENCIA COGNITIVA, LA NEUROPSICOLOGÍA Y LA BIOPSICOLOGÍA

Enfoques convergentes.

La neurociencia cognitiva constituye un campo científico relativamente reciente que surge de la convergencia de dos disciplinas que hasta hace unas escasas décadas, habían transitado por caminos distanciados: la neurociencia y la psicología cognitiva. Cuenta cada una con su propia tradición investigadora, sus métodos y técnicas de trabajo específicas y las dos han acumulado notables progresos teóricos y empíricos que, llegados a este punto de madurez epistemológica, pueden compartir de forma enriquecedora y sinérgica.

Los avances revolucionarios de los últimos años y la aparición de nuevas técnicas de neuroimagen y de registro electrofisiológico han permitido tender los puentes necesarios para que surja un nuevo terreno multidisciplinar que se beneficia de ambos enfoques complementarios. Si la meta es comprender el funcionamiento de la mente y el dispositivo material que la produce, hay que decir que ambas disciplinas comparten ese objetivo básico y aportan contribuciones valiosas en un terreno de trabajo común, más allá de la simple suma de observaciones.

Niveles de análisis de la neurociencia cognitiva

La neurociencia cognitiva aborda el estudio del funcionamiento cerebral desde una perspectiva multidisciplinar, incidiendo en distintos planos de análisis o explicación que, en un orden de complejidad, ascendente, comprenden los niveles molecular, celular, sistémico, conductual y cognitivo.

Análisis molecular

El conocimiento íntimo de los procesos que se encuentran en la base de las funciones mentales conduce al estudio del papel fundamental que desempeñan las distintas moléculas y sus interacciones en la actividad neural y endocrina. Entre otros objetivos, este estudio intenta describir las bases moleculares del impulso nervioso, así como la fisiología y la bioquímica de los neurotransmisores o sustancias químicas que actúan de mediadores en la comunicación entre las neuronas y hacen posible el registro de nueva información mediante la comprensión de los mecanismos moleculares ligados a sustancias adictivas.

Análisis celular

El nivel siguiente de análisis tiene a la célula y concretamente a la neurona como principal unidad de estudio. Pretende responder a interrogantes sobre el funcionamiento  de las células nerviosas, sus diversos tipos y formas, sus especializaciones, como interaccionan las neuronas entre ellas, como crecen y se conectan durante el desarrollo fetal, que cambios experimentan a lo largo de la vida, etc.

Análisis de sistemas o redes neuronales

Es el estudio de los sistemas o conjuntos de neuronas que constituyen redes de actividad que están en la base de los distintos subprocesos cognitivos y emocionales. Es un nivel de análisis sumamente interesante, imprescindible para entender los niveles siguientes y cuyo desarrollo no ha hecho más que empezar. Implica la cartografía y la comprensión de los circuitos neuronales que intervienen en las distintas etapas de procesamiento de los sistemas visual, auditivo, motor, etc., y que en los últimos años ha experimentado grandes avances gracias a las técnicas de identificación de tractos individuales de materia blanca, como las imágenes por tensor de difusión (Diffusion tensor imaging, DTI) y otras técnicas relacionadas.

Análisis conductual

Este nivel de análisis examina cómo trabajan de forma conjunta y orquestada los distintos sistemas neuronales que dan lugar a las conductas complejas del organismo: cómo funcionan de modo integrado las redes de memoria o los sistemas que participan en las conductas motivadas, como el hambre, la sed o el sexo; qué partes cerebrales intervienen en los estados de alerta o en el origen de los sueños, etc.

Análisis cognitivo

Por último, el nivel de análisis más ambicioso corresponde a la comprensión de los mecanismos neurales que hacen posible las funciones mentales superiores, como el lenguaje, el razonamiento, la imaginación, la planificación y el control ejecutivo de las acciones, la consciencia de uno mismo de la mente del otro, etc. En definitiva, persigue desvelar la base material de la actividad mental de orden superior que alcanza su máxima expresión en el animal humano.

La neurociencia cognitiva constituye un campo científico relativamente reciente que surge a partir de la convergencia de la neurociencia y la psicología cognitiva y que aborda el estudio del funcionamiento cerebral desde una perspectiva multidisciplinar, incidiendo en distintos planos de análisis.

NEUROCIENCIA Y PSICOLOGÍA COGNITIVA;  Una relación no siempre fácil.

La psicología cognitiva surgió en la década de 1950 como reacción al conductismo dominante de la primera mitad del siglo XX. Pronto demostró que los procesos mentales, desdeñados por los conductistas por no ser directamente observables, podían inferirse y ser estudiados de forma científica a través de medidas indirectas en experimentos cuidadosamente diseñados para tal fin. Ciertas variables dependientes como los tiempos de reacción o el rendimiento en las tareas planteadas, constituyen valiosas fuentes de evidencia que arrojan luz sobre las funciones psíquicas que intervienen.

Desde entonces se ha ido acumulando un volumen impresionante de datos que verifican o refutan distintas hipótesis y que son explicados desde modelos teóricos que pretenden  describir el funcionamiento de la mente humana en sus diversos componentes.

Paralelamente, desde la neuropsicología, el estudio de las <lesiones cerebrales> y de sus consecuencias sobre la conducta cognitivo-emocional y lingüística del pacient, ha ayudado a entender mejor el funcionamiento  general de la mente y el cerebro. Estas posibilidades se han multiplicado en las últimas décadas al beneficiarse la neurociencia de las revolucionarias técnicas de neuroimagen y de registro electrofisiológico, que permiten observar el cerebro intacto <en acción> mientras realiza una determinada función mental.

¿Qué aporta el estudio del cerebro al conocimiento de la mente?

Se ha mencionado que, durante un tiempo, la psicología cognitiva y la ciencia o ciencias del cerebro han evolucionado por caminos relativamente independientes y con frecuencia recíprocamente ignorados. A veces la psicología cognitiva ha mirado con escepticismo la utilidad que podía ofrecer el estudio del cerebro en la comprensión de los procesos mentales.

¿De qué manera me sirve conocer que un determinado subproceso tiene lugar en tal o cual estructura anatómica? Eso lo dejo para los neurofisiólogos. A mi me interesa el <cómo> no el <donde>. Este podría ser  una expresión o lugar común de algunos psicólogos al abordar estas cuestiones..

Una distinción que suele aducirse para contrastar la psicología cognitiva y la neurociencia es análoga a la ue existiría en entre el software y el hardware en un sistema computacional. Un programa informático tiene su propia lógica de funcionamiento, un algoritmo o conjunto de instrucciones simbólicas que son independientes del hardware o sistema material sobre el que está implementado. El mismo programa puede ejecutarse en un número de ordenadores distintos, construidos con materiales también diversos y  la naturaleza del hardware no informa nada acerca de las instrucciones del programa, así como un jaque mate es el mismo con piezas de ajedrez de plástico o madera, y la naturaleza material de éstas últimas no informa sobre las reglas y el funcionamiento del ajedrez. Esta visión simplista, heredera de los primeros enfoques del procesamiento de la información, ha conducido a algunos psicólogos a creer que el estudio de la arquitectura neural del cerebro carece de valor informativo sobre la función psicológica. Por ejemplo, Harley (2004) y Coltheart (2004) ponen en cuestión el valor de los registros suministrados por las técnicas de neuroimagen y se preguntan si alguna vez este tipo de datos ha servido para progresar teóricamente y decidir entre dos modelos cognitivos en pugna.

Sin embargo, los últimos avances ponen de relieve que el enfoque multidisciplinar de la neurociencia cognitiva es enriquecedor y abre nuevas posibilidades, como así lo reconoce la mayor parte de la comunidad científica. De hecho los análisis bibliométricos señalan un incremento espectacular en el número de publicaciones  de corte neurocognitivo. Siguiendo a Richard Henson y a muchos otros autores puede considerarse que ambas aproximaciones son complementarias, antes que excluyentes. Los datos procedentes de las técnicas de neuroimagen son en realidad nuevas variables dependientes que añaden valor a las ya disponibles. En el estudio de una determinada función u operación mental es posible contar con un conjunto de variables dependientes que son medidas <de salida> de los experimentos:  tiempos de reacción, proporción de aciertos en la tarea, medidas fisiológicas convencionales como la respuesta electromiográfica de los músculos o la conductividad eléctrica de la piel, etc. Ahora los cambios hemodinámicos del cerebro detectados mediante la tomografía por emisión de positrones (PET) o las imágenes por resonancia magnética funcional (RMf), así como los registros ofrecidos por las técnicas de potenciales evocados o de magnetoencefalografía (MEG) representan nuevas medidas valiosas que se suman a las anteriores y ayudan a entender mejor las funciones estudiadas.

Por otra parte, la experiencia ha demostrado que el enfoque cognitivo convencional del procesamiento de la información resulta insuficiente para caracterizar toda la complejidad del funcionamiento mental. En la actividad cerebral no cabe una separación tan nítida como en un ordenador entre el software y el hardware y su naturaleza computacional es fundamentalmente paralela, íntimamente enraizada en las redes neuronales.

Cuando los psicólogos reacios a la utilidad de las neuroimágenes las asimilan al hardware cerebral, que no dice nada acerca del software funcional, olvidan en palabras de Henson (2005) que <las imágenes funcionales proporcionan más información que las del simple hardware>, proporcionan información  "de funcionamiento" sobre la distribución espacial de los procesos que ocurren mientras el software está rodando.

Tampoco es cierto que la naturaleza material de los procesos no sea informativa sobre el funcionamiento de éstos. Así una teoría podría postular que el reconocimiento de las caras se basa en un mecanismo de comparación serial entre el estímulo visual de entrada (o una abstracción de éste) y las representaciones faciales almacenadas en la memoria. La consideración del tiempo mínimo de procesamiento de las neuronas -del orden de decenas de milisegundos- excluye esta posibilidad y sugiere que tal algoritmo secuencial sería incompatible con el número de rostros que generalmente cada persona conoce -decenas de miles- y el tiempo típico que requiere la identificación de un rostro -centenas de milisegundos- (ejemplo de Henson 2005).

Existen innumerables ejemplificaciones en los que el donde, si dice cosas sobre el cómo de la función mental. Otra ejemplificación de ello es la respuesta cerebral que se obtiene en tiempo real cuando individuos en estudio responden ante ciertos estímulos que encienden áreas específicas del cerebro, alterando sus emociones y eventualmente su conducta.

¿Que aporta la Psicología cognitiva a la neurociencia?

De forma recíproca la psicología cognitiva enriquece y guía  ala neurociencia en el planteamiento de las cuestiones pertinentes que deben ser abordadas y respondidas, a la vez que contribuye a la interpretación teórica de los datos que se obtienen. La neurociencia cognitiva no es el mero estudio anatómico y fisiológico del cerebro, sino que busca encontrar la base material de los procesos cognitivos y emocionales que operan en el funcionamiento de nuestras vidas. En ese sentido la psicología cuenta con un arsenal de herramientas y un valioso conjunto de observaciones y modelos teóricos que intentan explicar la actividad mental y la conducta humana. Si la frenología fracasó como intento de avance en la comprensión del cerebro y sus funciones, fue evidentemente porque su método era acientífico, pero una razón adicional es que sus conceptos psicológicos eran totalmente ingenuos, alejados de cualquier ciencia psicológica. En su libro "The new phrenology, el profesor  William Uttal destaca la importancia de contar con una buena teoría psicológica para aproximarse al estudio de las funciones cerebrales. También alerta, sea dicho de paso, con respecto al peligro de una <nueva frenología>, si se cae e un excesivo localizacionismo que olvide la unidad dinámica del cerebro y la mente.

En definitiva, es indispensable contar con la contribución de la psicología científica para ser capaces de formular preguntas correctas e interesantes y al mismo tiempo, responderlas enmarcando conceptualmente los datos que ofrece la neurociencia.

Las imágenes funcionales, los registros electrofisiológicos y las observaciones neurocientíficas en su conjunto, necesitan ser explicadas y relacionadas dentro de una teoría coherente que a su vez, sea fuente de nuevas hipótesis  verificables. De lo contrario, sólo se dispondría de un conjunto disperso de datos a la espera de su unificación e integración teórica. En este proceso hay que aprovechar todos los conocimientos brindados por la psicología cognitiva. Se trata desde luego de un enfoque sinérgico que va más allá de la simple suma de dos disciplinas que convergen. Como ejemplo de una cuestión de gran calado en la psicología cognitiva de la década de 1980 y años siguientes analicemos el siguiente criterio:

¿Es la mente modular?

La mente y el cerebro gozan de una extraordinaria unidad dinámica y funcional, pero no son un todo uniforme e indiferenciado. Al igual que el cuerpo está compuesto por órganos distintos que desempeñan funciones específicas, muchos autores entienden que en la mente habría componentes diferenciados que llevan a cabo subprocesos o tareas especializadas dentro del conjunto general. Hoy se sabe que la antigua frenología estaba equivocada por su metodología acientífica basada en la inspección de los bultos craneales y por su pintoresca clasificación de las funciones mentales. Sin embargo, la idea general de fondo, esto es, que el cerebro pueda contar con zonas especializadas, no es descabellada. De hecho, la existencia de las cortezas sensoriales y motoras es un ejemplo de ello, sin olvidar que su actividad se incorpora coordinadamente dentro de un sistema orquestado de procesos dinámicos.

Sobre este tipo de cuestiones hay un planteamiento más radical: si el cerebro o la mente tuvieran distintos componentes, ¿alguno de estos componentes sería un módulo?, ¿los procesos mentales serían modulares? El gran teórico de la modularidad ha sido Jerry Fodor, y la obra de referencia es su libro de 1983 The modularity of mind, publicado en castellano tres años después (Fodor, 1986). Se trata de una de las obras más citadas de la psicología contemporánea y que más debates ha suscitado en las últimas décadas.

Para Fodor hay dos clases de procesos mentales: los procesos centrales y los procesos modulares o módulos. Un módulo sería un tipo de proceso con características particulares:

  • Los módulos son específicos de dominio, o sea, están especializados en un tipo particular de estímulos y sólo trabajarían ante una clase específica de información. Por ejemplo, un módulo especializado en un determinado subproceso perceptivo visual sólo actuaría ante estímulos visuales de ciertas características, permaneciendo impasible ante otras clases de estimulación.

  • Los módulos funcionan de modo obligatorio ante la presencia del estímulo apropiado. Por ejemplo, ante la palabra «dedo», un lector del castellano no podría verla simplemente como un conjunto de trazos, sin acceder a su significado. Precisamente, el denominado fenómeno Stroop es un efecto muy poderoso, imposible de evitar incluso tras meses de práctica. En su formulación clásica, consiste en la dificultad de nombrar el color físico de palabras que corresponden al nombre de un color distinto; por ejemplo, si ante la palabra «rojo» escrita con tinta azul, el individuo debe decir «azul» rápidamente, los tiempos de reacción son mucho más lentos que ante otros estímulos.

  • Los módulos están encapsulados, blindados a cualquier otro proceso. Cuando un módulo se activa, su tarea no se ve afectada por la acción de cualquier otro proceso; su actividad es impermeable a cualquier influencia exterior. Según Fodor, ésta es una de las características más relevantes de su concepción modular.

  • Los módulos son rápidos; realizan su actividad en un plazo de milisegundos. Por ejemplo, acceder al significado de una palabra lleva menos de 200 ms.

  • Los módulos son automáticos y su actividad es poco accesible a la conciencia. Su tarea es automática y autónoma, no podemos intervenir en ella de forma controlada, y el propio proceso es opaco a nuestra conciencia. Sólo somos conscientes de los productos finales, no de las representaciones intermedias que se generan dentro del módulo. Por ejemplo, no somos conscientes de cómo organizamos la estructura sintáctica de una oración para poder entenderla, sólo somos conscientes del producto final, cuando ya hemos construido su significado.

Fodor planteó también otras características, como el hecho de que los módulos son innatos y su desarrollo ontogenético sigue una secuencia madurativa fija, de unos individuos a otros, durante las primeras fases de la evolución infantil. Para él, los módulos también debían ser compactos y estar localizados en estructuras neuronales fijas. Hoy los modularistas no ponen tanto énfasis en este rasgo, porque hay evidencia de que ciertos procesos automáticos, dotados de algunas de las características mencionadas, podrían interesar sistemas neurales distribuidos.

Fodor situaba la modularidad fundamentalmente en los procesos perceptivos; un ejemplo típico sería el que da lugar a la visión binocular en tres dimensiones a partir de las dos imágenes retinianas. Hay quienes consideran módulos a procesos de alto nivel como el propio lenguaje o subcomponentes de éste.

Muchas de estas ideas han sido criticadas desde otros enfoques. Otros autores aceptan algunos de los planteamientos modulares en una versión más débil. Por ejemplo, se considera que la lectura puede ser modular en muchos aspectos, pero no sería en sí un módulo innato, porque es muy reciente en su evolución.

Los estudiantes que deseen profundizar en este tema, se recomienda consultar el libro de Fodor y, como principal exponente de la posición crítica, el libro de Annette Karmiloff-Smith:

  • Fodor J. La modularidad de la mente. Madrid: Morata, 1986 (orig. 1983).

  • Karmiloff-Smith A. Más allá de la modularidad: la ciencia cognitiva desde la perspectiva del desarrollo. Madrid: Alianza, 1994 (orig. 1992).

Lo anterior puede complementarse con otras lecturas posteriores que ofrecen una visión integradora:

  • Barrett HC, Kurzban R. Modularity in cognition: framing the debate. Psychol 2006;113:628-47.

  • García-Albea JE. Fodor y la modularidad de la mente (veinte años después). Anuario de Psicología. 2003;34:505-71.

Material de apoyo:

ACTIVIDAD DE APRENDIZAJE: Con relación a la información antes mostrada y al material de apoyo, realiza un mapa conceptual en el que se explique en que consiste la mente modular.

 

Fecha de remisión de actividades: 28 de octubre

Requieres apoyo docente en tiempo real?

Realiza una reserva:

Recuerda que para solicitar uns reserva debes hacerlo al menos con 48 horas de anticipación.

Nilo 171, Clavería, Azcapotzalco, 02080  CDMX

Tel: (55) 50180583

WhatsApp: (52) 55 4962 1781

Menú

Síguenos

© 2020 Copyright Derechos Reservados Consejo Mexicano de Neurociencias