Segunda parte.
Perdonad si pongo ejemplos lingüísticos, pero es de lo que sé; me siento más incómodo con ejemplos físicos o matemáticos. Y disculpad si empleo algún tecnicismo de manera basta.
Cuando en los 90 se producen los avances en la Biolingüística, surge un gran optimismo entre muchos lingüistas que creen poder descubrir áreas del conocimiento lingüístico hasta entonces ocultos, o bien corroborar, matizar, refutar, etc. sus respectivas hipótesis o teorías. De alguna manera, la neuroimagen era una proyección cinematográfica de aquello que había que hipotetizar de manera muy laboriosa. Surgieron muchos grupos interdisciplinares, algunos muy importantes (como los del MIT o el Instituto Max Planck) compuestos por lingüistas, neurólogos, psicólogos, expertos en computación, etc. Quizás algunos lingüistas se pasaron entonces de frenada. Recuerdo un artículo de un lingüista muy importante, Gilles Fauconnier, que terminaba diciendo algo así como que finalmente la Lingüística es un hecho neuronal. Diría que estas cosas hay que matizarlas, y para ello regreso a un semiólogo que ha aparecido en los últimos días: Umberto Eco.
En algunas de sus obras, como La estructura ausente o el Tratado de Semiótica General, introduce una diferencia importante entre la señal y el signo. Hemos de recordar que el moderno esquema de comunicación humana, clave de bóveda de los esquemas posteriores, lo elaboró Roman Jakobson en los años 50. Para ello, adaptó a la comunicación humana la Teoria matemática de la información de Shannon y Weaver (1949). Estos últimos explicaban cómo una señal eléctrica se transmite a través de un canal desde un emisor que codifica la señal hasta un receptor que la descodifica, con posibles interferencias o ruidos en su transmisión. La Lingüística y la Semiótica adaptaron mayoritariamente este esquema sin diferenciar con claridad entre señal y signo.
Eco, en cambio, introduce un cambio importante. La señal produce un estímulo, pero como tal no es un signo y, por supuesto, no pertenece a un código. El código nace cuando esa señal se institucionaliza, se vuelve convencional. Así nacen códigos que pueden ser muy simples (unas luces de alarma) o muy complejos (el lenguaje natural humano). O incluso signos que no forman parte de un código establecido, pero que no es una mera señal. De alguna manera, la confusión entre señal y signo es la que provocó los fallos de los behavioristas en sus explicaciones sobre la adquisición del lenguaje. Por ejemplo, en el capítulo 4 de los Fundamentos de Filosofía de Russell podemos encontrar un modelo behaviorista, basado en las teorías de John B. Watson, que hoy resulta totalmente obsoleto.
Yo creo (y esto ya es opinión personal), que la neuroimagen nos muestra las señales. Podemos ver que ante una exclamación y ante una pregunta se estimulan distintas áreas del cerebro. O podemos observar con gran nitidez algunas patologías del lenguaje. Sin embargo, el contenido concreto del signo no nos lo proporciona la neuroimagen. Al menos hasta ahora. Es decir, si el lenguaje se basa en la unión sintáctica de elementos que tienen un significado, que dependerá de cómo se unan esos elementos, y que es interpretado por el destinatario, la neuroimagen no nos proporciona la "película" de todo ese proceso comunicativo. No va a mostrar diferencias si hablamos de Derrida o de Ábalos. Digamos que el nivel de entropía de la neuroimagen es muy alto (al menos hasta el momento). G.T. Guilbaud, en los años 50, hizo un cálculo con una máquina de escribir de 42 teclas que tuviese dos posibilidades por tecla (por ejemplo, la "e" y el acento). En un folio con 25 renglones de 60 espacios, el número total de mensajes posibles sería de 851500. Los mensajes posibles serían expresados, por tanto, por un número de 2895 cifras. Cuanto menores sean las posibilidades de unión de esos signos, la "entropía" (tal y como la definieron Shannon y Weaver en su modelo) es menor. En español, sería posible la palabra "ascu" (aunque no exista), pero no "hgsfdsf", porque viola las normas morfofonológicas.
La Neuroimagen, de alguna manera, mantiene muy alto el nivel de entropía, y por ello los estudios culturales, psicológicos, filosóficos, antropológicos, sociológicos etc. son imprescindibles para responder las preguntas a las que no alcanza la neurociencia. ¿Qué importancia tiene, desde un punto de vista comunicativo o de convivencia humana, que las calles de un barrio sean todas perpendiculares o, por el contrario, que constituyan un batiburrillo de callejuelas? A eso responden estas últimas ciencias. En los trastornos del lenguaje, en cambio, la Neurociencia es determinante.
En definitiva, en mi opinión la Neurociencia constituye un gran avance, pero no es capaz de explicar un modelo completo.