Bueno, hay un libro El fin de la física. Los límites de la ciencia de Jhon Horgan donde leí --fue hace tiempo y ya no recuerdo bien- la entrevista que le hicieron a Minsky y le preguntaban aquello de que Penrose y otros con su famoso teorema de Gödel echaba por tierra toda posibilidad de construir una mente artificial -basada exclusivamente en lógica, que es con lo que programan todo esto- y qué opinaba él. Y contestó que no tenía nada que ver. Pero yo creo que sí que tiene que ver y mucho. Me parece que hay una falta de entendimiento en este punto entre ambos oponentes -funcionalistas y naturalistas-. Y tiene que ver con el lenguaje, que se basa en la lógica y como todo sistema formal, según ese teorema, no puede ser al mismo tiempo completo y consistente (sin contradicciones). En resumen, que no se puede explicar a sí mismo. Por ejemplo, las matemáticas no se explican a sí mismas, necesitan fundamentarse en la lógica. Pero la lógica tampoco puede explicarse a sí misma, es inconsistente. Penrose utiliza este teorema para desmontar las pretensiones de los funcionalistas.
A lo que tú aludes Raven, es al también famoso Teorema de indecibilidad de Gödel, que también está relacionado con esto en cierta forma. Dice que en un sistema formal, al no poder ser coherente y cerrado por sí mismo, siempre habrá proposiciones que puedan ser verdaderas y que no puedan demostrarse dentro de ese mismo teorema.
Esto en lógica y en filosofía del lenguaje tiene que darse porque es importantísimo.
El lenguaje también es un sistema formal. Y aquí enlazo con lo que expuse hace unos días, también cuando comenté lo de la semántica. Esta mañana estuve leyendo el libro Filosofía de la Mente y Ciencia cognitiva de Rabossi, y hay un capítulo dedicado a Searle. En resumidas cuentas viene a decir lo que yo pensaba, aunque intuitivamente más que nada porque de filosofía del lenguaje tengo nulos conocimientos.
Olvidaros de la supuesta complejidad natural de la máquina cerebral humana. Esa no es la guerra de Searle, -aunque creo que es perfectamente compatible con Penrose-, sino la guerra de Penrose, que piensa que la física del cerebro es de nivel cuántico, y por tanto, no se puede modelizar como la física clásica. En realidad como ya dije a los funcionalistas les interesa el resultado, el programa en sí, no cuestiones neurofisiológicas por complejas que sean. Por más compleja que sea esa física podrá estudiarse. La física cuántica será compleja pero no obra milagros.
Pero hay una cuestión importante, que es el nudo gordiano de la postura de Searle y que creo no han entendido los funcionalistas. El quid de su argumento no es que no sea posible para los chips de silicio duplicar el poder causal del cerebro -eso es una cuestión fáctica que no ha de ser resuelta apelando a bases puramente filosóficas a priori. El quid sobre el que tenemos que centrarnos es que no podemos duplicar los poderes causales del cerebro sólo en virtud de instaurar un programa de computación, porque el programa tiene que definirse de forma puramente formal.
Hay una diferencia entre manipular los elementos sintácticos de los lenguajes y realmente comprender el lenguaje a nivel semántico. Es la diferencia entre sintaxis y semántica. Un programa informático ha de definirse en términos de sintaxis y hay una diferencia entre manipular los elementos sintácticos de los lenguajes y comprenderlo a un nivel semántico. Lo que se pierde en la simulación del comportamiento cognitivo de la IA es la diferencia entre ambas. Esto es importantísimo porque ahí radica la diferencia entre lo auténtico y real y lo simulado. Y sospecho que algunos no perciben el matiz, o eso parece, no sé.
Los programas de computación lingüística tienen tres niveles: sintaxis, semántica y pragmática, pero los tres niveles son computacionales, sintácticos. El programa es formal-sintáctico pero la comprensión formal de la comprensión del lenguaje nunca va a ser en sí lo mismo que la duplicación. ¿En qué se basa Searle? Porque en el caso de comprender mediante un lenguaje tenemos algo más que un nivel formal o sintáctico,la semántica. No manipulamos sólo símbolos formales no interpretados, sino también la interpretación. Y si tratamos de dar al computador una interpretación de los símbolos formales (lo que decía Nolano, codificar también eso formalmente, el significado) lo único que en realidad hacemos es darle más símbolos formales. Por definición el programa sólo es sintáctico. Señores, yo entiendo aquí claramente que nunca vamos a salir de la simulación por más información que le añadamos si es del mismo nivel o naturaleza. Lo formal no se explica o se referencia a sí mismo y nunca lo hará. Nunca habrá forma de pasar de la sintaxis a la semántica.
Los de la IA dicen que no soy yo quien comprende, sino el sistema, la habitación entera, el sistema que me contiene, o sea, el programa. Pero esta respuesta está sujeta a idéntica objeción. Asi como yo no tengo forma de pasar de la sintaxis a la semántica tampoco el sistema total, porque no deja de ser un sistema formal! y no puede explicarse a sí mismo introduciendo toda la información necesaria, no puede. El sistema nunca va a adquirir por milagro el conocimiento que encierra cualquiera de esos símbolos.
Instanciar un programa nunca va a ser posible que tener una mente, la mente es algo más que eso porque tiene contenidos semánticos. Es la mente lo que le da el significado.
Wittgenstein tardó lo suyo en reconocer que el significado del lenguaje remite siempre a lo cultural,que está fuera del lenguaje, y por tanto que éste no era una pintura de la realidad. Y la verdad es que a mi me parece obvio, pero en fin, no voy a meterme con alguien de su talla y tan reverenciado, pero vamos que se equivocó. Pues aquí pasa igual, hay gente que no va a entender nunca que el significado radica en la mente que lo interpreta no en el signo. Habría que ponerles delante el famoso cuadro de Magritte "esto no es una pipa" a ver si se caen del burro ya