Bienvenido, Invitado
Nombre de Usuario: Contraseña: Recordarme

TEMA: ¿Pueden pensar las máquinas?

¿Pueden pensar las máquinas? 18 Mar 2014 01:49 #20739

  • neurometafisico
  • Avatar de neurometafisico
  • DESCONECTADO
  • Platónico
  • Mensajes: 199
  • Gracias recibidas 32
Veamos como lo expresa el eminente neurólogo Antonio Damasio:
Los cerebros pueden tener muchos pasos intermedios en los circuitos interpolados entre el estímulo y la respuesta, y no por ello tienen mente; a menos que cumplan una condición esencial: la capacidad de desplegar imágenes internamente y de ordenarlas en un proceso llamado pensamiento. (Las imágenes no sólo son visuales; hay también "imágenes auditivas", "olfativas”, y muchas otras.) Ahora puedo completar mi afirmación acerca de los organismos conductuales diciendo que no todos tienen mente, esto es, no todos tienen fenómenos mentales (que es lo mismo que decir que carecen de cognición o de procesos cognitivos). Algunos organismos tienen cognición y comportamiento. Otros tienen acciones inteligentes, pero no mente. Ningún organismo parece tener mente pero no acción. Mi posición, entonces, es que un organismo provisto de mente forma representaciones neurales que pueden transformarse en imágenes, manipularse en un proceso llamado pensamiento y finalmente influir en la conducta ayudando a predecir el futuro, a trazar planes conforme a esa previsión y a elegir la acción siguiente. Aquí está el quid de la neurobiología, tal como yo la imagino: el proceso por el cual representaciones neurales –consistentes en modificaciones biológicas derivadas del aprendizaje en un circuito neuronal- se transforman en imágenes en nuestra mente; el proceso que permite que cambios microestructurales invisibles en los circuitos neuronales (en los cuerpos celulares, dendritas y axones, y sinapsis), se conviertan en una representación neural que a su vez se transmuta en una imagen que cada uno experimenta como propia ".

Entonces siguiendo a Damasio, las maquinas tendrían que desarrollar imágenes internas ¿Y cómo lograr eso si todavia no entendemos la naturaleza de las nuestras?
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 18 Mar 2014 22:36 #20781

  • raven
  • Avatar de raven
  • DESCONECTADO
  • Aristotélico
  • Publico mis mensajes bajo licencia WTFPL 2.0
  • Mensajes: 335
  • Gracias recibidas 257
Si tener consciencia de los actos significa recordar lo que se ha hecho, eso es fácil de lograr.
Claro. Y si tener consciencia significa tener ruedas y manillar, mi hermana tiene dos guardadas en el trastero.

Pero habría que ver lo que significa "recordar" para este señor. Porque si recordar significa conservar información a lo largo del tiempo, las tablillas babilónicas recuerdan desde tiempos inmemoriales. Pero no tengo yo muy claro que tengan consciencia.

Minsky fue, como ya habéis dicho, uno de los pioneros de la IA. En aquella época todo parecía facilísimo y había un optimismo que resultó absolutamente injustificado. 50 años después, empezamos a ver avances interesantes (en parte gracias a la potencia de cálculo), pero hasta hace, no sé, quince años quizá, el progreso en el campo ha sido muy limitado, y muy teórico.

Yo creo en la IA fuerte, creo firmemente que terminará llegando (y espero llegar a verlo), pero la entrevista me transmite la sensación de que Minsky sigue anclado en ese absurdo optimismo de los años 60.
You do not need hope if you have drama to back you up.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 18 Mar 2014 22:40 #20782

  • neurometafisico
  • Avatar de neurometafisico
  • DESCONECTADO
  • Platónico
  • Mensajes: 199
  • Gracias recibidas 32
El problema que no advierten los funcionalistas es que el "ver", entendido como crear imagenes, tal vez lo puedan hacer algún día , pero ¿cómo crean la consciencia de ver?
Cuando cierras los ojos y te imaginas una manzana lo relevante no es solamente de qué está hecha esa imagen (un problemazo para los emergentistas) sino que además sientes que "algo o alguien esta viendo esa manzana dentro de tu cabeza" y eso es la consciencia de verla. Como llevan esa sensación a una máquina si no saben de que está hecha la imagen y menos aún la naturaleza del observador de la misma.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 18 Mar 2014 22:54 #20783

  • raven
  • Avatar de raven
  • DESCONECTADO
  • Aristotélico
  • Publico mis mensajes bajo licencia WTFPL 2.0
  • Mensajes: 335
  • Gracias recibidas 257
Adu escribió:
Me da la sensación de que el cerebro es tan complejo, precisamente por ser un chapuz de la naturaleza, que se apaña con lo que tiene a cada momento y va construyendo complejidad así como en una Torre de Babel sin mucho orden y concierto, que no va a haber forma de conseguir eso que ellos pretenden, está nuestra mente capacitada para entender su propia complejidad? Entonces habría de estar un peldaño más arriba, para poder explicarse a sí misma. Vamos, que se sale de nuestros límites de capacidad. Ese es uno de los mayores inconvenientes que yo le encuentro a esto de la IA. Como dijo Gödel, aquello famoso de que un programa informático -la mente humana- no podrá nunca explicarse a sí misma.
Me parece que Gödel no dijo eso. Lo que Gödel decía (más o menos) con su teorema de incompletitud, es que hay proposiciones que no se pueden probar falsas ni verdaderas. Y enlazando con Turing (creo), llegamos al llamado problema de la parada, que es una reformulación del teorema de Gödel y viene a decir que no podemos explicar el funcionamiento de algunos programas de ordenador. Pero no tiene nada que ver con la autorreferencia a la que haces alusión. No se trata de que no se puedan explicar a sí mismos, sino que no hay un algoritmo general que pueda explicar cualquier programa.

Yo no creo que entender la complejidad de la mente esté fuera de nuestras posibilidades. El tiempo dirá.
You do not need hope if you have drama to back you up.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 19 Mar 2014 14:14 #20791

  • pulpo
  • Avatar de pulpo
  • DESCONECTADO
  • Escolástico
  • calamar
  • Mensajes: 1716
  • Gracias recibidas 1056
Esto es como todo lo log4radom hasta ahora. ¿Ibamos a llegar a la luna? El siguiente paso es a Marte, lugar de destino de indeseable que con el tiempo se volvió simpática como Australia.

¿Ibamos a descifrar el DNA? Ahí está el código genético para el que disponga de biblioteca.
¿Llegaríamos a fertilizar en probeta? Y del color que ud quiera y a conseguir ovejas Dolly . Es que caminamos a velocidad supersónica, ¿Como es posible que en un estadio de fútbol 100000 personas estén todas hablando a la vez por teléfono y enviando fotos de su figurita preferida y más aún gritando y llamando al árbitro
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 19 Mar 2014 14:14 #20792

  • neurometafisico
  • Avatar de neurometafisico
  • DESCONECTADO
  • Platónico
  • Mensajes: 199
  • Gracias recibidas 32
raven escribió:
Adu escribió:
Me da la sensación de que el cerebro es tan complejo, precisamente por ser un chapuz de la naturaleza, que se apaña con lo que tiene a cada momento y va construyendo complejidad así como en una Torre de Babel sin mucho orden y concierto, que no va a haber forma de conseguir eso que ellos pretenden, está nuestra mente capacitada para entender su propia complejidad? Entonces habría de estar un peldaño más arriba, para poder explicarse a sí misma. Vamos, que se sale de nuestros límites de capacidad. Ese es uno de los mayores inconvenientes que yo le encuentro a esto de la IA. Como dijo Gödel, aquello famoso de que un programa informático -la mente humana- no podrá nunca explicarse a sí misma.
Me parece que Gödel no dijo eso. Lo que Gödel decía (más o menos) con su teorema de incompletitud, es que hay proposiciones que no se pueden probar falsas ni verdaderas. Y enlazando con Turing (creo), llegamos al llamado problema de la parada, que es una reformulación del teorema de Gödel y viene a decir que no podemos explicar el funcionamiento de algunos programas de ordenador. Pero no tiene nada que ver con la autorreferencia a la que haces alusión. No se trata de que no se puedan explicar a sí mismos, sino que no hay un algoritmo general que pueda explicar cualquier programa.

Yo no creo que entender la complejidad de la mente esté fuera de nuestras posibilidades. El tiempo dirá.

me parece que eso fue lo que mató el proyecto logicista de Rusell, el principio de incompletitud señala que es imposible demostrar todos los postulados matemáticos, siempre habra uno que tenemos que asumir. Rusell creía que la lógica podía justifica todos los postulados de las matemáticas.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 19 Mar 2014 22:29 #20826

  • Adu
  • Avatar de Adu
  • DESCONECTADO
  • Socrático
  • Mensajes: 131
  • Gracias recibidas 124
Bueno, hay un libro El fin de la física. Los límites de la ciencia de Jhon Horgan donde leí --fue hace tiempo y ya no recuerdo bien- la entrevista que le hicieron a Minsky y le preguntaban aquello de que Penrose y otros con su famoso teorema de Gödel echaba por tierra toda posibilidad de construir una mente artificial -basada exclusivamente en lógica, que es con lo que programan todo esto- y qué opinaba él. Y contestó que no tenía nada que ver. Pero yo creo que sí que tiene que ver y mucho. Me parece que hay una falta de entendimiento en este punto entre ambos oponentes -funcionalistas y naturalistas-. Y tiene que ver con el lenguaje, que se basa en la lógica y como todo sistema formal, según ese teorema, no puede ser al mismo tiempo completo y consistente (sin contradicciones). En resumen, que no se puede explicar a sí mismo. Por ejemplo, las matemáticas no se explican a sí mismas, necesitan fundamentarse en la lógica. Pero la lógica tampoco puede explicarse a sí misma, es inconsistente. Penrose utiliza este teorema para desmontar las pretensiones de los funcionalistas.

A lo que tú aludes Raven, es al también famoso Teorema de indecibilidad de Gödel, que también está relacionado con esto en cierta forma. Dice que en un sistema formal, al no poder ser coherente y cerrado por sí mismo, siempre habrá proposiciones que puedan ser verdaderas y que no puedan demostrarse dentro de ese mismo teorema.

Esto en lógica y en filosofía del lenguaje tiene que darse porque es importantísimo.

El lenguaje también es un sistema formal. Y aquí enlazo con lo que expuse hace unos días, también cuando comenté lo de la semántica. Esta mañana estuve leyendo el libro Filosofía de la Mente y Ciencia cognitiva de Rabossi, y hay un capítulo dedicado a Searle. En resumidas cuentas viene a decir lo que yo pensaba, aunque intuitivamente más que nada porque de filosofía del lenguaje tengo nulos conocimientos.

Olvidaros de la supuesta complejidad natural de la máquina cerebral humana. Esa no es la guerra de Searle, -aunque creo que es perfectamente compatible con Penrose-, sino la guerra de Penrose, que piensa que la física del cerebro es de nivel cuántico, y por tanto, no se puede modelizar como la física clásica. En realidad como ya dije a los funcionalistas les interesa el resultado, el programa en sí, no cuestiones neurofisiológicas por complejas que sean. Por más compleja que sea esa física podrá estudiarse. La física cuántica será compleja pero no obra milagros.

Pero hay una cuestión importante, que es el nudo gordiano de la postura de Searle y que creo no han entendido los funcionalistas. El quid de su argumento no es que no sea posible para los chips de silicio duplicar el poder causal del cerebro -eso es una cuestión fáctica que no ha de ser resuelta apelando a bases puramente filosóficas a priori. El quid sobre el que tenemos que centrarnos es que no podemos duplicar los poderes causales del cerebro sólo en virtud de instaurar un programa de computación, porque el programa tiene que definirse de forma puramente formal.

Hay una diferencia entre manipular los elementos sintácticos de los lenguajes y realmente comprender el lenguaje a nivel semántico. Es la diferencia entre sintaxis y semántica. Un programa informático ha de definirse en términos de sintaxis y hay una diferencia entre manipular los elementos sintácticos de los lenguajes y comprenderlo a un nivel semántico. Lo que se pierde en la simulación del comportamiento cognitivo de la IA es la diferencia entre ambas. Esto es importantísimo porque ahí radica la diferencia entre lo auténtico y real y lo simulado. Y sospecho que algunos no perciben el matiz, o eso parece, no sé.

Los programas de computación lingüística tienen tres niveles: sintaxis, semántica y pragmática, pero los tres niveles son computacionales, sintácticos. El programa es formal-sintáctico pero la comprensión formal de la comprensión del lenguaje nunca va a ser en sí lo mismo que la duplicación. ¿En qué se basa Searle? Porque en el caso de comprender mediante un lenguaje tenemos algo más que un nivel formal o sintáctico,la semántica. No manipulamos sólo símbolos formales no interpretados, sino también la interpretación. Y si tratamos de dar al computador una interpretación de los símbolos formales (lo que decía Nolano, codificar también eso formalmente, el significado) lo único que en realidad hacemos es darle más símbolos formales. Por definición el programa sólo es sintáctico. Señores, yo entiendo aquí claramente que nunca vamos a salir de la simulación por más información que le añadamos si es del mismo nivel o naturaleza. Lo formal no se explica o se referencia a sí mismo y nunca lo hará. Nunca habrá forma de pasar de la sintaxis a la semántica.

Los de la IA dicen que no soy yo quien comprende, sino el sistema, la habitación entera, el sistema que me contiene, o sea, el programa. Pero esta respuesta está sujeta a idéntica objeción. Asi como yo no tengo forma de pasar de la sintaxis a la semántica tampoco el sistema total, porque no deja de ser un sistema formal! y no puede explicarse a sí mismo introduciendo toda la información necesaria, no puede. El sistema nunca va a adquirir por milagro el conocimiento que encierra cualquiera de esos símbolos.

Instanciar un programa nunca va a ser posible que tener una mente, la mente es algo más que eso porque tiene contenidos semánticos. Es la mente lo que le da el significado.

Wittgenstein tardó lo suyo en reconocer que el significado del lenguaje remite siempre a lo cultural,que está fuera del lenguaje, y por tanto que éste no era una pintura de la realidad. Y la verdad es que a mi me parece obvio, pero en fin, no voy a meterme con alguien de su talla y tan reverenciado, pero vamos que se equivocó. Pues aquí pasa igual, hay gente que no va a entender nunca que el significado radica en la mente que lo interpreta no en el signo. Habría que ponerles delante el famoso cuadro de Magritte "esto no es una pipa" a ver si se caen del burro ya :lol:
Última Edición: 19 Mar 2014 23:54 por Adu.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: raven

¿Pueden pensar las máquinas? 19 Mar 2014 22:55 #20827

  • Adu
  • Avatar de Adu
  • DESCONECTADO
  • Socrático
  • Mensajes: 131
  • Gracias recibidas 124
pulpo escribió:
Esto es como todo lo log4radom hasta ahora. ¿Ibamos a llegar a la luna? El siguiente paso es a Marte, lugar de destino de indeseable que con el tiempo se volvió simpática como Australia.

¿Ibamos a descifrar el DNA? Ahí está el código genético para el que disponga de biblioteca.
¿Llegaríamos a fertilizar en probeta? Y del color que ud quiera y a conseguir ovejas Dolly . Es que caminamos a velocidad supersónica, ¿Como es posible que en un estadio de fútbol 100000 personas estén todas hablando a la vez por teléfono y enviando fotos de su figurita preferida y más aún gritando y llamando al árbitro

Bueno Pulpo, yo no es que quiera ser aguafiestas ni estoy en contra del progreso ni de superar siempre los límites, todo lo contrario! Incluso confieso que por inclinación natural siempre me ha tirado el funcionalismo :lol: Pero sabes por qué? En realidad siempre he sido de alma platónica! Y estoy con Searle también cuando dice que en su opinión si el funcionalismo tiene tanto tirón es porque todos en el fondo tendemos más al dualismo y no digamos ya aspirar a la inmortalidad! Pero cuando de verdad analizas y aplicas el sentido común el dualismo se queda en un "ya quisiera" sería precioso, pero... es misticismo. A todos, o casi todos, nos atrae pero eso de ciencia tiene poco, la verdad. Además el dualismo es la opción más simple y la única que tenemos de salir del embrollo de forma fácil, rápida y hasta chula, que suena todo a ciencia ficción, porque en mi opinión lo es. También está muy de moda cualquier analogía con lo informático y virtual, hay muchas razones y ninguna porque ellos hayan demostrado nada de su doctrina, para que sintamos simpatía por ellos y sus vaticinios de felicidad en ese mundo de seres perfectos que nos auguran en el futuro, donde ni siquiera tendremos que morir -si no queremos-.

En realidad, leyendo la entrevista a Minsky no puedo menos que sonreír por su candor, para qué pensar que nos engañe y obre de mala fe! En primer lugar si toda esa maravilla que vaticina pudiera llegar a realizarse un día. De verdad creeis que estaría al alcance de cualquiera? Vamos, hombre, que si a mí me dicen que me van a hacer un chequeo para mejorar mi inteligencia y ponerme la que necesito y hasta donde yo quiera voy a decir, no me quedo con esto, siempre querré ser más inteligente! Y eso quién se lo podrá permitir? Qué tipo de sociedad sería esa entonces? Prefiero no pensarlo, vamos! Por si no lo habéis notado está describiendo una sociedad eugenésica! Y todos sabemos el mal que ha acarreado eso cuando se intentó llevar a la práctica.

Y que si no quiero no tendré que morirme y seré inmortal! pero Dios mio! No va a haber sitio en la Tierra para tanta gente, y a algunos tendremos que aguantarlos por toda la eternidad! :evil: De verdad pensáis que eso sería tan fantástico como lo pinta? :whistle:

En algunas cosas le doy toda la razón y otras son totalmente rebatibles porque responde con puros sofismas! Es muy efectista eso sí. Miren con qué facilidad cambió el parecer del escéptico de turno :lol: :lol:

Y lo de que la consciencia se consigue añadiendo un programa de memoria a la máquina, perdonad pero me parece de puro chiste. Está claro que el concepto que tiene este señor de consciencia es muy peculiar porque la consciencia requiere memoria -inmedita- y otras cosas, pero no se reduce a la memoria, aplicada a procesos cognitivos superiores como él lo describe (en otros libros), y así es como dice que surge la consciencia. Yo todavía estoy esperando a que salga en las noticias. Logrado robot consciente por la I.A! Vamos, que si, de hecho él dice haber construido ya un robot consciente, y nadie le ha hecho caso, por algo será! :evil:
Última Edición: 19 Mar 2014 23:09 por Adu.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: raven

¿Pueden pensar las máquinas? 19 Mar 2014 23:18 #20830

  • Adu
  • Avatar de Adu
  • DESCONECTADO
  • Socrático
  • Mensajes: 131
  • Gracias recibidas 124
raven escribió:
Adu escribió:
Me da la sensación de que el cerebro es tan complejo, precisamente por ser un chapuz de la naturaleza, que se apaña con lo que tiene a cada momento y va construyendo complejidad así como en una Torre de Babel sin mucho orden y concierto, que no va a haber forma de conseguir eso que ellos pretenden, está nuestra mente capacitada para entender su propia complejidad? Entonces habría de estar un peldaño más arriba, para poder explicarse a sí misma. Vamos, que se sale de nuestros límites de capacidad. Ese es uno de los mayores inconvenientes que yo le encuentro a esto de la IA. Como dijo Gödel, aquello famoso de que un programa informático -la mente humana- no podrá nunca explicarse a sí misma.
Me parece que Gödel no dijo eso. Lo que Gödel decía (más o menos) con su teorema de incompletitud, es que hay proposiciones que no se pueden probar falsas ni verdaderas. Y enlazando con Turing (creo), llegamos al llamado problema de la parada, que es una reformulación del teorema de Gödel y viene a decir que no podemos explicar el funcionamiento de algunos programas de ordenador. Pero no tiene nada que ver con la autorreferencia a la que haces alusión. No se trata de que no se puedan explicar a sí mismos, sino que no hay un algoritmo general que pueda explicar cualquier programa.

Yo no creo que entender la complejidad de la mente esté fuera de nuestras posibilidades. El tiempo dirá.

Tú mismo lo dices, si no podemos explicar el funcionamiento de un programa computacional, y estamos diciendo, o dicen los funcionalistas, que la mente es un programa formal, cómo realizaremos el paso de codificarla en un programa entonces? :huh:

P.d: De algunos no, de todos. No hay excepción posible para ese teorema.
Última Edición: 19 Mar 2014 23:19 por Adu.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 21 Mar 2014 00:47 #20870

  • raven
  • Avatar de raven
  • DESCONECTADO
  • Aristotélico
  • Publico mis mensajes bajo licencia WTFPL 2.0
  • Mensajes: 335
  • Gracias recibidas 257
Adu escribió:
P.d: De algunos no, de todos. No hay excepción posible para ese teorema.
No, no es así. Hay programas tan sencillos que "explicarlos" es trivial. El problema de la parada consiste en determinar si un programa P, dada una entrada E, terminará en algún momento, o se quedará funcionando eternamente. Por poner un ejemplo claro, un programa puede ignorar su entrada y terminar inmediatamente. Explicar ese programa es trivial.
Tú mismo lo dices, si no podemos explicar el funcionamiento de un programa computacional, y estamos diciendo, o dicen los funcionalistas, que la mente es un programa formal, cómo realizaremos el paso de codificarla en un programa entonces? :huh:
Pues eso, que depende del programa.
De todos modos, el problema de la parada es muy fuerte. No necesitamos entender perfectamente el funcionamiento global del cerebro. Sólo necesitamos saber cómo funcionan sus subsistemas, y cómo se interconectan (y así recursivamente hasta llegar a un nivel de complejidad manejable para nuestro limitado cerebro funcional). Así se diseñan los microprocesadores; y uno moderno, con sus miles de millones de transistores, no tiene tanto que envidiar a un cerebro. Bueno, sí lo tiene; pero lo que quiero decir es que la comprensión de un micro ya es algo inabarcable. Comprender el cerebro me parece cuestión de añadir unos pocos niveles más de abstracción.
You do not need hope if you have drama to back you up.
Última Edición: 21 Mar 2014 01:28 por raven.
El administrador ha desactivado la escritura pública.
Tiempo de carga de la página: 0.250 segundos