Bienvenido, Invitado
Nombre de Usuario: Contraseña: Recordarme

TEMA: ¿Pueden pensar las máquinas?

¿Pueden pensar las máquinas? 16 Mar 2014 08:42 #20697

  • Nolano
  • Avatar de Nolano
  • DESCONECTADO
  • Escolástico
  • Mensajes: 4043
  • Gracias recibidas 4075
Adu escribió:
En el caso de los humanos sus decisiones no son tan invariables como en el caso de las máquinas, y puede que el quid de la cuestión esté en algo tan simple como que las máquinas funcionan siguiendo un código binario si-no (digital) y la mente funcione tal como un modelo analógico.

Eso no parece que sea así. Al menos el experto entrevistado aquí dice que el funcionamiento del cerebro humano es digital: El lenguaje, como casi todas las acciones humanas, consiste en transmitir señales electroquímicas, que vienen del cerebro, en movimientos mecánicos, como mover la lengua o levantar un brazo. Se trata de convertir señales digitales en otras analógicas, es un proceso poco eficaz. Algunos científicos dicen que el cerebro es un órgano analógico, pero eso no es del todo verdad. Funciona de forma parecida a como lo hace un ordenador. Las neuronas están abiertas para transmitir un impulso o no lo están; es como los unos y los ceros del código binario.

(Ya sé que eres "la" y no "el", Adu. Dije "el creador del hilo" en plan genérico, sin intención de señalar a nadie en concreto.)
Bin ich doch kein Philosophieprofessor, der nöthig hätte, vor dem Unverstande des andern Bücklinge zu machen.
No soy un profesor de Filosofía, que tenga que hacer reverencias ante la necedad de otro (Schopenhauer).


Jesús M. Morote
Ldo. en Filosofía (UNED-2014)
Esta dirección electrónica esta protegida contra spam bots. Necesita activar JavaScript para visualizarla
Última Edición: 16 Mar 2014 09:07 por Nolano.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 16 Mar 2014 20:43 #20702

  • Nolano
  • Avatar de Nolano
  • DESCONECTADO
  • Escolástico
  • Mensajes: 4043
  • Gracias recibidas 4075
Pues yo tampoco tengo ningún conocimiento especial en estos asuntos. Me limito a seguir el libro de Hierro-Pescador y algún artículo suelto que voy leyendo por ahí para llevar a cabo mi propia reflexión filosófica sobre la mente, la inteligencia y la conciencia. Pero es la única forma que veo de afrontar esta asignatura.

En relación con Searle y la semántica, y la presunta incapacidad de la IA para esta última, creo que Searle se equivoca. Creo que por sintaxis entendemos la mecánica de combinación de símbolos mediante conectores; y por semántica entendemos dos posibles cosas. La primera, la semántica de la referencia, consistente en la vinculación que se establece entre un símbolo y una realidad que es su referencia. La segunda, la semántica de las proposiciones, consiste en la atribución de un valor veritativo a una proposición, que nos permite decir que es verdadera o que es falsa.

Pues bien, no veo que las máquinas dotadas de IA tengan que carecer de dotes semánticas que el hombre sí tiene. Supongamos un ordenador que tiene una cámara conectada, a través de la cual "ve" el mundo. Vemos que se acerca un animal; en un momento dado yo digo: "es un perro". ¿Crees que el ordenador con su cámara no puede identificar que eso que se acerca es un perro, si tiene el programa adecuado? Posiblemente lo identificará antes que yo. Es más, aunque lo tenga delante de mis narices, yo no distinguiría un búfalo de un cebú, y posiblemente la máquina sí pudiera hacerlo. En cuanto a la semántica de las proposiciones, hasta una máquina tan simple como un termostato puede dar un valor veritativo a la proposición "aquí hace calor", y es lo que hace encendiendo o apagando la calefacción a la que está acoplado dicho termostato.

Por otro lado, en lo referente a la semántica de denominaciones y referencias, no hay nada en la realidad como "perro"; no hay nada en el mundo que tenga adosada por naturaleza una etiqueta que diga: "esto es un perro". Las denominaciones y los nombres comunes son juegos de lenguaje sociales. Eso desmonta la posibilidad de una semántica de las referencias entendida como el vínculo "cosa real"-"nombre".

En la habitación china de Searle hay una cierta "trampa" de planteamiento. Que el hombre que recibe la información del exterior escrita en chino no entienda el chino ni el mensaje que emite en respuesta no significa más que que ese hipotético hombre es una pieza de una máquina, que realiza tareas mecánicas. Decir que el hombre no entiende el chino y, por eso, una máquina no entiende el chino es como decir que el teclado de mi ordenador no entiende el chino y, por tanto, mi ordenador no entiende el chino. Si el ordenador recibe una entrada en chino y es capaz de contestar en chino de forma consistente, entonces entiende el chino. No se me ocurre otra forma de definir cuándo alguien entiende un idioma si no es mediante una conducta que manifieste que recibe mensajes en ese idioma y los responde en ese mismo idioma de forma consistente. De hecho es lo que hacen cuando te examinan para darte un nivel en una determinada lengua.

Finalmente, Alekhine nos podrá dar más información al respecto, seguramente. Pero creo, Adu, que estás un poco anticuada con Kasparov y Deep Blue. Creo que hace ya algún tiempo que hay ordenadores que vencen recurrentemente a los campeones humanos de ajedrez.
Bin ich doch kein Philosophieprofessor, der nöthig hätte, vor dem Unverstande des andern Bücklinge zu machen.
No soy un profesor de Filosofía, que tenga que hacer reverencias ante la necedad de otro (Schopenhauer).


Jesús M. Morote
Ldo. en Filosofía (UNED-2014)
Esta dirección electrónica esta protegida contra spam bots. Necesita activar JavaScript para visualizarla
Última Edición: 16 Mar 2014 20:52 por Nolano.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 17 Mar 2014 10:04 #20710

  • Kierkegaard
  • Avatar de Kierkegaard
  • DESCONECTADO
  • Escolástico
  • Mensajes: 2185
  • Gracias recibidas 1790
Salvo alguna lectura suelta, no he tenido el placer de meterme en estos temas con detenimiento. Aun así, ya que Pulpo me reclamaba un poco :), lanzo tentativamente algunas reflexiones.

1. Si cuando hablamos de si las máquinas pueden pensar, o lo que es lo mismo, si la Inteligencia Artificial es posible, es preciso preguntarse en primer lugar qué es la “inteligencia”, como bien habéis apuntado. Y me da la sensación de que la distinción que algunos pretenden hacer entre la inteligencia humana y la de una máquina sólo se cifra en que en el fondo desconocemos el detalle del mecanismo de aquélla, mientras que el de esta nos es bien conocido, dado que lo construimos. Pero, estoy con Nolano, no veo cómo puede considerarse que radicalmente estamos ante procesos distintos en lo que se refiere a experimentos como el de Searle: el ser humano, selectivamente modelado y culturalmente ejercitado, operaría con expresiones a las que otorgaría un significado como conjunto de usos que pueden dársele a dicha expresión, conforme a los juegos del lenguaje del segundo Wittgenstein. No veo por qué no puede plantearse que un ordenador pudiera acabar recogiendo y ponderando probabilísticamente estos usos hasta un punto lo suficientemente fino como para que no fuéramos capaces de saber distinguir entre una respuesta humana y la de una máquina. Que, de momento, no hayamos logrado atesorar en la memoria de una máquina semejante información no quiere decir que no podamos hacerlo algún día. No hay que olvidar que las máquinas podrán a día de hoy tener más memoria que nuestra memoria consciente; pero de la memoria que aquí estamos hablando es de aquella que tendría que recoger toda la información inscrita en nuestra constitución como seres humanos, es decir, fundamentalmente en nuestro genoma labrado por milenios de evolución (que nos predispone hacia la comprensión de ciertos significados y no otros) además de un complejo proceso de aprendizaje social potenciado por la plasticidad del anterior genoma (al estilo de la gramática universal de Chomsky). Quizá queda mucho por recorrer, pero no he visto ningún argumento consistente que a priori sea capaz de negar que algún día pueda llegar a realizarse.

2. Pero también es preciso preguntarse por qué significa “artificial”. En sentido estricto, a estas alturas de la historia, es difícil decir que exista algo genuinamente artificial, puesto que si el ser humano es un “producto” enteramente natural, no lo son menos sus respectivos “productos”. Esta matización viene al caso porque para que pudiéramos hablar de inteligencia de las máquinas, sería probablemente necesario que éstas llegasen a disponer de mecanismos semejantes a los que la naturaleza ha desarrollado en el caso de la inteligencia humana. Por ejemplo, uno de los principales síntomas de inteligencia, más allá del uso lingüístico, es la capacidad para construir herramientas o instrumentos, es decir, otras máquinas que nos permiten economizar esfuerzos y recursos. Y no hablo, por ejemplo, al nivel más complejo de un robot construyendo otro robot, ni tampoco al nivel más simple, de la capacidad de un programa informático de programar otro subprograma que le resuelva ciertas tareas. A lo que voy es que, probablemente, hasta que no seamos capaces de crear máquinas que puedan ser “creativas” en el sentido antes apuntado, es decir, generar espontáneamente respuestas no programadas previamente, no creo que podamos hablar de inteligencia.

Y ello nos lleva a la cuestión de qué se entiende por respuestas “imprevisibles”. Otro de los síntomas fundamentales de la inteligencia es la capacidad para aprender, de forma que puedan generarse respuestas diferentes a aquellas que originalmente hubieran dado ante entornos completamente nuevos. Las redes neuronales artificiales son un ejemplo de los intentos de construcción de estos procesos que resulta prometedor pero por lo que me consta no han sido capaces de estar a la altura de la complejidad de nuestra inteligencia biológica. Nada parece, no obstante, que pueda impedir que algún día lo sean.

P.D.: Efectivamente, Adu, estudiar Filosofía del Lenguaje para afrontar uno de estos experimentos te vendría de perlas.
Javier Jurado
@jajugon
Anímate a suscribirte
jajugon.substack.com/
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: pulpo

¿Pueden pensar las máquinas? 17 Mar 2014 10:47 #20711

  • SMRoncero
  • Avatar de SMRoncero
  • DESCONECTADO
  • Jonio
  • Mensajes: 17
  • Gracias recibidas 18
Bajo mi punto de vista quizá sería conveniente actualizar este tipo de experimentos mentales con determinados conceptos delimitadores, que incluso estamos utilizando para otras cosas. Se me ocurren a vuelapluma dos que, siendo consciente de mi limitado conocimiento en este tema, podrían incluirse en Searle:

- El ensimismamiento orteguiano: Ortega utiliza varias veces la introspección, el ensimismamiento, como característica fundamental y única del ser humano y que lo separa radicalmente del animal en su relación con el entorno alterado. Quizá una máquina pueda generar comportamientos únicos ante la alteración novedosa del entorno, pero ¿podría entrar en stand-by sin una razón aparente? ¿podría quedarse enfocando el infinito con su cámara HD de 100Mpx sin registrar absolutamente nada de manera libre y voluntaria?

- La capacidad de enfadarse; podemos considerar, con Sloterdijk, la ira como componente esencial de construcción de estructuras sociales en, al menos, la civilización occidental (orgullo, dignidad y la autoestima). Si al humano que no sabe chino de la habitación de Searle le pasan una nota, en chino, en donde insultan gravemente a su madre, probablemente se enfade bastante. O no. ¿Tendría esa capacidad un ordenador intérprete de símbolos chinos?

Un saludo, y espero no haber introducido ruido innecesario en este interesante debate.
Última Edición: 17 Mar 2014 10:48 por SMRoncero.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 17 Mar 2014 11:43 #20713

  • Kierkegaard
  • Avatar de Kierkegaard
  • DESCONECTADO
  • Escolástico
  • Mensajes: 2185
  • Gracias recibidas 1790
SMRoncero escribió:
Bajo mi punto de vista quizá sería conveniente actualizar este tipo de experimentos mentales con determinados conceptos delimitadores, que incluso estamos utilizando para otras cosas. Se me ocurren a vuelapluma dos que, siendo consciente de mi limitado conocimiento en este tema, podrían incluirse en Searle:

- El ensimismamiento orteguiano: Ortega utiliza varias veces la introspección, el ensimismamiento, como característica fundamental y única del ser humano y que lo separa radicalmente del animal en su relación con el entorno alterado. Quizá una máquina pueda generar comportamientos únicos ante la alteración novedosa del entorno, pero ¿podría entrar en stand-by sin una razón aparente? ¿podría quedarse enfocando el infinito con su cámara HD de 100Mpx sin registrar absolutamente nada de manera libre y voluntaria?

- La capacidad de enfadarse; podemos considerar, con Sloterdijk, la ira como componente esencial de construcción de estructuras sociales en, al menos, la civilización occidental (orgullo, dignidad y la autoestima). Si al humano que no sabe chino de la habitación de Searle le pasan una nota, en chino, en donde insultan gravemente a su madre, probablemente se enfade bastante. O no. ¿Tendría esa capacidad un ordenador intérprete de símbolos chinos?

Un saludo, y espero no haber introducido ruido innecesario en este interesante debate.

1. Sobre el ensimismamiento: aunque "sin una razón aparente", creo que siempre disponemos de razones sociobiológicas para nuestro comportamiento, aunque todavía podamos no conocer muchas de ellas. Hablar de que este comportamiento es “libre y voluntario” es una cuestión altamente controvertida: habría que demostrar en qué sentido el comportamiento humano es libre y el de la máquina no lo es (lo que indudablemente nos lleva al tema de la capacidad “creativa” que antes mencionábamos).

Volviendo al ensimismamiento, cuando nos ensimismamos ¿dejamos de pensar en algo? ¿o en realidad nos estamos abstrayendo del entorno inmediato y estamos pensando en otras cosas? ¿no es tremendamente útil para la interacción social y la supervivencia biológica en última instancia esta capacidad de abstracción? ¿y en cierto modo no sucede eso con una máquina que, aun manteniendo sus sensores abiertos, los deja en segundo plano de ejecución y dedica otros hilos de proceso a ejecutar otras operaciones? Y en otro sentido, ¿es ese ensimismamiento algo exclusivamente humano? ¿no se quedan aparentemente ensimismados muchos simios?

2. De nuevo, la capacidad de enfadarse tiene toda la pinta de ser un producto natural que regula nuestra propia afirmación biológica como individuos. La violencia no es patrimonio exclusivo del ser humano, y tampoco la ira, como demuestran cientos de especies animales irritadas de alguna u otra forma. La sutileza que puedas encontrar en la ira humana no son sino expresiones más complejas del mismo fundamento. Sería entonces una cuestión de grado y no cualitativamente distinta. Si para asegurar su supervivencia, una máquina tuviera en su programación una respuesta violenta o iracunda ante cualquier posible agresión, ¿no la ofrecería sin duda?

P.D.: En cualquier caso, creo que no has entendido bien el experimento de Searle, pues el humano que no sabe chino de la habitación de Searle no podría entender que están insultando gravemente a su madre, por lo que ni se inmutaría. Simplemente respondería según su manual con una expresión que bien pudiera ser un insulto, pero sin saberlo.
Javier Jurado
@jajugon
Anímate a suscribirte
jajugon.substack.com/
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: pulpo

¿Pueden pensar las máquinas? 17 Mar 2014 11:50 #20714

  • SMRoncero
  • Avatar de SMRoncero
  • DESCONECTADO
  • Jonio
  • Mensajes: 17
  • Gracias recibidas 18
Gracias Kierkegaard.

Creo que no he explicado bien, ni mucho menos, lo que quería decir con la habitación de Searle. A lo que me refería es que la interpretación simbólica es relevante, entre otras cosas claro, para esa generación de respuestas iracundas.

Un saludo.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 17 Mar 2014 15:43 #20716

  • Nolano
  • Avatar de Nolano
  • DESCONECTADO
  • Escolástico
  • Mensajes: 4043
  • Gracias recibidas 4075
Gracias a Kierkegard y SMRoncero por incorporarse al debate. Intentaré ser breve sobre algunas cosas que se han suscitado.

En primer lugar, a Adu: no he entrado en la cuestión de la "intencionalidad" porque merece un debate aparte del que aquí mantenemos sobre el funcionalismo. De momento me he limitado al concepto funcionalista de mente.

En segundo lugar, me gustaría hacer alguna aclaración terminológica, para no estar dando vueltas en un círculo vicioso en esta cuestión. Que atribuyamos a los hombres el pensamiento, la inteligencia o procesos mentales y que, a la vez, se los podamos atribuir a una máquina no quiere decir necesariamente que la máquina es un hombre. Por ejemplo, la máquina no tiene necesidades fisiológicas (o son de naturaleza muy diferente a las humanas) y el hombre sí.

Creo que hay en todo esto un frecuente equívoco que conviene deshacer cuanto antes. El equívoco procede de este falso razonamiento: el hombre es tal si, y sólo si, piensa (el pensar es condición necesaria y suficiente de la "humanidad"). Luego cualquier cosa que piense es un hombre. Pero una máquina no es un hombre (no nace ni se desarrolla ni se reproduce ni muere biológicamente). Luego: una máquina no piensa.

Creo, sin embargo, que el pensamiento no es condición suficiente para ser hombre; sólo es condición necesaria. Por lo tanto la máquina puede pensar y no ser hombre.

Pero para que mi razonamiento anterior, especialmente la proposición: "el pensamiento es condición necesaria pero no suficiente para ser hombre", sea válido tenemos que considerar el pensamiento como algo que puede existir separadamente de otros atributos que son necesarios para ser hombre y que, en conjunción con el del pensamiento, son condición necesaria y suficiente para ser hombre. Me parece que la mayoría, si no todos, los argumentos en contra del pensamiento de la máquina van por ahí: pero la máquina no tiene vida biológica, la máquina no tiene sentimientos, la máquina no tiene apetitos, etc. Entonces el debate sobre la mente es un debate sobre el hombre en su totalidad y la máquina, por mucha IA que tenga, no podrá pensar (pues no tendrá los restantes atributos que en el hombre van unidos al pensamiento en un cuerpo biológico). En tal caso la Filosofía de la mente se convierte en una Filosofía del hombre, tal vez en una Antropología Filosófica; pero, entonces, no cabe hablar de "pensar" y habría que sustituir ese verbo por otro omnicomprensivo de toda actividad humana, algo así como "humanear". Y no había mayor tontería o truismo que decir que el hombre es un "ser que humanea"; esa es una proposición huera.

Finalmente otra observación a Adu, que no parece dispuesta a renunciar al lugar privilegiado que el hombre se ha autoasignado en el Universo. En una partida de ajedrez el hombre no evalúa todos los posibles movimientos que puede hacer, sino que, previamente, selecciona los que son estratégicamente válidos, desechando los que, de entrada, le parecen absurdos (aunque posibles según el reglamento del juego). La máquina, en cambio, analiza todos los movimientos, pues no tiene esa capacidad previa de selección y consiguiente reducción del problema. Por eso, desde un momento inicial en que un jugador competente derrotaba fácilmente a un ordenador (con una capacidad no muy grande para analizar datos), conforme los ordenadores han ido incorporando más y más memoria de proceso útil han ido derrotando al jugador humano. El jugador humano tiene un rasgo, posiblemente fruto de su evolución biológica: que puede "seleccionar" rasgos relevantes, lo que lo habilita para no tener que tomar en consideración todos los datos disponibles, lo que, como bien ha dicho Adu, le impediría reaccionar con la suficiente celeridad ante riesgos inminentes con la consiguiente pérdida de capacidad de supervivencia.

Pero eso tiene un inconveniente, que el hombre está naturalmente predispuesto a tener "sesgos cognitivos". Y eso, que le permite evaluar con mayor rapidez, hace que la racionalidad del análisis se resienta, y es un rasgo que perjudica al propio hombre, pues le hace equivocarse. Ver aquí.

Pongo dos ejemplos. En el manual de Antropología Cognitiva, Velasco da la información de que, según los estudios al respecto, prácticamente el 90% de la gente da como bueno un razonamiento de modus ponens. Sin embargo, casi la mitad de la gente piensa que un razonamiento de modus tollens no es válido. Ningún ordenador rechazaría un modus tollens.

En el enlace que facilité al artículo sobre el sesgo cognitivo en las sentencias de los Tribunales se cuenta un hecho real. El Tribunal Supremo juzgaba un caso de posible delito de orden financiero. Para que se diera el delito debían haberse producido necesariamente tres hechos, cada uno de los cuales tenía una probabilidad, dadas las pruebas disponibles, del 80% de que realmente se hubiera producido. El Tribunal Supremo condenó al imputado, al considerar probada razonablemente su culpabilidad. Sin embargo, la probabilidad de que se hubieran producido los tres hechos sobrepasa en muy poco el 50%; es decir, que había una duda muy razonable de que el acusado no hubiera cometido el delito. Pero así funciona la mente del hombre.
Bin ich doch kein Philosophieprofessor, der nöthig hätte, vor dem Unverstande des andern Bücklinge zu machen.
No soy un profesor de Filosofía, que tenga que hacer reverencias ante la necedad de otro (Schopenhauer).


Jesús M. Morote
Ldo. en Filosofía (UNED-2014)
Esta dirección electrónica esta protegida contra spam bots. Necesita activar JavaScript para visualizarla
Última Edición: 17 Mar 2014 15:47 por Nolano.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: pulpo

¿Pueden pensar las máquinas? 17 Mar 2014 20:39 #20719

  • HermesT
  • Avatar de HermesT
  • DESCONECTADO
  • Estoico
  • Mensajes: 745
  • Gracias recibidas 1113
¿Pueden pensar las máquinas?

Obviamente, no, salvo reducción ad hoc del término "pensar" hasta que admita un sí.

Una máquina es una herramienta fabricada por el ser humano para superar sus limitaciones naturales y amplificar sus capacidades de transformación del medio. En el caso que nos ocupa, tales máquinas gozan de una ventaja clara, que es una capacidad de cálculo muy superior a la del humano promedio. Además, admiten una programación que permite aplicar tal capacidad a propósitos concretos. Por tanto, su inteligencia será la que sus programadores sean capaces de otorgarle. Y en este sentido hay que reconocer que la incorporación a la robótica y la informática de herramientas como las "fuzzy logics" permite creaciones muy interesantes. Hay incluso programas que hacen sus pinitos en matemáticas, demostrando teoremas de manera similar a un ser humano, a veces por métodos bastante creativos.

Pero creo que no es válido el argumento de que si uno pierde una partida de ajedrez con una máquina, o no es capaz de discernir si habla con un humano o con una máquina, de ello se deduzca que la máquina piensa. Aceptando esto, el señor David Copperfield hizo desaparecer la Estatua de la Libertad, dado que los presentes en la función pudieron ver que así era.

¿Qué requisitos debería cumplir en mi opinión una IA? Irían más o menos por aquí:

Tal IA debería residir en un ente autónomo que tuviera una capacidad de adaptacion al medio cuyo límite fuera únicamente físico. Especialmente, debería ser capaz de imcumplir, renunciar o modificar cualquier premisa o curso de actuación tomado previamente en función de las circunstancias a voluntad. Y esto último me parece muy difícil si no se admiten al menos un par de atributos más: una conciencia de sí y un desempeño no algorítmico.

Porque hasta la fecha, todas las virguerías con las que la cibernética nos obsequia -cuyo último ejemplo de masas bien podría ser el famoso SIRI de Apple- no es más -ni menos- que el esfuerzo de un equipo ingente de humanos trabajando durante años para conjuntar técnicas que van desde la ligúística al reconocimiento de voz pasando por la psicología y la antropología y muchas otras en un sistema complejísimo que entretiene por su apariencia de inteligencia mientras cumple con su cometido que es, como decía al principio, el ser una herramienta.

Por útimo, apuntar muy someramente una tecera vía que permitiría conciliar la visión monista actualmente aceptada con el dualismo cartesiano tomado casi como disparate hoy día.
Como ya he expresado alguna vez, una de las ideas más sugerentes para mí en la actualidad en filosofía de la mente es la tesis de Penrose de la naturaleza cuántica de la conciencia. Así, se mantiene el monismo puesto que "el mundo cuántico" es el cimiento de nuestra realidad física y de ésta surge la vida y la inteligencia. Pero tal conciencia se regiría por los mecanismos absurdos y contradicciones que la teoría cuántica nos muestra, mientras que se aplicaría en un entorno donde aquellas leyes (apenas) se aplican en el devenir cotidiano. Absurdos y contradicciones que lo son en virtud de abordar la materia con parámetros -mejor, con una escala-que son los que nos han servido evolutivamente para llegar a dónde estamos, puesto que nos han permitido sobrevivir en este nuestro entorno "macro", de aquí o allí, de causa y efecto, de ayer hoy y mañana.

Así, un pensamiento no algoritmico es capaz de desempeñarse a las mil maravillas en un entorno algorítmico como es el mundo macro que nos ocupa. Pero el camino inverso no es viable, o no al menos en apariencia. Intentar asir una forma de pensamiento no algorítmico con herramientas algorítmicas -como son las ciencias positivas- llevaría a callejones sin salida o absurdos lógicos (abasurdos, de nuevo, desde una perspectiva macro). Recogiendo un poco el ejemplo de Nolano, ¿cómo dar con las leyes de la termódinamica si actúas como un termostato?

La resultante de esto, para mí, es la percepción -o apariencia o emergencia- de un khorismós aparentemente insalvable hoy día entre la forma de pensamiento que parece ser la más refinada en términos lógicos (el razonamiento discursivo en términos postivistas) a la que ha llegado el ser huamano, que abordaría el problema con unas herramientas incapaces de acercarse siquiera al origen de lo que pretende dilucidar, que es el propio origen de sí mismo. Nótese que emergencia aquí describe un proceso inverso al comunmente aceptado, es decir, que la conciencia no emerge de interacciones físicoquímicas, sino que sería una reducción que se da en el paso del mundo micro al macro, especialmente, en un proceso llamado decoherencia que es uno de los frentes más interesantes de la física hoy.

Si Ortega tiene razón, entonces tal khorismós es insalvable -es imposible que algo se explique a sí mismo-. Si Penrose tiene razón...entonces antes de pronunciarmos urge un deasrrollo de la teoría que concilie gravedad y cuántica y los descubrimientos que pueda depararnos...aunque lo que conocemos de tal mundo micro no invita al optimismo.

Saludos.
Bienaventurados los que lo tienen claro, porque de ellos es el reino de los ciegos.(J.M. Serrat)
There is no shallow end to the philosophical pool.(P.F. Strawson)
A very great deal more truth can become known than can be proven.(Richard P. Feynman)
Quiero tortilla: no me interesa romper huevos :-P
Última Edición: 17 Mar 2014 21:07 por HermesT.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: pulpo

¿Pueden pensar las máquinas? 17 Mar 2014 22:14 #20724

  • neurometafisico
  • Avatar de neurometafisico
  • DESCONECTADO
  • Platónico
  • Mensajes: 199
  • Gracias recibidas 32
Yo me preguntaría si es que acaso podemos pensar libremente los seres humanos, antes que cuestionar lo muismo respecto de las máquinas.
¿Por qué digo esto?
Aunque parezca extraño, nosotros no controlamos lo que pensamos, los pensamientos llegan y se van. Intenten retener un pensamiento más de 10 segundos y comprenderán lo que quiero decir.
La forma más simple de percatarse del fenomeno es cuando estamos echados tranquilos en la cama o en una playa, y observamos la divagación de nuestros pensamientos.
La situación no es diferente cuando estamos focalizados, ya que en ese caso son los estímulos externos los que detereminan el surgimiento de un cierto tipo de pensamiento más uniforme.
Es más, parecería que hay una imposibilidad lógica, ya que para decidir lo que quiero pensar, tendría que surgir un pensamiento que me habilite a ello.. y quedamos encerrados en el mismo círculo.
Esto no es menor, ya que si constatamos que lo que digo es correcto, todo el tema de la libertad y voluntad humana queda en entredicho.
Saludos
Última Edición: 17 Mar 2014 22:16 por neurometafisico.
El administrador ha desactivado la escritura pública.

¿Pueden pensar las máquinas? 18 Mar 2014 01:13 #20736

  • Kierkegaard
  • Avatar de Kierkegaard
  • DESCONECTADO
  • Escolástico
  • Mensajes: 2185
  • Gracias recibidas 1790
Nolano escribió:
En una partida de ajedrez el hombre no evalúa todos los posibles movimientos que puede hacer, sino que, previamente, selecciona los que son estratégicamente válidos, desechando los que, de entrada, le parecen absurdos (aunque posibles según el reglamento del juego). La máquina, en cambio, analiza todos los movimientos, pues no tiene esa capacidad previa de selección y consiguiente reducción del problema.

Sólo a modo anecdótico diré que la máquina, gracias a la programación que tiene, no opera habitualmente por “fuerza bruta”. La “inteligencia” impresa en un programa informático puede ahorrar muchos recursos (tiempo, consumo de CPU, memoria…). Hay ejemplos sencillos: para determinar un número dada una distribución de ellos, suponiendo que podemos ejecutar la comprobación “mayor o menor que otro número dado”, algunas técnicas se han revelado como más eficientes en términos temporales. Así sucede con la técnica llamada de “divide y vencerás”. Otro ejemplo también sencillo es el del descifrado de claves: frente al ataque por fuerza bruta, que podría empezar a probar todas las combinaciones posibles con repetición de n elementos tomados de p en p (una barbaridad a poco que sean n y p para el que maneje nociones básicas de combinatoria matemática) resultan más eficientes otros mecanismos, como por ejemplo, los “ataques por diccionario”: antes es preferible probar palabras que existan en un diccionario, fechas, etc. Son menos y mucho más probablemente elegibles por el usuario. Así que, desconociendo cómo funcionan los programas de ajedrez, aunque pueda parecer que los minutos que un humano tiene para elegir el siguiente movimiento son un “universo” para una máquina, las posibilidades son tantas que probablemente lleven implementados atajos de este modo que les ahorren calcular probabilidades de éxito para todos y cada uno de los posibles movimientos.

HermesT escribió:
¿Pueden pensar las máquinas?

Obviamente, no, salvo reducción ad hoc del término "pensar" hasta que admita un sí. […]

Porque hasta la fecha, todas las virguerías con las que la cibernética nos obsequia -cuyo último ejemplo de masas bien podría ser el famoso SIRI de Apple- no es más -ni menos- que el esfuerzo de un equipo ingente de humanos trabajando durante años para conjuntar técnicas que van desde la ligúística al reconocimiento de voz pasando por la psicología y la antropología y muchas otras en un sistema complejísimo que entretiene por su apariencia de inteligencia mientras cumple con su cometido que es, como decía al principio, el ser una herramienta.

Creo que es importante aclarar que, dado que éste no es un foro de discusión de ciencia o tecnología, lo que tiene sentido plantearse aquí es si las máquinas podrían llegar a pensar en el mismo sentido en el que lo hacemos los humanos. No es especialmente relevante el hecho de que a día de hoy no sean capaces.

HermesT escribió:
Tal IA debería residir en un ente autónomo que tuviera una capacidad de adaptacion al medio cuyo límite fuera únicamente físico. Especialmente, debería ser capaz de imcumplir, renunciar o modificar cualquier premisa o curso de actuación tomado previamente en función de las circunstancias a voluntad. Y esto último me parece muy difícil si no se admiten al menos un par de atributos más: una conciencia de sí y un desempeño no algorítmico.

Parece, HermesT, que cifras la capacidad de pensar en esa voluntad. En ese caso, la carga de prueba reside en quien postula que en el hombre hay algo así como una “voluntad libre” que no viene de alguna forma “programada” por su genética y “configurada” por su entorno social, que es lo que últimamente la ciencia parece indicarnos como más verosímil. Hasta que llegue esa prueba, no veo de qué serviría el argumento para rechazar que a priori una máquina pudiera pensar. Pues si la IA llega a ser capaz de aprender, es decir, de ser configurada por su entorno social a partir de su programación original… ¿en qué se diferenciaría del comportamiento “inteligente” del hombre y qué papel se supone que la voluntad ejercería en dicho comportamiento? ¿Es que acaso la capacidad de aprendizaje e interacción social no viene de algún modo programada en nuestro ADN? ¿Y no es nuestro comportamiento entero un desempeño algorítmico a partir de dicho ADN que modifica su curso en función de agentes externos – desde el clima en el que nacemos hasta los individuos con los que nos relacionamos, pasando por aquellas opciones que "nos parecen" más "razonables"?

HermesT escribió:
una de las ideas más sugerentes para mí en la actualidad en filosofía de la mente es la tesis de Penrose de la naturaleza cuántica de la conciencia.

El tema de la intencionalidad o el problema de la libertad da para mucho, y probablemente desvíe el hilo. De ello hemos hablado en multitud de ocasiones. Me viene a la mente aquellos hilos de la asignatura de metafísica a propósito de Strawson que compartimos Nolano y yo; sobre ello también está el trabajo de Nolano sobre el clinamen en la sección de Descargas; y sobre ella ando ahora en un trabajo para Filosofía de las Ciencias Sociales, Reduccionismo determinista y explicación intencional. En muchos de estos sitios hemos especulado con esta idea que desconocía que manejaba Penrose (no sé si tiene antecedentes). Y no me interesa tanto entrar en el carácter ontológico o puramente epistemológico de esa incertidumbre de la mecánica cuántica, de la que también hemos hablado. Pero creo que ello no resolvería el problema, en el fondo, de esa “libre voluntad”, capaz de salirse del desempeño algorítimico que le atribuyes al hombre frente a la máquina. Sobre ello, un fragmento del trabajo que sigo perfilando (disculpad la extensión):

La limitación inherente a nuestro propio lenguaje, como insalvable condición de posibilidad epistémica, y que describíamos en términos de la jaula de Wittgenstein, puede que siga atándonos y en realidad anule de facto cualquier posibilidad de resolver este problema pues, aun cuando ubicásemos esa suerte de voluntad libre tras del comportamiento azaroso del mundo cuántico, ¿en qué socavaría ello la estructura determinista de la realidad? ¿No sería el determinismo más bien y al contrario un prerrequisito, como argumentó Hume, para la propia evaluación moral? Pues si las causas últimas de la acción intencional son puramente azarosas, no puede exigirse responsabilidad. Y si ella está determinada, tampoco. Sólo una ruptura de la cadena causal en la identidad cerrada y oscura de un yo, origen de la acción podría habilitar el juicio ético.

En cualquier caso, probablemente el problema resida, como algunos autores han planteado, en que los términos libertad y determinismo pertenecen a lenguajes disjuntos, pues la libertad es una noción en el orden en el que la identidad del individuo está clara, y el determinismo ha proseguido en un nivel en el que ha venido a descomponer tal identidad, de forma que nunca pueden cruzarse. Por tanto, las explicaciones intencionales de las ciencias sociales puede que nunca lleguen a ser reductibles a las fisicalistas, puesto que, desde un comienzo, de lo que se trataba era de resolver dos puzles diferentes. Así lo planteaba el genial Locke:

“¿Cuándo el albedrío de un hombre es libre o no lo es? La pregunta en sí es impropia y es insignificante preguntar si un hombre será libre, así como preguntar si su sueño será rápido, o si su virtud cuadrada: la libertad no es muy aplicable al albedrío, así como la rapidez del movimiento a un sueño, o el ser cuadrado a la virtud. Cada uno puede reírse de lo absurdo de esa pregunta o de cualquiera de las anteriores: porque es obvio que las modificaciones en el movimiento no pertenecen al sueño, ni la virtud depende de su figura; y cuando alguien lo considera, creo que su albedrío percibirá que la libertad, que es un poder, pertenece únicamente a los agentes y no puede atribuir o modificar el albedrío, que también es únicamente un poder”.

La jaula del lenguaje de Wittgenstein vuelve a hacer acto de aparición: en nuestra comprensión del mundo mediada por el lenguaje se produce la simplificación o categorización de las diferentes fuentes de información que nos impactan. Así, esta simplificación permite a nuestro cerebro economizar esfuerzos y razonablemente ser capaz de asimilar e interpretar la desbordante información que obtiene de la multitud de estímulos que afectan a nuestros sentidos para su supervivencia. Esta simplificación propia del sentido común o simplificación intuitiva (como en la folk psychology) inevitablemente ha recibido buena parte de la crítica que la metafísica tradicional ha recibido de la mano de muchos pensadores hasta nuestros días. Hume destaca entre ellos, pues la noción de “sustancia” no deja de ser una fórmula oscura que en realidad recoge no más que la presencia repetida de un conjunto nuclear de caracteres que llamamos sustantivos frente a otros que van y vienen y que llamamos accidentales. Locke ya lo advirtió. Pero Hume llegaría aún más allá cuando abordase incluso la idea misma del yo, descartando su substare, al considerarlo a lo sumo un haz de representaciones: para su sostén no puede ofrecerse experiencia alguna que no sea la de éstas.

El problema que presenta esta simplificación en realidad se encuentra enormemente emparentado con la propia práctica científica, que también necesita catalogar de alguna forma la realidad, estableciendo relaciones entre las entidades que ha pretendido definir. Pero esa delimitación viene herida de raíz. De ahí el problema de la divisibilidad al infinito que tanto trajo de cabeza a los debates entre cartesianos y newtonianos. Aun hoy es difícil saber quién tenía razón, pues aunque Descartes y su éter omnipresente pareció ser desbancado por los siglos tras Newton y sus átomos en el vacío ejerciendo fuerzas a distancia, la ciencia del último siglo nos ha hablado de espacio-tiempos plegables al efecto gravitatorio, y de partículas subatómicas sobre las que se asientan las fuerzas que clásicamente hemos conocido. Y es que, mientras la ciencia favorece a unos o a otros en función de su éxito predictivo, su corroboración empírica o su capacidad de síntesis, el problema, probablemente, sigue siendo de índole filosófico, y ya fue planteado al menos desde la paradoja sorites de Eubúlides de Megara, también conocida como la paradoja del montón: ¿En qué momento un montón de arena deja de serlo cuando se le van quitando granos? Las propiedades con las que conceptualizamos el mundo resultan a la postre ser siempre inconsistentes.

Así pues, en la aproximación al yo como sujeto de la acción intencional y del libre albedrío que opta por ella, el problema no sería distinto y nos introduce de lleno en el mundo de la filosofía de la mente: ¿Dónde está la “esencia”, lo fundamental, lo imprescindible, lo nuclear de una “sustancia”, de una realidad, de un ente, como para considerar que si llegase a carecer de ella, dejaría de ser tal cosa? Amputar un brazo, no nos hace menos hombres. O una pierna. Dejarnos sin cerebro parece que sí, básicamente porque nos mata. Pero ¿qué hay de una alteración de cierta zona del cerebro que elimine nuestros recuerdos? ¿No es el Alzheimer una enfermedad que distorsiona, si no mata, ese yo? ¿Dónde reside, pues, el autor en su operación sobre el mundo como para ser considerado libre?

La filosofía del lenguaje, como decía, también parece aportar a este problema, pues el lenguaje estructurado sobre categorías del sentido común – como venía a denunciar Eubúlides – es del todo pragmático. De ahí algunas de las teorías como la del racimo (cluster) de Wittgenstein y que tan infructuosamente criticó Kripke: el significado de los nombres que damos no es sino el conjunto de las descripciones con los que se puede identificar el nombre, estructuralmente unidas por relaciones como en un racimo y probablemente jerarquizadas hasta cierto punto que nos hagan decidirnos por aquellas descripciones nucleares de aquellas otras que no lo son. Una jerarquía, en cualquier caso, definida pragmáticamente.

En tal caso, el yo sujeto de la acción intencional no sería sino un constructo social, y por tanto la libertad inherente a dicha acción también lo sería: un agregado estructurado de las convenciones que hemos dispuesto para considerar que un sujeto es libre: estar determinado por causas que nos sean básicamente desconocidas. Spinoza, otra vez.
Javier Jurado
@jajugon
Anímate a suscribirte
jajugon.substack.com/
Última Edición: 18 Mar 2014 01:15 por Kierkegaard.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: HermesT
Tiempo de carga de la página: 0.188 segundos