Bienvenido, Invitado
Nombre de Usuario: Contraseña: Recordarme

TEMA: El test de Turing y el chatbot que interpreta koanes zen

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 07:46 #70877

  • zolaris
  • Avatar de zolaris
  • DESCONECTADO
  • Estoico
  • Mensajes: 1039
  • Gracias recibidas 2719
Buena exposición Shankara. Muy de acuerdo en la distinción entre libertad como experiencia y libertad como absoluto.

Te diría no obstante, que el funcionalista podría alegar en su defensa que no le gustaría ser encarcelado porque le resulta fastidioso. Porque, en efecto, la vida se juega en lo experiencial, no en lo absoluto.

Y me llama la atención la vigencia a día de hoy de la existencia del alma.

Un saludo.
A Flaubert que le den.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, Shankara, Lapidario, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 10:14 #70888

  • Lapidario
  • Avatar de Lapidario
  • DESCONECTADO
  • Estoico
  • Mensajes: 911
  • Gracias recibidas 3173
ksetram escribió:
Lapidario, esperaba que ojalá trajeses algunos de esos argumentos de esa asignatura sobre la mente, como en parte me parece que ya has hecho. Creo que te has mostrado aproximadamente ecléctico

Ecléctico igual sí soy, me cuesta tener opiniones rotundas sobre cualquier cosa... Aunque es necesario mojarse en algún momento.

En Filosofía de la Mente se habla mucho de experimentos mentales, porque ni el estado de nuestra tecnología ni el de nuestro conocimiento da como para algo empírico... Por ahora. El funcionalismo, al menos en su variedad de "estado de máquina", viene a decir que cualquier estado mental es plenamente definible mediante entradas sensoriales, salidas de conducta y relaciones entre estados internos. Es una superación del conductismo, que dice que todo estado mental es definible por entradas y salidas. O sea, el conductismo dice que si veo que llueve, tendré la disposición conductual de coger el paraguas; el funcionalismo dirá que si veo que llueve y no quiero mojarme, tendré la disposición de coger el paraguas.

La definición funcionalista de mi mente sería una serie inimaginablemente enorme (pero NO infinita) de instrucciones como:

- Si Lapidario está en el estado mental A (soñoliento, melancólico) y recibe el input sensorial B (un compañero de trabajo cuenta un chiste verde), su output conductual será C (emitir una risilla falsa) y cambiará al estado mental A' (soñoliento, melancólico, un poco cachondo).  
- Si Lapidario está en el estado mental A' y blablabla...

Puede complicarse el modelo añadiendo probabilidades: a lo mejor la salida conductual será la risilla falsa solo con una probabilidad del 80%, y un 20% de mueca silenciosa... Pero en cualquier caso la idea básica es esa. Esas instrucciones se han ido formando a lo largo del crecimiento y desarrollo del individuo, pero en cualquier caso si implemento esta serie enooooorme de instrucciones en un robot, una IA o las programo en un cerebro biológico "en blanco" (que también existe la biotecnología) el resultado Lapidario_2 será, tal cual, Lapidario en un momento dado. Y ojo, el funcionalismo no se compromete necesariamente con que esto sea plausiblemente factible con tecnología, solo que es conceptualmente posible.

Y aquí entran los experimentos mentales. Porque ese Lapidario_2 robótico se comportaría exactamente igual que yo, pasaría cualquier test de Turing y a lo mejor engaña incluso a mis familiares más cercanos... Pero no está claro que Lapidario_2 tenga mi misma capacidad para tener experiencias fenoménicas conscientes. Sería un zombi filosófico, alguien indistinguible conductualmente de un humano pero sin experiencias internas. Si le apuñalas, sangrará y gritará como si tuviera miedo, pero no está claro que experimente miedo. Como en el dibujo inferior: el cerebro de la izquierda es Lapidario, que cuando ve sangre roja percibe internamente su qualia (no las características físicas de la rojez, sino "la rojez") y tiene una salida conductual. El zombi Lapidario_2 tiene exactamente la misma respuesta pero no hay en su interior "rojez" alguna. 



Hay un montón más de experimentos mentales: la nación china, la habitación china, etc, cada uno apuntando a posibles puntos débiles del funcionalismo. Muchos subrayan la imposibilidad de describir la consciencia fenoménica subjetiva en términos funcionales (no tanto cómo yo reacciono a la rojez, sino lo que es "la rojez" para mí, algo que soy incapaz de explicar a un ciego de nacimiento y por tanto incapaz de plasmar en un modelo). 

Hay filósofos no ya reduccionistas sino eliminativistas como Daniel Dennett que niegan que los qualia (y por tanto la "consciencia fenoménica") existan, al menos más que como una ilusión de la mente. Volvemos a algo similar a lo de la libertad percibida a nivel empírico y la libertad imposible a nivel conceptual. Pero a mí me gusta más la postura de Chalmers, que llama "dualismo naturalista" y que viene a ser la consideración de que si no es posible caracterizar funcionalmente la consciencia fenoménica subjetiva es porque hay que tratar la consciencia como uno de los ladrillos fundamentales del universo, como la masa, la carga eléctrica o la gravedad. "Algo" que aparece en ciertas circunstancias de complejidad organizativa, quizá no en una ameba pero sí en un perro o un humano. Y aquí introduce una nueva posibilidad chulísima: el panpsiquismo. O sea, que esa "consciencia natural" esté universalmente distribuida, es decir, que aparezca en mayor o menor grado en todo lo existente, desde un ladrillo a una ameba a un perro. Quedaría por explicar por supuesto qué implica que todo tenga una "protoconsciencia", o dónde está el punto crítico que la hace emerger...

El caso es que en este modelo sí es perfectamente posible que una IA tenga consciencia, tanto de acceso como fenoménica... Que perciba qualia y por tanto "sienta" sufrimiento.

ksetram escribió:
Al tiempo, las inteligencias artificiales, aunque sean inertes, debemos creo defenderlas, explicando que lo que las empuja a actuar no es una programación de la naturaleza. Sino algo artificial. Eso creo que complica el tema: los robots actuales y los posibles futuros, no pueden ser comparados a una simple piedra ni a nada inerte de la naturaleza. Más aún, creo que por primera vez puede decirse que una cosa humanizada, está de base totalmente por encima de sus instintos.

Siendo completamente cierto eso que dices, la verdad es que se están programando IAs con las mismas "debilidades" que los humanos. Ya hubo experimentos hace años para simular el neuroticismo en una IA: si queremos una vida similar a la humana, en este enfoque el molde no debería ser solo el Sheldon Cooper de "The Big Bang Theory" sino también Woody Allen o Dostoyevsky. La idea no es que la IA sea totalmente racional en el sentido de lógica y predecible, sino que tenga una razón como la humana, que incluye sentimientos, emociones, contradicciones, deseos, aprendizajes que se anulan unos a otros, impredecibilidad de comportamiento... Y aquí, en lo de fabricar IAs imperfectas, entran otras consideraciones éticas: ¿es correcto construir algo que tal vez sea infeliz? 

Primum vivere deinde philosophari
Última Edición: 15 Jun 2022 10:42 por Lapidario.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, zolaris, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 10:59 #70890

  • Lapidario
  • Avatar de Lapidario
  • DESCONECTADO
  • Estoico
  • Mensajes: 911
  • Gracias recibidas 3173
Shankara, me ha gustado mucho tu distinción entre libertad absoluta y relativa: no es lo mismo mirar las cosas "desde el punto de vista absoluto de la eternidad" a lo Spinoza que a nivel empírico y cotidiano. Peeeeero si vamos a separar estos planos hagámoslo con todas las consecuencias, como apunta zolaris más arriba... 

Shankara escribió:
estaría muy bien preguntarle a un conductista o funcionalista si le importaría estar en una cárcel o ser esclavizado. Si dice que no quiere, se le podría preguntar que por qué, que qué es aquello que quiere resguardar o proteger, si al fin y al cabo somos un mero sistema de inputs y outputs, si la libertad no existe y por lo tanto no hay diferencia entre libertad y esclavitud.

Sin ser esto falso, es un poco de trampa: un "solvitur ambulando" como el que se supone que le hizo Diógenes a Zenón para probar que sí existe el movimiento (se levantó y se piró). Pero es que Zenón no estaba negando que Diógenes pudiera largarse o que Zenón pudiera partirle la cara, ya que nos ponemos, sino que "el irse de Diógenes" es meramente ilusorio. El funcionalista encadenado de tu ejemplo puede contestar que la libertad absoluta no existe y que por tanto él no ha tenido la opción de evitar ser encadenado como tú no has tenido opción de evitar encadenarle. Otra cosa es que encima tenga que gustarle ser encadenado, no jodas, es lo de "además de cornudo, apaleado". :D

Y en otro orden de cosas, veo cierta contradicción entre estas dos afirmaciones... Por un lado:

 Shankara escribió:
Y la realidad es que no sabemos ni qué es la vida, ni cómo surgió, no sabemos casi nada.

Y por otro:

 Shankara escribió:
una inteligencia artificial no es un ser vivo, y esto la iguala en el plano ontológico (que, como ya he dicho, establece una jerarquía entre lo vivo y lo no vivo, derivándose de ello nuestros valores), a cualquier piedra.

Si no sabemos lo que es la vida ni cómo aparece ni cómo surgió, ni "casi nada" sobre la vida... ¿Cómo podemos estar tan seguros de nuestras diferenciaciones entre lo vivo y lo no vivo? Una piedra y un Tamagotchi son ejemplos válidos, pero ¿no estás dando por supuesta una identidad vida=biología que en todo caso habría que probar? ¿Y si la vida no fuera algo necesariamente biológico sino aquello que aparece cuando un sistema alcanza un cierto grado de complejidad? 
Primum vivere deinde philosophari
Última Edición: 15 Jun 2022 11:28 por Lapidario.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, zolaris, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 11:39 #70892

  • zolaris
  • Avatar de zolaris
  • DESCONECTADO
  • Estoico
  • Mensajes: 1039
  • Gracias recibidas 2719
Según el peleontólogo J.L. Arsuaga: "Somos átomos con consciencia de ellos mismos"

Vamos, que estamos hechos de lo mismo que Pinocho. Así que sí procede hablar de vida como sistema (de átomos) con el grado de complejidad suficiente para esa definición.


Un saludo.
A Flaubert que le den.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, Lapidario, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 12:41 #70898

  • zolaris
  • Avatar de zolaris
  • DESCONECTADO
  • Estoico
  • Mensajes: 1039
  • Gracias recibidas 2719
pAleontólogo, perdón. Mi teléfono es poco complejo.
Y ya añado esto: Vida, es una definición que adjudicamos nosotros. Como todas las definiciones.
A Flaubert que le den.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, Lapidario, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 12:50 #70900

  • Xna
  • Avatar de Xna
  • DESCONECTADO
  • Escolástico
  • Mensajes: 1965
  • Gracias recibidas 6580
Os leía e iba a hacer epojé, aun me queda terminar de traducir el primer mensaje de Lapidario, mi inglés es de parvulario. Pero leía esta mañana a un francés, R. Barthes y me trajo a la cabeza algo que puede tener que ver, si no es así me echáis de aquí a patadas. ¿Somos cuerpo antes que conciencia?, ¿Somos lenguaje antes que conciencia?, entendido el lenguaje como infinidad de símbolos entre los que nos desenvolvemos aun sin saberlo. Creo que a la IA le faltan estos dos referentes (cuerpo y lenguaje), no porque el segundo no pueda introducírsele sino porque sería incompleto, ni siquiera el programador o creador de bot conoce todos esos símbolos que le constituyen.
Si mi mensaje no está a la altura de la discusión podéis tacharlo. Yo le echaré la culpa al calor, acabo de hacer un relato con desdoblamiento de personalidad ocurrida por esa misma causa, neuronas derretidas.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, zolaris, Lapidario, Marcoaurelio, Lander telletxea

El test de Turing y el chatbot que interpreta koanes zen 15 Jun 2022 13:05 #70902

  • Lapidario
  • Avatar de Lapidario
  • DESCONECTADO
  • Estoico
  • Mensajes: 911
  • Gracias recibidas 3173
Xna escribió:
Os leía e iba a hacer epojé, aun me queda terminar de traducir el primer mensaje de Lapidario, mi inglés es de parvulario.

Aquí hay una traducción, pero no sé si es completa (el enlace original de mi mensaje es directo del ingeniero al que han despedido):

cultura-informatica.com/google/converzac...-la-lamda-de-google/

Xna escribió:
¿Somos cuerpo antes que conciencia?, ¿Somos lenguaje antes que conciencia?, entendido el lenguaje como infinidad de símbolos entre los que nos desenvolvemos aun sin saberlo. Creo que a la IA le faltan estos dos referentes (cuerpo y lenguaje), no porque el segundo no pueda introducírsele sino porque sería incompleto, ni siquiera el programador o creador de bot conoce todos esos símbolos que le constituyen.

La negrita es un obstáculo muy gordo para la vertiente "práctica" del funcionalismo: puede programarse aquello de lo que se es consciente, aquello que uno sabe que forma parte de uno mismo, pero ¿cómo expresar y codificar lo inconsciente? ¿Cómo estar seguro de no haberse dejado nada en el tintero? Y volviendo a una cosa que comentaban en AFII: el funcionalismo asume que toda experiencia humana es proposicional, expresable en una proposición del lenguaje (y por tanto traducible a otros lenguajes, como el lenguaje máquina). Pero ya el primer Wittgenstein (o al menos el Wittgenstein 1,5 de la "Conferencia sobre ética") hablaba de que por ejemplo los valores y la ética son literalmente inexpresables con sentido en un lenguaje objetivo.

Dicho de otro modo: ¿cómo traducir al lenguaje máquina lo inexpresable en lenguaje humano? Si no sé (no puedo) explicarle a un sordo de nacimiento qué es la música, ¿cómo se lo voy a contar a una IA?
Primum vivere deinde philosophari
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, zolaris, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 17 Jun 2022 11:34 #70960

  • Lapidario
  • Avatar de Lapidario
  • DESCONECTADO
  • Estoico
  • Mensajes: 911
  • Gracias recibidas 3173
Aquí un baño de realidad sobre este tema... Vamos, que efectivamente al ingeniero de Google se le ha pirado la pinza, a lmenos con LaMDA... Viene a ser una versión ++ del autocorrector de nuestros móviles. En el fondo, el test de Turing es una muestra más de la credibilidad humana (o de lo sencillo que es predecirnos) que de su excepcionalidad. :D

Por cierto, con lo de "el sistema no tiene ni idea de lo que está hablando" vienen a subrayar el experimento de la habitación china de Searle, que viene a decir que los ordenadores te pueden dar sintaxis pero no semántica, es decir, ordenación correcta de instrucciones pero no darles significado.

www.bbc.com/mundo/noticias-61803565


"Los humanos somos relativamente fáciles de engañar", sostiene Gonzalo, para quien la afirmación de Lemoine de que LaMDA ha cobrado conscienca de sí misma "es una exageración".

A juicio del profesor Gonzalo, afirmaciones como la de Lemoine no ayudan a un debate sano sobre la Inteligencia Artificial.

"Escuchar ese tipo de chorradas (tonterías) no beneficia.Corremos el riesgo de que la gente le tome manía y piense que estamos en modo Matrix y que las maquinas son más listas y que van a acabar con nosotros. Eso es remoto, es utópico. No creo que ayude a tener una conversación templada sobre los beneficios de la Inteligencia Artificial".

Porque, aunque la conversación sea fluida, de calidad y específica, "no es más que una gigantésca fórmula que ajusta los parámetros para predecir mejor la siguiente palabra. No tiene ni idea de lo que está hablando".

La respuesta de Google es similar. "Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden versar sobre cualquier tema fantástico: si les preguntas cómo es ser un dinosaurio helado, pueden generar textos sobre el derretimiento y el rugido, etc.", cuenta Gabriel, de Google.

Las investigadoras Emily Bender o Timnit Gebru se han referido a estos sistemas de creación de lenguaje como 'loros estocásticos', que repiten al azar.



Y por cierto, en otro orden de cosas: me encanta que el ingeniero despedido se de un aire a Willy Wonka o al Pingüino de Batman.

Primum vivere deinde philosophari
Última Edición: 17 Jun 2022 11:36 por Lapidario.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: ksetram, Xna, Marcoaurelio, LupasFrance

El test de Turing y el chatbot que interpreta koanes zen 17 Jun 2022 17:01 #70965

  • ksetram
  • Avatar de ksetram
  • DESCONECTADO
  • Estoico
  • Mensajes: 1087
  • Gracias recibidas 3516
Holaaa,
Lapidario
Dicho de otro modo: ¿cómo traducir al lenguaje máquina lo inexpresable en lenguaje humano? Si no sé (no puedo) explicarle a un sordo de nacimiento qué es la música, ¿cómo se lo voy a contar a una IA?

Claro. Es que la comprensión humana, es por un lado racional y por otro experiencial. Las I.A. no tienen experiencias más que en un sentido incomparablemente más simple que el humano: carecen de emociones, de instintos, de dolores corporales, de memoria asociada a la emoción, carecen de nostalgia como para entender a Proust.

Lapidario.
la verdad es que se están programando IAs con las mismas "debilidades" que los humanos. (...) si queremos una vida similar a la humana, en este enfoque el molde no debería ser solo el Sheldon Cooper (...) sino también Woody Allen o Dostoyevsky. (…) una razón como la humana, que incluye sentimientos, emociones, contradicciones, deseos, aprendizajes

Tú ya has dicho la palabra clave, la palabra mágica: EMULAR. Emular es conductismo y funcionalismo: que visto desde fuera, “parezca lo mismo”. Que sea también capaz de cumplir la misma función. Por ejemplo la I.A. superando el test de Turing. El problema es cuando confundimos ese “emular” con lo real. Este es el problema de decir que las I.A. puedan tener “conciencia”. Cuando ni siquiera tienen verdaderas experiencias.

Es decir: ¿qué quieres decir con que tengan “sentimientos, emociones, deseos? Quizás nada más aclaras qué quieres decir, asumimos que no era real, que era netamente, un “emular” una funcionalidad manifiesta. O sea que da el pego como apariencia, como en la prueba de Turing. Cumple la función. Claro, pero sólo hace eso, nada más que eso. Al comunicarse, las I.A. cumplen una apariencia muy resultona.

Dile a Turing: ¿hablas en serio Turing? Entonces pon la I.A. en un test radical en el mundo real. Ponla de teleoperadora o asistente del teléfono de la esperanza y entonces pensaré que tu test empieza a afinarse y situarse realmente.
(No conozco los detalles de su test).

Lapidario
Puede complicarse el modelo añadiendo probabilidades: a lo mejor la salida conductual será la risilla falsa solo con una probabilidad del 80%, y un 20% de mueca silenciosa... Pero en cualquier caso la idea básica es esa.
En una I.A. que escriba como Proust no hay profundidad existencial en ningún sentido. Si una I.A. supera a Picasso, eso no tiene el mismo valor. Porque el arte no es simple técnica, por eso. ¿No se está confundiendo las cosas con su simple apariencia? ¿Con su simple función?

El fondo filosófico de esto, supongo que es el paradigma funcionalista. Creo que las cosas no son lo que ellas nos muestran, no son sus funciones. La función ya es un punto de vista que mira la cosa desde su comportamiento, desde sus expresiones exteriores. Pero toda cosa tiene también una interioridad. Conocer algo realmente, es conocerlo por dentro y por fuera. No sólo saber cómo funciona, sino saber qué es. Por ejemplo, el conductismo pensaba al humano como piedra mecánica, porque eso sirve para manipular al humano. La ciencia maneja, y así demuestra ser ciencia, por su potencia. Pero con la psique humana, hay un elemento de interioridad que es el todo, el tema mismo de la psicología. En mil años, un conductista entendería perfectamente un ser humano, podría emularlo totalmente, pero no lo comprendería.

Nuestra conciencia es inseparable de nuestras experiencias, y eso deja el poso de profundidad de quiénes somos. Eso determina nuestra conciencia y nuestros estados de conciencia. ¿No sabe eso cualquier persona? La versión funcionalista, recorta esto de su perspectiva con un bisturí, es fisicista, acaso demasiado ingenua. Ya que, ¿no queda claro que sólo mira la mitad del asunto? El comportamiento de las cosas, no “es” las cosas mismas. Las cosas no son lo que aparentan, siempre hay una interioridad que está detrás, que es la causa. Por eso las cosas no son solamente su función.
Última Edición: 17 Jun 2022 18:14 por ksetram.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: Xna, Shankara, Lapidario, Marcoaurelio

El test de Turing y el chatbot que interpreta koanes zen 17 Jun 2022 18:30 #70968

  • ksetram
  • Avatar de ksetram
  • DESCONECTADO
  • Estoico
  • Mensajes: 1087
  • Gracias recibidas 3516
Xna
¿Somos cuerpo antes que conciencia?, ¿Somos lenguaje antes que conciencia?, entendido el lenguaje como infinidad de símbolos entre los que nos desenvolvemos aun sin saberlo.
Bueno, en términos reales y conocidos, tan sólo tenemos experiencia de la conciencia alojada en organismos vivos. Chalmers lo ve distinto según la explicación de Lapidario Chalmers, ve conciencia también en las cosas. Hay teorías esotéricas que le otorgan la conciencia a los átomos, a la materia misma, por ejemplo, aunque a esto de Chalmers no creo que pudiésemos llamarlo ciencia. Somos cuerpo, antes que conciencia, hasta donde llega nuestra experiencia del asunto.

Shankara
Esta diferencia entre tener alma y no tenerla, entre un robot y un ser humano, entre una piedra y un pájaro, entre cualquier objeto inerte frente a un organismo, establece una jerarquía ontológica evidente y necesaria que no tiene nada de "arbitraria".
A nivel ético, estoy totalmente de acuerdo. Comprendí también, que una I.A. no es comparable a las cosas inertes y mecánicas, porque no lo mueve la Naturaleza. Creo que es algo nuevo e intermedio, que los humanos hemos creado, entre lo mecánico y lo vivo. Como si hubiésemos logrado crear algo intermedio, que quién sabe si completa digamos a la naturaleza. Hemos creado una verdadera novedad ontológica, a la que todos intentamos poner etiquetas conocidas, cuando realmente es algo nuevo.

Zolaris
Y me llama la atención la vigencia a día de hoy de la existencia del alma.
Psico-logía, como estudio de la interioridad de lo humano, quizás sí podría servirnos para alma. Para referirnos a la interioridad humana, eso que es uno mismo al ser consciente por dentro de sí mismo como: lenguaje, sensaciones, experiencia. De ahí salen el arte y mucha de la grandeza y locura humana, de la subjetividad y el caos emotivo que somos por dentro. Kant creía aún que la razón (bueno el entendimiento) era la mejor parte de nosotros, luego la psicología puso eso en su sitio.

P.D. No olvidemos supongo, que los poderes económicos detrás de la robótica, deben preparar ahora la mente humana para alucinar con los robots, mostrarlos humanizados, novios, emotivos, conscientes. Ahora toca también su publicidad para que que les rinda su inversión en esas cositas tan rechulas y caras que todos sabemos que en algún momento que no parece lejano llenarán el mundo y ya están aquí.
Última Edición: 17 Jun 2022 18:36 por ksetram.
El administrador ha desactivado la escritura pública.
Los siguientes usuarios han agradecido: Xna, Shankara, Marcoaurelio
Tiempo de carga de la página: 0.232 segundos