Sengoku Jidai
Creo que es Lapidario el que citaba a Le Cunn. Hace tiempo que defiende que los LLM´s están agotados. Si realmente llega a surgir una IAG, no será a través de los modelos de redes neuronales.
Hay que distinguir LLMs de modelos de redes neuronales. Los LLMs son redes neuronales entrenadas para generar lenguaje humano. Los modelos de redes neuronales como tal son la base de todos los modelos de IA actuales, sean LLMs o no: para interpretar/generar imagenes o videos, modelos para el ajedrez o el Go, AlphaFold, los algoritmos de "engagement" en las redes sociales (los que deciden que mostrarte en TikTok para que no te despegues de la pantalla), el piloto automático de los coche autonómos, etc.
El consenso que está creciendo es que los LLMs son un callejón sin salida, no que lo sean las redes neuronales en general. Los que algunos argumentan, como Garry Marcus, es que se necesita un nuevo paradigma "neurosimbólico", es decir, introducir reglas simbólicas en estos modelos puramente estadísticos, pero sin renunciar al componente de las redes neuronales:
garymarcus.substack.com/p/how-o3-and-gro...identally-vindicated
Cabe decir que los modelos puramente simbólicos fueron el paradigma dominante durante el siglo pásado, con resultados mayormente decepcionantes.
Sengoku Jidai
No es nada sorprendente el resultado. Se trata de ganar, así que recurren a lo que te garantiza el éxito más rápidamente (aunque después no quede nadie para celebrar el éxito).
Habría que ver como se diseñaron estos experimentos concretamente, pero en teoría de juegos la aniquilación mutua no se considera un éxito, si no un fracaso absoluto. El único objetivo teórico de las bombas nucleares es desincentivar ataques del enemigo (especialmente los nucleares). Una vez tienes que usar tus bombas tu estrategia ya ha fracasado.
Y hablando de esto, interesante lo que está pasando con Anthropic, OpenAI y el Pentágono:
Anthropic (la empresa detrás de Claude) ha puesto dos líneas rojas al Pentágono para el uso de sus modelos: que no se usen para vigilancia/espionaje másivo de la población ni para modelos armamentísticos completamente autónomos. El Pentágono se ha negado a que se le ponga ninguna línea roja más allá de "cumplir la ley", y ha metido a Anthropic en una lista negra para todo uso en el Pentágono o contratistas asociados (una medida diseñada normalmente para empresas asociadas con estados enemigos, cuando Anthropic es de California). Al día siguiente, OpenAI firma un nuevo contrato para colaborar con el Pentágono (a pesar de una carta conjunta firmada por gran parte de sus empleados y los de Google apoyando a Anthropic). En respuesta a todo esto está habiendo campañas para cancelar subscripciones de OpenAI en masa, veremos como acaba el asunto. Web con el timeline del drama:
anthropic-timeline.vercel.app/