Entre promesas de inteligencia artificial omnisciente, vigilancia predictiva y algoritmos que aseguran comprenderlo todo, resurge un antiguo sueño filosófico que Gödel ya había destruido en 1931. Silicon Valley habla hoy el lenguaje de Leibniz sin admitir los límites formales que fundaron la computación moderna. ¿Puede un sistema finito contener toda la realidad? ¿O la opacidad es una condición inevitable de cualquier conocimiento complejo?


El CANDELABRO.ILUMINANDO MENTES
📷 Imagen generada por GPT-4o para El Candelabro. © DR

La recaída leibniziana: Gödel, el mito del código universal y la crítica al absolutismo algorítmico contemporáneo


     I. El sueño leibniziano y la genealogía de la Characteristica Universalis

De Llull a Leibniz: la gramática finita de la realidad

La historia del pensamiento occidental registra, con periodicidad obsesiva, el retorno de un fantasma epistémico. Se trata de la ilusión de un lenguaje formal capaz de contener la totalidad de la realidad. Este proyecto recibe el nombre técnico de characteristica universalis y constituye un eje fundamental para comprender los límites epistemológicos de la inteligencia artificial contemporánea.

Su genealogía remite al siglo XIII, cuando Ramon Llull construyó su Ars Magna. Se trataba de un dispositivo combinatorio de ruedas concéntricas que pretendía generar mecánicamente todas las verdades posibles sobre Dios, el alma y la naturaleza. La intuición luliana postulaba que la realidad posee una gramática finita. Dominar esa gramática equivalía a dominar la realidad misma. El método sustituiría al genio, y la combinatoria a la experiencia.

Leibniz recuperó esta intuición en el siglo XVII. Integró tradiciones cabalísticas que concebían el hebreo como lengua en la que Dios había creado el mundo. Sobre estas bases edificó la propuesta más rigurosa de la modernidad temprana: un lenguaje simbólico formal donde cada concepto poseería un signo preciso. Cada relación tendría una regla de composición, y cada disputa filosófica se resolvería mediante cálculo.

Calculemus, escribió Leibniz, como si la inmortalidad del alma o la existencia de Dios fueran operaciones comparables a la suma de fracciones. El cálculo diferencial, desarrollado con notación aún vigente, representó la primera implementación parcial de este programa. Verdades sobre el cambio continuo se obtenían mediante operaciones formales, sin necesidad de intuir la curva ni observar el movimiento planetario.

Frege, Russell y los Principia Mathematica: la formalización del conocimiento

Dos siglos después, Gottlob Frege, Bertrand Russell y Alfred North Whitehead llevaron el programa leibniziano a su expresión más sistemática. Entre 1910 y 1913 publicaron los Principia Mathematica, tres volúmenes que intentaron derivar toda la matemática a partir de axiomas lógicos. La empresa requirió trescientas páginas para demostrar que uno más uno es dos.

Esta extrema rigurosidad no era debilidad, sino prueba de solidez fundacional. Si desde aquí se derivaba todo, el sueño leibniziano habría alcanzado por fin su forma definitiva. La characteristica universalis parecía próxima a materializarse. Sin embargo, la publicación de 1931 cambiaría radicalmente este panorama. La comunidad lógica no anticipó la magnitud del terremoto conceptual que se avecinaba.


       II. La derrota formal: los teoremas de incompletitud de Gödel y sus consecuencias


El primer teorema: la imposibilidad de la completitud

En 1931, Kurt Gödel publicó en las Monatshefte für Mathematik un artículo de veinticinco páginas. Su título burocrático encubría una devastación filosófica total: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. El primer teorema de incompletitud establece algo que puede formularse con precisión técnica o con brutalidad conceptual.

La formulación técnica es la siguiente: cualquier sistema formal consistente y suficientemente poderoso para expresar la aritmética elemental contiene proposiciones verdaderas pero indemostrables dentro del sistema. La formulación filosófica es más contundente: ningún sistema de reglas finitas puede capturar toda la verdad sobre un dominio suficientemente rico. El sistema puede ser consistente o completo, pero no ambas cosas simultáneamente.

El segundo teorema y el problema de la parada según Turing

El segundo teorema añade una consecuencia aún más radical. Un sistema formal consistente no puede demostrar su propia consistencia desde adentro. Para verificar la coherencia se requiere un sistema más potente, cuya coherencia exige otro sistema superior. La cadena no tiene cierre. La transparencia total resulta estructuralmente imposible, no meramente inalcanzable.

Cinco años después, Alan Turing operacionalizó esta limitación mediante el problema de la parada. No existe algoritmo general capaz de determinar, para cualquier programa y entrada arbitraria, si su ejecución terminará o continuará indefinidamente. La indecidibilidad gödeliana adquiere así una forma mecánica, implementable en hardware. Es irreducible a mayor capacidad computacional.

La computación como hijo de una derrota filosófica

He aquí la paradoja que Silicon Valley parece decidida a ignorar. La computación moderna nació de la demostración de los límites del cálculo. La máquina de Turing no representa el triunfo del proyecto leibniziano, sino su refutación materializada en circuitos. Los transistores, los microprocesadores y los sistemas operativos son descendientes directos de una derrota filosófica.

Sus creadores han olvidado esta genealogía, o decidido silenciarla por inconveniencia comercial. La inteligencia artificial generativa no supera estos límites: los reproduce bajo nuevas formas de opacidad. La promesa de un código que lo contiene todo resurge cada vez que una nueva tecnología promete la transparencia que la anterior no pudo entregar. La memoria institucional parece insuficiente para evitar estas recaídas.


       III. Las interfaces como velos anidados: de la línea de comandos al panóptico digital


Neal Stephenson y la ontología de las interfaces tecnológicas

En 1999, Neal Stephenson publicó In the Beginning Was the Command Line. Este texto articula la dimensión política de la opacidad tecnológica con precisión inusual. Stephenson distingue dos tipos de interfaz: la línea de comandos y la interfaz gráfica de usuario. La diferencia no es meramente técnica, sino ontológica.

La línea de comandos preserva la conciencia de que entre la instrucción y el efecto existe una cadena de transformaciones parcialmente invisible. El usuario sabe que hay capas inferiores que no domina completamente. La interfaz gráfica, en cambio, produce una metáfora: el escritorio, las carpetas, la papelera. Esta metáfora no simplifica el acceso al sistema; simula que el sistema no existe.

Stephenson denomina a este fenómeno la acumulación de velos anidados. Cada capa de abstracción oculta la anterior mientras promete mayor facilidad de uso. El resultado es una torre de opacidades que el usuario final no puede ni debe traspasar. Esta arquitectura de invisibilidad estructural define la experiencia digital contemporánea.

La metáfora gráfica y la ilusión de transparencia

Cuando el usuario arrastra un icono a la papelera, cree realizar una acción análoga a manipular objetos físicos. En realidad, ejecuta instrucciones en código máquina sobre sectores de disco. Estos sectores no guardan relación estructural alguna con carpetas o papeleras. La metáfora funciona como velo que se presenta como si no fuera velo.

Cada capa de abstracción oculta la anterior. La interfaz gráfica oculta la línea de comandos. Esta oculta el ensamblador. El ensamblador oculta el lenguaje máquina. El lenguaje máquina oculta los estados cuánticos del silicio. Mayor potencia operatoria implica menor comprensión estructural. El sistema es más fácil de usar en la misma medida en que es menos comprensible en sus fundamentos.

Opacidad estructural y control político

La dimensión política de esta opacidad resulta decisiva. Cuando la interfaz simula transparencia, genera en el usuario la convicción de comprender lo que de hecho ignora. Un usuario que cree entender no pregunta, no cuestiona, no exige inspeccionar las capas inferiores. La ilusión de transparencia constituye el instrumento de control más eficaz concebible.

El controlado percibe comprensión donde opera dominio. La transparencia algorítmica prometida por las plataformas digitales resulta, en este sentido, una contradicción performativa. Cuanto más transparente parece el sistema, más opaco es su funcionamiento real. La opacidad tecnológica no es un defecto accidental, sino una propiedad estructural de toda arquitectura de abstracción. Cada nivel de simulación añade un velo que se confunde con la realidad.


IV. Los grandes modelos de lenguaje: una nueva Characteristica Universalis


La promesa de la escala y el salto cualitativo

Los grandes modelos de lenguaje —GPT, Gemini, Claude, Llama y sus derivados— representan la encarnación contemporánea más elaborada del proyecto leibniziano. No necesariamente porque sus arquitectos hayan estudiado la characteristica universalis, sino porque reproducen su estructura formal. Se trata de un sistema finito, entrenado sobre corpus textuales masivos, que genera respuestas coherentes sobre cualquier dominio del lenguaje natural.

La promesa implícita, y a veces explícita, sostiene que la escala cuantitativa produce un salto cualitativo. Se postula que el lenguaje generado a partir de todo el texto humano disponible equivale, en algún sentido relevante, a la comprensión de lo descrito. Esta promesa reproduce la arquitectura del sueño leibniziano: el sistema finito que genera conocimiento infinito, el código que contiene el mundo.

Límites epistemológicos de los modelos de lenguaje

Sin embargo, las objeciones que la estructura gödeliana impone son de tipo, no de grado. Un modelo de lenguaje no puede ser simultáneamente consistente sobre todos los dominios que abarca y completo en ninguno. Producirá afirmaciones contradictorias entre disciplinas o incompletas dentro de cada una. Carece de acceso al mundo que sus tokens describen. Solo posee relaciones estadísticas entre signos.

La fluidez sintáctica no garantiza precisión ontológica. La coherencia superficial no implica verdad referencial. El modelo opera como un espejo estadístico del lenguaje humano, no como un instrumento de contacto directo con la realidad. Esta distinción es crucial para evaluar críticamente las capacidades reales de la IA generativa en contextos de toma de decisiones de alta consecuencia.

Hallucinations, inconsistencias y la imposibilidad de la autovalidación

Además, el modelo no puede demostrar desde sus propios parámetros la verdad de sus afirmaciones. No puede resolver el equivalente computacional del problema de la parada. Es imposible determinar, para una pregunta arbitraria, si el modelo producirá una respuesta correcta o una alucinación plausible. Esa determinación exigiría un meta-sistema exterior al modelo, que a su vez requeriría otro meta-sistema.

La imposibilidad de la autovalidación no es un defecto técnico subsanable mediante mayor potencia de cómputo. Es una limitación estructural inherente a cualquier sistema formal suficientemente expresivo. La inteligencia artificial generativa, por muy sofisticada que sea, no escapa a esta condición. Los hallucinations no son errores temporales, sino manifestaciones de una imposibilidad formal que ninguna arquitectura de red neuronal puede resolver.


     V. El absolutismo de plataforma: vigilancia algorítmica y predicción del comportamiento humano


Palantir y la economía del conocimiento total

La ambición de corporaciones como Palantir Technologies no es meramente técnica sino epistémica en sentido riguroso. Su objetivo consiste en producir conocimiento total del sujeto vigilado para predecir y controlar su comportamiento futuro. El sistema Maven, desplegado en operaciones militares, genera listas de objetivos cruzando comunicaciones interceptadas, imágenes satelitales y datos de movimiento.

ImmigrationOS rastrea personas para deportación mediante cruces de bases federales. Los sistemas de análisis psicográfico construyen perfiles electorales a partir de metadatos de redes sociales. La capitalización de Palantir superó los trescientos mil millones de dólares en 2026, evidenciando la rentabilidad del absolutismo de plataforma. La vigilancia algorítmica se ha convertido en uno de los mercados de mayor crecimiento del capitalismo contemporáneo.

El problema de la predicción como problema de la parada

Estructuralmente, este programa reproduce la characteristica universalis aplicada al sujeto humano como objeto. Se trata de un sistema formal capaz de capturar toda la información relevante sobre un individuo y derivar predicciones verdaderas sobre su conducta. Gödel y Turing demuestran por qué tal programa es imposible en sus propias pretensiones.

Cualquier sistema formal suficientemente complejo para modelar el comportamiento humano contendrá necesariamente verdades que no puede predecir desde sus propios parámetros. El sujeto humano incluye la capacidad de alterar su conducta al saberse modelado. El problema de la parada se traduce aquí en problema de la predicción. No existe algoritmo general que determine, para cualquier sujeto y datos disponibles, si realizará la acción predicha o modificará su comportamiento en respuesta a la predicción misma.

Daño perfecto y error estadístico criminalizado

El sistema de vigilancia algorítmica que modela al sujeto consciente de ser modelado genera un bucle autorreferencial. Gödel habría reconocido inmediatamente esta estructura: la proposición indecidible del panóptico digital. Esto no implica que la vigilancia sea inofensiva. Por el contrario: un sistema incapaz de predicciones perfectas puede producir daño perfecto.

Puede criminalizar el error estadístico, perseguir correlaciones como si fueran causalidades, y generar consecuencias irreversibles sobre personas reales. Lo hace a partir de predicciones que el sistema mismo no puede validar internamente. La ilusión de transparencia del panóptico algorítmico resulta devastadora precisamente porque se presenta como verdadera. El error algorítmico no se percibe como error, sino como verdad técnica indiscutible.


       VI. El cierre categorial: hacia una soberanía cognitiva materialista


Gustavo Bueno y la teoría del cierre categorial

El materialismo filosófico de Gustavo Bueno ofrece el marco conceptual adecuado para criticar el absolutismo de plataforma. Lo hace sin caer en el relativismo simétrico que concluye, de la imposibilidad del conocimiento total, que todos los conocimientos son igualmente válidos. La teoría del cierre categorial sostiene que los campos de conocimiento que producen verdad genuina operan precisamente porque se cierran sobre dominios delimitados.

La física no pretende pronunciarse sobre la ontología de la conciencia ni sobre la legitimidad política. Produce verdades sobre el comportamiento de cuerpos en campos de fuerza porque ha delimitado con precisión su ámbito de operación. El cierre no constituye limitación, sino condición de posibilidad de la verdad. Un sistema que pretende decirlo todo no dice nada con precisión. Un sistema que delimita su dominio puede producir identidades sintéticas, es decir, verdades verificables dentro de ese dominio.

Conocimiento delimitado y verdad genuina

Los grandes modelos de lenguaje carecen de cierre categorial. Operan sobre la totalidad del texto humano sin delimitar campo alguno. Producen respuestas sobre física, poesía, historia y estrategia militar con idéntica fluidez sintáctica. Sin embargo, esa fluidez no garantiza precisión en ningún dominio específico. La ilusión de competencia universal constituye el síntoma más evidente de la ausencia de cierre.

Un sistema cerrado sabe lo que ignora. Un sistema sin cierre no puede distinguir entre conocimiento y generación plausible. Esta diferencia es decisiva para evaluar la confiabilidad de la IA generativa en contextos de alta consecuencia. La falta de cierre categorial convierte a los modelos de lenguaje en instrumentos de ambigüedad universal, no de verdad particular. Su aparente omnisciencia es, en rigor, la forma más sofisticada de ignorancia.

Instituciones de conocimiento y soberanía cognitiva

La soberanía cognitiva —la capacidad de un sujeto individual o colectivo de producir conocimiento sobre su propia situación— no se construye mediante mayor acceso a plataformas de IA más potentes. Se edifica mediante el desarrollo de campos categoriales propios: instituciones de conocimiento que delimiten sus dominios, reconozcan sus límites y produzcan verdades verificables dentro de esos ámbitos.

La Casa de Contratación de Sevilla lo hizo con la cartografía atlántica en el siglo XVI. Los institutos de física cuántica lo hacen hoy con la estructura de la materia. Cualquier proyecto civilizatorio alternativo al absolutismo de plataforma requerirá campos de conocimiento estratégico propios. Estos deben contar con cierre categorial explícito y verificación institucional rigurosa. La independencia epistémica no es un lujo filosófico, sino una condición de supervivencia política.


Conclusiones


El sueño leibniziano resulta peligroso no porque sea posible, sino precisamente porque su imposibilidad permanece invisible para quienes lo habitan. La interfaz que no se percibe como interfaz, el velo que se presenta como transparencia, el sistema incapaz de autovalidarse que actúa como si pudiera validarlo todo: estos son los instrumentos de control más eficaces que la historia ha producido. La respuesta no puede ser la transparencia total, que Gödel demostró formalmente imposible.

La alternativa consiste en la cartografía honesta de las propias opacidades. Saber qué no se puede saber constituye el comienzo de toda soberanía real. La crítica filosófica a la inteligencia artificial generativa y al panóptico digital no implica rechazar la tecnología. Se trata de situarla en sus límites epistemológicos reales, reconociendo que los modelos de lenguaje grandes son herramientas estadísticas de procesamiento textual.

No son oráculos de conocimiento universal. La vigilancia algorítmica es un aparato de correlaciones, no un instrumento de predicción infalible. Reconocer estas limitaciones no es debilidad intelectual. Es condición necesaria para cualquier soberanía cognitiva genuina. En un mundo donde el absolutismo de plataforma promete la transparencia que la lógica formal demostró imposible, la humildad epistémica se convierte en forma de resistencia.

Saber qué no se puede saber es el comienzo de cualquier libertad real. Todo lo demás es leibnizianismo con buena financiación y ausencia de teoremas de incompletitud que lo detengan. La tarea del pensamiento crítico contemporáneo consiste en recordar lo que la industria tecnológica necesita olvidar: que los límites del cálculo no son obstáculos temporales, sino horizontes permanentes de toma de conciencia. Recordar esos límites es ejercer la libertad más elemental del pensamiento.


Referencias bibliográficas

Bueno, G. (1992-1993). Teoría del cierre categorial (Vols. 1-5). Pentalfa Ediciones.

Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38, 173-198.

Russell, B., & Whitehead, A. N. (1910-1913). Principia Mathematica (Vols. 1-3). Cambridge University Press.

Stephenson, N. (1999). In the Beginning Was the Command Line. Avon Books.

Turing, A. M. (1936). On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, Serie 2, 42, 230-265.


El CANDELABRO.ILUMINANDO MENTES

#RecaidaLeibniziana
#KurtGodel
#AlanTuring
#InteligenciaArtificial
#FilosofiaDeLaTecnologia
#AbsolutismoAlgoritmico
#CharacteristicaUniversalis
#ModelosDeLenguaje
#Palantir
#GustavoBueno
#Epistemologia
#PanopticoDigital


Descubre más desde REVISTA LITERARIA EL CANDELABRO

Suscríbete y recibe las últimas entradas en tu correo electrónico.