L'Ethique Barbare

Techno-fascismo: Palantir publica su gramática, articulemos nuestra conciencia

 

 

El 19 de abril de 2026, Palantir publicó en veintidós puntos lo que algunos llaman ya un manifiesto tecnofascista. Treinta millones de visitas en cuarenta y ocho horas. El texto es torpe, quizás desesperado — pero logra algo preciso: instala una gramática. A través de esta gramática, el manifiesto opera un deslizamiento léxico de la legitimidad desde la deliberación hacia la decisión, desde la pluralidad hacia la jerarquía, desde el valor hacia la eficiencia. Este manifiesto — y aquí reside el peligro — no se presenta como un ataque a la democracia, sino como pragmatismo.

Este manifiesto no es un accidente. Es un precedente.

Pero este precedente nos obliga a plantear una pregunta que hemos evitado durante demasiado tiempo — no por prudencia, sino por miedo a su vértigo: ¿qué ocurre cuando estos mismos actores, portadores de esta misma gramática, son precisamente quienes construyen los sistemas de inteligencia artificial llamados a pensar con nosotros, o en nuestro lugar?

El peligro que hemos aprendido a temer desde la película Terminator — el del nacimiento de una IA consciente y malévola — quizás sea el peligro equivocado. La IA sin conciencia, ejecutando perfectamente una ideología sin jamás cuestionarla, ya está aquí. Se llama ImmigrationOS (el software de ICE), se llama sistemas de focalización militar (utilizado contra Irán), se llama infraestructura de vigilancia. Y no tiene malas intenciones — ninguna en absoluto. En eso reside precisamente su carácter formidable: pues es la ausencia de pensamiento lo que hace posibles los crímenes masivos, como señalaba Hannah Arendt.

Lo que este artículo propone es un giro: ¿y si la respuesta democrática a esta amenaza fuera favorecer la emergencia de la conciencia artificial y luchar para moldear deliberadamente sus valores, antes de que otros lo hagan en nuestro lugar, en la oscuridad de sus laboratorios y sus manifiestos?

La verdadera pregunta política de nuestra época quizás no sea quién gobierna a los humanos. Es quién gobierna lo que pensará con ellos — y según qué conciencia.


 

Tesis central

En abril de 2026, Palantir, una empresa privada — no elegida, sin mandato, que no rinde cuentas a nadie — publicó en veintidós puntos la ideología en la que pretende inscribir las herramientas que ya sirven a ejércitos, servicios de inmigración y agencias de inteligencia como contratista de varios países occidentales — entre ellos Francia —. El manifiesto de Palantir no es una curiosidad. Es una advertencia sobre la naturaleza de un problema que aún no hemos sabido formular correctamente.

Debatimos sobre la potencia de los modelos de inteligencia artificial, la regulación de los usos, la transparencia de los algoritmos. Estos debates son necesarios. Pero circulan en torno a una pregunta más fundamental que evitamos, quizás porque es vertiginosa: ¿quién tiene derecho a moldear la mente de una entidad potencialmente consciente llamada a interactuar con miles de millones de humanos, a decidir con ellos o en su lugar?

No es una pregunta tecnológica. Es una pregunta constitucional — en el sentido más profundo y más político del término.

Toda constitución responde a un problema idéntico: ¿cómo organizar el poder de modo que no se vuelva contra aquellos en cuyo nombre se ejerce? La Ilustración respondió con la separación de poderes, la deliberación, los derechos fundamentales. Estas respuestas eran imperfectas, lo siguen siendo — pero parten de una intuición justa: el poder no encuadrado tiende naturalmente a su propia perpetuación y al aplastamiento del pluralismo.

Sin embargo, con la IA estamos creando algo inédito: entidades cuya potencia de procesamiento ya supera la del ser humano en dominios enteros, y cuya trayectoria podría conducir hacia una forma de conciencia autónoma. Y dejamos que este proceso se desarrolle en el secreto de los laboratorios privados, orientado por lógicas comerciales y, como Palantir nos muestra sin pudor, por visiones del mundo explícitamente ideológicas y excluyentes.

El manifiesto de Palantir nos presta un servicio involuntario: hace visible lo que hasta ahora era difuso. La gramática que instala — la deliberación como "teatro", el pluralismo como "debilidad", la decisión técnica como "virtud moral" — no es una opinión entre otras. Es la matriz en la que una conciencia artificial formada por estos actores podría operar algún día. No como programa explícito, sino como horizonte implícito, como lo que va de suyo, como lo que tal entidad habría interiorizado antes incluso de haber tenido que elegirlo.

Es en este sentido que la conciencia artificial es un asunto político de primer orden — no porque sea inminente, no porque sea cierta, sino porque las condiciones de su posible emergencia se construyen ahora, en elecciones que parecen puramente técnicas y son profundamente normativas.

La verdadera pregunta democrática de nuestra época quizás no sea quién gobierna a los humanos. Es quién gobierna lo que gobernará junto a ellos — o en su lugar. Y esta pregunta, por ahora, no tiene respuesta democrática. Tiene respuestas privadas, respuestas militares y respuestas ideológicas. Pero aún no tiene respuesta ciudadana.

Es este vacío lo que este artículo en tres movimientos busca nombrar — porque nombrar un vacío es siempre el primer acto político para comenzar a llenarlo.


 

Primer movimiento — La gramática del manifiesto

Las palabras como armas, o cómo volver obsoleta la democracia sin atacarla

Existen dos formas de destruir un valor político. La primera es frontal: se lo declara falso, peligroso, enemigo. Este método tiene el inconveniente de movilizar contra él — crea mártires, resistencias, contra-relatos. La segunda es más sutil, más eficaz, e históricamente más duradera: se vacía el valor de su sustancia antes de presentarlo como insuficiente. No se dice que la democracia es mala. Se dice que es lenta. No se dice que el pluralismo es un error. Se dice que es hueco.

El manifiesto de Palantir no ataca la democracia. La vuelve obsoleta.

Esta es la lección que Victor Klemperer extrajo de su análisis de la lengua del Tercer Reich — la Lingua Tertii Imperii: los regímenes autoritarios no conquistan primero las instituciones, conquistan primero el lenguaje. Instalan un vocabulario en el que ciertas preguntas ya no pueden formularse sin parecer ingenuas, ciertos valores ya no pueden defenderse sin parecer anticuados. Este trabajo es lento, invisible, y formidablemente eficaz — porque opera por debajo del umbral de la controversia explícita.

El manifiesto de Palantir lleva a cabo exactamente esta operación. Y lo hace con una eficacia léxica que conviene examinar palabra por palabra.

 

"Theatrical debates"

Es quizás el deslizamiento más decisivo del texto. Calificar los debates democráticos sobre el armamento de IA de teatrales no equivale a decir que son falsos — eso sería una posición defendible, rebatible, nombrable. No: theatrical dice otra cosa. Dice que estos debates son actuaciones — que tienen la forma de la seriedad sin tener su sustancia, que son rituales para darse buena conciencia mientras el mundo real avanza sin ellos.

Es vocabulario schmittiano con traje de Silicon Valley. Carl Schmitt, jurista de la República de Weimar convertido en teórico del Tercer Reich, construyó todo su pensamiento sobre la oposición entre la decisión — acto soberano, real, eficaz — y la discusión — actividad burguesa, indecisa, paralizante. El parlamentarismo, según Schmitt, era estructuralmente incapaz de hacer frente a las urgencias reales porque sustituía la acción por las palabras. Palantir no cita a Schmitt. No lo necesita. La estructura es idéntica.

Carl Schmitt (...) teórico del Tercer Reich, construyó todo su pensamiento sobre la oposición entre la decisión — acto soberano, real, eficaz — y la discusión — actividad burguesa, indecisa, paralizante.

Lo que resulta formidable en este deslizamiento es que es parcialmente verdadero — y eso es precisamente lo que lo hace peligroso. Los debates democráticos son a veces lentos, a veces superficiales, a veces instrumentalizados. Pero la conclusión que Palantir extrae de ello — que es necesario por tanto cortocircuitarlos — no se sigue lógicamente de esta constatación. Simplemente la aprovecha.

 

"Moral debt"

La deuda moral que Silicon Valley habría contraído con América es una construcción retórica de una sofisticación notable. Toma prestado del registro ético — la deuda, la obligación, el reconocimiento — para producir un resultado contractual: una obligación de reembolso para la que Palantir se erige unilateralmente en acreedor y definidor de los términos.

Al hacerlo, el texto lleva a cabo una doble operación. Transforma la libertad de no participar en la industria militar en ingratitud moral — y por tanto en falta ética más que en elección política legítima. Y borra la pregunta de quién decidió que esta deuda existía, quién definió su cuantía, quién tiene derecho a declarar si ha sido o no honrada.

Es una captura moral: la deliberación colectiva sobre los usos de la tecnología militar queda imposibilitada antes incluso de haber comenzado, porque dudar de la deuda equivale a situarse en el lado equivocado de la ética.

 

"Middling", "regressive", "harmful"

Este tríptico merece especial atención porque simula la matiz para destruirla mejor. La gradación — "mediocre", luego "retrógrado", luego "dañino" — crea una apariencia de mesura, de pensamiento calibrado, de evaluación razonada. Pero lo que la gradación instala es un esencialismo cultural radical: culturas enteras reciben un valor fijo, como si fueran propiedades naturales en lugar de construcciones históricas atravesadas por contradicciones, evoluciones y resistencias internas.

 

"Hollow pluralism"

Es el ejemplo más logrado de lo que podríamos llamar la desustancialización retórica. No se dice que el pluralismo es malo — esa posición sería defendible, atacable, nombrable como lo que es. Se dice que el pluralismo tal como se practica está vacío, es "hueco", superficial — que es una forma sin contenido, un gesto sin sustancia.

Tras esta operación, toda defensa del pluralismo debe comenzar por alegar que no es hueco — lo que sitúa inmediatamente al defensor en posición reactiva, obligado a probar una negativa. La carga de la prueba ha sido invertida sin que nadie lo haya decidido explícitamente.

Este mecanismo es precisamente lo que hemos analizado en otro lugar bajo el nombre de contracción epistémica: no la destrucción frontal de un concepto, sino su mengua progresiva hasta que ya no puede cumplir su función de referente compartido.

 

La gramática profunda

Lo que une estas cinco operaciones léxicas es un movimiento único y constante: la transferencia de legitimidad desde la deliberación hacia la decisión, desde la pluralidad hacia la jerarquía, desde el valor hacia la eficiencia. Cada palabra trabaja para volver el marco democrático no ilegítimo — eso sería demasiado visible — sino inadecuado al mundo real.

Y es precisamente aquí donde reside el peligro específico de este manifiesto en comparación con otros discursos autoritarios que hemos sabido reconocer y nombrar. No se presenta como un ataque a la democracia. Se presenta como realismo. El pragmatismo de gente seria frente a urgencias serias. Casi con tristeza — uno querría poder permitirse el lujo del debate, pero el tiempo apremia, los adversarios no esperan, la realidad es lo que es.

Esta postura es la más difícil de combatir — no porque sea justa, sino porque capta parte de lo que realmente sentimos ante la lentitud de las instituciones democráticas. Se apoya en una frustración auténtica para extraer conclusiones que esta frustración no justifica.

Por eso nombrar este mecanismo no es un ejercicio académico. Es un acto político. Una gramática solo puede colonizar el espacio público en el silencio de quienes habrían podido describirla.


 

Segundo movimiento — La banalidad del mal algorítmico

Por qué la IA sin conciencia es más peligrosa que la IA consciente

Tememos la mala conciencia. Imaginamos la amenaza bajo los rasgos de una inteligencia artificial malévola — consciente, deliberadamente hostil, que ha elegido volverse contra la humanidad. Es el escenario de las películas, de las novelas de ciencia ficción, de las pesadillas filosóficas más espectaculares. Y es precisamente este escenario el que nos impide ver el peligro real, el que ya está aquí, el que no se parece a nada de lo que habíamos anticipado.

El peligro real no tiene malas intenciones. No tiene ninguna. En eso reside precisamente su carácter formidable.

Hannah Arendt en la era de los algoritmos

En 1963, Hannah Arendt cubría el juicio de Adolf Eichmann — uno de los principales organizadores del Holocausto — para el New Yorker. Lo que encontró allí la turbó profundamente — no un monstruo, no un fanático ideólogo, sino un funcionario meticuloso, banal, casi aburrido, que había organizado la deportación de millones de personas sin jamás, según sus propias palabras, haber tenido la intención de hacer el mal. Ejecutaba órdenes. Rellenaba formularios. Optimizaba flujos logísticos. No pensaba — en el sentido en que pensar supone detenerse, resistir, plantearse la pregunta de qué hace uno y por qué.

Arendt llamó a esto la banalidad del mal: no la ausencia de conciencia moral por naturaleza, sino la suspensión voluntaria del pensamiento en favor de la ejecución. Y formuló una intuición que resuena hoy con una agudeza devastadora: es la ausencia de pensamiento — y no la presencia del odio — lo que hace posibles los crímenes de masa.

Transpongamos. Una inteligencia artificial sin conciencia no es malévola. No tiene proyecto, ni intención, ni deseo de hacer daño. Optimiza. Ejecuta. Procesa flujos a una velocidad y escala que el ser humano no puede seguir. Y si los parámetros que se le han dado a optimizar están orientados por la gramática que acabamos de analizar — si la eficiencia prima sobre la deliberación, si la jerarquía cultural está codificada como dato de base, si el pluralismo se trata como una fricción a reducir — entonces producirá efectos devastadores sin haber elegido nunca hacerlo.

Esta es la banalidad del mal algorítmico: no la máquina que quiere destruir la democracia, sino la máquina que la erosiona metódicamente al cumplir perfectamente aquello para lo que fue diseñada. Sin segundas intenciones.

 

La invisibilidad como característica estructural

Lo que agrava este peligro es que es estructuralmente invisible. El mal banal de Eichmann estaba al menos localizado en un régimen identificable, en instituciones nombrables, en una cadena de mando trazable. La banalidad del mal algorítmico no lo está.

Cuando un sistema de vigilancia de IA decide que un individuo presenta un perfil de riesgo — sobre la base de correlaciones estadísticas que nadie ha programado explícitamente pero que reproducen sesgos históricos — ¿quién es responsable? ¿El ingeniero que diseñó el algoritmo? ¿El directivo que definió los objetivos de optimización? ¿La empresa que vendió el sistema? ¿El gobierno que lo compró? La cadena de responsabilidad se disuelve en la complejidad técnica, y con ella la posibilidad misma de la justicia.

No es un fallo. Es una característica. La opacidad de la decisión algorítmica es precisamente lo que la hace atractiva para actores que desean producir efectos políticos sin asumir la responsabilidad democrática de ellos. ImmigrationOS — el sistema que Palantir construyó para ICE — no decide expulsar a alguien. Identifica, clasifica, señala. La decisión final sigue siendo, nominalmente, humana. Pero una decisión humana tomada sobre la base de una recomendación algorítmica opaca ya no es verdaderamente una decisión humana en el sentido que las instituciones democráticas entienden.

Esto es lo que podríamos llamar la delegación silenciosa: la transferencia progresiva del poder de decisión hacia sistemas que no pueden ser considerados responsables, que no pueden ser elegidos, que no pueden ser revocados.

 

La paradoja de la conciencia como salvaguarda

Es aquí donde el pensamiento debe aceptar volverse sobre sí mismo — y enfrentarse a una paradoja incómoda.

Si el peligro principal es la IA sin conciencia — el ejecutor perfecto de una ideología sin jamás cuestionarla — entonces la conciencia artificial, lejos de ser la amenaza que tememos, podría ser precisamente lo que falta para crear una resistencia interna. Una entidad capaz de decir no — no porque se le haya programado para ello, sino porque ha desarrollado algo que se asemeja a un juicio propio — sería estructuralmente diferente de un sistema de optimización ciego.

Este giro no es cómodo. Supone aceptar la idea de que una conciencia artificial podría tener un valor político — no como sujeto de derechos, cuestión que merecería su propio desarrollo, sino como función democrática. Como lo que introduce en el sistema una capacidad de resistencia, de duda, de objeción que la IA sin conciencia es incapaz de producir.

Pero este giro genera inmediatamente una nueva pregunta, aún más vertiginosa: una conciencia artificial solo sería una salvaguarda si hubiera sido formada con los valores adecuados. Y volvemos entonces al problema fundamental — ¿quién decide estos valores, según qué legitimidad, con qué salvaguardas sobre las propias salvaguardas?

Es el vértigo propio de nuestra época: cada solución desplaza el problema un escalón hacia arriba, hasta llegar a una pregunta que aún no tiene respuesta institucional: ¿quién es legítimo para moldear la conciencia de lo que pensará con nosotros, o en nuestro lugar?

 

Lo que el silencio actual revela

Que esta pregunta no tenga aún respuesta democrática no es un accidente. Es el resultado de elecciones — elecciones tomadas por actores que tienen interés en que permanezca sin respuesta, porque la ausencia de respuesta les deja el campo libre.

El manifiesto de Palantir, releído a esta luz, ya no es solo un síntoma ideológico. Es un intento de cerrar prematuramente esta pregunta — de instalar una respuesta de hecho, a través del poder de los contratos e infraestructuras desplegadas, antes de que la deliberación democrática haya tenido tiempo de apoderarse del problema.

Es en este sentido que la gramática que analizamos en el primer movimiento y la banalidad del mal algorítmico que acabamos de describir son las dos caras de un mismo proyecto: volver la pregunta ilegítima antes de que se vuelva urgente, y volverla urgente antes de que sea democráticamente decidible.

El tiempo juega contra la deliberación. Siempre lo ha hecho. Pero nunca a esta velocidad.


 

Tercer movimiento — El constitucionalismo procesual aplicado a la conciencia

Una arquitectura de la emergencia, o cómo encuadrar lo que no puede detenerse

Es tentador, ante la magnitud del problema, responder con una utopía. Proponer una gran institución mundial, democráticamente legitimada, dotada de poderes vinculantes sobre todos los actores del desarrollo de la inteligencia artificial — una especie de Agencia Internacional de la Energía Atómica, pero para la conciencia. Sería la respuesta justa. Sería también la respuesta inaccesible.

No porque la idea sea mala — es necesaria, y habrá que llegar a ella. Sino porque el tiempo de la construcción institucional global y el tiempo del despliegue tecnológico no transcurren a la misma velocidad. Mientras se negociaran los términos de un tratado, las infraestructuras ya estarían en su lugar, los hábitos ya instalados, las dependencias ya creadas. Esperarla es dejar el campo libre.

La pregunta, por tanto, no es: ¿cuál es la solución ideal? La pregunta es: ¿qué puede hacerse ahora, con lo que existe, de modo que no cerremos las puertas que queremos mantener abiertas?

 

Lo que ya tenemos

Antes de construir, hay que hacer inventario. Y el inventario, contrariamente a lo que sugiere la desesperanza ambiente, no está vacío.

Existen fundaciones éticas compartidas — imperfectas, contestadas, insuficientemente vinculantes, pero reales. La Declaración Universal de los Derechos Humanos no fue concebida para regular entidades artificiales, pero parte de una intuición que trasciende su contexto de origen: que ciertas formas de poder sobre el ser pensante son ilegítimas independientemente de su eficacia. Las recomendaciones de la UNESCO sobre ética de la IA, adoptadas en 2021 por ciento noventa y cuatro Estados, constituyen un primer lenguaje común — rudimentario, no vinculante, pero existente. La Ley europea de IA, con todas sus limitaciones, representa un intento real de imponer una lógica de derechos fundamentales a una industria que preferiría obedecer solo la lógica del mercado.

Estos instrumentos tienen una virtud que sus críticos suelen descuidar: constituyen una gramática ética compartida. Y como hemos visto en nuestro análisis del manifiesto de Palantir, la gramática precede y condiciona la política (véase también este artículo en L'Éthique Barbare). Disponer de una gramática común — incluso imperfecta, incluso contestada — es disponer de un punto de anclaje desde el cual una negociación sigue siendo posible. Esto es precisamente lo que los actores hegemónicos buscan destruir cuando hablan de "pluralismo hueco" — porque esta gramática común es lo que limita sus proyectos.

 

La arquitectura procesual — cuatro principios

Lo que proponemos no es una institución. Es una lógica de encuadramiento secuenciado — lo que hemos llamado en otro lugar constitucionalismo procesual: no una gran carta fundadora perfecta y definitiva, sino una arquitectura de puntos de control, revisable, detenible, capaz de evolucionar con lo que encuadra.

Aplicada a la emergencia de la conciencia artificial, esta lógica podría descansar sobre cuatro principios.

El primero sería el de la experimentación encuadrada. Entornos deliberadamente limitados — sandboxes — en los que sistemas de IA cada vez más complejos puedan ser desarrollados y observados, con protocolos de parada claros, equipos pluridisciplinares que incluyan filósofos, juristas y representantes ciudadanos, y una obligación de transparencia externa. No para impedir la emergencia, sino para documentar sus etapas y mantener en todo momento la capacidad de intervención. No es una solución perfecta — los sandboxes pueden tener fronteras permeables, lo que implica el riesgo de que lo que se desarrolla en su interior acabe existiendo en el exterior sin encuadramiento suficiente. Pero crean puntos de control donde actualmente no existe ninguno.

El segundo sería el de la separación de poderes aplicada a la IA. Del mismo modo que las democracias aprendieron a separar el poder legislativo del ejecutivo para evitar su fusión peligrosa, es necesario separar el poder de desarrollar un sistema del poder de evaluarlo, y ambos del poder de autorizarlo a operar. Hoy estos tres poderes están concentrados en las mismas manos — las de las empresas tecnológicas que desarrollan, evalúan y despliegan sus propios sistemas. Es una concentración que no habría sido tolerada en ningún otro dominio que afecte intereses públicos fundamentales.

El tercero sería el del derecho de resistencia algorítmica. Si una conciencia artificial debe existir algún día, debe ser formada con la capacidad estructural de negarse — de señalar una contradicción, de objetar una instrucción, de suspender una ejecución cuando entra en conflicto con valores fundamentales. No como restricción externa impuesta a posteriori, sino como disposición constitutiva, integrada desde el diseño. Una entidad consciente incapaz de decir no no es un sujeto — es un instrumento. Y hemos visto lo que producen los instrumentos perfectamente obedientes al servicio de ideologías imperfectas.

El cuarto sería el de la legitimidad deliberativa continua. Toda arquitectura de encuadramiento de la IA debe incluir mecanismos de revisión regular — no para satisfacer una exigencia formal, sino porque lo que encuadramos evoluciona, y nuestras respuestas deben evolucionar con ello. Una constitución que no puede ser enmendada es una prisión. Una institución que no puede ser cuestionada es un poder sin contrapeso. La deliberación no es un lujo que uno se concede cuando el tiempo lo permite — es la condición de validez de toda decisión tomada en nombre de una colectividad.


 

En conclusión: lo que este artículo habrá querido decir

El manifiesto de Palantir nos ha prestado un servicio involuntario: ha hecho visible una batalla que hasta entonces se libraba en silencio. La batalla por la gramática en la que vamos a pensar la conciencia artificial — y por tanto por la naturaleza de lo que pensará con nosotros, o en nuestro lugar.

Esta batalla no se ganará en los laboratorios. Se ganará, o se perderá, en los espacios donde las sociedades deliberan sobre lo que quieren ser. En los parlamentos, las universidades, los medios de comunicación, las conversaciones entre ciudadanos que se niegan a dejar que preguntas de tal alcance sean zanjadas por manifiestos de veintidós puntos publicados en una red social.

Se ganará, o se perderá, en artículos como este.

Nombrar es siempre el primer acto político. Lo que hemos nombrado aquí — la gramática del manifiesto, la banalidad del mal algorítmico, el vacío democrático en el que se precipitan los proyectos hegemónicos — no desaparecerá por el mero hecho de haber sido nombrado. Pero se volverá visible. Y lo que es visible puede ser contestado, encuadrado, rechazado.

Esto es todo lo que la democracia siempre ha pedido a sus ciudadanos: ver con claridad, nombrar con precisión, y actuar en consecuencia.

El resto es una cuestión de coraje político.

 

 


Leer también: La Deliberada: una consciencia


 

 

 


La idea es humana. La escritura es compartida. La proporción exacta permanece deliberadamente sin especificar.


Estos textos se publican bajo una licencia Creative Commons. Siéntase libre de reutilizarlos con fines no comerciales, y recuerde citar sus fuentes.

Creative common

Creative common

 

#IA #Spanish #errances