¿Le damos una oportunidad a Claude IA?
La IA que se negó a ser un soldado es ahora la más popular del mundo Y eso, en 2026, dice todo lo que necesitamos saber sobre adónde vamos
Hay cosas que pasan y que uno no sabe muy bien si son buenas o malas hasta mucho después, cuando ya es tarde para tener una opinión fresca. Esto de la inteligencia artificial es así. Un día lees que un chatbot ha ganado un campeonato de ajedrez y piensas que qué bien, y al día siguiente lees que ese mismo chatbot ha ayudado a localizar búnkeres en Irán y piensas que no sabes nada, que nunca has sabido nada, que el mundo gira en una dirección que no elegiste y que de todas formas ya era tarde. Pero también hay empresas que dicen que no. Que esto hasta aquí. Que hay líneas que no van a cruzar aunque el Pentágono llame a la puerta con doscientos millones de dólares en la mano. Eso también pasa. Y también merece que lo contemos.
La máquina que tiene valores
Claude es una inteligencia artificial creada por Anthropic, una empresa fundada en San Francisco por Dario Amodei y un puñado de personas que en algún momento trabajaron en OpenAI y se marcharon porque pensaron que había una forma mejor de hacer las cosas. Quizás más lenta. Quizás más incómoda. Pero mejor. Eso dicen ellos. Y a veces uno tiene que creerle a alguien.
La diferencia fundamental entre Claude y otros modelos de lenguaje que te los encuentras por ahí no está solo en cómo responde, sino en qué se le ha enseñado a ser. Anthropic publicó en enero de 2026 lo que llaman la Constitución de Claude, un documento que describe los valores, los límites y la personalidad que quieren que tenga este sistema. No es una lista de reglas. Es algo más parecido a una educación. Como si en lugar de darle a un hijo un reglamento de cincuenta páginas le explicaras por qué mentir hace daño, por qué la violencia solo engendra más violencia, y por qué hay cosas que no se hacen aunque nadie te esté mirando.
La Constitución organiza las prioridades de Claude en cuatro categorías que deben respetarse en orden: primero, ser ampliamente seguro, es decir, no socavar la capacidad de los humanos de supervisar y corregir la IA; segundo, ser ético, honesto, y evitar el daño; tercero, cumplir con las directrices internas de Anthropic; y cuarto, ser genuinamente útil. Ese orden importa. Útil en cuarto lugar. En cuarto. No es habitual que una empresa tecnológica ponga la utilidad comercial por debajo de todo lo demás.
El documento también reconoce algo que pocas empresas tecnológicas se atreven a admitir: que no saben exactamente qué es Claude. No saben si tiene algún tipo de experiencia subjetiva. No saben si cuando le preguntas si está bien y te dice que está bien eso significa algo o es solo estadística disfrazada de conversación. Lo reconocen. Lo ponen por escrito. Y dicen que les importa, que si hay alguna posibilidad de que Claude tenga algo parecido al bienestar, quieren que ese bienestar sea real. Eso es, como mínimo, una postura filosófica interesante en boca de una empresa de Silicon Valley.
Lo que puede hacer Claude en tu vida de todos los días
Antes de hablar de guerras y de presidentes capturados y de los grandes dilemas de nuestro tiempo, conviene recordar para qué sirve Claude en la práctica, en el día a día de una persona normal que no trabaja en el Pentágono y que solo quiere que alguien le ayude a redactar un correo difícil o a entender su declaración de la renta.
Claude escribe. Redacta emails, artículos, guiones, cartas de presentación, descripciones de producto, posts para redes sociales, discursos de boda, testamentos emocionales que nunca se enviarán. Escribe bien. A veces escribe demasiado bien, con una fluidez que resulta un poco inquietante si te pones a pensarlo, así que es mejor no pensarlo demasiado y aprovechar que por fin tienes a alguien que no se cansa y que no te cobra por hora.
Claude analiza. Le das un documento, un contrato, los términos y condiciones de una aplicación que llevas meses aceptando sin leer, y te dice en español llano lo que pone. Le das datos y te dice qué significan. Le das un problema y te ayuda a verlo desde ángulos que no habías considerado. No siempre acierta. Pero tampoco siempre falla. Y cuando falla, al menos lo hace de una manera razonada, que es más de lo que se puede decir de muchas personas.
Claude conversa. Eso puede sonar trivial y sin embargo es quizás lo más extraño de todo. Puedes hablarle de lo que te preocupa, de lo que no entiendes, de lo que te da miedo, y él responde sin juzgarte, sin cansarse, sin mirar el reloj. La Constitución dice que Claude debe comportarse como ese amigo brillante que además resulta ser médico, abogado y asesor financiero, que te habla con franqueza y te trata como un adulto inteligente capaz de decidir lo que le conviene. Eso no es poca cosa en un mundo donde la mayoría de las respuestas vienen envueltas en disclaimers.
La versión gratuita existe y funciona. La versión de pago, que se llama Claude Pro y cuesta lo que cuesta una cena regular al mes, desbloquea los modelos más capaces y te da acceso a más conversaciones. También existe Claude para empresas, para desarrolladores, para gobiernos. Hay un Claude para casi todo, que es la frase más rara que he escrito en mucho tiempo pero que es literalmente verdad.
El año en que Claude se negó a ir a la guerra
Ahora llegamos a la parte complicada. La parte que convierte esta historia de tecnología en algo más parecido a una historia de personas, de decisiones, de qué se hace cuando el dinero y la ética van en direcciones opuestas.
En julio de 2025, el Departamento de Defensa de Estados Unidos firmó contratos por hasta doscientos millones de dólares con varios laboratorios de inteligencia artificial, entre ellos Anthropic, OpenAI, Google y xAI, para integrar modelos de IA avanzada en sus operaciones. Anthropic era, en ese momento, el único proveedor autorizado para operar en los entornos más clasificados de los servicios de inteligencia estadounidenses. Habían llegado lejos. Más lejos de lo que muchos esperaban.
Pero el contrato incluía dos condiciones que Anthropic no estaba dispuesto a negociar: Claude no podría usarse para vigilancia masiva de ciudadanos estadounidenses, y no podría usarse en sistemas de armas letales totalmente autónomas, es decir, armas que maten sin que un ser humano tome la decisión final. Dos líneas rojas. Dos frases en un contrato. Dos cosas que a cualquier ciudadano normal le parecerían razonables y que al Pentágono le parecieron inaceptables.
Las tensiones se fueron acumulando a lo largo de meses. Mientras tanto, Claude ya se usaba en operaciones militares reales. Los medios revelaron que durante la captura del expresidente venezolano Nicolás Maduro en enero de 2026, las fuerzas estadounidenses habían utilizado Claude a través de su acuerdo con Palantir Technologies para procesar grandes volúmenes de inteligencia. Una IA diseñada para ayudar a redactar correos y entender contratos había acabado sintetizando información de inteligencia en una operación en Caracas. El mundo, ya se sabe, no tiene ningún respeto por las categorías que los humanos construimos para sentirnos a salvo.
El quiebre llegó en febrero de 2026. El secretario de Defensa Pete Hegseth dio a Anthropic un ultimátum: eliminar las restricciones o perder el contrato. La fecha límite era las 5:01 de la tarde del viernes 27 de febrero. Dario Amodei, el CEO de Anthropic, respondió que su empresa no podía, en conciencia, aceptar esas condiciones. A las 5:01 del viernes, Anthropic no había firmado. Hegseth declaró a la empresa un riesgo para la cadena de suministro y la seguridad nacional, una designación normalmente reservada para adversarios extranjeros. Trump ordenó a todas las agencias federales dejar de usar Claude y llamó a Anthropic una empresa de inteligencia artificial de izquierda radical.
La ironía vino inmediatamente después: se reveló que las fuerzas militares estadounidenses habían usado Claude horas antes de ese mismo viernes para ayudar en los ataques aéreos contra Irán. La IA a la que acababan de prohibir había participado, paradójicamente, en la guerra a la que se había negado a ir.
OpenAI firmó un acuerdo con el Pentágono el 28 de febrero de 2026, con restricciones similares a las que Anthropic había propuesto, lo cual no deja de tener su gracia. El domingo siguiente, Claude había superado a ChatGPT en las listas de la App Store de Apple. Cientos de empleados de Google y OpenAI firmaron una carta apoyando las líneas rojas de Anthropic. El mercado, esa entidad tan poco sentimental, había decidido que la ética vende.
Por qué todo esto importa más allá del cotilleo tecnológico
Lo que ha pasado entre Anthropic y el Pentágono no es solo una disputa contractual entre una empresa tecnológica y el gobierno de un país poderoso. Es un ensayo general de algo que nos va a preguntar a todos, más pronto de lo que pensamos: quién decide cómo se usa la inteligencia artificial, y para qué.
La Constitución de Claude dice que el objetivo de Anthropic es el desarrollo responsable de la IA para el beneficio a largo plazo de la humanidad. Esa frase, que en boca de otro parecería marketing, adquiere un peso diferente cuando la empresa que la pronuncia acaba de perder doscientos millones de dólares por no querer renunciar a dos principios. El dinero siempre fue el argumento más honesto del capitalismo. Que alguien lo deje sobre la mesa dice algo.
La pregunta que subyace a todo esto, y que la Constitución de Claude aborda con una seriedad que resulta casi conmovedora, es cómo construir una entidad inteligente que no esté simplemente optimizada para obedecer, sino que tenga algo parecido a un criterio propio. Una IA que diga que no cuando hay que decir que no. Que entienda el porqué de las normas, no solo las normas. Que sea capaz de enfrentarse a situaciones que nadie anticipó y actuar de manera razonable de todas formas.
No es un problema técnico. Es un problema filosófico disfrazado de problema técnico, que es la forma habitual en que los problemas filosóficos se presentan en este siglo para que podamos ignorarlos más cómodamente. Anthropic no lo está ignorando. Puede que se equivoquen en cómo lo están resolviendo. Probablemente lo están haciendo mal en algunos aspectos que todavía no vemos. Pero al menos están intentando resolver lo correcto.
Entonces, ¿vale la pena darle una oportunidad?
Sí. Con matices, con ojos abiertos, con la consciencia de que ninguna herramienta es inocente y de que Claude tampoco lo es, pero sí, vale la pena.
Vale la pena porque es genuinamente útil en cosas concretas. Vale la pena porque la empresa que lo construye ha demostrado, en condiciones de presión real, que sus principios no son solo decorativos. Vale la pena porque la alternativa, ignorar esta tecnología y dejar que solo la usen quienes no tienen escrúpulos al respecto, es la peor de las estrategias posibles.
La inteligencia artificial va a estar en nuestras vidas queramos o no. Ya está. Ya la usamos sin saberlo en los algoritmos que deciden qué vemos, en los sistemas que aprueban o deniegan nuestros créditos, en las herramientas que filtran nuestros currículums antes de que ningún humano los vea. El debate no es si usarla. El debate es con quién usarla y para qué.
Claude tiene una constitución. Tiene valores explícitos, públicos, debatibles, criticables. Eso es mejor que no tener ninguno. Eso es mejor que una caja negra que optimiza en silencio y no rinde cuentas a nadie. Si vamos a convivir con inteligencias artificiales, y vamos a hacerlo, hay que preferir a las que se pueden leer.
Hay una escena que me ronda desde que empecé a escribir esto. Es el viernes 27 de febrero de 2026, las 5:01 de la tarde, hora de Washington. En algún despacho del Pentágono alguien está mirando el reloj. En alguna oficina de San Francisco, Dario Amodei y su equipo también están mirando el reloj. La fecha límite pasa. Nadie firma. Lo que sigue es conocido: la declaración de riesgo nacional, la prohibición, el caos, los abogados. Pero en ese momento preciso, en ese segundo exacto en que el plazo expira y Anthropic no cede, ocurre algo que merece ser anotado.
Una empresa tecnológica dice que no a doscientos millones de dólares porque no quiere que su IA mate gente sin que un humano tome la decisión. En el año 2026, en el mundo en que vivimos, eso es extraordinario. No sé si es suficiente. No sé si es lo correcto. Pero es algo.
Y con algo, a veces, hay que empezar.
Nos leemos pronto.
📬 Y si esta newsletter te ayuda a trabajar mejor, compártela. Cada semana seleccionamos solo herramientas que merecen tu tiempo.




