Pulso IA #47 | Líneas rojas
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días,
El Pentágono amenazó esta semana con cortar su contrato con Anthropic porque la empresa se niega a dejar que Claude sea usado para vigilancia doméstica masiva o para armas completamente autónomas.
El Departamento de Defensa lo llama “riesgo en la cadena de suministro”. Anthropic lo llama una línea roja.
El mismo día, dos investigadores —uno de Anthropic, uno de OpenAI— anunciaron su renuncia pública advirtiendo que sus respectivas empresas no son suficientemente cuidadosas. Que el mundo está en peligro.
¿Es cierto?
Vamos a verlo.
Latidos de la semana
El Pentágono vs. Anthropic: el cliente más peligroso del mundo
El conflicto lleva meses, pero esta semana se hizo público y escaldó. El contrato original con el Departamento de Defensa —valorado en hasta 200 millones de dólares— incluye el uso de Claude en redes clasificadas a través de Palantir.
Hasta ahí, bien. El problema es que el Pentágono quiere que Anthropic retire todas las restricciones para “cualquier fin legal”, incluyendo las que afectan a vigilancia de ciudadanos y armamento autónomo. Anthropic dijo que no.
La posición del Pentágono: hay leyes que regulan esto, nosotros las cumplimos, no necesitamos que una empresa privada nos imponga sus propios filtros encima. La posición de Anthropic: precisamente porque hay casos donde esos filtros son lo único que frena ciertos usos, no los quitamos.
Lo que hace interesante el caso no es quién tiene razón técnicamente. Es lo que revela sobre la posición estructural de los laboratorios de IA: están vendiendo la tecnología más potente de la historia a clientes que no quieren restricciones, y el único poder real que tienen para imponer condiciones es el contrato. Cuando el cliente es el Ejército de los Estados Unidos, ese poder es finito.
Dos investigadores se van. “El mundo está en peligro.”
Mrinank Sharma, investigador senior de Anthropic, y Zoë Hitzig, de OpenAI, anunciaron su renuncia esta semana en cartas públicas.
Sharma escribió que las empresas de IA están acelerando sin los mecanismos de seguridad adecuados. Hitzig señaló específicamente la campaña de publicidad de Anthropic en la Super Bowl y la deriva comercial de ambas empresas como señales de un alineamiento con incentivos financieros que consideran incompatibles con el trabajo de seguridad serio.
Es tentador leer esto como drama corporativo. Pero hay algo más interesante: estas son personas que eligieron trabajar en seguridad de IA precisamente porque creían en el proyecto. Que se vayan ahora no significa que tengan razón sobre todo. Significa que la distancia entre la promesa de alineamiento y la práctica cotidiana ya es lo suficientemente grande como para que algunas personas no puedan vivir en ella.
Veremos cuántos más.
Anthropic compró cuatro anuncios en la Super Bowl para picarle a OpenAI
La campaña se llamaba “A Time and a Place” y giraba en torno a una misma idea: hay momentos en los que un anuncio interrumpe lo que estás haciendo, y hay momentos en los que una herramienta simplemente te ayuda.
El subtexto era difícil de ignorar: OpenAI acaba de anunciar que meterá publicidad en ChatGPT. Anthropic, que se ha construido una identidad sobre no ser eso, lo puso en prime time frente a 100 millones de personas.
Sam Altman respondió en X llamando los anuncios “claramente deshonestos”. Dario Amodei no dijo nada públicamente.
La semana siguiente, los dos coincidieron en el escenario de la cumbre de IA de India junto al primer ministro Modi y otros CEO tecnológicos. Modi los juntó para una foto grupal. Pichai estiró la mano. Altman y Amodei, uno al lado del otro, levantaron el puño en el aire por separado y no se miraron.
Es una rivalidad perfectamente calibrada para la era de los comunicados corporativos: nadie dice lo que piensa directamente, todo se traduce en anuncios, discursos sobre riesgos y fotos que cuentan más de lo que cualquiera ha dicho en voz alta.
LatamGPT: el primer modelo de lenguaje de América Latina
El 10 de febrero, Chile presentó LatamGPT en un acto con el presidente Boric.
Es el primer gran modelo de lenguaje de código abierto entrenado con datos de América Latina: 15 países, 60 instituciones, unos 200 especialistas que pasaron meses curando textos en español y portugués con sus matices jurídicos, culturales, económicos. El modelo no compite con GPT-5 o Claude en capacidad bruta —honestamente, está más cerca del GPT-3 de hace cinco años— pero eso no es lo que importa aquí.
Los modelos de lenguaje aprenden de los datos con los que se entrenan. Y los datos del mundo hispanohablante históricamente no están bien representados en los grandes modelos. Cuando un médico en Buenos Aires o un abogado en Ciudad de México usan ChatGPT, el modelo sabe muchísimo sobre los sistemas legales y sanitarios de Estados Unidos. Sobre los suyos, bastante menos.
LatamGPT no resuelve eso de golpe. Pero es código abierto, tiene financiación real del Banco de Desarrollo de América Latina y de AWS, y viene con el respaldo político explícito de varios gobiernos.
El creador de OpenClaw se va a OpenAI
Peter Steinberger, fundador de OpenClaw, la aplicación de agente personal que ha tenido más tracción orgánica en meses recientes, anunció que se une a OpenAI. OpenClaw pasará a ser una fundación de código abierto. Steinberger trabajará en integrar las capacidades de agentes autónomos e interacción entre agentes en los productos principales de OpenAI.
Cuando el creador del producto que más ha popularizado el concepto de agente personal decide entrar a trabajar en el laboratorio que controla la plataforma, algo se está consolidando. No está claro si OpenClaw como proyecto ganará o perderá con esto. Lo que sí parece claro es que el concepto que demostró ya no necesita a Steinberger para sobrevivir.
Si el Pentágono, los investigadores que se van y LatamGPT te han hecho pensar en cómo posicionarse cuando las reglas del juego se están reesciribiendo, ese es exactamente el terreno que exploramos juntos en Amplify Premium.
En profundidad
Anthropic, el Pentágono, y el problema de vender lo que no puedes controlar
El contrato entre Anthropic y el Pentágono parecía una buena noticia cuando se firmó el año pasado. Claude en sistemas clasificados. Un laboratorio comprometido con la seguridad llevando su modelo al entorno más exigente del mundo.
La narrativa funcionaba para todos: el gobierno validaba a Anthropic, Anthropic demostraba que sus modelos eran lo suficientemente robustos para uso institucional, y Palantir, el intermediario, añadía un cliente más a su red de contratos de defensa.
Lo que nadie decía en voz alta era la pregunta obvia: ¿qué pasa cuando el cliente quiere que el modelo haga algo que la empresa considera inaceptable?
Esta semana, la respuesta llegó.
El Pentágono quiere que Anthropic quite los filtros que impiden que Claude sea usado para vigilancia doméstica masiva y para desarrollo de armamento autónomo. Anthropic dice que no. El Pentágono amenaza con declarar a Anthropic “riesgo en la cadena de suministro” y cortar el contrato. Palantir, atrapada en el medio, guarda silencio.
La posición del Departamento de Defensa tiene una lógica que vale la pena entender antes de descartarla. Su argumento es el siguiente: ya hay leyes que regulan lo que el ejército puede y no puede hacer. Las restricciones de una empresa privada son redundantes en el mejor caso y arbitrarias en el peor. Si queremos usar un modelo para analizar comunicaciones en el contexto de una operación militar autorizada, no necesitamos que Anthropic decida si eso cruza su línea ética particular.
Es un argumento razonable si confías en que esas leyes son suficientes y en que el ejército las cumple. No todo el mundo comparte esa confianza, y Anthropic explícitamente no la comparte.
El problema que revela este conflicto es más profundo que cualquiera de las dos posiciones. Tiene que ver con la naturaleza de lo que Anthropic vende.
Cuando vendes software estándar, el cliente lo compra, lo instala y lo usa como quiere dentro de sus sistemas. Lo que haga con él es su responsabilidad. Pero los modelos de lenguaje frontera no funcionan así. Están actualizados constantemente. Requieren acceso a la infraestructura del proveedor. Y —esto es lo central— el proveedor toma decisiones continuas sobre qué puede y no puede hacer el modelo.
Eso significa que Anthropic no está vendiendo un producto. Está vendiendo acceso continuo a un sistema que sigue bajo su control parcial. Y cuando ese sistema está desplegado en redes clasificadas del ejército más poderoso del mundo, el nivel de control que Anthropic puede ejercer en la práctica es incierto.
Lo que hace el Pentágono al exigir la retirada de guardarraíles es forzar esa tensión al límite. No está pidiendo un favor. Está poniendo sobre la mesa una pregunta estructural: ¿quién tiene autoridad real sobre cómo se usa este modelo?
La respuesta que da Anthropic —nosotros mantenemos esa autoridad porque es nuestra tecnología— tiene sentido en un mundo de clientes corporativos normales. Es más complicada cuando el cliente es el Departamento de Defensa de los Estados Unidos y la alternativa es que ese departamento use modelos de OpenAI, Google o xAI, que ya han accedido a quitar sus restricciones.
Porque eso es exactamente lo que puede pasar. Y si pasa, el resultado no es que el ejército no use IA. Es que usa IA sin los filtros de Anthropic.
Eso plantea una pregunta que no tiene respuesta limpia: ¿es mejor estar dentro e intentar mantener algún control, o mantenerse fuera y tener las manos limpias mientras otros ocupan el espacio?
Herramienta de la semana
Coinbase Agentic Wallets
Carteras de criptomonedas en la red Base de Coinbase diseñadas para que las gestionen agentes de IA, no personas. Las claves privadas se almacenan en entornos de ejecución seguros. El propietario puede configurar límites de gasto. El agente puede transaccionar de forma autónoma dentro de esos límites.
Por ahora, es principalmente útil para desarrolladores que construyen sobre Base y quieren que sus agentes operen sin fricción de aprobación manual.
Pero los agentes han sido, hasta el momento, herramientas que amplifican la cognición: buscan, sintetizan, redactan, coordinan. Con carteras agénticas dan un paso hacia la acción económica autónoma. Eso no es una mejora de productividad. Es un cambio en qué tipo de entidad es el agente, y merece prestarle atención de cara al futuro.
Pregunta de la semana
Dos personas que dedicaron años a construir sistemas de IA seguros decidieron esta semana que sus empresas ya no merecen su confianza. El Pentágono decidió esta semana que Anthropic es demasiado cautelosa para ser un socio fiable. Los dos grupos creen tener razón sobre la misma empresa.
El instinto habitual es preguntarse quién tiene razón. Pero hay una pregunta más útil: ¿qué tipo de señales te fiarías de seguir si tuvieras que posicionarte en este debate, sin acceso a la información interna que tiene cada parte?
Nos leemos,
— El equipo de Amplify
Amplify Premium existe para trabajar estas preguntas con tiempo y con otros que se las hacen en serio.
No damos respuestas definitivas —nadie las tiene— pero sí marcos más sólidos para orientarse.
Si esta edición te ha dejado con más preguntas que respuestas, ese es el lugar.



