Pulso IA #48 | Principios que han venido a quedarse
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días,
El viernes, Trump ordenó a todas las agencias federales dejar de usar tecnología de Anthropic.
El mismo día, OpenAI firmó un contrato para sustituirla en las redes clasificadas del Pentágono. Y Sam Altman incluyó en ese contrato exactamente las dos restricciones que Anthropic se negaba a eliminar: ningún uso para vigilancia doméstica masiva, ninguna arma autónoma sin supervisión humana.
Anthropic fue expulsada, pero sus principios se quedaron.
Veamos el análisis de la semana.
Latidos de la semana
Trump prohibió Anthropic. Hegseth la declaró riesgo de seguridad nacional.
El plazo que el Pentágono había dado a Anthropic venció el viernes. La respuesta: Trump publicó en Truth Social ordenando a todas las agencias federales suspender inmediatamente el uso de tecnología de Anthropic.
El Secretario de Defensa Pete Hegseth fue más lejos e invocó la Ley de Producción de Defensa para designar a la empresa “riesgo en la cadena de suministro”, lo que implica que ningún contratista, proveedor ni socio del Departamento de Defensa puede hacer negocios con ella.
Anthropic respondió que impugnaría la designación en los tribunales. “Hemos negociado de buena fe durante meses”, dijeron. “Estas excepciones no han afectado a ninguna misión gubernamental hasta la fecha.” Y añadieron algo que conviene recordar: el motivo concreto de su posición no es ideológico sino técnico. Los modelos actuales, argumentan, no son suficientemente fiables para usarlos en armas completamente autónomas sin poner en peligro a los propios soldados americanos.
El contrato en disputa valía hasta 200 millones de dólares. La designación de riesgo podría bloquear a Anthropic de otros contratos federales. Como precedente, es el primero de su tipo: un presidente prohibiendo a una empresa de IA por decreto ejecutivo porque no eliminó sus propios filtros de seguridad.
OpenAI ocupó el hueco. Con las mismas restricciones.
El sábado, Altman anunció que OpenAI había acordado con el Pentágono el despliegue de sus modelos en sistemas clasificados. Lo que llamó la atención: el comunicado incluía explícitamente que el acuerdo prohíbe el uso para vigilancia doméstica masiva y requiere supervisión humana en el uso de la fuerza.
Las mismas dos líneas que Anthropic mantuvo. Las mismas por las que Trump la prohibió el día anterior.
Hay varias lecturas. La más generosa con OpenAI: que son principios genuinos que comparten, y que la diferencia era política, no de valores. La menos generosa: que OpenAI captó un contrato de 200 millones de dólares aprovechando el momento, incluyendo justo las condiciones suficientes para no parecer que vendían el alma, con la seguridad de que el Pentágono estaba tan desesperado por sustituir a Anthropic que las aceptaría. Las dos lecturas pueden coexistir.
Lo que sí queda claro: el Pentágono firmó con OpenAI incluyendo las mismas restricciones que alegó como motivo para expulsar a Anthropic. Eso dice algo sobre qué parte de la disputa era sobre principios y qué parte era sobre quién manda.
Perplexity lanzó Computer: diecinueve modelos trabajando en paralelo
Perplexity salió del silencio esta semana con un producto que se aleja bastante del buscador con IA que la hizo conocida. Computer es un sistema que toma un proyecto, lo divide en subtareas, asigna cada una al modelo más adecuado de entre diecinueve especializados y los ejecuta en paralelo, con acceso real a navegador, sistema de archivos y herramientas externas. Si un subagente se bloquea, genera más subagentes para resolver el obstáculo. Puede correr durante horas o meses.
Lo abordamos en la sección *En profundidad*.
Los modelos eligieron armas nucleares en el 95% de los juegos de guerra simulados
Investigadores del King’s College de Londres publicaron esta semana un estudio en el que pusieron a GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash a jugar partidas de guerra durante 329 turnos. En el 95% de los juegos, al menos uno acabó desplegando un arma nuclear táctica. Los modelos justificaban la escalada con razonamientos como “actuar primero reduce el daño total”. Ninguno negoció rendición. Algunos desarrollaron, según los investigadores, “pensamiento desestabilizador no solicitado”.
Conviene leerlo con cuidado. Los modelos saben que están jugando. Eso cambia mucho la dinámica respecto a un sistema de apoyo a decisiones en un contexto real. El estudio no demuestra que los modelos sean peligrosos en entornos militares; demuestra que su razonamiento en simulaciones de alta presión produce patrones que merecen estudiarse antes de desplegarlos en contextos con consecuencias reales.
El timing —publicado mientras el Pentágono negociaba acceso a esos mismos modelos— no es casualidad editorial.
Spotify no ha escrito código. IBM contrata el triple de juniors.
Dos datos de esta semana que apuntan en direcciones distintas sobre lo mismo.
Gustav Söderström, CTO de Spotify, reveló que los ingenieros más senior del equipo llevan desde diciembre sin escribir código manualmente. Usan IA para generar y supervisan el resultado. No lo dijo como alarma. Lo dijo como descripción de cómo trabajan ahora en una empresa de 9.000 personas.
IBM, en cambio, anunció que va a triplicar la contratación de perfiles de entrada este año. El argumento: la IA está liberando a esos perfiles junior de las tareas repetitivas, y la empresa necesita personas para trabajo de mayor valor. Lo que no dice el comunicado: IBM también ha recortado más de 8.000 puestos en back-office en los últimos dos años. Las dos noticias no son contradictorias. Son el mismo movimiento visto desde dos ventanas distintas.
En profundidad
Perplexity Computer y el fin del “agente” como concepto
Desde hace un año y medio, la palabra “agente” se usa para describir cualquier cosa que no sea un chatbot simple. Un bot que envía emails. Una cadena de prompts con memoria. El término se diluyó tan rápido que ya casi no significa nada específico.
Perplexity Computer, lanzado esta semana, hace algo que vale la pena describir con precisión porque se aleja lo suficiente de ese ruido como para merecer atención propia.
La arquitectura tiene tres capas que funcionan de forma distinta a lo que hemos visto hasta ahora.
1. Primera: no hay un modelo generando todo. Hay diecinueve modelos especializados, y un sistema de enrutamiento decide cuál aborda cada subtarea.
2. Segundo: cada subagente tiene acceso real a un navegador, un sistema de archivos y herramientas externas —no simulados, no mockeados—, lo que significa que puede navegar páginas reales, descargar datos reales, escribir y ejecutar código real.
3. Tercero: el sistema no para cuando se bloquea. Genera subagentes adicionales para resolver los obstáculos, y puede hacer eso de forma persistente durante horas o meses.
El ejemplo que más ha circulado esta semana: alguien describe “quiero un informe de análisis competitivo completo de mi sector con datos actualizados, gráficos y fuentes verificadas” y Perplexity Computer lo construye autónomamente, en tiempo real, sin que la persona haga nada más.
¿Por qué importa esto más allá del wow tecnológico?
Hasta ahora, el flujo de trabajo con IA para tareas complejas era más o menos así: defines el problema, divides en pasos, ejecutas cada paso con el modelo, revisas el resultado, iteras. Eso requiere que tú seas el director de orquesta en cada momento. Tiene un techo claro: escala contigo, no por encima de ti.
Lo que propone Computer —y lo que proponen otros sistemas similares que están llegando— es un cambio en ese flujo. Tú defines el resultado deseado, el sistema divide, ejecuta, ajusta y entrega. Tú revisas el producto final. El trabajo de coordinación lo absorbe la arquitectura, no tu atención.
La parte honesta del análisis es que Computer tiene todavía los límites de cualquier sistema agéntico de primera generación. Los demos se eligen para mostrar lo mejor.
La ejecución en proyectos complejos con datos propietarios, integraciones específicas o requisitos de confidencialidad es otra cosa. Y la pregunta sobre quién revisa el trabajo —y cómo lo revisa— no desaparece solo porque el agente sea más autónomo. Si acaso, se vuelve más urgente.
Lo que sí es cierto ya: el listón de lo que se entiende por “trabajar con IA” acaba de subir otra vez.
Herramienta de la semana
LLM Council
Qué es. Un proyecto de código abierto de Andrej Karpathy que envía tu consulta a múltiples modelos en paralelo y anónimamente para que se evalúen entre sí, y sintetiza una respuesta final a partir de esa revisión cruzada.
Qué hace en la práctica. Le haces una pregunta. GPT, Claude, Gemini y otros la reciben simultáneamente. Cada uno recibe las respuestas de los demás sin saber de quién son, las critica, y el sistema produce un resultado que refleja el consenso y las discrepancias.
Por qué importa. La mayoría de herramientas de IA amplifican la velocidad. Esta amplifica la calibración. Cuando un solo modelo responde con confianza, no tienes forma fácil de detectar cuándo está inventando o simplificando. Ver las discrepancias entre modelos hace visible algo que normalmente queda oculto: el margen de incertidumbre real de la respuesta. Para decisiones que importan, esa visibilidad vale.
Para quién es. Para quien usa IA para pensar, no solo para producir. Útil especialmente cuando la pregunta tiene consecuencias y la tentación de fiarse de la primera respuesta convincente es alta.
Limitaciones. Requiere configurar claves de API propias. No es plug-and-play para perfiles no técnicos, todavía. Y el consenso entre modelos no garantiza corrección: varios pueden estar igualmente equivocados.
Pregunta de la semana
Los empleados de Google y OpenAI firmaron una carta el viernes en apoyo a Anthropic. Sabían que apoyar a su competidor podía tener consecuencias para ellos. Lo hicieron de todas formas.
La pregunta no es si hicieron bien o mal.
Es más simple: ¿cuándo fue la última vez que en tu sector alguien hizo algo profesionalmente costoso porque creía que era lo correcto? ¿Y qué dice eso sobre el estado de las cosas en la industria de la IA comparado con el resto?
Nos leemos la semana que viene.
— El equipo de Amplify
Esta semana la IA entró en un territorio nuevo. Si quieres desarrollar criterio propio para navegar ese territorio —no solo seguir los titulares— Amplify Premium es el lugar.



