Pulso IA #52 | Claude puede usar tu ordenador
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días.
El martes, OpenAI apagó Sora. La plataforma de vídeo por IA que presentaron hace un año como el futuro del entretenimiento — junto con el acuerdo de un billón de dólares con Disney para generar contenido de Marvel, Pixar y Star Wars. Cancelado. El motivo oficial: ese cómputo va ahora a robótica.
La misma semana, un robot humanoide entró a la Casa Blanca. China puso IA de código abierto dentro de robots domésticos. Amazon compró una startup de humanoides. Y Anthropic le dio a Claude la capacidad de controlar tu pantalla y hacer clic por ti.
La IA no está acelerando. Está cambiando de dirección.
Latidos de la semana
OpenAI mató Sora. Y con ella, un billón de dólares de Disney.
El 24 de marzo, OpenAI cerró Sora de forma definitiva: la app, la API y el dominio sora.com, todos apagados el mismo día. El motivo declarado en el comunicado interno es doble: los costes de cómputo de la generación de vídeo son insostenibles a largo plazo, y los recursos van a redistribuirse hacia robótica y sistemas autónomos.
La víctima colateral más visible: el acuerdo con Disney firmado apenas tres meses antes, que incluía licencias de personajes de Marvel, Pixar y Star Wars para generación de vídeo. El contrato alcanzaba el billón de dólares a tres años. No llegó a ejecutarse. Disney confirmó que retira su inversión planificada en OpenAI.
Lo que dice esta decisión no es que el vídeo generativo no tenga futuro. Es que OpenAI ya no cree que sea su futuro. Una empresa puede estar equivocada sobre su propia dirección. Pero rara vez sacrifica un billón de dólares sin estar muy segura de adónde va en cambio.
Anthropic le da a Claude la capacidad de usar tu ordenador.
Esta semana, Anthropic lanzó en investigación Claude Computer Use y Dispatch para macOS. Significa exactamente lo que parece: Claude puede ahora controlar la pantalla, hacer clic, rellenar formularios, abrir aplicaciones y navegar por webs de forma autónoma, sin que tú muevas el ratón.
Dispatch es la capa que orquesta estas acciones — el sistema que decide qué hacer, en qué orden, y cuándo parar para pedir confirmación humana. Por ahora está en fase de acceso anticipado. El modelo que lo ejecuta es Claude Opus 4.6.
Para contextualizar: hasta ahora, los agentes de IA te ayudaban a hacer cosas. Ahora, con las debidas cautelas de configuración, pueden hacerlas directamente. La diferencia es pequeña en el papel y enorme en la práctica. Tienes que decidir a qué acciones le das permiso, con qué datos, y con cuánta supervisión. Esas decisiones no las hace la IA.
Un robot por los pasillos de la Casa Blanca
En una cumbre sobre educación e IA celebrada esta semana, el humanoide Figure 03 se convirtió en el primer robot en entrar a la Casa Blanca. Saludó a los asistentes en 11 idiomas. El contexto oficial del evento era defender un futuro donde profesores humanoides den clases personalizadas a cada estudiante.
Se puede debatir si ese futuro es deseable. Lo que no se puede ignorar: que el gobierno federal de EE.UU. usó un robot físico como elemento central de una cumbre de política educativa. Los humanoides han pasado de ser noticia tecnológica a ser argumento de política pública. Ese salto tiene consecuencias regulatorias, presupuestarias y laborales que todavía no están en el debate público.
China desplegó IA de código abierto dentro de robots. Sin esperar a que nadie le diera permiso.
Mientras los laboratorios occidentales debaten governance y licencias, la industria robótica china ya está integrando modelos de IA de acceso abierto en hardware físico. Esta semana: Ecovacs lanzó Bajie, un robot doméstico impulsado por OpenClaw. Unitree G1 integró el mismo modelo para navegación en tiempo real en espacios físicos. AgileX publicó una guía para control por lenguaje natural de su brazo robótico. Xiaomi lo está probando en smartphones y dispositivos del hogar.
La velocidad de adopción tiene una explicación estructural: cuando el modelo es abierto, no hay que negociar licencias ni esperar acuerdos comerciales. Se descarga, se integra, se prueba. El ciclo de desarrollo-despliegue se comprime radicalmente.
Perplexity lanzó un asistente de salud que lee tu historial médico.
Perplexity Health es una nueva funcionalidad de la app de Perplexity que permite subir informes médicos — analíticas, diagnósticos, prescripciones — y hacer preguntas sobre ellos en lenguaje natural. El sistema los interpreta, explica los términos técnicos y te ayuda a formular preguntas para tu médico.
Lo que hace distinto a esto de buscar en Google síntomas es el contexto: no busca información genérica, analiza tu documento específico. El resultado no es un diagnóstico — es comprensión. Y hay una diferencia enorme entre las dos cosas.
Disponible ya en la app de Perplexity para iOS y Android, sin cuenta de pago.
En profundidad
El problema no era el agente. Era que nadie miraba lo que hacía.
Un dato que circuló esta semana en foros de directivos y que merece más atención de la que recibió: el 89% de las empresas que han desplegado agentes de IA tienen algún tipo de monitorización activa. Solo el 52% evalúa lo que el agente produce.
La diferencia entre monitorizar y evaluar es la diferencia entre saber que el agente está corriendo y saber si está haciendo lo correcto.
Un gestor de activos publicó esta semana en Harvard Business Review el resultado de ocho meses de agentes de IA trabajando en su departamento de operaciones. La tarea asignada: revisar las excepciones diarias —casos que salen fuera de los parámetros normales y que antes requería que alguien los investigara manualmente. Los agentes lo hacían. El sistema funcionaba. Las métricas de volumen eran buenas.
Ocho meses después, descubrieron algo: la gran mayoría de esas “excepciones” no eran errores. Eran diferencias metodológicas conocidas entre equipos que llevaban años investigándolas sin llegar a ninguna conclusión porque en realidad no era un problema que hubiera que resolver, sino una característica del sistema que todo el mundo conocía pero que nunca se había documentado formalmente.
Los agentes habían estado procesando durante ocho meses un trabajo que no necesitaba hacerse. Eficientemente, sin fallo técnico, con buenas métricas de output. Y completamente en falso.
Este patrón tiene un nombre en gestión de operaciones: Goodhart’s Law. Cuando una métrica se convierte en objetivo, deja de ser una buena métrica. En el caso de los agentes de IA, la métrica que más se mide es el volumen (cuántas tareas procesó, cuánto tiempo ahorró, cuántos tickets cerró). Lo que casi nunca se mide es si las tareas que procesó eran las correctas, si los cierres resolvieron el problema real, o si el tiempo “ahorrado” se invirtió en algo de más valor.
La ola de agentes que esta semana empujó NVIDIA, OpenAI y Anthropic desde sus respectivos escenarios va a producir mucho output. La mayoría de ese output va a ser monitorizado. Una fracción menor va a ser evaluado. Y una fracción aún menor va a ser evaluado contra los criterios correctos.
La ventaja competitiva en los próximos dos años no va a ser para quien tenga más agentes. Va a ser para quien haya pensado primero en qué significa que un agente haga bien su trabajo. Y haya construido la forma de saberlo.
Herramienta de la semana
Granola
Qué es. Una app de notas de reuniones para macOS que funciona de forma diferente a la mayoría: no transcribe todo lo que se dice, sino que combina lo que tú apuntas durante la reunión con la grabación de audio para generar un resumen estructurado, con contexto y acción items, al terminar.
Qué hace en la práctica. Durante la reunión, tomas notas como siempre — fragmentadas, telegráficas, en el orden en que van surgiendo. Granola usa esas notas como esqueleto y rellena el contexto desde el audio, produciendo algo coherente y legible que además distingue automáticamente entre lo que quedó decidido, lo que está pendiente y lo que fue solo conversación.
Por qué importa. La mayoría de las herramientas de transcripción producen un bloque de texto que nadie lee. Granola produce algo que sí se lee, porque el punto de partida son tus propias notas y no una transcripción automática que hay que descifrar. La diferencia en utilidad es grande.
Limitaciones. Solo disponible para macOS de momento. Requiere micrófono activo durante la reunión. El plan gratuito tiene un límite de reuniones mensuales. No funciona igual de bien si no tomas ninguna nota durante la reunión, necesita algo de input tuyo para producir un output bueno.
Pregunta de la semana
OpenAI acaba de cancelar su producto de vídeo más visible y su acuerdo más sonado para redirigir esos recursos a robótica. Anthropic acaba de dar a su modelo la capacidad de controlar tu pantalla. Amazon acaba de entrar en el mercado de humanoides domésticos.
Cada una de estas empresas está apostando por una versión distinta de lo que es la IA útil en los próximos tres años. Y tú, sin que nadie te haya preguntado, estás construyendo tus flujos de trabajo sobre la apuesta de alguna de ellas.
¿Sabes cuál?
Nos leemos.
— El equipo de Amplify



