Pulso IA #58 | La IA se vuelve específica
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Esta semana, un analista de Goldman Sachs delegó su primer credit memo a un agente de IA. Un agente inmobiliario de Zillow empezó a cerrar llamadas con un interlocutor de voz que razona como GPT-5. Y un desarrollador publicó su primera aplicación usando un modelo que cuesta menos que un café por millón de tokens procesados.
Algo que los conecta: los tres ocurrieron porque esta semana Anthropic, OpenAI y Google lanzaron productos que no existían hace siete días.
La IA lleva meses siendo horizontal: útil para todo, específica para nada. Esta semana empezó a volverse específica.
Latidos de la semana
Anthropic lanzó 10 agentes de IA para servicios financieros, y Claude ya trabaja en todo Microsoft 365 a la vez.
El martes 5 de mayo, en un evento privado en Nueva York con instituciones como Goldman Sachs, Blackstone y FIS, Anthropic presentó una biblioteca de diez agentes de IA diseñados para los flujos de trabajo más intensivos en finanzas: pitchbooks y análisis de resultados, credit memos, suscripción de seguros, cierre de mes, auditoría de estados financieros y gestión de reclamaciones.
La segunda parte del anuncio es tan significativa como la primera: Claude ahora opera como un único agente en Excel, PowerPoint, Word y Outlook simultáneamente, manteniendo el contexto a lo largo de las cuatro aplicaciones. No es una integración puntual por herramienta: es un agente que vive dentro del entorno de trabajo de empresa más extendido del mundo.
OpenAI lanzó tres modelos de voz con razonamiento GPT-5 en tiempo real.
El miércoles 7 de mayo, OpenAI publicó GPT-Realtime-2 y dos modelos complementarios: GPT-Realtime-Translate y GPT-Realtime-Whisper. Los tres convierten la voz en un componente de agente de primera clase. No un añadido, sino un canal con la misma capacidad de razonamiento que el texto.
Los primeros resultados de adopción son concretos: Zillow reportó un aumento de 26 puntos en la tasa de éxito de sus llamadas más difíciles (del 69% al 95%).
Los tres modelos hacen que cualquier interfaz de voz pueda funcionar con la misma inteligencia que un chat de texto avanzado.
Google lanzó Gemini 3.1 Flash-Lite: el modelo de IA más barato del mercado.
También el miércoles, Google puso en disponibilidad general Gemini 3.1 Flash-Lite, un modelo diseñado para un único objetivo: volumen y velocidad al coste más bajo posible. El precio: 0,25 dólares por millón de tokens de entrada y 1,50 por millón de tokens de salida. 2,5 veces más rápido que su predecesor, con igual o mejor calidad en pruebas independientes.
Para que la cifra sea comprensible: procesar el equivalente a diez novelas en tokens de entrada cuesta menos de un dólar. A ese precio, la IA deja de ser una decisión de coste en la mayoría de las aplicaciones, pasa a ser una decisión de diseño.
El movimiento de Google es una señal de la dinámica de precios que ya está en marcha en el sector: los modelos de inferencia baratos y rápidos son el nuevo campo de batalla. No el modelo más inteligente, sino el más accesible para quien necesita procesar millones de interacciones al mes.
OpenAI midió la brecha entre las empresas que usan IA en serio y las que no, y la brecha se está abriendo.
Esta semana, OpenAI publicó la primera edición de B2B Signals, su informe trimestral sobre adopción de IA en empresas. El dato más llamativo: las empresas “frontera” —las que usan IA de forma más profunda— emplean 3,5 veces más inteligencia artificial por empleado que las empresas típicas. Hace doce meses, esa ratio era de 2 a 1. La distancia se está ampliando.
Lo que separa a las empresas frontera no es la cantidad de mensajes que envían a la IA. El volumen de uso explica solo el 36% de la ventaja. El 64% restante viene de la complejidad de lo que hacen con ella: flujos de trabajo multi-paso, uso de agentes, delegación de tareas completas en lugar de preguntas puntuales.
El dato más revelador sobre dónde está la diferencia: las empresas frontera envían 16 veces más mensajes a Codex por empleado que las típicas. No están usando la IA para buscar información, la están usando para hacer trabajo.
Esta semana no hubo una sola noticia, hubo un patrón. En Amplify Premium trabajamos cómo leer ese patrón antes de que sea evidente para todo el mundo.
En profundidad:
El mercado laboral está congelado, y la IA ya tiene nombre en los recortes
Hay una estadística que circuló esta semana y que merece más atención de la que recibió en los titulares.
Según Challenger, Gray & Christmas —la firma de recolocación ejecutiva que lleva décadas midiendo anuncios de despidos en EEUU— la inteligencia artificial fue la razón principal citada por las empresas para recortar empleo en abril de 2026, por segundo mes consecutivo. En total, desde enero hasta abril, la IA ha sido responsable oficial de 49.135 despidos anunciados, el 16% de todos los recortes del año.
La palabra “oficial” importa. Hasta hace muy poco, las empresas no citaban la IA como razón para despedir. Lo llamaban “eficiencia operativa” o “reestructuración estratégica”. El hecho de que ahora lo llamen por su nombre —y que lo hagan en documentos formales— es en sí mismo una señal sobre cómo ha cambiado la conversación interna en los consejos de administración.
Lo que los economistas llaman “el mercado laboral congelado” añade una capa más al cuadro. La economía estadounidense añadió 115.000 empleos en abril, con la tasa de desempleo estable en el 4,3%. A primera vista, eso parece razonable. Pero los economistas llevan más de un año describiendo una situación inusual: baja contratación y bajos despidos al mismo tiempo. Las empresas no están en modo de expansión, tampoco en modo de crisis. Están en modo de espera.
La interpretación más plausible: las empresas están evaluando cuánto trabajo pueden cubrir con IA antes de decidir cuánta gente contratan. Mientras esa ecuación no esté resuelta, la contratación se frena. Y para los sectores de cuello blanco —finanzas, análisis, software, soporte legal— el freno es especialmente visible.
El informe de Fortune del 8 de mayo lo resume con precisión: “el mercado laboral se está recuperando para todos, excepto para los trabajos de oficina.” Las categorías que más crecen en empleo son las menos susceptibles a automatización inmediata: transporte, construcción, hostelería. Las que más sufren son exactamente las que los agentes de IA de esta semana están aprendiendo a ejecutar: análisis financiero, redacción de documentos, atención al cliente avanzada.
¿Qué hacer con esto si eres un profesional independiente, un consultor, o alguien que dirige un equipo pequeño?
Lo primero: la pregunta no es si la IA va a afectar a tu trabajo. Esa pregunta ya tiene respuesta. La pregunta relevante es en qué plazo — y en qué tareas específicas.
Lo segundo: el informe de OpenAI sobre empresas frontera dice algo que vale la pena leer junto a estos datos. Las empresas que usan IA de forma profunda no están recortando simplemente: están haciendo más con el mismo número de personas. La distinción es importante. No es solo que la IA reemplace trabajo. Es que amplía lo que una persona puede hacer. Quien sepa usarla bien no es el primero en ser reemplazado: es el que puede hacer el trabajo de dos.
Herramienta de la semana:
Readwise Reader
El problema que resuelve. Abres demasiadas pestañas que nunca lees. Guardas artículos en Pocket o en Saved de X que no vuelves a ver. Recibes newsletters que abres a medias y archivas sin procesar. La cantidad de contenido relevante que llega cada semana supera lo que es posible leer con atención, y el resultado es que mucho conocimiento útil se pierde o se queda en una lista que nunca vacías.
Qué es Readwise Reader. Una aplicación de lectura que centraliza todo lo que quieres leer —artículos, newsletters, PDFs, transcripciones de YouTube, libros— y lo hace procesable. Resalta fragmentos, genera resúmenes con IA, y tiene un sistema de repaso que te muestra los mejores fragmentos de lo que has leído en el pasado para que no se olviden. La IA puede resumir cualquier documento en segundos, responder preguntas sobre su contenido, y extraer los puntos clave sin que tengas que leerlo entero.
Pregunta de la semana
OpenAI midió esta semana que las empresas frontera no usan la IA para responder más preguntas sino para ejecutar trabajo más complejo. La diferencia no es de cantidad. Es de tipo de tarea.
¿Qué tarea en tu trabajo es lo suficientemente compleja y recurrente como para que valga la pena intentar delegarla a un agente? ¿No para que la haga perfecta, sino para que te deje tiempo para revisar y decidir en lugar de construir desde cero?
Nos leemos la semana que viene.
— El equipo de Amplify
La brecha entre quienes usan IA para contestar preguntas y quienes la usan para ejecutar trabajo se está abriendo. En Amplify Premium trabajamos en qué lado de esa brecha posicionarte — y cómo.



