Pulso IA #42 | La mayor creación de riqueza en 100 años
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial
Buenos días.
Hay semanas en las que las noticias parecen ruido. Y otras en las que, si las lees con calma, notas que algo se está desplazando por debajo, como un hilo invisible conectándolo todo.
Esta es de las segundas.
En la edición de hoy:
OpenAI se toma la salud en serio
Grok bajo investigación y con 20.000 millones
Gmail normaliza la IA
Claude va más allá del chat
Apple esconde la IA
En profundidad: la fiebre del oro
Herramienta de la semana: Gemini Personal Intelligence
¿Obsesión por controlar los prompts?
Vamos a ello.
Latidos
OpenAI entra de verdad en la sanidad
OpenAI ha lanzado ChatGPT Health, una experiencia específica que permite subir y conectar datos médicos (informes, historiales, información de seguros) para recibir orientación personalizada: entender diagnósticos, preparar visitas médicas, navegar coberturas o trámites.
Es un movimiento de posicionamiento. Ppero siempre con la frase tranquilizadora: no sustituimos a los médicos. Eso es clave. No porque sea verdad o mentira, sino porque es exactamente lo que hay que decir para cruzar el umbral regulatorio.
El contexto importa: Utah acaba de aprobar un piloto para que una IA renueve recetas sin intervención médica directa. No es ciencia ficción. Es una grieta legal. Y las grietas, cuando aparecen, nunca se quedan pequeñas.
La lectura fría: la sanidad está dejando de ser un “territorio prohibido” para la IA y pasando a ser un espacio negociable.
xAI levanta 20.000 millones mientras Grok está bajo investigación
El contraste es casi perfecto: una de las rondas más grandes de la historia, anunciada mientras tu producto está siendo investigado por generar imágenes sexualizadas de mujeres y niños reales.
Aquí hay una lección incómoda: el capital no se detiene por fricción ética si cree que hay opcionalidad estratégica. La apuesta no es Grok como producto final. Es xAI como ficha geopolítica en el tablero de Musk.
Dicho sin moralina: el mercado está valorando poder, no pulcritud.
Gmail se vuelve (por fin) utilizable con IA
Google ha desplegado varias funciones nuevas en Gmail.
Inbox inteligente, búsquedas en lenguaje natural, y dos funciones antes de pago ahora gratis: Help Me Write y Suggested Replies.
Lo interesante no es la funcionalidad, sino la normalización. Google está diciendo: “esto ya no es premium, es infraestructura”. Y además insiste en que es opcional y que no entrena modelos con tus emails. Tranquilidad cognitiva como feature.
La IA deja de ser algo que usas y pasa a ser algo que está ahí, como el autocompletado hace diez años.
Anthropic empuja a Claude hacia agentes reales
Claude Code 2.1.0 no es sexy para el gran público, pero es muy revelador. Hooks, skills, hot reload, permisos flexibles, sesiones persistentes.
Traducción: menos chat, más sistema. Menos “ayúdame con esto”, más “haz esto cada vez que ocurra X”.
Lo importante no es la lista de features, sino la dirección: Anthropic está dejando claro que no quiere competir solo en “calidad de respuesta”. Quiere construir entornos donde los agentes tengan memoria, rol y continuidad.
Está apostando a que el futuro no son respuestas brillantes, sino comportamientos confiables.
Apple empaqueta la creatividad por 12,99$ al mes
Final Cut, Logic, Pixelmator, Motion, Compressor, MainStage… todo junto. Y, de paso, IA integrada de manera silenciosa: buscar clips describiéndolos, generar presentaciones desde esquemas, completar tablas por patrones.
Apple no vende “IA”. Vende continuidad. La IA no es protagonista; es electricidad. Y eso, estratégicamente, es muy Apple.
En profundidad
La mayor creación de riqueza en 100 años
211.000 millones de dólares invertidos en startups de IA en 2025. +85 % interanual. Casi la mitad del venture capital global.
Más de 50 nuevos billonarios. Tres de ellos, con 22 años, gracias a una startup de recruiting valorada en 10.000 millones. No porque el recruiting sea sexy, sino porque la fricción era absurda y la IA la atravesó como mantequilla.
Y mientras tanto, las empresas no se quedan mirando: 37.000 millones en gasto corporativo en IA, multiplicando por 3,2 en un solo año. Hace dos años, esa categoría apenas existía.
En resumen:
1. Nunca antes una categoría de software ha escalado tan rápido. Eso no es adopción. Es urgencia.
2. Los nuevos billonarios no vienen de ciclos largos. Vienen de atacar fricciones obvias con modelos generalistas.
3. La mayor parte de la riqueza no se la llevan los usuarios finales. Se la llevan:
Infraestructura (modelos, chips, cloud).
Plataformas que agregan demanda empresarial.
Fundadores que llegan antes de que el mercado se vuelva competitivo.
Andrew McAfee dice que nunca hemos visto algo así. Es cierto. Pero hay una trampa cognitiva: confundimos creación de valor con distribución de valor. La primera está ocurriendo. La segunda todavía no.
Y ahí es donde suelen romperse las narrativas. ¿Burbuja? Tal vez. Pero incluso las burbujas dejan infraestructura.
¿Quieres ir un nivel más abajo?
Pulso IA está pensado como radar: para detectar movimiento, no para agotarlo.
En Amplify Premium hacemos otra cosa: paramos el tiempo y descomponemos el cambio. Sin ruido. Sin titulares reciclados.
Solo marcos mentales, contexto profundo y lectura estratégica.
Accede a Amplify Premium aquí:
Herramienta de la semana
Google Personal Intelligence
Gemini ahora puede conectarse a Gmail, Fotos, YouTube y Search para responder con contexto personal: fechas, gustos, hábitos.
No es más inteligente. Es más situado.
El detalle importante: viene apagado por defecto. Google sabe que aquí el problema no es técnico, sino psicológico. La barrera ya no es la capacidad de la IA, sino la disposición humana a ser entendida.
Pregunta de la semana
¿Hemos estado lanzando prompts de manera equivocada?
Un paper reciente de Google Research sugiere algo casi ofensivamente simple: copia y pega tu prompt dos veces seguidas.
Eso es todo.
Probado en Gemini, GPT-4o, Claude y DeepSeek, esta “repetición de prompt” ganó 47 de 70 benchmarks, con mejoras de hasta 76 puntos porcentuales en precisión.
La razón es técnica y elegante: los modelos leen de izquierda a derecha. Al repetir, cada token obtiene una segunda pasada con más contexto del que “vio” la primera vez.
No sustituye a los prompts complejos cuando hacen falta. Pero añade una regla nueva a la caja de herramientas: cuando dudes, dilo dos veces.
Cuidado aquí, porque la lectura superficial es un error.
Llevamos dos años tratando a los LLMs como máquinas lógicas, cuando en realidad se parecen más a sistemas de atención. No siempre fallan por falta de instrucciones. A veces fallan porque leen como nosotros: con sesgos de inicio, énfasis mal colocado y fatiga contextual.
Repetir el prompt funciona porque corrige eso, no porque sea un “hack”.
La pregunta incómoda es otra: ¿estamos diseñando interacciones para que la IA piense mejor… o para sentir que nosotros mandamos?
Porque no es lo mismo.
Nos leemos,
— El equipo de Amplify
¿Te ha resultado útil esta edición? Respóndenos y cuéntanos cómo estás usando la IA en tu día a día.
Si te ha llegado reenviado, suscríbete aquí para recibir Pulso IA cada semana.



