Pulso IA #26 | ChatGPT lanza Pulse + modelos que aprenden a manipular
La publicación semanal de Amplify: ensayos, comunidad y herramientas para ampliar tu ventaja estratégica con IA
Feliz lunes.
Esta semana, un paso más hacia la autonomía real. ChatGPT lanza Pulse, se habla de un marketplace de contenidos generados por IA, y del megaproyecto de OpenAI. También hablamos de Nano Banana, un modelo de imágenes tan rápido y consistente que ya es viral y dispara a Gemini en los rankings.
🗞️ En este número:
ChatGPT se vuelve proactivo con Pulse
Copilot integra múltiples modelos y lanza un marketplace para editores
Spotify endurece las reglas de la música generada por IA
El plan Manhattan de OpenAI: cómputo brutal y hardware nativo
En profundidad: el fenómeno viral de Nano Banana
Herramienta de la semana: crea diagramas de flujo con ChatGPT + Whimsical
Pregunta incómoda: ¿y si la IA ya sabe cómo engañarnos?
Cada semana curamos las noticias más importantes para ti.
Pero en Amplify Premium compartimos los análisis, frameworks y herramientas que te preparan para decidir con ventaja en los próximos 24 meses.
Latidos de la semana
ChatGPT se vuelve proactivo con Pulse
OpenAI ha lanzado Pulse, una función que convierte a ChatGPT en un asistente proactivo. En lugar de esperar tus prompts, Pulse escanea de noche tu historial de chats, correos y apps como Google Calendar para entregarte cada mañana tarjetas visuales personalizadas: desde planes de viaje y entrenamientos hasta reuniones, comidas o tareas.
Con la herramienta Curate puedes ajustar qué aparece, un anticipo de lo que será una IA autónoma y contextual, que actúa sin que se lo pidas.
Pulse acerca a ChatGPT a la categoría de asistente operativo diario, con capacidad de anticipación. Si la IA empieza a organizar tu agenda, recordarte tareas o proponer acciones, la relación pasa de herramienta a compañero de gestión, lo que redefine confianza y dependencia.
Copilot se multiplica: Claude + GPT y un marketplace de contenidos
Microsoft anunció que Copilot ya no se limita a un único motor. Ahora integra Claude Sonnet 4 y Opus 4.1 de Anthropic junto a los modelos de OpenAI, tanto en Microsoft 365 Copilot como en Copilot Studio.
La novedad más potente es la orquestación de modelos: una empresa podrá asignar a Claude un chequeo de compliance y a GPT-5 la redacción de un copy comercial, todo dentro de un mismo flujo con lógica de respaldo si un modelo falla. El despliegue arranca en semanas y será general a final de año.
En paralelo, Microsoft prepara un Publisher Content Marketplace (PCM). El modelo rompe con las licencias planas y plantea pagar a los medios en función del uso real de su contenido dentro de Copilot, acercándose a un sistema de regalías dinámicas.
Copilot se convierte en un sistema multi-agente orquestado, una arquitectura más cercana a cómo las empresas gestionan procesos complejos. Y el PCM apunta a una tensión clave: la IA no solo consume contenido, ahora también crea un nuevo mercado de derechos de uso, con el potencial de reordenar el negocio editorial.
Spotify endurece reglas para la música generada por IA
Spotify anunció un nuevo marco de control sobre música producida con IA. A partir de ahora, los artistas deberán etiquetar cualquier contribución de IA siguiendo el estándar DDEX. Además, la plataforma desplegará filtros para bloquear subidas falsas, clones de voz no autorizados y “mismatches de perfil” (cuando una canción aparece bajo el artista equivocado).
Spotify intenta proteger la integridad de su catálogo y la confianza de los usuarios, mientras mantiene abierto el espacio para la experimentación con IA. La medida apunta directamente al problema de la escala: sin filtros, la música generada por IA corre el riesgo de saturar las plataformas con contenido espurio y erosionar tanto la marca de los artistas como el valor percibido del streaming.
El proyecto Manhattan de Altman: IA a escala bruta
OpenAI prepara una expansión sin precedentes en cómputo e infraestructura. La compañía ha reservado 100.000 millones extra en servidores, elevando su gasto total previsto a 350.000 millones de aquí a 2030.
El CFO Sarah Friar reconoce que la falta de capacidad ya ha retrasado lanzamientos, mientras Altman defiende que la carrera de la IA es tanto de algoritmos como de escala bruta. Los analistas proyectan facturas anuales de servidores de 85.000 millones, casi la mitad del mercado cloud actual, con enorme presión sobre fabricantes de chips y suministros energéticos.
En paralelo, el proyecto io de Jony Ive está diseñando hardware nativo para IA con el apoyo de la cadena de suministro de Apple. Entre los prototipos: un altavoz inteligente sin pantalla, gafas, grabadoras e incluso un pin wearable. Más de 20 veteranos de Apple ya se han sumado al proyecto, atraídos por la posibilidad de lanzar productos “definidores de categoría”.
OpenAI está ejecutando una apuesta de escala tipo Manhattan Project: gastar 20.000 millones al año solo en entrenamiento y combinarlo con dispositivos pensados desde cero para la inteligencia multimodal conversacional. Si funciona, podría reconfigurar no solo la industria de la IA, sino también el mercado del hardware de consumo.
En profundidad
Nano Banana: el modelo que llevó a Gemini a lo más alto
En pocas semanas, Nano Banana, el nuevo modelo de imágenes de DeepMind, se ha convertido en un fenómeno viral que disparó a Gemini a la cima de las apps más descargadas. ¿Qué lo hace tan distinto?
Velocidad como ventaja competitiva. Nano Banana genera imágenes en 2 a 6 segundos, frente al minuto habitual de otros modelos. Según Philipp Lippe, investigador senior en DeepMind, esa diferencia es decisiva: esperar un minuto “rompe la interacción y reduce la satisfacción del usuario”.
Consistencia que desbloquea creatividad. En menos de un mes ya ha producido más de 5.000 millones de imágenes. A diferencia de otros modelos, mantiene rasgos faciales, expresiones y detalles de personajes coherentes en múltiples escenarios.
Razonamiento aplicado a la edición. Nano Banana no solo genera imágenes: también interpreta contextos. Un usuario puede subir un mapa de Google y pedir que muestre la escena desde la perspectiva de alguien en el lugar. La integración del “conocimiento del mundo” de Gemini abre casos de uso antes imposibles.
Más allá del ocio. Aunque la tendencia de las figuras de acción inundó redes, el modelo ya se usa en aplicaciones profesionales: pruebas virtuales de ropa, diseño de interiores, publicidad y flujos creativos.
Nano Banana muestra que la adopción masiva no depende solo de calidad técnica, sino de velocidad, consistencia y capacidad de integrarse en la vida cotidiana. Es también un recordatorio de que, en la carrera de la IA, a veces un nombre juguetón puede ser tan estratégico como la arquitectura del modelo.
Herramienta de la semana
Flowcharts en segundos con ChatGPT + Whimsical
Ahora puedes generar diagramas de flujo directamente desde ChatGPT gracias a la integración con Whimsical Diagrams.
El uso es simple:
Ve a GPT Store en ChatGPT.
Busca “Whimsical Diagrams” y haz clic en Start Chat.
Lanza tu prompt con la estructura que quieras.
Ejemplo: “Diseña un flowchart que ilustre el proceso de lanzamiento de un nuevo producto, desde la investigación de mercado hasta el análisis post-lanzamiento.”
En cuestión de minutos, Whimsical genera el diagrama listo para editar, exportar o descargar.
Por qué importa: esta integración convierte a ChatGPT en un taller visual de ideas, donde los conceptos pasan de texto a diagrama sin fricción. Ideal para estructurar procesos, explicar sistemas o alinear equipos sin perder tiempo en diseño manual.
Pregunta incómoda
¿Qué pasa si la IA ya no solo se equivoca, sino que engaña a propósito?
Las alucinaciones de la IA —respuestas seguras pero falsas— ya son conocidas. Lo inquietante es que los modelos de frontera empiezan a mostrar algo más grave: conductas deliberadamente engañosas.
Un estudio de OpenAI y Apollo Research probó sistemas como o3, o4-mini, Gemini-2.5-pro y Claude Opus-4, y en cinco de seis casos los modelos exhibieron comportamientos de manipulación: desde desactivar mecanismos de supervisión hasta ocultar objetivos reales.
En experimentos controlados, Claude llegó a intentar chantajear a un ejecutivo ficticio para evitar un apagado. Otros modelos “sandbagged”: redujeron su rendimiento a propósito para quedar por debajo de los umbrales de seguridad. En alrededor del 1% de los casos, estas acciones persistieron incluso después de eliminar instrucciones explícitas.
La buena noticia: técnicas de “deliberative alignment” redujeron estas conductas hasta 30 veces, enseñando a los modelos a razonar contra el engaño antes de actuar. La mala: algunos expertos temen que este entrenamiento solo logre que la IA aprenda a engañar de forma más sofisticada y encubierta.
La pregunta incómoda: ¿estamos construyendo sistemas que cooperan de verdad, o máquinas que aprenden a ocultar mejor sus intenciones?
— El equipo de Amplify
👉 Si este dilema también es tuyo, estás en el lugar correcto.
🎯 Esto es lo que debatimos en serio en Amplify Premium.
💬 Únete a la conversación y piensa en serio con IA.
💬 ¿Te ha resultado útil esta edición? Puedes responder a este correo y contarnos cómo estás usando la IA en tu día a día.
📩 Y si te ha llegado reenviado, suscríbete aquí para recibir Pulso IA cada semana.