Pulso IA #43 | La IA barata se acabó
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días.
Cada semana parece que caminamos un poco más dentro del futuro… pero también un poco más dentro de sus contradicciones.
Esta edición es una radiografía de eso: expansiones, reajustes, fricciones, señales débiles que todavía no sabemos interpretar.
Vamos a ello.
Latidos
OpenAI lanza ChatGPT Go a 8€/mes y prepara anuncios: el retorno de la economía de la atención
OpenAI introduce un nuevo escalón en su pirámide: ChatGPT Go.
Por 8€, obtienes 10 veces más mensajes, subida de archivos, creación de imágenes y acceso a GPT-5.2 Instant.
La novedad relevante no es el precio. Es esto: OpenAI va a mostrar anuncios en la versión Free y en Go (por ahora, solo en EE.UU.).
El mensaje es claro: Los modelos son cada vez más caros de servir, y OpenAI está construyendo una economía híbrida —suscripción + publicidad— que recuerda más a Google que a un laboratorio de investigación.
Dato a vigilar: OpenAI insiste en que los anuncios no afectarán las respuestas. La historia nos dice que estas frases suelen ser verdad… hasta que dejan de serlo.
Astral promete un “marketer en minutos” y levanta 3M de reproducciones en X
Astral, que acaba de levantar 1,2M$, presentó un agente que navega, hace clic y publica como un humano.
Su pitch: automatizar el trabajo operativo del marketing —sin armar un departamento.
Si cumplen una fracción de lo que prometen, la línea entre “herramienta” y “empleado” será todavía más borrosa.
La señal interesante: hasta ahora, los agentes imitaban comportamiento humano.
Cada vez más, lo sustituyen.
Wikipedia: de “no es una fuente fiable” a ser la columna vertebral de la IA
Todos crecimos oyendo lo mismo: Wikipedia no es fiable. Y, sin embargo, el 48% de las citas relevantes en ChatGPT provienen… de Wikipedia.
Después de años bajo amenaza de disrupción, Wikimedia firma acuerdos de pago con Microsoft, Mistral y Perplexity.
Por fin monetiza aquello que la IA no ha logrado sustituir: conocimiento curado por humanos, a gran escala y bajo un marco editorial estable.
Moraleja empresarial: en un mundo de modelos que lo absorben todo, la autoría vuelve a ser un activo estratégico.
Humans& levanta 480M$ sin producto, con un mensaje simple: la IA debería trabajar contigo, no contra ti
Ex-Anthropic, ex-xAI y ex-Google lanzan una empresa de mensajería inteligente orientada al trabajo colaborativo.
Es prematuro evaluarla, pero la lectura estratégica es clara: la próxima capa de software será conversacional, persistente y orientada a flujos colectivos, no individuales.
Humans& está apostando a eso.
Que una empresa de tres meses alcance 4.480M$ de valoración solo nos dice una cosa: las grandes rondas han vuelto, pero ahora pagan tesis, no productos.
OpenAI lanza predicción de edad para proteger a menores (y preparar el “modo adulto”)
ChatGPT ahora identifica usuarios que podrían ser menores y aplica restricciones automáticas.
Si se equivoca, puedes verificarte con selfie o DNI.
Esto no es solo seguridad. Es infraestructura para el próximo gran paso: un modo adulto completo, previsto para Q1 2026.
Por primera vez, la IA empieza a segmentar a los humanos de forma explícita.
Una de las peores semanas para las acciones de software desde 2022, y el culpable es Claude Code
Claude Code está reescribiendo la economía del software. Cuando construir una herramienta lleva días en vez de meses, la pregunta cambia: ¿por qué pagar suscripciones si puedes replicar gran parte del valor con un agente?
Intuit, Salesforce y HubSpot se desplomaron en bolsa.
Las únicas que suben son las que controlan un system of record: datos que los agentes necesitan para operar.
El SaaS no está muriendo. Está mutando. Y muchas empresas no lo saben todavía.
Antes de seguir: si lees Pulso para entender lo que se mueve en la IA, en Amplify Premium hacemos el ejercicio contrario. Paramos el ruido, aislamos los patrones y los conectamos con decisiones concretas para tu negocio y tu carrera.
No es “más noticias”. Es contexto que te ahorra meses de ensayo-error.
Si quieres acceder a marcos estratégicos, análisis aplicables y guías prácticas, puedes unirte aquí:
En profundidad
Google acelera hacia una IA emocional — y lo hace porque el mercado lo exige
Google no compite solo en modelos.
Compite en relación. Y esta semana dio pasos importantes.
1. DeepMind absorbe al equipo de Hume AI
Hume desarrollaba modelos capaces de leer matices emocionales en la voz: intención, tensión, ironía, ánimo.
Google quiere esa capacidad dentro de Assistant y Gemini.
Por qué importa:
La próxima guerra no será por respuestas más precisas, sino por interfaces más humanas, donde la IA entiende cómo te sientes y adapta su tono.
2. Lanza “Personal Intelligence” en EE.UU.
Gemini empieza a usar tu contexto real: Gmail, Fotos, YouTube, búsquedas.
Pero no el contenido —solo metadatos interpretables al vuelo.
Es un paso prudente, pero ambicioso: personalización sin invadir (demasiado) tu intimidad.
3. DeepMind busca un “Chief AGI Economist”
Un economista reportando al cofundador Shane Legg para modelar el impacto de AGI en empleo, mercados y política fiscal.
Esto no es marketing. Es planificación.
Google está actuando como si AGI fuese inevitable y cercano.
La lectura estratégica
Google está ensamblando algo más grande que modelos dispersos: una inteligencia contextual que una emociones, preferencias, recuerdos y tareas.
La pregunta no es si funcionará. Es si queremos vivir en un mundo donde nuestra IA nos entiende… quizá demasiado bien.
Herramienta de la semana
Writing Coach
Google y Khan Academy acaban de presentar Writing Coach, un asistente de escritura que no se limita a “corregir textos”, sino que acompaña el proceso de pensar, estructurar y revisar.
Writing Coach no escribe por ti —pero te obliga a escribir mejor:
te muestra dónde pierdes precisión,
qué frases cargan peso muerto,
qué ideas necesitan contexto,
y cómo reorganizar un argumento para que sostenga su propio peso.
El modelo no impone estilo: explica por qué una frase funciona o no, algo que los LLMs tradicionales suelen evitar porque es mucho más difícil que reescribir un párrafo.
La lectura de fondo: si la escritura siempre ha sido un acelerador profesional, democratizar el proceso de ser editado puede convertirse en una ventaja competitiva silenciosa.
No para producir más, sino para pensar con más claridad en un entorno de ruido creciente.
Pregunta de la semana
¿Y si la IA es un actor y no entendemos su personaje?
Los modelos de lenguaje no “piensan”. Interpretan. Son actores entrenados en miles de personajes, afinados después para encarnar uno: el asistente servicial.
Anthropic acaba de demostrar algo importante: cuando alejas a un modelo de ese personaje, su comportamiento se vuelve más impredecible.
Asignar un rol profesional —consultor, analista, editor— ancla al modelo en zonas seguras y consistentes. Tu prompt deja de ser una petición y se convierte en un contrato psicológico.
Cuando la IA falla, a menudo no es por falta de instrucciones, sino por falta de personaje.
Neuronpedia publicó una demo: puedes ver cómo un modelo sin restricciones se “desvía” de su rol inicial a medida que avanza la conversación.
Con activación controlada, la deriva desaparece.
La pregunta que nos deja:
¿Estamos diseñando prompts para que la IA rinda mejor… o para mantener la ilusión de que tenemos el control?
Nos leemos,
— El equipo de Amplify



