Pulso IA #21 | GPT-6, despidos por IA y el nuevo poder del contexto
La publicación semanal de Amplify: ensayos, comunidad y herramientas para ampliar tu ventaja estratégica con IA
Feliz lunes.
La carrera de la IA está entrando en una nueva fase: la de los modelos que recuerdan. El foco se desplaza de la potencia bruta a la capacidad de los modelos para retener, contextualizar y adaptarse a largo plazo.
Al mismo tiempo, el mercado empieza a enseñar sus dientes. Las tecnológicas han sufrido caídas bursátiles tras nuevas dudas sobre el retorno real de las inversiones en IA.
🗞️ En este número:
Google añade funciones agénticas a AI Mode
Wall Street pincha el hype
DeepSeek V3.1, el modelo abierto más potente hasta ahora
Sam Altman adelanta GPT-6
Claude abre su Learning Mode a todos los usuarios
El outsourcing, primera víctima masiva de la IA
Herramienta de la semana: ElevenLabs Chat Mode
El contexto es el nuevo rey
Cada semana curamos las noticias más importantes para ti.
Pero en Amplify Premium compartimos los análisis, frameworks y herramientas que te preparan para decidir con ventaja en los próximos 24 meses.
Latidos de la semana
Google añade funciones “agénticas” a AI Mode
Google sigue empujando su modo de IA hacia algo más que un buscador mejorado. Esta semana ha anunciado nuevas capacidades “agénticas”: ahora puede, por ejemplo, reservar una cena en función de tus preferencias y coordinarse con varias plataformas para ejecutar la tarea de principio a fin. Eso sí, solo estará disponible en el plan Ultra, con un coste de 250 $/mes.
La compañía también estrena una función de búsqueda compartida, pensada para planificar viajes o eventos en grupo sin tener que salir del chat. Y ha confirmado que AI Mode se desplegará en más de 180 países en los próximos meses, consolidando su apuesta por un asistente que actúe, no solo responda.
Las tecnológicas se hunden tras dudas sobre el boom de la IA
El entusiasmo de Wall Street por la IA ha sufrido un frenazo. Un estudio del MIT concluye que el 95% de las empresas no está obteniendo retorno alguno de sus inversiones en inteligencia artificial. A eso se suma la admisión de Sam Altman de que los inversores podrían estar “sobreexcitados” con las perspectivas del sector.
El baño de realidad se reflejó en los mercados: Nvidia cayó un 3,5%, Palantir se desplomó un 9,4% y el Nasdaq tecnológico registró su mayor retroceso en un solo día desde agosto. Una señal de que el hype de la IA empieza a chocar contra la dureza de los números.
DeepSeek V3.1: el modelo abierto más potente hasta ahora
La china DeepSeek ha lanzado de forma discreta su modelo V3.1, con 685.000 millones de parámetros y ya disponible en Hugging Face. La actualización introduce una arquitectura híbrida que combina chat, razonamiento y programación en un mismo sistema.
En eficiencia, V3.1 logra resultados antes reservados a modelos cerrados: reduce costes y latencia de forma drástica. En pruebas de coding, marcó un 71,6% en Aider, superando a todos los sistemas chinos y venciendo a Claude Opus 4 en coste-eficiencia.
Altman mira a GPT-6: la memoria como la gran apuesta
OpenAI ya piensa más allá de GPT-5. Sam Altman adelantó que GPT-6 será más rápido, adaptable y con memoria integrada para recordar preferencias, rutinas y tono, lo que permitirá asistentes totalmente personalizados. Altman lo definió como “mi función favorita de 2025”. El detalle incómodo: la memoria temporal aún no está cifrada, lo que plantea serios riesgos de privacidad en usos médicos o legales.
El modelo también se está diseñando para cumplir con la nueva orden ejecutiva de EE. UU., que exige que los sistemas usados por el gobierno sean ideológicamente neutrales pero personalizables.
Mientras tanto, la realidad pone límites. En el OdysseyBench —un test de 602 tareas cruzando Word, Excel, PDFs, email y calendarios— el modelo o3, más antiguo, superó a GPT-5 en lo esencial: la ejecución sostenida entre aplicaciones.
En paralelo, OpenAI lanzó ChatGPT Go en India por 5 $/mes, con memoria ampliada, más imágenes y archivos, análisis en Python y herramientas para proyectos y tareas. Un movimiento que apunta a ganar adopción masiva en mercados emergentes.
Claude abre su “Learning Mode” a todos los usuarios
Anthropic ha liberado para el público general una de sus funciones más pedagógicas: el Learning Mode, antes exclusivo del plan Educación. Inspirado en el método socrático, no entrega la respuesta directa, sino que guía paso a paso hasta que el usuario llega a ella, fomentando el aprendizaje activo.
Para desarrolladores, Claude Code suma un Explanatory Mode que narra sus decisiones mientras programa, y mantiene la opción de “pausar” para que el usuario escriba de su puño y letra 5-10 líneas de código antes de continuar. Un enfoque que convierte a Claude no solo en asistente, sino en un tutor que explica y enseña.
En profundidad
¿Será el outsourcing la primera víctima masiva de la IA?
El mayor empleador tecnológico de India, Tata Consultancy Services (TCS), acaba de anunciar 12.000 despidos, la mayor reducción de su historia. Oficialmente se habla de “desajuste de habilidades”, pero muchos analistas lo ven como la primera señal clara de que la IA está empezando a automatizar el sector de la subcontratación, valorado en 283.000 millones de dólares.
El outsourcing es un blanco fácil: se apoya en tareas repetitivas y basadas en datos estructurados, justo el terreno donde la IA ya alcanza tasas de adopción del 60-70%, según el World Economic Forum. Los expertos anticipan que entre 400.000 y 500.000 empleos podrían desaparecer en los próximos 2-3 años, golpeando un sector que generó millones de puestos de clase media en economías emergentes como India.
Por contraste, sectores como la sanidad o la construcción tienen una resistencia “natural” a la disrupción inmediata de la IA. Es un recordatorio de que la vulnerabilidad no depende del tamaño de la industria, sino de la estructura y calidad de los datos con los que trabaja.
Para los emprendedores y líderes de negocio, la lección es doble:
Si tu propuesta de valor se basa en procesos estandarizados y repetitivos, la disrupción de la IA es cuestión de cuándo, no de si.
La verdadera ventaja estará en crear servicios con alto componente contextual y poco estructurado, donde la IA necesita aún la mediación humana.
El panorama no es solo negativo: el WEF calcula que, aunque 92 millones de empleos podrían desaparecer, se crearán 170 millones nuevos.
La pregunta estratégica es cómo cerrar el gap entre los que se pierden y los que nacen… y qué habilidades necesitas cultivar para no quedarte atrapado en el lado equivocado de la transición.
Herramienta de la semana
ElevenLabs Chat Mode
ElevenLabs ha ampliado su plataforma de agentes conversacionales con un nuevo Chat Mode, pensado para que las empresas puedan desplegar agentes de IA que alternen sin fricción entre texto y voz según el contexto del usuario.
El sistema analiza el tipo de dispositivo, el ruido ambiental y el comportamiento en tiempo real, alcanzando un 85% de acierto en la selección automática durante sus pruebas beta.
El resultado: interacciones más naturales y resolutivas, desde soporte hasta ventas, con salvaguardas contra sesgos y deepfakes.
Con este movimiento, ElevenLabs se coloca en la vanguardia de los agentes híbridos multimodales, un terreno que promete redefinir cómo se comunican las empresas con sus clientes.
Pregunta incómoda
¿El rey ahora es el Context Engineering?
Durante un tiempo, la receta para “darle datos propios a la IA” parecía clara: montabas un RAG (ese sistema que conecta la IA con tu base de documentos) y listo.
Hoy la realidad es otra. Los nuevos modelos son capaces de manejar cientos de miles de palabras de una sola vez. Pero si les das la información mal organizada, el resultado es igual de malo: confusión, ruido y respuestas poco útiles.
Por eso, el reto ya no es tener “un RAG montado”, sino saber cómo preparar y entregar el contexto a la IA para que trabaje bien.
Eso es Context Engineering: decidir qué datos entran, en qué orden, con qué formato y para qué fin.
Piensa en la diferencia entre darle a un consultor una carpeta llena de papeles sueltos… o un briefing claro, resumido y con prioridades. El consultor es el mismo, pero el resultado no tiene nada que ver. Con la IA pasa lo mismo: el poder está en cómo estructuras la información que le das.
La pregunta entonces es:
¿Tienes claro cuál es el “briefing” que tu negocio necesita darle a la IA?
¿O todavía estás en la fase de tirar PDFs a un sistema esperando magia?
La ventaja ya no está en la herramienta que uses, sino en cómo traduces tu negocio en contexto que la IA pueda entender y ejecutar.
— El equipo de Amplify
👉 Si este dilema también es tuyo, estás en el lugar correcto.
🎯 Esto es lo que debatimos en serio en Amplify Premium.
💬 Únete a la conversación y piensa en serio con IA.
💬 ¿Te ha resultado útil esta edición? Puedes responder a este correo y contarnos cómo estás usando la IA en tu día a día.
📩 Y si te ha llegado reenviado, suscríbete aquí para recibir Pulso IA cada semana.