Pulso IA #38 | Una AppStore en ChatGPT + 3 predicciones para 2026
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días,
Semana intensa, pero sobre todo coherente: todo avanza hacia el mismo punto.
Google empuja la IA hacia el día a día. Amazon entra en modo “si no puedes con ellos, cómpralos”. Meta pule sus modelos base. OpenAI quiere que ChatGPT sea una plataforma, no una app.
Piezas que antes estaban separadas y ahora encajan como si siempre hubieran ido juntas.
🗞️ En este número
Gemini Flash: velocidad + coste bajo + salto en Deep Research
Amazon quiere meter 10.000M en OpenAI
La traducción simultánea de Google se vuelve realmente usable
Meta potencia su línea SAM
ChatGPT adopta Skills y lanza su App Directory
En profundidad: Stanford anticipa el fin del hype en 2026
Herramienta: ChatGPT Images
Pregunta de la semana: ¿Estás construyendo habilidades o solo aprendiendo herramientas?
Vamos a ello.
Latidos de la semana
Google lanza Gemini Flash: potencia, velocidad y coste bajo
Google amplía su familia con Gemini 3 Flash, una versión ultrarrápida y eficiente inspirada en Gemini 3 Pro, pero mucho más barata.
Flash supera a 2.5 Pro en benchmarks clave, rinde 3 veces más rápido, y promete convertirse en el modelo “por defecto” para gran parte de las aplicaciones prácticas.
Google también potenció Deep Research, que ahora genera:
diagramas,
gráficos,
animaciones para ayudarte a entender conceptos rápido.
Una señal clara: Google quiere que investigar y aprender con IA se sienta tan natural como pensar.
Amazon negocia invertir 10.000 millones en OpenAI
Un mes después de que OpenAI acordara comprar 38.000 millones en compute a AWS, Amazon estaría considerando invertir 10.000 millones (o más) en OpenAI.
La única condición: usar chips de Amazon.
El movimiento llega justo cuando Amazon reestructura su división de IA con Peter DeSantis al mando.
Traducción: Amazon no quiere quedarse fuera del juego de modelos y agentes. Quiere ser infraestructura y también cerebro.
Google hace la traducción en tiempo real… realmente usable
Esto es grande.
La beta de Google Translate en Android ahora permite traducción en tiempo real con cualquier auricular, en más de 70 idiomas.
No son traducciones literales: Gemini interpreta tono, intención, ritmo, expresiones locales y jerga, y lo hace con latencia muy baja.
Además:
prácticas de idiomas más inteligentes,
ejercicios adaptativos,
y Gemini Live mejorando sus “modales conversacionales” (pausas, no interrumpir, tono natural), mientras Search Live incorpora su propio modelo de voz para conversaciones continuas con resultados en vivo.
Por primera vez, parece que la traducción simultánea puede convertirse en una función diaria, no solo turística.
Meta sigue afinando su línea SAM
Meta amplía su Segment Anything Model con dos novedades:
SAM Audio → identifica y aísla sonidos dentro de mezclas complejas
SAM3 en Instagram Edit → borrar objetos, resaltar contornos, etiquetar ropa, suavizar fondos…
Meta no está obsesionada con los modelos gigantes. Está obsesionada con hacer cosas útiles que la gente use todos los días.
ChatGPT y Codex empiezan a usar Skills
Las Skills —idea introducida por Anthropic— permiten enseñar comportamientos recurrentes mediante una carpeta con archivos Markdown y scripts.
El Code Interpreter de ChatGPT ya incluye una carpeta “/home/oai/skills” con habilidades preinstaladas:
trabajar con hojas de cálculo,
PDFs,
Word,
procesos repetitivos.
Y todo apunta a que pronto se podrán añadir Skills propias.
Este es el tipo de cambio silencioso que después parece obvio: la forma más sencilla de crear agentes prácticos es entrenarlos con pequeñas habilidades reutilizables.
OpenAI lanza el App Directory dentro de ChatGPT
OpenAI presentó la beta del App Directory, accesible desde la barra lateral.
Ahora puedes:
explorar apps,
invocarlas con @mención,
integrarlas sin salir del chat,
y, si eres desarrollador, enviarlas para llegar a los 700 millones de usuarios semanales de ChatGPT.
Una señal fuerte de que OpenAI quiere convertirse en… el sistema operativo del trabajo del conocimiento.
En profundidad
Las predicciones de Stanford para 2026: el año en que el hype tendrá que demostrar algo
El Instituto de IA Centrada en el Humano de Stanford (HAI) publicó sus predicciones para 2026, y todas coinciden en una idea:
El hype se acaba. Empieza la evaluación.
Durante años hemos escuchado promesas de AGI, productividad infinita y disrupciones inminentes.
Pero los investigadores creen que 2026 será el primer año donde las preguntas importantes serán más serias:
¿Cuánto vale realmente una mejora de IA?
¿Para quién funciona?
¿A qué coste?
¿Quién pierde? ¿Quién gana?
1. Nacen los “AI Productivity Dashboards”
Stanford anticipa la llegada de paneles que midan en tiempo real:
dónde la IA aumenta productividad,
dónde destruye empleo,
dónde crea nuevos roles,
y dónde no está aportando nada.
Una radiografía del impacto económico real, no imaginado.
2. Soberanía de IA: el nuevo tablero geopolítico
James Landay (co-director de HAI) anticipa un 2026 donde países anuncien su independencia tecnológica de EE.UU.
No es un escenario hostil: es uno inevitable. La IA se está convirtiendo en infraestructura crítica, como la energía.
Y Landay añade algo importante: no veremos AGI real en 2026.
Lo cual, visto el ritmo actual, suena… sensato.
3. De la excitación especulativa a la industria adulta
El mensaje general del informe: la IA no se enfría. Solo crece. Pero crece hacia la madurez.
Y en esa madurez, los discursos inflados se derrumban. Lo que queda es lo que funciona.
En conjunto, el informe dibuja un cambio de etapa: menos fe en promesas abstractas y más atención a cómo la IA impacta —de verdad— en economías, países y personas.
2026 no será el año de las grandes revelaciones, sino el de las primeras auditorías serias. Un año incómodo para algunos, liberador para otros, y necesario para todos los que quieren trabajar con la IA… y no simplemente soñar con ella.
👉 Si quieres seguir explorando cómo estos cambios afectan al trabajo del conocimiento, en Amplify Pro compartimos análisis más extensos y herramientas prácticas para orientarte.
Herramienta de la semana
ChatGPT Images
OpenAI lanza ChatGPT Images, una experiencia renovada de generación y edición visual:
hasta 4 veces más rápido,
instrucciones más precisas,
mejor preservación de detalles,
capacidades de edición más complejas: añadir, quitar, combinar, mezclar, transformar.
En los benchmarks públicos, el nuevo modelo supera por un margen claro a Nano Banana Pro, el modelo de imagen ligera de Google pensado para velocidad y bajo coste.
Y ahí está la lectura interesante: OpenAI no compite solo en calidad absoluta, sino en convertir la edición avanzada en algo cotidiano, accesible y disponible dentro del propio flujo de trabajo.
El movimiento apunta a un objetivo evidente: hacer que la frontera entre edición profesional y edición casual prácticamente desaparezca.
Pregunta de la semana
¿Estás construyendo habilidades… o solo aprendiendo herramientas?
Es fácil confundirlas. Sobre todo ahora.
Cada semana aparece un modelo nuevo, una forma “más eficiente” de hacer algo que hace seis meses ni existía. Y claro… todos sentimos cierta presión por mantenernos al día. Como si la relevancia profesional dependiera de acumular atajos.
Pero hay una distinción que, si no la tienes clara, te puede dejar fuera del juego sin darte cuenta:
Una herramienta te da velocidad. Una habilidad te da supervivencia.
Saber usar un modelo no es una habilidad. Saber pensar con él, cuestionarlo, estructurar problemas, validar resultados… sí lo es.
Quizá esta sea la pregunta que más vale la pena hacerse ahora mismo:
¿Estás persiguiendo la novedad o construyendo capacidades que seguirán siendo tuyas incluso cuando todo vuelva a cambiar?
Lo que respondas dice mucho sobre tu estrategia profesional para los próximos años.
Nos leemos en el próximo email.
— El equipo de Amplify
👉 Y si te gusta recibir Pulso cada semana, en Amplify Pro profundizamos cada semana en los movimientos que realmente importan.



