Pulso IA #55 | El 10% vs. el 56%: la brecha que el sector prefiere no ver
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Una semana intensa. Anthropic lanzó modelo, OpenAI perdió tres ejecutivos, Salesforce decidió que la IA ya no necesita pantallas, y los agentes autónomos empezaron a correr solos desde la nube.
Mientras tanto, el Stanford AI Index trajo el dato más incómodo del año: solo el 10% del público general está entusiasmado con la IA.
El sector no para. El público va en la dirección contraria. Esta semana, las dos cosas a la vez.
Latidos de la semana
OpenAI reorganizó su estructura interna, y las salidas dicen más que el comunicado.
Entre el lunes y el jueves, tres ejecutivos clave abandonaron OpenAI: Kevin Weil, vicepresidente de IA para Ciencia; Bill Peebles, director del equipo de Sora; y Srinivas Narayanan, CTO de empresa.
No salieron en silencio: los tres dejaron claro que la compañía está reorientando sus recursos hacia programación y empresa, y que proyectos como Sora —el generador de vídeo que llegó con enorme cobertura mediática— y “OpenAI for Science” quedaron clasificados internamente como “side quests”.
El movimiento estratégico central: convertir Codex en el producto principal, expandirlo hacia usos de empresa, y concentrar las apuestas en herramientas para desarrolladores y corporaciones. La compañía que hace dos años anunciaba que cambiaría la educación, la medicina y la creación audiovisual está, en la práctica, apostando fuerte por la productividad de código.
Lo que dice esto sobre el sector es más interesante que los nombres: cuando una compañía con 852.000 millones de dólares de valoración concentra sus recursos en una sola dirección, esa dirección merece atención.
Anthropic publicó Claude Opus 4.7 con la primera resolución de imagen alta de su catálogo.
El 16 de abril, Anthropic lanzó Claude Opus 4.7 con tres novedades que importan.
Primera: visión de alta resolución — la resolución máxima de imagen que el modelo puede procesar pasó de 1.568 a 2.576 píxeles, lo que lo hace útil por primera vez para analizar diseños detallados, documentos escaneados, gráficos densos y capturas de pantalla complejas. Segunda: un nuevo nivel de esfuerzo (”xhigh”) para tareas de agente que requieren razonamiento profundo y múltiples pasos. Tercera: salvaguardas de ciberseguridad integradas directamente en el modelo.
El precio no cambia — 5 dólares por millón de tokens de entrada, 25 por millón de salida — y la mejora en benchmarks de programación ronda el 13%.
El dato que resume la relevancia para usuarios reales: con 2.576 píxeles, el modelo puede leer una captura de pantalla de una hoja de cálculo densa o un documento de diseño y responder con precisión. Era uno de los cuellos de botella más frecuentes en flujos de trabajo concretos.
Salesforce convirtió toda su plataforma en infraestructura para agentes de IA.
Esta semana, Salesforce presentó Headless 360: una reconfiguración completa de su plataforma para que los agentes de IA puedan acceder a todos sus datos, flujos de trabajo y funciones sin necesidad de una interfaz gráfica. Cien nuevas herramientas lanzadas simultáneamente, accesibles vía API, MCP y CLI.
La idea detrás del concepto es simple y significativa: si los agentes de IA son los nuevos operadores de software, los productos deberían estar diseñados para agentes, no solo para humanos con pantallas. Salesforce está apostando por esto de forma explícita — y es la empresa de software empresarial más grande del mundo.
La categoría tiene nombre: “headless SaaS”. Productos que existen como APIs, sin interfaz de usuario. Hasta ahora era un nicho técnico. Con Salesforce apostando en esa dirección, deja de serlo.
Claude Code Routines: tareas de agente que corren solas, sin que tu ordenador esté encendido.
Anthropic publicó esta semana una previsualización de Claude Code Routines: la capacidad de definir una tarea una vez — con sus instrucciones, repositorio de código y herramientas conectadas — y que se ejecute de forma automática en la infraestructura de Anthropic, ya sea por programa horario o por un trigger de GitHub, sin necesidad de que el usuario esté presente.
Los casos de uso más frecuentes: revisión automática de código, generación de reportes periódicos, o ejecución de pruebas en producción al hacer un push. Todo ocurre en los servidores de Anthropic, no en el equipo del usuario.
El cambio conceptual relevante: hasta ahora, los agentes de IA requerían supervisión activa o al menos un ordenador encendido. Con Routines, la agencia pasa a ser infraestructura permanente. No es una función nueva — es una forma diferente de entender qué hace un agente de IA.
Claude para Word: IA en el sidebar de Microsoft Office con control de cambios.
En beta esta semana para planes Team y Enterprise: Claude integrado directamente en Microsoft Word. El funcionamiento: un sidebar desde el que puedes pedir a Claude que redacte un borrador, reescriba un párrafo, resuma el documento o ajuste el tono, y los cambios aparecen como revisiones con control de cambios activado, para que el usuario pueda aceptarlos o rechazarlos uno a uno.
No es el primer intento de IA en Office — Microsoft Copilot lleva meses integrado en Word — pero es la primera vez que Claude tiene acceso directo al entorno de edición de documentos más usado en empresa.
Para equipos que trabajan con documentos legales, contratos, propuestas comerciales y reportes donde el control de cambios es obligatorio, el flujo es claro: la IA redacta, el humano revisa. El flujo de trabajo no cambia. La velocidad sí.
Las señales de esta semana no se leen bien de forma aislada. En Amplify Premium trabajamos qué significan juntas y qué posición conviene tomar antes de que sean evidentes para todos.
En profundidad:
Los expertos y el público no están mirando la misma IA
El Stanford AI Index se publica cada año. La edición 2026, presentada el lunes, es la más incómoda hasta ahora. No por los datos técnicos sino por lo que revelan sobre cómo percibe la IA la gente que no trabaja con ella.
El titular que más ha circulado: solo el 10% del público general está entusiasmado con la inteligencia artificial. Entre expertos en el campo, ese porcentaje es del 56%. Una brecha de 46 puntos entre las personas que construyen estos sistemas y las personas que los usarán — o que ya los usan sin saberlo.
Pero el dato más revelador no es la media global. Es la trayectoria de la Generación Z.
Hace doce meses, el 36% de los jóvenes entre 18 y 26 años expresaba entusiasmo ante el avance de la IA. En la edición de este año, ese porcentaje cayó al 22%. No es que la Generación Z nunca haya estado entusiasmada, lo estuvo más que cualquier otro grupo demográfico en 2023 y 2024. Es que lleva suficiente tiempo usando las herramientas reales como para haberse formado una opinión propia. Y esa opinión es más cautelosa de lo que el sector esperaba.
El índice también mide confianza en los gobiernos para regular la IA. El país con menor confianza a nivel global: Estados Unidos, con un 31%. Es decir, en el país donde están domiciliados la mayoría de los grandes laboratorios, menos de un tercio de la población confía en que el gobierno pueda gestionar bien lo que esos laboratorios producen.
¿Qué hace con esto alguien que trabaja con IA o que vende servicios relacionados con ella?
Primero, la brecha entre expertos y público no es un problema de comunicación que se resuelve con más divulgación. Es una brecha de experiencia. Los expertos ven lo que la IA puede hacer en condiciones ideales, con acceso completo y contexto técnico. El público experimenta lo que la IA hace cuando no funciona bien, cuando responde con confianza pero se equivoca, cuando el resultado es genérico o irrelevante. Ambas perspectivas son reales. El error es asumir que una invalida la otra.
Segundo, la desconfianza no está distribuida de forma uniforme. El informe distingue entre personas que usan IA de forma habitual y personas que no. Entre los usuarios habituales —aunque sean completamente no-técnicos— la percepción es significativamente más positiva. El problema no es la IA. Es la fricción de llegar a convertirse en usuario habitual. Ese umbral es mucho más alto de lo que la industria suele reconocer.
Tercero, para profesionales y empresas, esto tiene una implicación práctica inmediata: el cliente que tienes delante probablemente no comparte tu nivel de entusiasmo con las herramientas que usas. Esa diferencia de perspectiva no desaparece con un pitch ni con una explicación de las capacidades del modelo. Se acorta con experiencia directa —con demostraciones concretas, con casos de uso que resuelven un problema que el cliente ya tiene, con resultados que puede ver y tocar.
El índice de Stanford no predice el futuro. Pero documenta con rigor la distancia entre la realidad del sector y la experiencia del usuario final. En esa distancia hay trabajo que hacer — y alguien tiene que hacerlo.
Herramienta de la semana
Napkin AI
Qué es. Una herramienta web que convierte texto en visualizaciones. Escribes o pegas un párrafo explicando una idea, un proceso o una comparación, y Napkin genera automáticamente varias opciones visuales —diagramas, infografías, esquemas, gráficos de flujo. Seleccionas la que mejor se ajusta, ajustas colores, texto y estilo, y exportas en PNG, SVG o PDF.
Para quién es útil. Para consultores y asesores que crean materiales para clientes, profesionales que preparan presentaciones y quieren ilustrar conceptos complejos, emprendedores que comunican su propuesta de valor o modelo de negocio, y cualquiera que trabaje con ideas abstractas y necesite hacerlas visualmente comprensibles sin invertir horas de diseño.
Acceso. Gratuito en napkin.ai — la cuenta free incluye un número generoso de visualizaciones al mes. No requiere instalación. Funciona desde cualquier navegador.
Pregunta de la semana
El Stanford AI Index registra que los usuarios habituales de IA tienen una percepción significativamente más positiva que los no-usuarios. La diferencia no es ideológica ni generacional — es experiencial. La gente que usa las herramientas de verdad piensa de forma diferente sobre ellas.
¿Hay alguien en tu entorno — un cliente, un colaborador, un socio — cuya opinión sobre la IA podría cambiar si tuviera la experiencia correcta? ¿Y tienes algo concreto que podrías mostrarle esta semana?
Nos leemos la semana que viene.
— El equipo de Amplify



