Pulso IA #24 | La industria acelera, las empresas frenan
La publicación semanal de Amplify: ensayos, comunidad y herramientas para ampliar tu ventaja estratégica con IA
Feliz lunes de septiembre.
Esta semana, dos frentes distintos pero conectados: la infraestructura colosal que están levantando los gigantes tecnológicos y la confianza cada vez más cuestionada en los modelos.
🗞️ En este número:
OpenAI: lucha contra alucinaciones y la mayor apuesta financiera de su historia
Claude ya trabaja con tus archivos
AlterEgo: comandos para la IA sin hablar
Google acelera con NotebookLM y Stax
OpenAI: contrato récord con Oracle
Las grandes empresas pisan el freno en la adopción de IA
Herramienta recomendada: Branch Conversation en ChatGPT
Pregunta incómoda: ¿y si la IA alucina más cuanto más avanza?
Cada semana curamos las noticias más importantes para ti.
Pero en Amplify Premium compartimos los análisis, frameworks y herramientas que te preparan para decidir con ventaja en los próximos 24 meses.
Latidos de la semana
OpenAI: entre la lucha contra las alucinaciones y la mayor apuesta financiera de su historia
OpenAI reconoce que las alucinaciones nunca desaparecerán del todo, porque los modelos predicen secuencias de palabras y no rastrean la verdad. El problema es más profundo: los benchmarks actuales castigan la duda y recompensan la confianza, aunque sea falsa. OpenAI quiere cambiar las métricas y ya prueba modelos que prefieren callar antes que fabular.
Todo esto ocurre en paralelo a una apuesta colosal en infraestructura. La compañía ha elevado en 80.000 millones su previsión de gasto, hasta un total de 115.000 millones de aquí a 2029, casi todo en chips propios y data centers. Su objetivo es reducir la dependencia de la nube externa, aunque el coste es monumental. La promesa: alcanzar 200.000 millones en ingresos en 2030, con 90.000 millones solo de ChatGPT y monetización de usuarios gratuitos mediante publicidad y comisiones. El mercado lo ha celebrado, disparando su valoración de 300.000 a 500.000 millones de dólares.
La empresa quiere que veamos la IA no como un oráculo infalible, sino como una herramienta que debe aprender a equivocarse con honestidad. Y al mismo tiempo, está construyendo el equivalente a un sistema operativo global de cómputo, con riesgos financieros enormes pero un horizonte de ingresos que, de cumplirse, marcaría una nueva escala en la industria tecnológica.
Claude ya trabaja con tus archivos
Anthropic acaba de dar un salto práctico: Claude ahora puede crear y editar archivos directamente en el chat. Desde hojas de cálculo y presentaciones hasta documentos y PDFs, basta con subir el archivo y describir lo que necesitas para recibir una versión lista para usar: desde un modelo financiero completo hasta un tracker de proyectos o análisis estadístico.
Por ahora, la función está en preview para planes Max, Team y Enterprise, y llegará pronto a los usuarios Pro.
El movimiento convierte al chatbot en un asistente ofimático integral, un espacio donde trabajar directamente con tus entregables sin tener que saltar entre aplicaciones. Es un paso más hacia el horizonte de la IA como sistema operativo de la productividad.
AlterEgo: comandos para la IA sin hablar
La startup de Boston AlterEgo ha presentado un wearable que convierte la “intención de hablar” en órdenes para la IA. El dispositivo capta señales de los nervios craneales mediante conducción ósea y permite controlar sistemas sin necesidad de voz audible ni implantes invasivos.
En pruebas, los usuarios pudieron tomar notas y consultar agentes de IA simplemente moviendo la boca o pensando en hablar.
Si se materializa, AlterEgo inaugura una era de interfaces casi telepáticas, donde la fricción entre intención y acción digital se reduce al mínimo. Es un anticipo de cómo la IA podría integrarse de forma invisible en nuestra vida cotidiana y en la accesibilidad.
Google acelera: NotebookLM con “Debate” y Stax para evaluar modelos
Google refuerza su estrategia de IA con dos movimientos clave. Por un lado, NotebookLM gana tres nuevos modos de audio: Brief (resúmenes de 2 minutos), Critique (análisis en voz de dos “editores” virtuales) y Debate (opiniones enfrentadas para tensionar ideas). Además, los usuarios podrán elegir entre voces masculinas y femeninas, una mejora muy demandada.
Por otro, lanzó Stax, un toolkit de evaluación práctica para LLMs que permite medir fluidez, veracidad y seguridad con criterios personalizables. Incluye herramientas de comparación rápida, evaluaciones reproducibles a nivel de dataset y paneles de analítica. Su objetivo: superar el hype de los rankings y ofrecer rigor a equipos que desarrollan con IA en entornos críticos.
Todo esto ocurre mientras Google esquiva un golpe regulatorio: evitó la ruptura de Chrome, aunque deberá abrir datos de búsqueda a competidores y eliminar acuerdos exclusivos como el de Safari.
OpenAI otra vez: contrato récord con Oracle y la reconfiguración del poder en la IA
OpenAI también ha firmado un contrato de 300.000 millones con Oracle para servicios cloud a partir de 2027, posiblemente el mayor de la historia. Oracle, por su parte, prevé 144.000 millones de ingresos cloud anuales en 2030, impulsados por acuerdos con OpenAI, Meta y xAI.
En lo político, Sam Altman, Jensen Huang y Tim Cook acompañarán a Donald Trump en un viaje al Reino Unido, con anuncios previstos de miles de millones en inversiones en data centers de OpenAI y Nvidia.
OpenAI está definiendo no solo la arquitectura técnica de la IA, sino también la arquitectura institucional y geopolítica. Sus movimientos muestran cómo la batalla ya no es solo por modelos más potentes, sino por controlar la infraestructura global, asegurar gobernanza híbrida y mantener influencia en las grandes mesas de poder.
En profundidad
Las grandes empresas pisan el freno en la adopción de IA
La narrativa de una adopción empresarial imparable de la IA empieza a mostrar fisuras. Nuevos datos del Census Bureau indican que el uso de IA en grandes compañías (250+ empleados) cayó de 13,5% en junio a 12% en agosto. Es una bajada modesta, pero rompe una tendencia de crecimiento sostenido en los últimos meses.
La investigación del MIT lo confirma: solo 5% de los pilotos corporativos generan ganancias significativas en ingresos. Gran parte de los presupuestos se desperdician en iniciativas poco rentables, mientras que los mejores retornos aparecen en procesos invisibles como la automatización administrativa, no en ventas o marketing.
El economista jefe de Apollo, Torsten Sløk, advierte que esta desconexión entre expectativas y realidad amenaza a los gigantes que han basado sus valoraciones en una integración rápida y transversal de la IA en toda la economía. Con modelos que siguen mostrando comportamientos imprevisibles y poca capacidad para resolver problemas complejos, los inversores ya se preparan para un camino más áspero.
Claves estratégicas: la próxima fase de la IA no se medirá solo en demos brillantes, sino en adopción real y retorno tangible. Para las empresas, el reto no es “tener IA” sino encontrar dónde genera valor sostenido, y para los proveedores, justificar infraestructuras multimillonarias que hoy no tienen demanda suficiente.
Herramienta de la semana
Branch Conversation en ChatGPT
ChatGPT ha lanzado una función sencilla y útil: ramificar conversaciones. Ahora puedes partir de cualquier mensaje en un chat y abrir un nuevo hilo que continúa desde ese punto exacto.
El proceso es simple:
Abre la conversación y sitúate sobre el mensaje desde el que quieres ramificar.
Haz clic en “Más acciones” → “Branch in new chat”.
Se abrirá un nuevo hilo independiente, donde puedes probar variaciones o explorar direcciones distintas sin alterar el chat original.
Por qué importa: esta función convierte a ChatGPT en un espacio más flexible para explorar hipótesis, iterar versiones o probar enfoques alternativos sin perder el historial. En términos de productividad, es una herramienta de laboratorio creativo que evita duplicar trabajo y facilita comparar resultados.
Pregunta incómoda
¿Y si la IA está alucinando más cuanto más avanza?
El nuevo paper de OpenAI revela un dato contraintuitivo: los modelos más avanzados alucinan más. En el benchmark PersonQA, el modelo o3 inventó respuestas en el 33% de los casos, el doble que su predecesor o1. El o4-mini llegó al 48%, a pesar de tener mejores habilidades matemáticas. La paradoja: cuanto más inteligentes parecen, más convincente es también su error.
La causa no es solo técnica, sino incentivos de entrenamiento. Hoy los sistemas se penalizan por no contestar, lo que empuja a arriesgar respuestas incluso sin saber. Admitir “no lo sé” sale caro en los benchmarks, aunque sea lo correcto en un escenario real como medicina o derecho.
OpenAI propone un cambio: evaluar la capacidad de reconocer incertidumbre, premiando la honestidad frente a la invención confiada. No eliminaría las alucinaciones, pero sí podría hacer que los modelos aprendan a fallar con integridad.
La pregunta incómoda: ¿estamos entrenando a la IA para ser brillante o para ser confiable? Y, más aún, ¿qué preferimos los usuarios: una máquina que responda siempre, aunque a veces invente, o una que sepa callar a tiempo?
— El equipo de Amplify
👉 Si este dilema también es tuyo, estás en el lugar correcto.
🎯 Esto es lo que debatimos en serio en Amplify Premium.
💬 Únete a la conversación y piensa en serio con IA.
💬 ¿Te ha resultado útil esta edición? Puedes responder a este correo y contarnos cómo estás usando la IA en tu día a día.
📩 Y si te ha llegado reenviado, suscríbete aquí para recibir Pulso IA cada semana.