Pulso IA #51 | Gradualmente, luego de repente
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días,
Esta semana, OpenAI eliminó la palabra “safely” de su misión.
La frase anterior, que acompañó a la compañía desde su fundación, era: “to ensure that the development of artificial general intelligence safely benefits all of humanity.”
La nueva: “to ensure that artificial general intelligence benefits all of humanity.” Una palabra, ocho años de diferencia.
Hay una forma de perder algo que no produce titulares de urgencia ni comunicados de crisis. Hemingway la describió mejor que nadie: gradualmente, luego de repente.
Vamos a ver la semana.
Latidos de la semana
OpenAI eliminó “safely” de su misión. Y completó su restructuración como PBC.
Después de casi un año de negociaciones, OpenAI formalizó esta semana su conversión a Public Benefit Corporation. La estructura resultante: la filial comercial opera como PBC, y la OpenAI Foundation —la organización sin ánimo de lucro original— retiene el control del consejo de administración y posee una participación de 130.000 millones de dólares en la filial. También adquirió el derecho de veto sobre el lanzamiento de nuevos modelos.
En el papel, la seguridad sigue teniendo un mecanismo. En la práctica, el cambio en la misión dice algo que los mecanismos no dicen: que la palabra que antes encabezaba la identidad de la empresa ya no es la palabra que la empresa quiere que encabece su identidad.
Más en En profundidad.
NVIDIA: un billón de dólares en vista, y una hoguera de robots para cerrar.
Esta semana, Jensen Huang —el CEO de NVIDIA, la empresa que fabrica los chips sobre los que corre prácticamente toda la IA del mundo— celebró su conferencia anual ante 39.000 personas. El mensaje central: la demanda de infraestructura de IA no se está desacelerando. Desde donde está hoy, ve al menos un billón de dólares en pedidos confirmados hasta 2027. El año pasado proyectó la mitad. El anterior, una cifra que nadie tomó en serio.
Para contextualizar: NVIDIA no hace aplicaciones ni modelos de lenguaje. Hace los servidores que permiten entrenar y ejecutar esos modelos. Cuando sus números de demanda crecen así, es porque cada empresa grande del mundo está comprando más capacidad de cómputo para IA, no menos.
El detalle que merece un momento aparte: el keynote de cuatro horas terminó con un avatar digital del propio Jensen Huang —construido con IA— sentado alrededor de una hoguera con un grupo de robots, tostando malvaviscos y cantando un resumen de la conferencia. El CEO de la empresa más valiosa del sector delegó el cierre de su evento más importante en una versión artificial de sí mismo.
Es difícil saber exactamente qué significa. Pero es difícil ignorarlo.
Manus lanzó una app de escritorio que le da acceso directo a tu ordenador.
Manus —la startup adquirida por Meta— lanzó esta semana “My Computer,” una aplicación de escritorio que da al agente de IA acceso directo a tus archivos locales, herramientas de desarrollo y aplicaciones mediante comandos de terminal.
Lo que hace interesante a Manus My Computer no es la sofisticación técnica. Es que es la primera versión del agente autónomo que un usuario no técnico puede instalar en su máquina hoy mismo y ver operar. Los agentes llevan meses siendo el tema de la industria. Esta semana empezaron a ser una app descargable.
xAI “no fue construida bien.” Elon Musk lo admitió. Cuatro cofundadores se fueron.
Elon Musk reconoció esta semana que su startup de IA está siendo reconstruida desde los cimientos, después de que Tony Wu, Igor Babuschkin, Kyle Kosic y Christian Szegedy —cuatro de sus cofundadores más prominentes— dejaran la empresa en las últimas semanas. El timing no es ideal: SpaceX, que ahora es propietaria de xAI, está preparando una salida a bolsa este año.
Cuatro cofundadores al mismo tiempo no es un problema de cultura organizativa. Es señal de algo más profundo sobre la dirección del producto, la visión o el liderazgo.
Anthropic duplicó los límites de uso de Claude para todos. Y abrió el contexto de 1M tokens.
En un anuncio de fin de semana que pasó relativamente desapercibido, Anthropic duplicó temporalmente los límites de uso de Claude para todos los planes — ree, Pro, Max y Team— durante las horas de menor demanda hasta el 28 de marzo. No hace falta activarlo. Llega automáticamente.
Al mismo tiempo, la ventana de contexto de 1 millón de tokens para Claude Opus 4.6 y Sonnet 4.6 pasó a estar disponible de forma general, sin aumento de precio.
¿Por qué ahora? Puede ser infraestructura de sobra. Puede ser una respuesta competitiva en una semana en que toda la industria miraba a NVIDIA. Puede ser las dos cosas. Lo que sí es claro: la diferencia entre Anthropic y OpenAI en términos de señales públicas sobre cómo tratan a sus usuarios está siendo más explícita cada semana.
Meta cerró el metaverso. Y ahora considera despedir al 20% de su plantilla para apostar por la IA.
Esta semana, Meta confirmó el cierre definitivo de Horizon Worlds, la plataforma de realidad virtual que Mark Zuckerberg presentó en 2021 como el futuro de internet. La compañía invirtió más de 40.000 millones de dólares en la apuesta —rebautizando incluso la empresa de Facebook a Meta para señalar el compromiso. El mundo virtual nunca llegó. El dinero, sí se fue.
El cierre ocurre en la misma semana en que varias fuentes apuntan a que Meta está evaluando despidos que afectarían a más de 15.000 personas —el 20% de su plantilla— para financiar su siguiente gran apuesta: 600.000 millones de dólares en infraestructura de IA hasta 2028, más la adquisición reciente de Manus.
El patrón que emerge es incómodo de ignorar. La empresa que apostó todo por el metaverso, lo cerró después de quemar decenas de miles de millones, y ahora aplica exactamente la misma intensidad de convicción a la IA —recortando personas para financiar la siguiente visión del futuro. Las apuestas cambian. La certeza con la que se hacen, no.
Esta semana, la identidad de las empresas de IA importó tanto como su tecnología. Qué misión tienen, qué palabras usan para describirla, y qué deciden cuando la misión y el mercado no señalan en la misma dirección. En Amplify Premium trabajamos precisamente eso: cómo tomar decisiones cuando la brújula es tuya, no del sector.
En profundidad
Lo que pasa cuando OpenAI borra “safely”
Una misión no corre código. No determina por sí sola qué modelos se entrenan, qué datos se usan, qué compromisos de seguridad se mantienen. OpenAI tiene acuerdos formales con los fiscales generales de California y Delaware que incluyen compromisos específicos. La fundación sin ánimo de lucro retiene el control del consejo y el veto sobre nuevos modelos.
Y aun así, la palabra importa.
Las misiones hacen algo más sutil que los mecanismos: establecen el default en los momentos ambiguos. Cuando el equipo de producto está debatiendo si lanzar una funcionalidad que genera más engagement pero que tiene riesgos de uso indebido, por ejemplo, en esos momentos, la misión no resuelve el problema, pero sí enmarca cómo se piensa.
Durante ocho años, la misión de OpenAI contenía “safely.” Eso significaba que cualquier decisión ambigua tenía un punto de referencia: ¿estamos haciéndolo con suficiente seguridad? La nueva versión elimina ese punto de referencia. No lo sustituye por nada.
Esto no ocurrió en el vacío. Tampoco es alarmismo. Es un diagnóstico de cómo las organizaciones pierden su identidad original: no en un acto único y dramático, sino a través de una serie de decisiones que cada una tiene sentido individual pero que en conjunto representan algo diferente a lo que empezó.
OpenAI empezó como una respuesta a los riesgos de la IA en manos de actores privados sin supervisión pública. Fue fundada como sin ánimo de lucro exactamente por esa razón: para que el incentivo comercial no prevaleciera sobre la misión de seguridad. Sam Altman lleva años argumentando que para cumplir esa misión se necesita escala, y que la escala requiere capital. Esa lógica no es absurda. Pero su conclusión lógica es exactamente lo que ocurrió esta semana: una PBC con 300.000 millones de valoración cuya misión ya no incluye “safely.”
El contraste de la semana tiene nombre: Anthropic. Fundada en parte por personas que dejaron OpenAI precisamente sobre diferencias en torno a la seguridad. Esta semana, Anthropic dobló límites de uso para todos sin coste adicional y abrió el contexto de un millón de tokens gratuitamente. No cambió su misión. Añadió capacidad.
Anthropic puede estar equivocada en su apuesta. OpenAI puede estar en lo correcto al asumir que el capital y la escala son la única forma de hacer que la IA segura sea posible. Esas son posiciones genuinamente debatibles.
Lo que no es debatible es que esta semana se formalizó una diferencia que llevaba tiempo siendo implícita. El campo está eligiendo bandos. Gradualmente, luego de repente.
Herramienta de la semana
Manus My Computer
Qué es. La versión de escritorio de Manus, el agente autónomo de IA (ahora disponible como aplicación descargable para macOS). Da al agente acceso directo a tus archivos locales, aplicaciones instaladas y herramientas del sistema, y puede ejecutar tareas complejas de forma autónoma sin que tengas que supervisar cada paso.
Qué hace en la práctica. Le pides a Manus que haga algo —resumir todos los PDFs en una carpeta, crear un informe con datos de distintos archivos, construir un sistema de archivos organizado a partir de un caos de descargas— y lo hace sin que abras ninguna aplicación manualmente. Todo ocurre en segundo plano, a través del terminal y las herramientas del sistema.
Para quién es. Para quien quiere entender qué significa en la práctica tener un agente autónomo trabajando en tu nombre, no en teoría, sino con tus archivos reales. También útil para consultores y profesionales con flujos de trabajo repetitivos sobre documentos: clasificación, resumen, formateo, organización.
Limitaciones. Al tener acceso al sistema local, requiere revisar cuidadosamente qué permisos se otorgan. No está pensado para tareas que requieran criterio humano sobre el contenido. Es bueno ejecutando procesos definidos, no tomando decisiones editoriales o estratégicas. El acceso está siendo gradual y puede requerir lista de espera dependiendo de la región.
Pregunta de la semana
La mayoría de las personas que usan ChatGPT a diario no piensan en la empresa que lo construye. Lo usan porque funciona. Eso es completamente razonable.
Pero esta semana, esa empresa cambió formalmente su misión, completó su conversión a entidad comercial, y eliminó el principio que la diferenciaba en el papel. Si usas sus herramientas para trabajar con clientes, para tomar decisiones, o para producir contenido que lleva tu nombre: ¿sabes qué implicaría dejar de usarlas? ¿Tienes alternativa preparada? ¿Sabes cuál?
No como pregunta ética. Como pregunta de dependencia: ¿en qué punto de tu flujo de trabajo has dejado de tener opciones reales?
Nos leemos la semana que viene.
— El equipo de Amplify



