Amplify News

Amplify News

Lo que 2025 nos ha enseñado sobre la IA

Y lo que debería preocuparte de 2026 (+ guía de modelos mentales disponible)

dic 31, 2025
∙ De pago

Último día de 2025.

Desde Amplify, deseamos que tengas una entrada próspera y llena de salud al 2026. 🚀

Nos parece que hoy es un día perfecto para hacer recap y algo de proyecciones.

La mayoría de lo que se ha dicho sobre IA este año ha sido ruido.

Mucho lanzamiento que no ha cambiado nada, predicciones incumplidas, debates enrevesados sobre AGI que importan exactamente cero si lo que intentas es hacer crecer un negocio.

Pero, como siempre, aquí intentamos separar el grano de la paja.

Y ha habido seis ideas que sí tienen fundamento y peso, que sí van a definir quién gana y quién pierde en los próximos años.

No han aparecido en los grandes titulares, pero aquí las hemos tratado y discutido con claridad, mientras otros siguen persiguiendo el último modelo o la última app de productividad.

Vamos a ello para cerrar el año con visión.


#1 Pensar más no es pensar mejor

Este año se popularizó algo llamado RLVR: entrenar modelos para que “piensen” durante más tiempo antes de responder. La promesa era obvia: más reflexión, mejores respuestas.

Suena bien, pero hay un problema.

Lo que ocurre cuando le das a un modelo más tiempo de pensamiento es que produce razonamientos más largos, más estructurados, más convincentes. Pero no necesariamente más correctos.

La IA puede justificar casi cualquier cosa si le das suficientes tokens. Es extraordinariamente buena construyendo argumentos coherentes hacia conclusiones que nadie debería aceptar. Y cuanto más largo el razonamiento, más probable que bajes la guardia.

El riesgo ya no es que la IA se equivoque. Eso siempre fue así. El riesgo es la verosimilitud falsa, respuestas que suenan tan razonables que desactivan tu detector interno.

Esto está pasando ahora mismo, en empresas reales. “Me lo dijo ChatGPT, así que lo dejé.” “El modelo estuvo pensando dos minutos, tiene que ser correcto.” Es una especie de inflación cognitiva donde la longitud del razonamiento sustituye a la calidad del juicio.

¿Por qué te importa esto?

Porque quien entienda esta trampa —y sepa cuándo frenar en lugar de pedir “más análisis”— tomará mejores decisiones que quienes se dejan impresionar por la palabrería sofisticada.

2026: El valor no estará en pedirle a la IA que piense más. Estará en saber cuándo detenerla. Esa habilidad no la tiene casi nadie todavía.


Hoy publicamos la Guía Amplify de Modelos Mentales — el sistema operativo para pensar bien cuando la IA piensa por ti.

9 modelos + 4 rituales + las preguntas incómodas que deberías hacerte antes de aplicar cualquier framework.

Acceso exclusivo para miembros Premium. Ya puedes encontrarla en tu espacio de Skool.

Si aún no eres Premium, únete aquí:

Unirme a Amplify Premium


#2 Por qué la IA parece brillante y estúpida a la vez

Aquí hay algo que explica una paradoja que todos hemos visto.

El mismo modelo que produce un análisis brillante puede fallar en algo que un niño de ocho años haría bien. ¿Por qué?

Hubo un concepto que circuló este año en círculos técnicos: la diferencia entre “ghosts” y “animals”. La IA no es un animal que evoluciona gradualmente hacia la inteligencia. Es un “fantasma”, algo optimizado para acertar en tareas específicas que le dieron recompensa durante el entrenamiento.

No es que sea “casi inteligente pero con fallos”. Es que su modo de funcionar no tiene nada que ver con la inteligencia tal como la entendemos.

Tratar a la IA como a un humano junior que se volverá senior es un error de categoría. Es una forma de inteligencia alienígena. Brillante en ciertos dominios. Completamente ciega en otros.

El mito del “ya casi AGI” debería haber muerto este año. No murió—hay demasiado dinero detrás. Pero ahora sabes más que quienes lo repiten.

2026: Quien trate la IA como un humano se frustrará constantemente. Quien la trate como un sistema extraño con sesgos estructurales predecibles, tendrá ventaja. Una ventaja que crece con cada interacción.


#3 Dónde está el dinero (y dónde no)

Si 2024 fue el año de los modelos, 2025 fue el año de la orquestación.

Cursor explotó. Y no porque tenga un modelo mejor, usa los mismos que todos. Explotó porque resolvió cómo integrar la IA en un flujo de trabajo real. Qué contexto dar. Cuándo intervenir o callarse.

Esto es importante: el valor ya no está en el modelo. Está en la capa de arriba.

¿Qué significa esto para ti?

Las oportunidades están en tres sitios:

Avatar de User

Continúa leyendo este Post gratis, cortesía de Amplify.

O compra una suscripción de pago.
© 2025 VELOCITY MEDIA NETWORK LIMITED · Privacidad ∙ Términos ∙ Aviso de recolección
Crea tu SubstackDescargar la app
Substack es el hogar de la gran cultura