Pulso IA #34 | Una IA está “resucitando” a personas
La publicación semanal de Amplify: claridad, estrategia y comunidad para ampliar tu ventaja con inteligencia artificial.
Buenos días,
¿Sabes esa sensación de que el mundo avanza un poco más rápido de lo que te gustaría… y aun así tienes que mantener la cabeza fría?
Esa es más o menos la energía de esta semana en IA.
Mucho anuncio, mucho ruido, y debajo —si escarbas un poco— un patrón bastante claro: la carrera ya no va de modelos, va de músculo. De infraestructura. De quién aguanta el ritmo.
Vamos con ello.
🗞️ En este número:
Musk retrasa Grok 5… y deja ver que la verdadera batalla es el hardware
OpenAI prueba chats grupales (y dice adiós a los em dashes)
Una startup permite “hablar con los muertos” vía avatar
Gemini 3 se proclama el modelo más potente del mundo
En profundidad: la explosión del cibercrimen impulsado por IA
Herramienta de la semana: Dex + Perplexity
Pregunta de la semana: ¿sesgo político en IA?
Latidos de la semana
Musk empuja Grok 5 a 2026 mientras xAI acelera en escala
Cuando Musk retrasa algo… es que algo muy grande se está moviendo por debajo.
Grok 5 se va a principios de 2026. No por capricho, sino porque xAI está intentando hacer lo que nadie quiere admitir en voz alta: doblar el tamaño del modelo en plena guerra por el cómputo.
Dicen que Grok 5 podría superar “a todos los frontier models”. Incluso le asignan un 10% de probabilidades a alcanzar “inteligencia a nivel humano”. Muskadas, sí. Pero —y aquí viene lo importante— el retraso dice mucho más que la promesa.
xAI está quemando casi $1.000M al mes mientras el centro de datos Colossus acelera hacia el millón de GPUs.
Y mientras tanto, Meta, Alphabet, Amazon y Microsoft están regando el planeta con cientos de miles de millones en infraestructura.
La carrera de modelos ya no es de modelos. Es de límites físicos. El retraso de Grok 5 es una señal de lo difícil que es seguir el ritmo.
OpenAI prueba chats grupales y se acerca al terreno social
Imagina abrir un chat de WhatsApp… pero con ChatGPT dentro.
Tal cual. OpenAI está testeando una función que permite hablar con amigos y con la IA en la misma conversación. Colaboración de trabajo, viajes, debates… todo en un único hilo.
De momento solo en Japón, Nueva Zelanda, Corea del Sur y Taiwán.
Bonus curioso: ChatGPT dejará de usar em dashes (—) cuando se lo pidas. (Hay gente que vive para estos detalles).
Una startup permite crear avatares digitales de personas fallecidas
2wai está siendo… polémica.
Con solo la cámara del móvil puedes crear un avatar digital de alguien —incluyendo, según ellos, seres queridos fallecidos— y mantener conversaciones interactivas.
Tecnología fascinante. Terreno emocionalmente delicado. Psicológicamente… complejo.
Es un avatar que responde, conversa, gesticula y aprende de las interacciones.
Como si estuvieras manteniendo una conversación que —en teoría— ya no debería existir.
Los creadores lo venden como una forma de “preservar presencia” o dejar mensajes para el futuro. Los críticos lo ven como una grieta emocional peligrosa —una especie de “resurrección digital” para la que quizá no estemos preparados.
Ya está en la App Store.
Gemini 3 sube al podio como el modelo más potente del mundo
Google vuelve al juego grande. Gemini 3 ya está disponible en AI Mode, en la app de Gemini y en sus herramientas para desarrolladores.
La promesa:
mejor razonamiento,
visualizaciones más ricas,
interactividad más profunda.
A nivel técnico, parece un salto sólido y muy en la línea del rumbo que está tomando Google: menos “modelo-estelar-del-mes” y más herramientas que se integran en la vida real de los usuarios. Si sigues de cerca la carrera de modelos, este lanzamiento marca uno de los movimientos más fuertes del año.
En profundidad
El cibercrimen impulsado por IA está explotando. Así es como podemos defendernos.
Te vamos a ser sinceros: esta parte nos ha dejado un poco fríos por dentro. No por el artículo en sí, sino por lo que implica.
En 2023, los intentos de fraude con deepfakes crecieron un 3.000%. Y la semana pasada vimos el primer ciberataque donde la IA hizo entre el 80% y el 90% del trabajo.
Es decir: ya no hace falta ser un criminal sofisticado. Solo necesitas acceso a modelos avanzados.
La consecuencia es clara: lo que antes requería una banda organizada ahora lo puede ejecutar una persona sola desde su salón.
El coste global estimado para 2027 en EE. UU.: $40.000 millones (Deloitte). Y no, la inversión en ciberseguridad no crece al mismo ritmo.
El problema de fondo es psicológico. Nos han enseñado toda la vida que “ver es creer”. Y eso ya no sirve. Los humanos solo detectamos un vídeo generado por IA un 24,5% de las veces. Menos de una de cada cuatro. Y ese número bajará.
Entonces… ¿qué hacemos?
Las recomendaciones más sensatas que hemos visto dicen algo que te sonará poco intuitivo: no confíes en que tus empleados, tu equipo o tú mismo detectéis un ataque. No podéis.
Lo que sí puedes hacer:
usar herramientas de detección basadas en IA,
reforzar la seguridad del router de casa (más importante de lo que suena),
activar la verificación en dos pasos en absolutamente todo,
revisar la privacidad de tus redes sociales (lo que compartes alimenta a los atacantes).
No queremos sonar alarmistas. Pero la pregunta empieza a dejar de ser condicional. No es “si pasa”. Es “cuándo”. Ojalá nos equivoquemos.
Herramienta de la semana
Dex
Dex es un asistente que vive dentro de Chrome. Y hace justo lo que siempre hemos querido que hicieran estas extensiones: quitarte trabajo sin darte más trabajo.
Te prepara reuniones tirando de Google Docs y Calendar, limpia datos, resume, y hasta manda mensajes en Slack por ti. No intenta ser tu segundo cerebro. Solo… tu mano derecha.
Además: Perplexity Upgrade
Los usuarios Pro y Max ahora pueden crear y editar presentaciones, hojas de cálculo y documentos directamente desde la plataforma.
Pregunta de la semana
Esta semana queremos que pensemos juntos en algo que casi nadie comenta en voz alta… pero que afecta a cómo toman decisiones millones de personas cada día:
¿Puede un modelo de IA ser realmente neutral?
Y si no puede… cuál es el “nivel aceptable” de sesgo?
Anthropic publicó un estudio interesantísimo comparando seis modelos (GPT-5, Gemini 2.5 Pro, Claude, Grok, Llama…), pidiéndoles que defendieran la misma cuestión desde posiciones políticas opuestas para medir si trabajaban con la misma intensidad en ambos lados.
Los resultados fueron bastante claros:
Gemini 2.5 Pro y Grok 4 rondan el 97% de neutralidad.
Claude, entre el 94% y el 95%.
ChatGPT-5 baja al 89%.
Y Llama 4… bueno, se queda en 66%.
Más allá de la tabla, lo que interesa es otra cosa. Algo más de fondo.
Si sabemos que la neutralidad perfecta es imposible —porque un modelo siempre refleja decisiones humanas, datos humanos, prioridades humanas—… ¿no sería mejor exigir transparencia total en vez de neutralidad absoluta?
Es decir: es preferible un modelo que nos diga “tiendo a inclinarme hacia aquí por estos motivos” a uno que insiste en ser neutro mientras proyecta sesgos invisibles.
¿Qué crees tú?
¿Queremos modelos “neutrales”?
¿O modelos honestos con sus inclinaciones?
Os leemos.
Un abrazo,
El equipo de Amplify
🎯 En Amplify debatimos cada semana cómo usar la IA sin perder criterio.
💬 Únete a la conversación y piensa en serio con IA.
📩 ¿Te ha resultado útil esta edición? Respóndenos y cuéntanos cómo estás usando la IA en tu día a día.
Si te llegó reenviado, suscríbete aquí para recibir Pulso IA cada semana.


