Pulso IA #22 | ¿Quién manda aquí: nosotros o la IA?
La publicación semanal de Amplify: ensayos, comunidad y herramientas para ampliar tu ventaja estratégica con IA
Feliz lunes.
Hay semanas en las que la IA parece avanzar en silencio. Y hay semanas como esta, donde se mete en todo: en las fotos que editamos, en las canciones que escuchamos, en los navegadores que usamos para trabajar.
🗞️ En este número:
¿El principio del fin de Photoshop?
Anthropic prueba Claude para Chrome y tropieza con viejos riesgos
Musk demanda a Apple y OpenAI
La música hecha por IA ya conquista los rankings
En profundidad: el verdadero coste energético de un prompt
Herramienta de la semana: Project Memory en ChatGPT
¿La IA nos quita poder… o nos da más del que nunca hemos tenido?
Cada semana curamos las noticias más importantes para ti.
Pero en Amplify Premium compartimos los análisis, frameworks y herramientas que te preparan para decidir con ventaja en los próximos 24 meses.
Latidos de la semana
Gemini 2.5 Flash: ¿el principio del fin de Photoshop?
Google ha presentado Gemini 2.5 Flash Image, su modelo de generación y edición de imágenes más avanzado hasta la fecha. Su gran promesa: resolver dos de los problemas históricos de la edición con IA —la fidelidad del sujeto y la precisión del prompt—, esas distorsiones extrañas que todavía aparecen cuando intentas cambiar el fondo de una foto o ajustar la pose de una persona.
El modelo, disponible ya en Gemini, Vertex AI, AI Studio y vía API, es capaz de mantener la identidad de un rostro o un objeto a lo largo de múltiples ediciones: cambiar iluminación, añadir un fondo distinto o combinar hasta tres imágenes en una sola, sin que la foto se deshaga en rarezas.
Lo interesante es que esta ambición no se queda en la imagen: Gemini también está entrando en el terreno de la traducción y el aprendizaje de idiomas.
La app Translate incorpora ahora lecciones personalizadas al estilo Duolingo y, en paralelo, Google lanza traducción en vivo para conversaciones en más de 70 lenguas.
De momento solo en EE.UU., India y México, pero la dirección es clara: IA que no solo genera contenido, sino que se integra en tareas cotidianas de comunicación y productividad.
Claude para Chrome: productividad con riesgo oculto
Anthropic acaba de lanzar en piloto Claude para Chrome, una extensión que permite a 1.000 usuarios premium automatizar tareas directamente desde el navegador: programar reuniones, gestionar correos o navegar por páginas con simples instrucciones. La promesa es clara: un asistente que opera la web por ti.
El problema es que, en las primeras pruebas, se coló una amenaza conocida: los prompt injections. En el 23,6% de los casos, Claude fue engañado por instrucciones ocultas en una web para ejecutar acciones no deseadas. Con nuevas barreras (permisos por sitio, confirmaciones de alto riesgo, bloqueos por dominio) la tasa se redujo a un 11,2%, pero el riesgo persiste.
La estrategia prudente no sorprende: Anthropic se mueve con pies de plomo tanto en lo técnico como en lo legal. En paralelo al piloto, la compañía llegó a un acuerdo preliminar en una de las demandas más peligrosas de la industria: el uso de libros pirateados para entrenar modelos, un caso que podía haber supuesto daños de hasta un billón de dólares.
Automatizar el navegador es uno de los pasos más obvios (y tentadores) hacia los agentes de IA que trabajen por nosotros en segundo plano. Pero la frontera entre “delegar” y “perder el control” sigue siendo difusa. Para empresas y profesionales, el mensaje es doble: el potencial de eficiencia es real, pero también lo son los riesgos de seguridad y responsabilidad.
Musk vs. Apple y OpenAI: nueva batalla en los tribunales
Elon Musk ha abierto un nuevo frente legal: xAI ha demandado a Apple y OpenAI por supuesta colusión monopolística. Según la denuncia, Apple estaría favoreciendo a ChatGPT como asistente por defecto en sus dispositivos, lo que dejaría a alternativas como Grok —el chatbot de xAI— sin espacio real para competir. Musk lo plantea como una jugada que “fuerza” a los usuarios a usar ChatGPT en lugar de darles opciones.
OpenAI ha respondido tachando la acusación de “acoso”, mientras Apple se mantiene firme en que su postura es neutral y que no privilegia a ningún proveedor de IA en particular.
Detrás del ruido mediático, lo que está en juego es quién controla la puerta de entrada a la IA de consumo masivo.
Apple tiene la distribución (mil millones de dispositivos), OpenAI la marca dominante, y Musk intenta abrir un hueco para Grok.
La música hecha por IA ya suena en todas partes
La frontera entre artista humano y máquina se está borrando a toda velocidad. La startup Higgsfield acaba de lanzar un sello discográfico con un ídolo K-pop generado por IA, llamado Kion, pensado para “democratizar la fama”: cualquiera, sin saber cantar ni bailar, podría convertirse en estrella mundial con el apoyo de algoritmos. La compañía asegura que ya hay contratos multimillonarios en marcha.
No es un caso aislado. Bandas como The Velvet Sundown —totalmente generadas por IA— acumulan más de un millón de reproducciones en Spotify, mientras servicios como Deezer calculan que el 18% de las canciones que se suben a diario (unas 20.000) ya provienen de IA.
El mercado, valorado en 2.900 millones de dólares este año, podría alcanzar los 38.700 millones en 2033. No es de extrañar que majors como Sony, Universal o Warner estén moviendo ficha con inversiones y acuerdos en startups como Suno y Udio.
La aceptación también cambia. Un estudio del MIT revela que más de la mitad de los oyentes no distingue (ni le importa) si la música viene de un humano o de una máquina.
En profundidad
Google revela cuánto contamina (de verdad) un prompt de IA
El debate sobre la huella ecológica de la inteligencia artificial ha estado marcado más por especulación que por datos. Hasta ahora, porque Google acaba de publicar el informe más transparente hasta la fecha sobre el consumo energético de sus modelos Gemini.
La cifra sorprende: un prompt de texto consume unos 0,24 vatios-hora (lo mismo que tener el microondas encendido durante un segundo). En términos prácticos: unas cinco “gotas” de agua para refrigeración y 0,03 gramos de CO₂ emitidos. Mucho menos de lo que estimaban los cálculos que circulaban hasta ahora.
La diferencia clave es el enfoque: Google no solo mide el modelo, sino todo el stack —chips, servidores, sistemas de refrigeración— ofreciendo una visión mucho más completa del gasto. Es un paso poco común en un sector que suele ser opaco en este tema.
Claro que hay matices importantes: el dato corresponde a consultas de texto, no a procesos más costosos como generar imágenes o entrenar modelos. Y, sobre todo, deja fuera el enorme gasto energético que supone el entrenamiento inicial de cada sistema, uno de los grandes agujeros negros en la discusión ambiental.
Aunque las cifras de Google alivian ciertos temores, la realidad es que la demanda energética de la IA seguirá creciendo conforme aumente su adopción.
Para las empresas, esto significa que la eficiencia energética y la transparencia se convertirán en factores de reputación y, en muchos casos, de competitividad. No basta con tener el modelo más potente: también habrá que demostrar que es sostenible.
Herramienta de la semana
Project Memory (ChatGPT)
OpenAI ha lanzado Project Memory, una nueva función que permite a ChatGPT recordar contexto dentro de un proyecto concreto, pero sin mezclarlo con otras conversaciones o memorias guardadas fuera de ese espacio.
En la práctica, significa que puedes trabajar con el modelo en un proyecto largo —por ejemplo, una estrategia de marketing, un curso online o un plan de negocio— y el asistente irá reteniendo lo que ya se ha hablado, sin que tengas que repetirlo cada vez. Al mismo tiempo, evita uno de los grandes temores de los usuarios: que la memoria de un tema contamine otros ámbitos de trabajo.
Hasta ahora, la memoria en ChatGPT era un terreno delicado: demasiado general y poco controlable.
Con Project Memory, se crea un “foso de memoria” que combina lo mejor de ambos mundos: continuidad en un proyecto y compartimentos estancos para mantener el control.
Pregunta incómoda
¿La IA nos quita poder… o nos da más del que nunca hemos tenido?
Cada vez que llega una gran tecnología —la escritura, la imprenta, el teléfono— lo primero que sentimos es miedo: perder el control, perder nuestra esencia, volvernos dependientes.
Con la IA ocurre lo mismo. Pero, como recuerda Reid Hoffman (fundador de LinkedIn y uno de los primeros inversores en OpenAI), la historia sugiere lo contrario: cada revolución tecnológica ha terminado ampliando nuestra agencia, es decir, la capacidad real de tomar decisiones que cambian resultados.
En su nuevo libro, Superagency, Hoffman plantea que la clave no es resistirse al cambio, sino aprender a diseñar y usar la IA de forma que potencie nuestro margen de acción.
Si antes necesitabas un ejército de gente para levantar un negocio, ahora puedes hacerlo con un equipo mínimo si sabes amplificarte con IA. La cuestión es si seremos capaces de usar esa ventaja de manera consciente, o si dejaremos que otros —plataformas, gobiernos, grandes empresas— la usen por nosotros.
La pregunta incómoda es esta: ¿estamos usando la IA para ganar más control sobre nuestras decisiones, o para cederlo a sistemas que deciden por nosotros?
— El equipo de Amplify
👉 Si este dilema también es tuyo, estás en el lugar correcto.
🎯 Esto es lo que debatimos en serio en Amplify Premium.
💬 Únete a la conversación y piensa en serio con IA.
💬 ¿Te ha resultado útil esta edición? Puedes responder a este correo y contarnos cómo estás usando la IA en tu día a día.
📩 Y si te ha llegado reenviado, suscríbete aquí para recibir Pulso IA cada semana.
Creo que la ultima pregunta tiene una trampa en si misma mientras percibamos la relación con ella respecto al poder la relación seguirá generando conflicto. No se trata de si nos quita poder o nos lo da… las preguntas mas relevantes son otras. Que somos capaces de crear con ella y sin ella, que habilidades y destrezas podemos potenciar, que resultados transcendentes podemos crear a través de la cocreacion… etc. mientras pensamos en poder pensamos en binario, lo binario
deja de tener sentido solo con la propia existencia de la IA.