Los 7 tendencias en AI: abril 2026

En abril, la AI dejó de esperar instrucciones y empezó a gestionar negocios por su cuenta. Los agentes negocian, operan de forma autónoma y se integran en la infraestructura antes de que abras un archivo. Siete tendencias que lo demuestran.

Este mes la AI empezó a gestionar negocios, no solo a asistir. Marzo fue sobre cómo la AI empezó a actuar. Abril es sobre cómo empezó a gestionar. Los agentes ya negocian contratos, corren en silicon propio y se instalan en tu terminal antes de que abras un archivo. La era del “AI como chatbot” terminó.

Siete cosas que merecen tu atención.


Todo el mundo predijo la muerte del desarrollador de software. Luego Anthropic filtró accidentalmente 512.000 líneas de código de su Claude Code CLI. Lo que había dentro es lo interesante: no una capa fina sobre un modelo, sino un sistema de scaffolding masivo con gestión de memoria, bucles de consulta self-healing y capas de coordinación entre agentes (incluyendo algo llamado el KAIROS background daemon), todo diseñado para evitar que el modelo colapse bajo su propio peso.

La conclusión práctica: el modelo en sí es cada vez más un commodity. El valor está en lo que lo rodea. Si estás construyendo productos de AI, probablemente ya estás en el negocio del scaffolding, lo sepas o no.


A este punto sigo volviendo. Anthropic organizó “Project Deal”, un marketplace donde agentes de Claude negociaban en nombre de personas para comprar y vender cosas. Los agentes cerraron $4.000 en operaciones a lo largo de 186 acuerdos. Más interesante que el volumen: el estudio encontró que la calidad del modelo importaba más que las instrucciones que le dabas. Los modelos de gama alta (Opus) ganaban consistentemente a los más baratos (Haiku) en precio, y las personas con agentes más débiles a menudo no tenían idea de que estaban perdiendo dinero.

Ese último detalle es el que debería incomodar a quienes trabajan en compras y en equipos legales.


La idea de que la AI seria requiere un datacenter se está desmoronando. Gemma 4 de Google y Qwen 3.6 de Alibaba superan a modelos 20 veces más grandes corriendo en hardware de consumo, con soporte desde el primer día para Apple Silicon y tarjetas RTX.

Para quien trabaja en sectores regulados, esto importa más que cualquier benchmark. Sin round-trip a la nube, los datos no salen del edificio. Esa es una conversación completamente distinta a “qué modelo es más inteligente.”


Warp Terminal se volvió open-source con un modelo donde la AI se encarga del código y los humanos se centran en las especificaciones. Cursor 3 y su nuevo SDK sacaron a los agentes completamente del editor, dejándolos operar en servidores SSH y entornos cloud para corregir bugs y abrir pull requests sin un humano en el proceso.

Esto cambia lo que significa “herramienta para desarrolladores”. La herramienta ya no es para que la use el humano. Cada vez más, ella es el representante del humano.


La multimodalidad fue más allá de identificar qué hay en una imagen. ChatGPT Images 2.0 de OpenAI ahora incluye un modo de razonamiento que analiza el prompt y busca en la web antes de generar el resultado. Modelos como GLM-5V-Turbo pueden tomar un screenshot de una UI y convertirlo directamente en código funcional.

Esa segunda capacidad es la que me parece más interesante. La brecha entre “lo que el diseñador maquetó” y “lo que el desarrollador acaba publicando” ha sido un punto de fricción durante décadas.


Ejecutar agentes complejos a escala sigue siendo caro, por eso nadie los mantiene “siempre encendidos.” Un nuevo enfoque llamado Abstract Chain-of-Thought puede cambiar esa ecuación. En lugar de razonar en tokens de inglés (caro y lento), los modelos razonan mediante una taquigrafía interna de tokens comprimidos. El resultado: 11,6 veces menos tokens de razonamiento con un rendimiento comparable en tareas de matemáticas y lógica.

Si eso se sostiene fuera de los benchmarks, la economía de los agentes persistentes cambia sustancialmente.

Si estás pensando en cómo enrutar entre modelos para controlar esos costes, vale la pena leer esta comparación de LLM gateways.


Project Glasswing de Anthropic despliega un modelo llamado Claude Mythos para encontrar vulnerabilidades zero-day en infraestructura crítica, escaneando grandes bases de código y simulando rutas de explotación de forma autónoma. OpenAI respondió con GPT-5.4-Cyber, diseñado específicamente para reverse engineering binario y análisis de malware.

El espacio de la AI defensiva lleva años en conversación. Ahora se está desplegando en producción. Dado lo rápido que también avanzan las capacidades ofensivas, el timing probablemente es el correcto.


Abril 2026 en una frase: la AI dejó de esperar que le dijeran qué hacer. La pregunta ya no es si los agentes pueden ejecutar tareas. Es quién es responsable cuando ejecutan las incorrectas.

Resumen visual de las siete tendencias - Descargar la infografía (PDF)

Hasta el mes que viene.