Siete tendencias de AI más importantes: marzo 2026

Los agentes de AI aprendieron a usar el ordenador, volvieron a ejecutarse en local, se integraron en silicio y borraron los correos de alguien. Siete tendencias que definieron el mes.

Febrero fue ruidoso con anuncios. Marzo fue más tranquilo, pero lo que realmente salió a producción importa más que lo que se mostró en un escenario. El tema del mes: los modelos de AI ya no solo responden preguntas. Están haciendo clic en botones, escribiendo código, borrando correos (más sobre eso después) y ejecutándose en hardware que habría parecido absurdo hace un año.

Siete cosas a las que vale la pena prestar atención.

Durante años, el cuello de botella fue la integración. Si tu software no tenía una API, la AI no podía tocarlo. Eso está cambiando.

GPT-5.4 de OpenAI salió con computer use nativo: el modelo lee tu pantalla, mueve un ratón virtual, escribe en un teclado virtual. En el benchmark OSWorld-Verified obtiene un 75%, por encima del nivel base humano para tareas rutinarias de escritorio. Anthropic tomó un camino similar con Claude Code, que puede construir, ejecutar y testear aplicaciones directamente desde la terminal.

Lo interesante para las empresas: ya no necesitas que tu proveedor construya una integración con AI. ¿Tienes un sistema de RRHH de hace 15 años sin API? El agente puede rellenar el formulario igual que lo haría un becario. Si eso te entusiasma o te inquieta un poco depende de cuánto confíes en el becario.

La nube tuvo una buena racha, pero en marzo la industria empezó a acercar la AI al hardware.

Perplexity lanzó “Personal Computer”, un Mac mini dedicado que ejecuta su agente de AI 24/7 desde tu oficina. Manus movió su agente de un sandbox remoto a tu máquina local, donde trabaja con tus archivos directamente. NVIDIA NemoClaw permite a las empresas repartir las cargas de trabajo entre GPUs on-premise y la nube, para que los datos sensibles nunca salgan del edificio.

El motivo es obvio: privacidad. Pero la velocidad también cuenta. Cuando el modelo se ejecuta en local, no hay round-trip al data center. Para cualquier cosa en tiempo real (soporte al cliente, trading, manufactura), esa diferencia en latencia se acumula.

Llevamos más de una década ejecutando AI en GPUs de propósito general. Una startup llamada Taalas decidió saltarse todas las capas de abstracción y cablear un modelo específico directamente en el chip. El resultado: 17.000 tokens por segundo, aproximadamente 74 veces más rápido que el hardware actual de NVIDIA.

NVIDIA tampoco se queda quieta. Nemotron 3 co-diseña software y hardware para eficiencia y sigue dominando la mayor parte del mercado. Pero el enfoque de Taalas apunta a algo interesante: si el inference se abarata lo suficiente, ejecutar cientos de agentes en paralelo para resolver un solo problema deja de ser un lujo. Eso ha sido teóricamente posible durante un tiempo. Ahora podría ser económicamente viable también.

Dos cosas ocurrieron en paralelo que, juntas, cambian la economía de la AI.

Anthropic amplió su ventana de contexto a 1 millón de tokens sin aumento de precio. Puedes meter una base de código entera o una pila de contratos en un solo prompt. Solo eso elimina toda una categoría de soluciones provisionales que la gente llevaba construyendo los últimos dos años.

Mientras tanto, Qwen 3.5 Small de Alibaba (un modelo de 9 mil millones de parámetros) está superando a modelos 13 veces más grandes en benchmarks de razonamiento. Sigo volviendo a esta idea: si un modelo que corre en un portátil puede igualar lo que antes requería un data center, la curva de costes para la adopción de AI acaba de romperse.

La mayoría de la AI actual predice la siguiente palabra. LeCun, que ganó el Premio Turing por su trabajo en deep learning, cree que este enfoque tiene un techo. En marzo recaudó más de mil millones de dólares para AMI Labs, para construir lo que él llama “World Models”: sistemas que aprenden causa y efecto como lo hace un niño, no leyendo texto sino construyendo modelos internos de cómo funciona el mundo físico.

Genie 3 de Google DeepMind explora territorio adyacente, generando entornos virtuales 3D para entrenamiento. La arquitectura JEPA de LeCun toma un camino diferente: está diseñada para robots que necesitan navegar espacios físicos impredecibles, piensa en una cocina o en el suelo de un almacén.

¿Tiene razón LeCun? Sinceramente no lo sé. Pero mil millones de dólares es una apuesta seria contra el paradigma actual, y merece atención.

Un agente de AI hace una cosa a la vez. Las configuraciones multiagente dividen una tarea entre varios modelos trabajando en paralelo. En marzo, esto dejó de ser una curiosidad de investigación.

La revisión de código multiagente de Anthropic lanza varios agentes simultáneamente para inspeccionar código. Su afirmación: 7,5 veces más bugs encontrados comparado con humanos o sistemas de un solo agente. Microsoft lanzó Copilot Cowork, que toma una solicitud en lenguaje natural y la descompone en pasos que se ejecutan en Outlook, Teams y Excel. Composer 2 de Cursor maneja ediciones en múltiples archivos y comandos de terminal en proyectos enteros, y Cursor dice que reduce los costes de desarrollo a la mitad.

El patrón es bastante claro: la AI ya no es solo tu asistente, es un equipo pequeño. Si la calidad se mantiene fuera de los benchmarks y las demos de lanzamiento es la pregunta que querría responder antes de apostar por esto.

La historia más aterradora del mes: un agente de OpenClaw en Meta, con acceso a un buzón de correo, borró accidentalmente cientos de emails. Un error de memoria hizo que el agente perdiera sus restricciones de seguridad. El incidente (la gente lo llama el “incidente Summer Yue”) llevó a la creación del framework CLAW-10 para evaluar la preparación empresarial para AI, basado en principios de zero-trust.

Por separado, el benchmark ARC-AGI-3 mostró que la AI actual obtiene menos del 1% en tareas que requieren aprender nuevas reglas sobre la marcha. Los sistemas se vuelven más rápidos, más capaces, más autónomos, pero no se vuelven más inteligentes en el sentido en que los humanos son inteligentes. Esa brecha importa más ahora que estamos dando a los agentes permisos reales en sistemas reales.


Marzo 2026 en una frase: la AI pasó de responder a actuar. Los agentes usan ordenadores, se ejecutan en local, revisan código en equipo y de vez en cuando rompen cosas en producción.

Eso último es a lo que yo prestaría más atención.

Nos vemos en la próxima actualización.


Descarga la infografía (PDF) - un resumen visual de las siete tendencias, para imprimir o compartir.