Die sieben wichtigsten AI-Trends: März 2026

AI-Agenten haben Computer Use gelernt, laufen wieder lokal, sind direkt in Silizium verdrahtet und haben jemandem die E-Mails gelöscht. Sieben Trends, die den Monat geprägt haben.

Der Februar war laut: Ankündigungen, Demos, große Versprechen. Der März war ruhiger, aber was tatsächlich ausgeliefert wurde, zählt mehr als das, was auf der Bühne gezeigt wurde. Das Thema des Monats: AI-Modelle beantworten nicht mehr nur Fragen. Sie klicken Buttons, schreiben Code, löschen E-Mails (dazu gleich mehr) und laufen auf Hardware, die vor einem Jahr noch absurd gewirkt hätte.

Sieben Dinge, die deine Aufmerksamkeit verdienen.

Jahrelang war die Integration der Flaschenhals. Wenn deine Software keine API hatte, konnte AI nichts damit anfangen. Das ändert sich.

OpenAIs GPT-5.4 kam mit nativem Computer Use: Das Modell liest deinen Bildschirm, bewegt eine virtuelle Maus, tippt auf einer virtuellen Tastatur. Beim OSWorld-Verified-Benchmark erreicht es 75%, das liegt über dem menschlichen Basiswert für routinemäßige Desktop-Aufgaben. Anthropic ging mit Claude Code einen ähnlichen Weg, der Anwendungen direkt aus dem Terminal heraus bauen, ausführen und testen kann.

Warum das für Unternehmen interessant ist: Du brauchst nicht mehr darauf zu warten, dass dein Anbieter eine AI-Integration baut. Du hast ein 15 Jahre altes HR-System ohne API? Der Agent kann das Formular genauso ausfüllen wie ein Praktikant. Ob das begeistert oder leicht beunruhigt, hängt davon ab, wie sehr du dem Praktikanten vertraust.

Die Cloud hatte einen guten Lauf, aber im März begann die Branche, AI näher an die Hardware zu bringen.

Perplexity hat “Personal Computer” gestartet, einen dedizierten Mac mini, der ihren AI-Agenten rund um die Uhr direkt in deinem Büro betreibt. Manus hat seinen Agenten aus einer Remote-Sandbox auf deine lokale Maschine verlagert, wo er direkt mit deinen Dateien arbeitet. NVIDIAs NemoClaw ermöglicht es Unternehmen, Workloads zwischen lokalen GPUs und der Cloud aufzuteilen, damit sensible Daten das Gebäude nie verlassen.

Der Hauptgrund ist offensichtlich: Datenschutz. Aber Geschwindigkeit zählt auch. Wenn das Modell lokal läuft, gibt es keinen Round-Trip zum Rechenzentrum. Für alles, was in Echtzeit läuft (Kundensupport, Trading, Fertigung), summiert sich dieser Latenzunterschied.

Seit über einem Jahrzehnt lassen wir AI auf GPUs für allgemeine Zwecke laufen. Ein Startup namens Taalas hat beschlossen, alle Abstraktionsschichten zu überspringen und ein bestimmtes Modell direkt in den Chip zu verdrahten. Das Ergebnis: 17.000 Tokens pro Sekunde, rund 74-mal schneller als aktuelle NVIDIA-Hardware.

NVIDIA steht auch nicht still. Nemotron 3 optimiert Software und Hardware gemeinsam für Effizienz und hält weiterhin den Großteil des Marktes. Aber der Ansatz von Taalas deutet auf etwas Interessantes hin: Wenn Inference günstig genug wird, ist es kein Luxus mehr, Hunderte von Agenten parallel an einem einzigen Problem arbeiten zu lassen. Theoretisch war das schon länger möglich. Jetzt könnte es auch wirtschaftlich machbar sein.

Zwei Dinge passierten parallel, die zusammen die Wirtschaftlichkeit von AI verändern.

Anthropic hat das Kontextfenster auf 1 Million Tokens erweitert, ohne Preisaufschlag. Du kannst eine komplette Codebasis oder einen Stapel Verträge in einen einzigen Prompt packen. Das allein beseitigt eine ganze Kategorie von Workarounds, die Leute in den letzten zwei Jahren gebaut haben.

Gleichzeitig übertrifft Alibabas Qwen 3.5 Small (ein Modell mit 9 Milliarden Parametern) Modelle, die 13-mal größer sind, bei Reasoning-Benchmarks. Ich komme immer wieder auf diesen Gedanken zurück: Wenn ein Modell, das auf einem Laptop läuft, das leisten kann, wofür früher ein Rechenzentrum nötig war, ist die Kostenkurve für die AI-Einführung gerade gebrochen.

Die meiste heutige AI sagt das nächste Wort vorher. LeCun, der den Turing Award für seine Arbeit an Deep Learning gewonnen hat, glaubt, dass dieser Ansatz eine Obergrenze hat. Im März hat er über eine Milliarde Dollar für AMI Labs eingesammelt, um das zu bauen, was er “World Models” nennt: Systeme, die Ursache und Wirkung so lernen wie ein Kind, nicht durch das Lesen von Text, sondern durch den Aufbau interner Modelle davon, wie die physische Welt funktioniert.

Genie 3 von Google DeepMind erforscht angrenzendes Gebiet und generiert virtuelle 3D-Umgebungen für das Training. LeCuns JEPA-Architektur geht einen anderen Weg: Sie ist für Roboter konzipiert, die sich in unvorhersehbaren physischen Räumen zurechtfinden müssen, denk an eine Küche oder eine Lagerhalle.

Hat LeCun recht? Ich weiß es ehrlich gesagt nicht. Aber eine Milliarde Dollar ist eine ernsthafte Wette gegen das aktuelle Paradigma, und es lohnt sich, das im Auge zu behalten.

Ein einzelner AI-Agent erledigt eine Aufgabe nach der anderen. Multi-Agenten-Setups verteilen eine Aufgabe auf mehrere Modelle, die parallel arbeiten. Im März hörte das auf, eine Forschungskuriosität zu sein.

Anthropics Multi-Agenten-Code-Review startet mehrere Agenten gleichzeitig zur Code-Inspektion. Ihre Aussage: 7,5-mal mehr Bugs gefunden im Vergleich zu Menschen oder Einzel-Agenten-Systemen. Microsoft hat Copilot Cowork veröffentlicht, das eine Anfrage in natürlicher Sprache entgegennimmt und in Schritte zerlegt, die in Outlook, Teams und Excel ausgeführt werden. Composer 2 von Cursor verarbeitet Änderungen über mehrere Dateien und Terminal-Befehle in ganzen Projekten, und Cursor behauptet, es halbiere die Entwicklungskosten.

Das Muster ist klar genug: AI ist nicht mehr nur dein Assistent, sondern ein kleines Team. Ob die Qualität auch außerhalb von Benchmarks und Launch-Demos standhält, ist die Frage, die ich beantwortet haben möchte, bevor ich darauf setze.

Die beunruhigendste Geschichte des Monats: Ein OpenClaw-Agent bei Meta, der Zugriff auf ein Postfach bekam, löschte versehentlich Hunderte von E-Mails. Ein Speicherfehler führte dazu, dass der Agent seine Sicherheitsbeschränkungen verlor. Der Vorfall (er wird bereits als „Summer Yue-Vorfall" bezeichnet) führte zur Entwicklung des CLAW-10-Frameworks zur Bewertung der Unternehmensbereitschaft für AI, aufgebaut auf Zero-Trust-Prinzipien.

Separat zeigte der Benchmark ARC-AGI-3, dass aktuelle AI-Systeme bei Aufgaben, die das Erlernen neuer Regeln im laufenden Betrieb erfordern, unter 1% erreichen. Systeme werden schneller, leistungsfähiger, autonomer, aber sie werden nicht klüger in dem Sinne, wie Menschen klug sind. Diese Lücke ist jetzt wichtiger denn je, weil wir Agenten echte Berechtigungen in echten Systemen geben.


März 2026 in einem Satz: AI ist vom Antworten zum Handeln übergegangen. Agenten bedienen Computer, laufen lokal, prüfen Code im Team und machen gelegentlich Dinge in Produktion kaputt.

Auf Letzteres würde ich am genauesten achten.

Bis zum nächsten Update.


Infografik herunterladen (PDF) - eine visuelle Zusammenfassung aller sieben Trends, zum Ausdrucken oder Teilen.