Google macht Gemini zu einem echten „Agenten“: Ab sofort kann die KI auf ausgewählten Android-Smartphones selbstständig mehrstufige Aufgaben in Drittanbieter-Apps erledigen – etwa ein Uber buchen oder einen Einkaufswagen bei DoorDash oder Grubhub zusammenstellen. Die Funktion, die Google als „Task Automation“ oder „agentic capabilities“ bezeichnet, startet als Early-Preview auf den neuen Samsung Galaxy S26-Serie (ab 11. März 2026) sowie auf den Google Pixel 10, Pixel 10 Pro und Pixel 10 Pro XL (per Update im März 2026). Zunächst nur in den USA und Südkorea verfügbar.
Wie funktioniert die neue Funktion?
Nutzer geben Gemini per Sprach- oder Textprompt einen Befehl, z. B.:
- „Hol mir ein Uber zum Palace of Fine Arts.“
- „Stell mir einen DoorDash-Einkaufswagen mit Zutaten für ein Barbecue für 8 Personen zusammen.“
Gemini öffnet die entsprechende App in einem virtuellen Fenster auf dem Gerät und führt die Schritte nacheinander aus:
- Zielort eingeben,
- Fahrzeugtyp wählen,
- Abholzeit festlegen,
- Alternativen vorschlagen (z. B. bei ausverkauften Produkten),
- Warenkorb füllen.
Der gesamte Prozess ist sichtbar und unterbrechbar – Nutzer können jederzeit eingreifen, stoppen oder im Hintergrund laufen lassen. Am Ende kommt eine Benachrichtigung: „Deine Aufgabe ist vorbereitet – schau dir den Auftrag in der DoorDash-App an und bestätige ihn selbst.“ Die finale Bestätigung (und Zahlung) muss der Nutzer manuell vornehmen – Gemini bucht also noch nicht vollautomatisch.
Hintergrund: Was bedeutet „agentic“ bei KI?
„Agentic AI“ beschreibt Systeme, die nicht nur antworten oder Inhalte generieren, sondern aktiv handeln, planen und mehrere Schritte in der realen Welt (hier: auf dem Smartphone) ausführen – ähnlich wie ein menschlicher Assistent. Google positioniert Gemini damit als Konkurrenz zu Apples Siri (mit App Intents in iOS 18+), OpenAIs Operatoren oder Anthropics Claude-Projekten. Der Schritt baut auf früheren Gemini-Updates auf, z. B. dem „Computer Use“-Modell von 2025, das bereits Browser- und App-Interaktionen ermöglichte, aber noch nicht so nahtlos in Android integriert war.
Aktueller Stand und Ausblick
- Unterstützte Apps (Start): Uber (Rideshare), DoorDash, Grubhub (Food/Grocery), teilweise Uber Eats und Instacart (geplant).
- Weitere Apps sollen 2026 mit Android 17 hinzukommen.
- Sicherheit: Google betont Kontrollmöglichkeiten, Benachrichtigungen bei Entscheidungsbedarf und die Tatsache, dass sensible Aktionen (Zahlung) manuell bleiben.
- Zusätzliche Gemini-Updates (gleichzeitig angekündigt): Erweiterte Scam-Detection für Anrufe (nun auch auf Galaxy S26 in den USA) und SMS-Scam-Filter auf Pixel 10 (USA, Kanada, UK).
Reaktionen und Kontext
Die Ankündigung – gemacht im Rahmen von Samsungs Galaxy Unpacked-Event am 25. Februar 2026 – wird als wichtiger Meilenstein auf dem Weg zu echten KI-Agenten gesehen. The Verge-Autorin Allison Johnson nennt es „einen Schritt näher an einem echten Assistenten“. Wired und TechCrunch loben die Live-Demo, warnen aber: Die Features sind noch beta, auf wenige Apps beschränkt und erfordern manuelle Freigabe. Kritiker sehen Parallelen zu Apples App Intents und fragen, ob Gemini langfristig mehr Apps und komplexere Workflows (z. B. Kalender + Mail + Reisebuchung) meistern kann.
Google betont: Dies ist der Anfang. Die Kombination aus Gemini, Android und Hardware-Partnern wie Samsung soll Gemini zum zentralen, proaktiven Assistenten machen – weg vom reinen Chatbot hin zu einem, der „Dinge für dich erledigt“.
Quelle:
Allison Johnson: „Gemini is getting its first agentic capabilities“, The Verge, 25. Februar 2026.
https://www.theverge.com/tech/884210/google-gemini-samsung-s26-pixel-10-uber (Stand: 25. Februar 2026).
Zusätzliche Berichte: TechCrunch, Wired, 9to5Google, PCMag (alle 25. Februar 2026).
