Apple arbeitet seit längerem an einer grundlegend überarbeiteten Version von Siri. Statt einzelner Funktionsverbesserungen ist der Sprachassistent künftig deutlich tiefer in iPhone, iPad und Mac integriert. Interne Hinweise deuten darauf hin, dass Apple dabei drei zentrale Kernfunktionen in den Mittelpunkt stellt, die den praktischen Nutzen von Siri spürbar erweitern sollen. Der Start der neuen Siri-Generation wird derzeit für das Frühjahr erwartet und soll mit einem späteren iOS-Update erfolgen. Grundlage ist eine technisch neue Architektur, die Apple intern offenbar komplett neu aufgebaut hat.

Persönlicher Kontext statt isolierter Befehle
Eine der zentralen Neuerungen ist der persönliche Kontext. Siri greift künftig auf lokal gespeicherte Informationen zu, darunter Termine, Nachrichten, E-Mails und Dateien. Der Unterschied zu bisherigen Versionen liegt vor allem im Umgang mit diesen Daten. Nutzer müssen relevante Informationen nicht mehr ausdrücklich benennen, sondern können Anfragen im Zusammenhang stellen. Siri soll entsprechende Bezüge selbst herstellen und Rückfragen auf Basis bereits vorhandener Inhalte beantworten. Apple verspricht sich davon deutlich flüssigere Interaktionen, insbesondere bei komplexeren Anfragen.
Onscreen Awareness: Siri versteht den Bildschirminhalt
Als zweite Kernfunktion plant Apple eine umfassende Bildschirmerkennung, intern als „Onscreen Awareness“ bezeichnet. Dabei analysiert Siri, was aktuell auf dem Display angezeigt wird, und kann diesen Inhalt direkt in die Interaktion einbeziehen. Praktisch bedeutet das, dass sich der Assistent auf geöffnete Apps, angezeigte Dokumente oder dargestellte Inhalte beziehen kann, ohne dass der Nutzer diese zuvor beschreiben muss. Damit rückt Siri funktional näher an kontextbasierte Assistenten heran, die nicht nur Sprache, sondern auch visuelle Informationen auswerten.
Direkte App-Steuerung über App Intents
Die dritte Säule bildet eine erweiterte App-Steuerung über sogenannte App Intents. Damit soll Siri Aufgaben direkt innerhalb von Apps ausführen können, ohne dass diese manuell geöffnet werden müssen. Dazu gehören unter anderem das Versenden von Dateien, das Anlegen von Terminen oder das Starten bestimmter Aktionen in Drittanbieter-Apps. Apple will Siri damit stärker als Schnittstelle zwischen Nutzer und Apps positionieren, statt den Assistenten auf einfache Systembefehle zu beschränken.
Neue technische Basis mit Fokus auf Datenschutz
Ursprünglich waren Teile dieser Funktionen bereits für frühere iOS-Versionen vorgesehen. Technische Einschränkungen zwangen Apple jedoch dazu, die zugrunde liegende Architektur von Siri neu aufzubauen. Statt klassischer, regelbasierter Systeme setzt Apple nun auf große Sprachmodelle. Dabei greift der Konzern offenbar auf externe Expertise zurück, unter anderem von Google. Die eigentliche Verarbeitung sensibler Anfragen soll jedoch über Apples eigene Infrastruktur namens „Private Cloud Compute“ erfolgen. Laut Apple werden Inhalte dabei nicht dauerhaft gespeichert oder für andere Zwecke ausgewertet.
Eigene KI-Suche als Ergänzung geplant
Parallel zur Überarbeitung von Siri entwickelt Apple eine eigene KI-gestützte Suchfunktion. Intern trägt sie den Namen „World Knowledge Answers“. Ziel ist es, komplexe Fragen direkt zu beantworten, ohne dass Nutzer mehrere Webseiten aufrufen müssen. Diese Funktion soll zunächst in Siri integriert werden. Später ist eine Ausweitung auf Safari und die Spotlight-Suche geplant. Denkbar sind unter anderem Zusammenfassungen, erklärende Texte oder strukturierte Antworten auf umfangreichere Fragestellungen.
Zeitplan: Start im Frühjahr erwartet
Interne Hinweise deuten darauf hin, dass Apple sowohl die neuen Siri-Funktionen als auch die KI-Suche mit einem späteren iOS-Update ausrollen will. Genannt wird aktuell iOS 26.4, das nach bisherigem Zeitplan im Frühjahr erscheinen dürfte. Wie üblich dürfte Apple zuvor erste Testversionen bereitstellen. Damit könnten bereits in den kommenden Wochen konkrete Einblicke in die Leistungsfähigkeit der neuen Siri-Architektur möglich sein.