Apple plant im nächsten Jahr zwei größere Upgrades für seinen Sprachassistenten Siri. Den Anfang macht iOS 26.4 mit zusätzlichen Personalisierungsfunktionen, bevor Siri in iOS 27 vollständig in einen Chatbot umgewandelt wird. Sofern sich der Zeitplan nicht ändert, erwarten wir das neue Siri bis Juni 2026. Hier finden Sie eine umfassende Übersicht aller bisher bekannten Informationen.

Wechsel zu SiriBot

Mit der Veröffentlichung von iOS 27 wird Apple die Funktionsweise von Siri grundlegend verändern. Aktuell kann Siri zwar einfache Fragen beantworten und unkomplizierte Aufgaben erledigen, aber sie ist noch nicht in der Lage, Dialoge zu führen, bei mehrstufigen Aufgaben zu helfen oder komplexe Fragen zu beantworten.
Nach den aktuellen Gerüchten über den Siri-Bot wird dieser mit dem kommenden Upgrade all das und noch viel mehr können und ähnlich wie konkurrierende Chatbots funktionieren.
Apple hatte ursprünglich keine Pläne, einen vollwertigen Chatbot mit Benutzeroberfläche wie Cloud oder ChatGPT anzubieten, doch die immense Popularität dieser Bots machte es unmöglich, sie zu ignorieren. Die bloße Integration von KI-Funktionen in Apps und Features reichte Apple nicht mehr aus, um in einer Welt, in der Menschen Chatbots für alles Mögliche nutzen – von der Websuche bis hin zur Unterstützung beim Programmieren –, wettbewerbsfähig zu bleiben.
Google hat das Gemini-Modell bereits in eine breite Palette von Android-Geräten integriert, und andere Bots wie ChatGPT haben Hunderte von Millionen wöchentlich aktiver Nutzer.
Siris neue Funktionen

Laut dem Journalisten Mark Gurman werden die Chatfunktionen von Siri tief in Apple-Produkte auf Systemebene integriert. Siri wird dann nicht mehr nur eine App sein, sondern nahtlos in iOS, iPadOS und macOS eingebunden sein, genau wie bisher.
Nutzer aktivieren Siri wie gewohnt, entweder durch das Aktivierungswort „Hey Siri“ oder durch Drücken der Seitentaste bei kompatiblen Geräten. Siri kann sowohl Sprach- als auch Textanfragen verarbeiten.
Wir wissen noch nicht, wie die neue Siri-Oberfläche aussehen wird. Apple muss das Erscheinungsbild und die Bedienung von Siri grundlegend überarbeiten, um mit dem Funktionsumfang von Unternehmen wie OpenAI, Anthropic und Google mithalten zu können.
Nutzer sind es gewohnt, eine App zu öffnen und eine vollständige Textoberfläche inklusive ihres Gesprächsverlaufs vorzufinden. Es ist unklar, wie Apple dies ohne eine eigene Siri-App realisieren will. Nutzer werden Zugriff auf ihre vergangenen Unterhaltungen sowie Funktionen zum Hochladen von Dateien und Fotos benötigen.
Die Aktivierung von Siri würde wahrscheinlich zu einer Benutzeroberfläche führen, die den Apps ähnelt, die den Bildschirm von iPhones, iPads oder Macs dominieren. Dies wäre jedoch eine Abkehr vom aktuellen minimalistischen Design von Siri. Alternativ könnte Apple Gespräche beispielsweise in der Notizen-App oder in der Zwischenablage von Macs aufzeichnen.
Gorman deutet an, dass Siri nicht nur eine App sein wird, was aber bedeuten könnte, dass sie nicht ausschließlich als App verfügbar sein wird. Es könnte eine separate Chatbot-App geben, die Nutzer verwenden können, während Siri systemweit verfügbar bleibt und in verschiedenen Anwendungen genutzt werden kann.
Was kann der Siri-Roboter?
Es scheint, dass Siri alles können wird, was aktuelle Chatbots können, und noch mehr, einschließlich der Suche nach Informationen im Web, der Generierung von Bildern, der Erstellung von Inhalten, der Zusammenfassung von Informationen, der Analyse hochgeladener Dateien, der Verwendung persönlicher Daten zur Erledigung von Aufgaben, der Aufnahme von Informationen aus E-Mails, Nachrichten, Dateien und mehr, der Analyse geöffneter Fenster und Bildschirminhalte, um Aktionen auszulösen, der Steuerung von Gerätefunktionen und -einstellungen sowie der Suche nach Inhalten auf dem Gerät, wodurch die Spotlight-Funktion ersetzt wird.
Siri wird auch in Apples Kern-Apps integriert, darunter Mail, Nachrichten, Apple TV, Xcode und Fotos. Siri wird in der Lage sein, nach bestimmten Bildern zu suchen, Fotos zu bearbeiten, beim Programmieren zu helfen, Fernsehsendungen und Filme vorzuschlagen und E-Mails zu versenden.
Der Unterschied zwischen Siri in iOS 26.4 und dem Chatbot

Mit iOS 26.4 plant Apple die Einführung einer neuen, aktualisierten Version von Siri, die auf großen Sprachmodellen (LLMs) basiert. Apple arbeitet bereits seit der Integration der Apple Intelligence-Funktionen in iOS 18 an dieser Version, die Veröffentlichung verzögerte sich jedoch, da die zugrundeliegende Infrastruktur von Siri für die Ausführung dieser großen Sprachmodelle grundlegend überarbeitet werden musste.
Ab iOS 26.4 kann Siri fortlaufende Gespräche führen und menschenähnliche Antworten geben. Außerdem stehen neue Anpassungsfunktionen zur Verfügung, jedoch keine vollständigen Chatbot-Funktionen. Folgendes können wir erwarten:
Persönlicher Kontext
Durch personalisierte Kontextinformationen kann Siri E-Mails, SMS, Dateien, Fotos und mehr verfolgen und so mehr über Sie lernen, um Sie bei der Erledigung von Aufgaben zu unterstützen und sich an gesendete Nachrichten zu erinnern. Beispiele hierfür sind:
◉ Zeig mir die Dateien, die Zaid mir letzte Woche geschickt hat.
◉ Finden Sie die E-Mail, in der Zaid etwas Arbeitsbezogenes erwähnt hat.
◉ Sucht nach den Büchern, die Zaid mir empfohlen hat.
◉ Wo ist das Rezept, das mir Umm Zaid geschickt hat?
◉ Wie lautet meine Passnummer?
Bildschirmbewusstsein

Diese Funktion ermöglicht es Siri, den Bildschirminhalt zu erkennen und darauf basierende Aktionen auszuführen. Wenn Ihnen beispielsweise jemand eine Adresse per SMS schickt, können Sie Siri bitten, diese zu den Kontakten hinzuzufügen. Oder wenn Sie ein Foto ansehen und es jemandem senden möchten, können Sie Siri darum bitten.
Tiefere Integration mit Anwendungen
Durch die tiefere Integration wird Siri innerhalb und zwischen Apps mehr leisten können und Aktionen und Aufgaben ausführen, die bisher unmöglich waren. Ein vollständiges Bild ist zwar noch nicht verfügbar, Apple hat aber bereits einige Beispiele genannt:
◉ Dateien von einer Anwendung in eine andere übertragen.
◉ Bearbeite ein Bild und sende es dann an jemanden.
◉ Lassen Sie sich den Weg zum Haus beschreiben und teilen Sie Zaid die voraussichtliche Ankunftszeit mit.
◉ Senden Sie die E-Mail, die Sie geschrieben haben, an Zaid.
Eine Chat-ähnliche Oberfläche für Gespräche mit Siri wird es mit der Veröffentlichung von iOS 26.4 nicht geben, aber der persönliche Assistent wird sich deutlich von der aktuellen Version unterscheiden. Craig Federighi, Apples Leiter der Softwareentwicklung, erklärte den Mitarbeitern im letzten Sommer, die Siri-Überarbeitung sei ein Erfolg gewesen: „Dadurch sind wir in der Lage, nicht nur unsere Ankündigungen umzusetzen, sondern ein deutlich umfangreicheres Upgrade zu liefern, als wir ursprünglich geplant hatten.“
Siri-Neugestaltung
Angesichts der vielen neuen Funktionen plant Apple auch Änderungen am visuellen Design. Was genau das bedeuten wird, ist noch unklar. Für den in Entwicklung befindlichen Desktop-Roboter testet Apple jedoch bereits eine animierte Version von Siri, die dem Finder-Logo auf Macs ähnelt.
Möglicherweise beginnt Apple mit der Einführung dieses neuen, stärker personalisierten Designs, wenn Siri in iOS 27 seine umfassende Überarbeitung erhält.
Speicher und Privatsphäre
Chatbots wie Cloud, ChatGPT und Gemini können sich an vergangene Gespräche und Interaktionen erinnern und so ein Gedächtnis für den Nutzer speichern. Apple diskutiert angeblich den Umfang der Speicherkapazität von Siri, da das Unternehmen den Gesprächsspeicher möglicherweise einschränken möchte, um die Privatsphäre der Nutzer zu schützen.
Das Etikett
Obwohl Siri von Grund auf überarbeitet wird, wird Apple sie wahrscheinlich weiterhin Siri nennen; es wird einfach eine intelligentere Version davon sein.
Infrastruktur und Server (Google-Deal)

Apple hat mit Google eine Vereinbarung getroffen, wonach zukünftige Versionen von Siri auf der Gemini-Technologie basieren werden. Apple plant, Gemini in den iOS-Updates auf Version 26.4 einzusetzen, und Googles Technologie wird auch den Siri-Roboter unterstützen.
In einer gemeinsamen Erklärung, die im Januar veröffentlicht wurde, sagten die beiden Unternehmen: Apple und Google sind eine mehrjährige Zusammenarbeit eingegangen, im Rahmen derer die nächste Generation der Apple-Basismodelle auf Googles Gemini-Modellen und Cloud-Technologien basieren wird.
Siri wird auf einem speziell von Googles Gemini-Team entwickelten KI-Modell basieren. Laut Gorman ist dieses Modell mit Gemini 3 vergleichbar und deutlich leistungsfähiger als das Modell, das den kommenden iOS-26.4-Funktionen zugrunde liegt.
Apple und Google diskutieren auch darüber, den Siri-Bot auf Googles Servern mit Prozessoren (TPUs) laufen zu lassen, möglicherweise weil Apple noch nicht über die Infrastruktur verfügt, um Chatbot-Anfragen von Milliarden täglich aktiver Geräte zu bearbeiten.
Zukünftig könnte Apple Siri auf ein anderes zugrundeliegendes Modell umstellen und damit Google möglicherweise überholen, sobald ausreichend robuste interne Sprachmodelle zur Verfügung stehen, um mit ChatGPT oder Gemini konkurrieren zu können. Zudem könnte Apple in China Roboterfunktionen durch eine Partnerschaft mit einem chinesischen KI-Unternehmen anbieten, da China ausländischen Unternehmen die Bereitstellung von KI-Funktionen im Land untersagt.
Unterstützte Plattformen

Die Chat-Funktion von Siri wird ein zentrales neues Feature in iOS 27, iPadOS 27 und macOS 27 sein und die Siri-Funktionen auf iPhones, iPads und Macs integrieren. Android-ähnliche Funktionen könnten auch auf anderen Plattformen wie VisionOS und tvOS verfügbar sein.
die Kosten
Es liegen noch keine Informationen darüber vor, ob für Siri Gebühren anfallen werden. Der Roboter wird nicht vollständig auf dem Gerät selbst funktionieren, und Apple benötigt enorme Rechenleistung in der Cloud. Ungeachtet der Entwicklungs- und Hostingkosten zahlt Apple Google jährlich fast eine Milliarde Dollar für den Zugriff auf seine Modelle.
Unternehmen wie Google und OpenAI investieren jährlich Milliarden in Infrastruktur und Rechenleistung, und kein KI-Dienst ist völlig kostenlos. Apple wird wahrscheinlich Gebühren erheben müssen, könnte aber Googles Vorgehen bei Gemini folgen.
Google bietet eine kostenlose Version von Gemini für Pixel-Smartphones und andere Android-Geräte mit integrierter KI an. Die Basisversion kann Fragen beantworten, Texte zusammenfassen, E-Mails schreiben und Apps sowie Smartphone-Funktionen steuern.
Im Gegensatz dazu können Android-Nutzer 20 Dollar pro Monat für eine erweiterte Gemini-Version bezahlen, um auf die fortschrittlichste Version zuzugreifen, die bessere Inferenzfunktionen, einen längeren Kontext für die Analyse großer Dokumente und Programmierverbesserungen bietet.
Erscheinungsdatum
Apple plant, die Chatbot-Funktionen von Siri im Juni auf der Worldwide Developers Conference (WWDC) zusammen mit iOS 27, iPadOS 27 und macOS 27 vorzustellen. Sollten die Chatbot-Funktionen bis dahin noch nicht ausgereift sein, wird Apple die Präsentation der neuen Funktionalität wahrscheinlich verschieben, um einen ähnlichen Fehler wie bei iOS 18 und Apples KI zu vermeiden.
Es wird erwartet, dass der Siri-Roboter nach mehrmonatiger Beta-Testphase im September mit neuen Updates eingeführt wird.
Quelle:



7 Bewertungen