Apple testet KI-Siri für Multi-App-Sprachbefehle
Berichten zufolge macht Apple bedeutende Fortschritte bei der Umwandlung seines Sprachassistenten Siri in ein weitaus leistungsfähigeres und intuitiveres Tool, das in der Lage ist, komplexe, anwendungsübergreifende Befehle nur mit der Stimme des Benutzers auszuführen. Diese ehrgeizige Überarbeitung, die in jüngsten Berichten unter Berufung auf Bloomberg detailliert beschrieben wird, zielt darauf ab, Siri von einem einfachen Abfragebeantworter zu einer zentralen Kommandozentrale für das digitale Leben eines Benutzers zu machen.
Das Herzstück dieser Weiterentwicklung ist ein wesentlich aktualisiertes App Intents Framework, Apples Entwicklertool, das Anwendungen ermöglicht, ihre Kernfunktionen dem System zugänglich zu machen. Diese Verbesserung bedeutet, dass Siri nicht mehr auf grundlegende App-Starts oder Einzelaktionsbefehle beschränkt sein wird. Stattdessen könnte es Benutzern ermöglichen, komplizierte, mehrstufige Aufgaben nahtlos über verschiedene Anwendungen hinweg auszuführen. Stellen Sie sich vor, Sie weisen Siri an: „Finde meine Fotos vom Strand, bearbeite sie, um die Farben zu verbessern, und sende das beste an John“, und beobachten Sie, wie es die gesamte Sequenz ohne einen einzigen Tipp ausführt.
Über die Fotoverwaltung hinaus soll das verbesserte Siri eine breite Palette täglicher digitaler Interaktionen bewältigen. Benutzer könnten Kommentare auf Social-Media-Plattformen posten, sich mühelos bei verschiedenen Diensten anmelden oder sogar Online-Transaktionen abschließen, wie das Durchsuchen von Shopping-Apps und das Hinzufügen von Artikeln zum Warenkorb – alles per Sprachbefehl. Diese Entwicklung markiert einen entscheidenden Moment und verspricht eine flüssigere, freihändigere und weniger aufdringliche Interaktion mit Apple-Geräten.
Obwohl Apple auf seiner Worldwide Developers Conference (WWDC) 2024 eine fortschrittliche, intelligente Siri-Demo zeigte, hat die vollständige Einführung dieser Funktionen der nächsten Generation Verzögerungen erfahren. Quellen deuten nun auf eine mögliche Veröffentlichung im Frühjahr 2026 hin, die mit einer umfassenderen Überarbeitung der zugrunde liegenden Siri-Infrastruktur zusammenfällt. Apple ist derzeit intensiv mit internen Tests dieser Funktionalität beschäftigt, nicht nur mit eigenen Anwendungen, sondern auch mit einer Auswahl beliebter Drittanbieter-Apps, darunter Uber, Amazon, YouTube, Facebook, WhatsApp, Threads und Temu.
Der Weg zu dieser fortschrittlichen Sprachsteuerung ist jedoch nicht ohne Herausforderungen. Aufgrund strenger Sicherheits- und Genauigkeitsbedenken können hochsensible Kategorien wie Banking-, Finanz- und Gesundheitsanwendungen bei der Einführung nur eingeschränkte Siri-Funktionen sehen oder sogar ganz von dieser Multi-App-Steuerung ausgeschlossen werden. Die Verzögerung selbst wird teilweise der Komplexität zugeschrieben, Siris jahrzehntealte Architektur für generative KI nachzurüsten, sowie der Notwendigkeit, absolute Zuverlässigkeit zu gewährleisten, insbesondere in Szenarien mit hohem Risiko.
Diese strategische Verschiebung unterstreicht Apples umfassendere Strategie für künstliche Intelligenz für 2025, die geräteinterne Intelligenz, Ökosystemintegration und Benutzervertrauen durch das „Apple Intelligence“-Framework und „Private Cloud Compute“ priorisiert. Der Schritt des Unternehmens hin zu einem „Voice-First“-Interaktionsökosystem wird auch als entscheidend für zukünftige Hardware-Innovationen angesehen, einschließlich eines geplanten intelligenten Displays und eines Tischroboters, die beide stark auf natürliche, sprachbasierte Interaktion angewiesen wären. Während Apple die Wettbewerbslandschaft der KI navigiert, wird Berichten zufolge auch die Erkundung strategischer Akquisitionen und Partnerschaften mit externen KI-Anbietern wie Perplexity AI und OpenAI vorangetrieben, um Siris Fähigkeiten weiter zu verbessern und seine KI-Roadmap zu beschleunigen.