Wird in einem neuen Fenster ge?ffnet
PRESSEMELDUNG 9. Juni 2025

Apple?Intelligence wird dank neuer M?glichkeiten über alle Apple Ger?te hinweg noch leistungsst?rker

Entwickler:innen k?nnen ab sofort auf das Apple?Intelligence Grundmodell auf dem Ger?t zugreifen, um private, intelligente Erlebnisse in ihren Apps zu erm?glichen
Das neueste Prodktlineup von Apple zeigt neue Apple Intelligence Features.
Apple hat auf der WWDC25 neue Apple Intelligence Features für iPhone, iPad, Mac, Apple Watch und Apple Vision Pro vorgestellt.
CUPERTINO, KALIFORNIEN?Apple hat heute neue Apple Intelligence Features vorgestellt, die das Nutzererlebnis auf iPhone, iPad, Mac, Apple Watch und Apple Vision Pro noch besser machen. Mit Apple Intelligence bekommen Nutzer:innen neue Features für die Kommunikation wie beispielsweise Live übersetzung. Durch Updates für Visuelle Intelligenz kann man mehr mit Bildschirminhalten anfangen. Mit Verbesserungen für Image Playground und Genmoji erh?lt man neue Ausdrucksm?glichkeiten.1 Zus?tzlich k?nnen ab jetzt Kurzbefehle Apple Intelligence direkt verwenden, und Entwickler:innen haben On-Device Zugriff auf das Large Language Sprachmodell, das die Grundlage von Apple Intelligence bildet. So kann eine Intelligenz genutzt werden, die leistungsstark und schnell und von Grund auf für Datenschutz entwickelt worden ist. Darüberhinaus ist sie offline verfügbar. Diese Apple Intelligence Features stehen ab heute zum Testen zur Verfügung und werden diesen Herbst für Nutzer:innen mit unterstützen Ger?ten vefügbar, wenn diese auf eine unterstützte Sprache eingestellt sind.
?Letztes Jahr haben wir die ersten Schritte unternommen, um Nutzer:innen eine Intelligenz zu bieten, die hilfreich, relevant und benutzerfreundlich ist und genau da eingesetzt werden kann, wo sie gebraucht wird. Gleichzeitig schützt sie die Privatsph?re der Nutzer:innen. Nun werden die Modelle hinter Apple Intelligence leistungsf?higer und effizienter, und wir integrieren Features noch umfassender in alle unsere Betriebssysteme“, sagt Craig Federighi, Senior Vice President of Software Engineering bei Apple. ?Wir machen au?erdem einen gro?en Schritt und geben Entwickler:innen jetzt zus?tzlich Zugriff auf das Grundmodell auf dem Ger?t, auf dem Apple Intelligence basiert. So k?nnen sie eine Intelligenz nutzen, die leistungsstark und schnell und von Grund auf mit Datenschutz entwickelt worden ist. Au?erdem ist sie offline verfügbar. Wir glauben, dass dies eine v?llig neue Generation intelligenter Erlebnisse in Apps erm?glichen wird, auf die sich Nutzer:innen in ihrem Alltag verlassen. Wir sind schon sehr auf die Ideen der Entwickler:innen gespannt.“
Apple Intelligence Features werden bis Ende des Jahres in folgenden acht weiteren Sprachen verfügbar sein: D?nisch, Niederl?ndisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch.

Live übersetzung baut Sprachbarrieren ab

In Situationen, in denen Sprachbarrieren auftreten, kann Live übersetzung Nutzer:innen helfen, in anderen Sprachen zu kommunizieren, wenn sie Textnachrichten schreiben oder sprechen. Das Erlebnis ist in die Apps Nachrichten, FaceTime und Telefon integriert und wird durch von Apple entwickelte Modelle erm?glicht, die vollst?ndig auf dem Ger?t laufen. So bleiben die Unterhaltungen der Nutzer:innen privat.
In Nachrichten kann Live übersetzung automatisch Nachrichten übersetzen. Wenn Anwender:innen etwa auf Auslandsreisen mit neuen Freund:innen etwas planen, kann ihre Nachricht beim Tippen übersetzt und in der bevorzugten Sprache der Empf?nger:innen übermittelt werden. Wenn eine Antwort eingeht, kann jede Nachricht sofort übersetzt werden.2 In FaceTime Anrufen k?nnen Nutzer:innen mit übersetzten Live Untertiteln Gespr?chen folgen und gleichzeitig die Stimmen der Sprecher:innen h?ren. In Telefonanrufen wird die übersetzung w?hrend des gesamten Gespr?chs laut vorgelesen.3

Neue M?glichkeiten, Kreativit?t auszuleben, mit Updates für Genmoji und Image Playground

Genmoji und Image Playground geben Nutzer:innen noch mehr M?glichkeiten, sich auszudrücken. Zus?tzlich zum Verwandeln einer Textbeschreibung in ein Genmoji k?nnen Nutzer:innen jetzt verschiedene Emoji miteinander kombinieren und Beschreibungen hinzufügen, um etwas Neues zu gestalten. Wenn Anwender:innen mit Genmoji und Image Playground Bilder erstellen, die von Familie und Freund:innen inspiriert sind, k?nnen sie den Ausdruck ver?ndern oder pers?nliche Merkmale wie die Frisur anpassen, um beispielsweise den aktuellen Look ihrer Freund:innen darzustellen.
Verbesserungen für Genmoji geben Nutzer:innen mehr M?glichkeiten, sich auszudrücken, mit der Option, durch Emoji-Kombinationen und Beschreibungen etwas Neues zu gestalten.
In Image Playground k?nnen Nutzer:innen komplett neue Stile mit ChatGPT nutzen, wie den eines ?lgem?ldes oder Vektorgrafiken. Wenn man eine konkrete Idee im Kopf hat, kann man auf Any Style tippen und genau beschreiben, was man sich vorstellt. Image Playground sendet dann Beschreibungen und Fotos von Nutzer:innen an ChatGPT und erstellt ein einzigartiges Bild. Nutzer:innen behalten immer die Kontrolle, nichts wird ohne ihre Erlaubnis mit ChatGPT geteilt.
Die neue Any Style Option in Image Playground mit ChatGPT wird auf einem MacBook Pro gezeigt.
Image Playground mit ChatGPT bekommt neue Stile, darunter eine Any Style Option, die praktisch ist, wenn Nutzer:innen eine konkrete Idee im Kopf haben.

Visuelle Intelligenz hilft Nutzer:innen, nach etwas zu suchen und Aktionen auszuführen

Aufbauend auf Apple Intelligence erweitert Visuelle Intelligenz das iPhone Display, damit Nutzer:innen in Apps suchen und mit Inhalten Aktionen ausführen k?nnen.
Mit Updates für Apple Intelligence erweitert visuelle Intelligenz die Inhalte auf dem iPhone Display. So k?nnen Nutzer:innen Aktionen ausführen und beispielsweise mit Google, Etsy oder anderen unterstützten Apps nach ?hnlichen Objekten suchen.
Visuelle Intelligenz hilft Nutzer:innen schon jetzt mit ihrer iPhone Kamera mehr über Objekte und Orte in ihrer Umgebung zu erfahren und ab sofort kann man noch mehr mit den Inhalten auf dem iPhone Display machen, und das schneller. Anwender:innen k?nnen ChatGPT Fragen dazu stellen, was sie gerade auf ihrem Display sehen, um mehr darüber zu erfahren. Man kann damit auch Google, Etsy oder andere unterstütze Apps durchsuchen, um ?hnliche Bilder und Produkte zu finden. Wenn es ein Objekt gibt, an dem man ein besonderes Interesse hat, etwa eine Lampe, kann man es hervorheben, um nach diesem konkreten Gegenstand oder nach ?hnlichen Objekten online zu suchen.
Visuelle Intelligenz macht es m?glich, ChatGPT nach Details zu bestimmten Objekten zu fragen.
Visuelle Intelligenz erkennt auch, wenn Anwender:innen sich ein bestimmtes Ereignis ansehen, und schl?gt dann vor, es zum Kalender hinzuzufügen.4 Apple Intelligence extrahiert daraus Datum, Uhrzeit und Standort, um ein Kalenderereignis mit diesen Details einzutragen.
Visuelle Intelligenz erkennt auch, wenn Anwender:innen sich ein bestimmtes Ereignis ansehen, und schl?gt dann vor, es zum Kalender hinzuzufügen. Apple Intelligence extrahiert daraus Datum, Uhrzeit und Standort, um ein Kalenderereignis mit diesen Details einzutragen.
Nutzer:innen k?nnen Visuelle Intelligenz auf ihre Bildschirminhalte anwenden, indem sie einfach dieselben Tasten drücken, mit denen ein Screenshot aufgenommen wird. Nutzer:innen haben dann die Wahl, ob sie ihren Screenshot sichern oder teilen oder ob sie mithilfe visueller Intelligenz mehr über den Inhalt erfahren m?chten.

Apple Intelligence für Fitness auf der Apple Watch verfügbar

Workout Buddy ist ein einzigartiges Fitnesserlebnis auf der Apple Watch mit Apple Intelligence, das anhand von Trainingsdaten und der Fitnesshistorie von Nutzer:innen personalisierte, motivierende Einblicke w?hrend eines Trainings generiert.5
Um Nutzer:innen in Echtzeit wirkungsvoll zu inspirieren, analysiert Workout Buddy Daten aus dem laufenden Training sowie die Fitnesshistorie der Anwender:innen im Hinblick auf Herzfrequenz, Pace, Distanz, Aktivit?tsringe, pers?nliche Fitness-Meilensteine und mehr. Ein neues Text?to?Speech Modell setzt anschlie?end die Einblicke in eine dynamische generative Stimme um, die mithilfe der Stimmdaten von Fitness+ Trainer:innen entwickelt worden ist. So passen Energie, Stil und Tonalit?t perfekt zu dem Workout. Workout Buddy verarbeitet diese Daten privat und sicher mit Apple Intelligence.
Workout Buddy wird auf der Apple Watch mit Bluetooth Kopfh?rern verfügbar sein und erfordert ein Apple Intelligence-f?higes iPhone in der N?he. Es wird zum Start auf Englisch in einigen der beliebtesten Trainingsarten verfügbar sein: Laufen Outdoor und Indoor, Gehen Outdoor und Indoor, Radfahren Outdoor, HIIT sowie Funktionelles und Traditionelles Krafttraining.
Workout Buddy kommt mit Apple Intelligence auf die Apple Watch und bietet ein einzigartiges Trainingserlebnis, das die Trainingsdaten und den pers?nlichen Fitnessverlauf der Nutzer:innen berücksichtigt, um personalisierte Einblicke zu generieren und für Motivation zu sorgen.

Apple Intelligence On-Device Modell ab sofort für Entwickler:innen verfügbar

Apple gibt allen Apps Zugriff auf das Grundmodell auf dem Ger?t, auf dem Apple Intelligence basiert.
Mit dem Foundation Models Framework k?nnen Entwickler:innen direkt auf dem Ger?t auf das gro?e Sprachmodell zugreifen, auf dem Apple Intelligence basiert. Dadurch haben sie Zugriff auf eine Intelligenz, die leistungsstark und schnell ist und von Grund auf mit Datenschutz entwickelt worden ist Au?erdem ist sie offline verfügbar.
Mit dem Foundation Models Framework k?nnen App Entwickler:innen auf Apple Intelligence aufbauen, um neue Erlebnisse für Nutzer:innen zu schaffen, die intelligent und offline vefügbar sind, ihre Privatsph?re schützen und eine kostenlose KI Inferenz nutzen. Beispielsweise kann eine Lern-App das Modell auf dem Ger?t nutzen, um anhand von Notizen der Anwender:innen ein personalisiertes Quiz zu generieren, ohne dass Kosten für eine Cloud-API entstehen. Oder eine Outdoor-App erh?lt Funktionen für das Suchen mit natürlicher Sprache, die sogar dann funktionieren, wenn Nutzer:innen offline sind.
Dank nativer Unterstützung von Swift k?nnen App Entwickler:innen mit dem Foundation Models Framework mit nur ein paar Zeilen Code ganz einfach auf das Apple Intelligence Modell zugreifen.
Das Framework bietet native Unterstützung für Swift, sodass App Entwickler:innen mit nur ein paar Zeilen Code ganz einfach auf das Apple Intelligence Modell zugreifen k?nnen. Generieren, Aufrufen von Tools und mehr ist in das Framework integriert. Das macht es Entwickler:innen einfacher als je zuvor, generative Funktionen direkt in ihre vorhandenen Apps zu implementieren.

Kurzbefehle werden intelligenter

Kurzbefehle sind ab sofort leistungsst?rker und intelligenter als je zuvor. Anwender:innen k?nnen intelligente Aktionen nutzen – eine ganz neue Reihe von Kurzbefehlen, erm?glicht durch Apple Intelligence. Mit Aktionen, die bestimmten Features fest zugeordnet sind, kann man etwa Text mit Schreibwerkzeugen zusammenfassen oder Bilder mit Image Playground erstellen.
So k?nnen Nutzer:innen Apple Intelligence Modelle direkt nutzen – entweder auf dem Ger?t oder mit Private Cloud Compute – um Antworten zu generieren, die in den restlichen Kurzbefehl einflie?en. Dabei werden alle im Kurzbefehl verwendeten Informationen geschützt. Zum Beispiel k?nnen Studierende einen Kurzbefehl erstellen, um mit dem Apple Intelligence Modell die Audiotranskription einer Vorlesung mit ihren Notizen abzugleichen und wichtige Punkte hinzuzufügen, die vielleicht fehlen. Nutzer:innen k?nnen sich auch für die Verwendung von ChatGPT entscheiden, um Antworten bereitzustellen, die in ihren Kurzbefehl einflie?en.
Die Kurzbefehle App auf einem MacBook Pro.
Kurzbefehle kommen mit der Power von Apple Intelligence, sodass Nutzer:innen Apple Intelligence Modelle direkt nutzen k?nnen – entweder auf dem Ger?t oder mit Private Cloud Compute – um Antworten zu generieren, die in den restlichen Kurzbefehl einflie?en.

Weitere neue Features

Apple Intelligence ist noch tiefer in die Apps und Erlebnisse integriert, auf die sich Nutzer:innen t?glich verlassen:
  • Die relevantesten Aktionen in E-Mails, auf Webseiten, in Notizen oder in anderen Inhalten k?nnen jetzt erkannt und in Erinnerungen automatisch kategorisiert werden.
  • Apple Wallet kann jetzt aus E-Mails von H?ndlern und Lieferanten Details zur Sendungsverfolgung identifizieren und zusammenfassen. Das funktioniert mit allen Bestellungen, sodass Nutzer:innen die gesamten Bestelldetails, den Lieferstatus und mehr an einem Ort einsehen k?nnen.
  • Nutzer:innen k?nnen zu allen Inhalten in Nachrichten eine Umfrage erstellen?– und mit Apple Intelligence erkennt Nachrichten, wann eine Umfrage praktisch sein k?nnte, und schl?gt sie vor. Zus?tzlich haben Anwender:innen die Option, mit Hintergründe in der Nachrichten App ihre Chats mit beeindruckenden Designs zu personalisieren und mit Image Playground einzigartige Hintergründe zu erstellen, die zur Unterhaltung passen.
Diese Funktionen bauen auf einer Reihe von Apple Intelligence Features auf, die Nutzer:innen schon jetzt zur Verfügung stehen:
  • Schreibwerkzeuge k?nnen Nutzer:innen helfen, ihren eigenen Text umzuschreiben, Korrektur zu lesen und zusammenzufassen.?Mit ?nderung beschreiben k?nnen Nutzer:innen konkret beschreiben, wie ihr Text ge?ndert werden soll, um beispielsweise eine Einladung zu einer Dinnerparty in ein Gedicht zu verwandeln.
  • Mit Bereinigen in Fotos k?nnen Nutzer:innen st?rende Elemente entfernen, ohne dabei das eigentliche Motiv zu ver?ndern.
  • Visuelle Intelligenz nutzt Apple Intelligence und hilft Nutzer:innen, über Objekte und Orte in ihrer Umgebung sofort mehr zu erfahren.
  • Mit Genmoji k?nnen Nutzer:innen ihr eigenes Emoji erstellen, indem sie eine Beschreibung eintippen. Genau wie Emojis k?nnen diese in Nachrichten eingefügt oder als Sticker oder Reaktion in einem Tapback geteilt werden.
  • Mit Image Playground k?nnen Nutzer:innen lustige Bilder in wenigen Augenblicken mithilfe von Konzepten wie Themen, Kostümen, Zubeh?r und Orten erstellen. Und sie k?nnen ihre eigenen Textbeschreibungen hinzufügen und Bilder erstellen, die einem Familienmitglied oder Freund:innen ?hneln, indem sie Fotos aus der Fotomediathek verwenden.
  • Image Wand kann eine grobe Skizze in ein ausgearbeitetes Bild verwandeln, das die Notizen von Nutzer:innen erg?nzt.
  • Mit Zusammenfassungen von E-Mails k?nnen Nutzer:innen die wichtigsten Details für eine E-Mail oder einen langen Nachrichtenverlauf anzeigen, indem sie einfach auf ?Zusammenfassen“ tippen oder klicken.
  • Das Feature Intelligente Antworten bietet Nutzer:innen Vorschl?ge für eine schnelle Antwort in Mail und Nachrichten.
  • Siri wird natürlicher und hilfreicher, mit der Option, Siri Anfragen tippen und das integrierte Produktwissen über die Features und Einstellungen der Apple Produkte zu nutzen. Siri kann selbst dann folgen, wenn Nutzer:innen sich verhaspeln, und den Kontext von einer Anfrage zur n?chsten berücksichtigen.
  • Der Zugriff auf ChatGPT ist in Schreibwerkzeuge und Siri integriert. So k?nnen Nutzer:innen die F?higkeiten von ChatGPT zum Verstehen von Bildern und Dokumenten nutzen, ohne zwischen Apps wechseln zu müssen.
  • Suchen mit natürlicher Sprache in Fotos macht es Nutzer:innen leichter, ein Foto oder Video anhand einer einfachen Beschreibung zu finden.
  • Nutzer:innen k?nnen in Fotos einen Rückblickfilm erstellen, indem sie eine Beschreibung eingeben.
  • Zusammenfassungen von Audio-trans-krip-tionen in Notizen werden automatisch generiert, um wichtige Informationen auf einen Blick anzuzeigen.
  • Nutzer:innen k?nnen auch Zusammenfassungen von Anruftranskriptionen generieren, um wichtige Details hervorzuheben.
  • Priorisierte Nachrichten, ein Bereich ganz oben im Posteingang, zeigt die dringendsten E-Mails, etwa eine Einladung zum Lunch am selben Tag oder eine Bordkarte.
  • Priorisierte Mitteilungen erscheinen ganz oben, um Mitteilungen hervorzuheben, die die sofortige Aufmerksamkeit der Nutzer:innen erfordern k?nnten.
  • Mit Zusammenfassungen von Mitteilungen k?nnen Nutzer:innen lange oder gestapelte Mitteilungen überfliegen und die wichtigsten Details direkt auf dem Sperrbildschirm sehen.
  • Vorschau in Mail und Vorschau in Nachrichten zeigen Nutzer:innen eine kurze Zusammenfassung der wichtigsten Informationen, ohne dass sie eine Nachricht ?ffnen müssen.
  • Der Fokus Unterbrechungen reduzieren zeigt nur Mitteilungen an, die m?glicherweise sofortige Aufmerksamkeit erfordern.

Ein Durchbruch für den Datenschutz in der KI

Apple Intelligence ist entwickelt worden, um die Privatsph?re von Nutzer:innen bei jedem Schritt zu schützen. Dafür verarbeitet es Anfragen auf dem Ger?t, was bedeutet, dass viele der zugrunde liegenden Modelle vollst?ndig auf dem Ger?t ausgeführt werden. Für komplexere Anfragen, die den Zugriff auf gr??ere Modelle erfordern, bringt Private Cloud Compute den Datenschutz und die Sicher-heit vom iPhone auch in die Cloud, um noch mehr Intel-ligenz zu erm?gli-chen. Auf diese Weise werden die Daten der Nutzer:innen niemals bei Apple gespeichert oder mit Apple geteilt, sondern ausschlie?lich genutzt, um die Anfrage auszuführen. Unabh?ngige Expert:innen k?nnen den Code einsehen, der auf Servern mit Apple Chips l?uft, um dieses Datenschutzversprechen laufend zu überprüfen und tun dies bereits. Das ist ein gro?er Schritt nach vorn beim Datenschutz in KI.
Verfügbarkeit
Alle neuen Features stehen ab heute über das Apple Developer Program unter developer.apple.com zum Testen zur Verfügung. Eine ?ffentliche Betaversion wird kommenden Monat über das Apple Beta Software-Programm unter beta.apple.com/de verfügbar sein. Anwender:innen, die Apple Intelligence auf unterstützen Ger?ten aktivieren, die auf eine unterstützte Sprache eingestellt sind, darunter alle iPhone 16 Modelle, das iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro) sowie iPad und Mac Modelle mit M1 und neuer, erhalten diesen Herbst Zugriff, wenn Siri und die Ger?tesprache auf dieselbe unterstützte Sprache eingestellt sind: Deutsch, Chinesisch (Vereinfacht), Englisch, Franz?sisch, Italienisch, Japanisch, Koreanisch Portugiesisch (Brasilien) oder Spanisch. Folgende Sprachen werden bis Ende des Jahres verfügbar sein: Chinesisch (Traditionell), D?nisch, Niederl?ndisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch und Vietnamesisch. Einige Funktionen sind m?glicherweise nicht in allen Sprachen oder Regionen verfügbar, und die Verfügbarkeit kann je nach lokalen Gesetzen und Vorschriften variieren. Weitere Informationen unter apple.com/de/apple-intelligence.
Artikel teilen

Media

  • Text dieses Artikels

  • Bilder zu dieser Pressemeldung

  1. Genmojis und Image Playground sind verfügbar auf Englisch, Franz?sisch, Deutsch, Italienisch, Portugiesisch (Brasilien), Spanisch und Japanisch.
  2. Live übersetzung in Nachrichten unterstützt Deutsch, Chinesisch (Vereinfacht), Englisch (USA, Gro?britannien), Franz?sisch (Frankreich), Italienisch, Japanisch, Koreanisch, Portugiesisch (Brasilien) und Spanisch (Spanien).
  3. Live übersetzung in Telefon und FaceTime ist für Einzelgespr?che in Englisch (USA, Gro?britannien), Franz?sisch (Frankreich), Deutsch, Portugiesisch (Brasilien) und Spanisch (Spanien) verfügbar.
  4. Die M?glichkeit, mit visueller Intelligenz ein Ereignis zum Kalender hinzuzufügen, gibt es auf Englisch auf allen iPhone 16 Modellen, dem iPhone 15 Pro und iPhone 15 Pro Max.
  5. Workout Buddy wird auf der Apple Watch Series 6 oder neuer, der Apple Watch SE (2. Generation) sowie der Apple Watch Ultra und Ultra 2 mit einem Apple Intelligence-f?higen iPhone auf Englisch vefügbar sein.

Pressekontakte

Martin Kuderna

martin.kuderna@PRfection.de

+49 089/309049 300

Apple Pressestelle

media.de@apple.com

+49 89 99640 300