srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die WWDC hatte auch 2025 Etliches für Business-Anwender zu bieten. Apple Das neue Design der Benutzeroberfläche, das Apple auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellte, mag ja eine kleine visuelle Ablenkung darstellen. Dennoch dachte Apple auch mit ein paar wichtigen Ankündigungen an die Business-Nutzer. Angesichts der zahlreichen angekündigten Änderungen war die WWDC-Keynote von Apple alles andere als die von vielen erwartete Enttäuschung. Neben der neuen Benutzeroberfläche Liquid Glass, die auf allen Apple-Produkten zu sehen sein wird, gab es unter anderem auch APIs für Entwickler, um KI in ihre Software zu integrieren. Letzteres ist ein Hinweis auf die langsamen Bemühungen des Unternehmens, Apple Intelligence zu der Vorzeigetechnologie zu machen, die auf der WWDC im letzten Jahr versprochen wurde. Aber zunächst einmal zu den Änderungen, die die größten Auswirkungen auf Unternehmensanwender haben dürften. iPad Nutzer von Apples iPads können künftig nicht nur mehrere App-Fenster gleichzeitig öffnen, Apple hat dafür außerdem ein cleveres und vielseitiges Fenstersystem entwickelt, das sogar eine Änderung der Größe, das Speichern der Position und mehr unterstützt. Diese Verbesserungen beim Multitasking und der Fensterverwaltung sollten die professionelle Arbeit auf einem iPad erheblich erleichtern und sind die Art von Verbesserungen, die sich die Leute seit Jahren gewünscht haben. Die Änderungen auf dem iPad erstrecken sich auch auf die Dateien-App, die wichtige und nützliche Updates erhält. Dateien für uns alle Alle Apple-Benutzer, nicht nur iPad-Besitzer, sollten von den Änderungen in der Dateien-App profitieren. Für iPad-Benutzer wird es damit einfacher, die benötigten Dateien zu finden und mit ihnen zu arbeiten. Gleichzeitig gibt es zusätzliche Sortieroptionen im Dateien-Fenster. Da es sich bei Dateien um eine App handelt, kann man davon ausgehen, dass zumindest einige dieser Verbesserungen auch auf anderen Apple-Geräten verfügbar sein werden. Profi-Anwender werden wahrscheinlich auch die neue Möglichkeit zu schätzen wissen, Ordner mit Symbolen, Emojis und Farben zu versehen. Die Transformation der Automatisierung Apple hat Verbesserungen bei den Kurzbefehlen (Shortcuts) eingeführt, darunter die Möglichkeit, sie zu erstellen und Spotlight zu verwenden, um sie zu identifizieren und aufzurufen. Und da sich die erstellten Shortcuts über alle Geräte hinweg synchronisieren lassen, können Benutzer leistungsstarke Produktivitäts-Shortcuts auf einem Gerät erstellen und auf einem anderen verwenden. Diese Integration spiegelt sich natürlich auch in der Liquid-Glass-Benutzeroberfläche wider, die den reibungslosen Wechsel vom Mac über das Tablet zum iPhone unterstützen soll. Spotlight entwickelt sich weiter Apple kündigte auch große Änderungen bei der Spotlight- Suche auf dem Mac an, einschließlich intelligenter Aktionen, die auf Shortcuts und Apple Intelligence basieren. Weiterhin gibt es neue Spotlight-Aktionen und -Schnelltasten. Letztere zeigen automatisch Aktionen an, die Sie mit einem in Spotlight ausgewählten Objekt vornehmen möchten, und übernehmen diese Aktionen aus der Suche heraus. Das ist sehr effektiv – Sie können damit etwa aus Spotlight heraus ein Objekt finden, es ändern, speichern und weitergeben. Die Software kann auch aus Ihrem Verhalten lernen und Ihnen personalisierte Aktionen für das anbieten, was Sie vielleicht tun möchten. „Während einer Suche werden jetzt alle Ergebnisse – einschließlich Dateien, Ordner, Ereignisse, Apps, Nachrichten und mehr – zusammen aufgelistet und intelligent nach Relevanz für den Benutzer sortiert“, so Apple. „Neue Filteroptionen schränken die Suche schnell auf genau das ein, was der Benutzer sucht, wie PDFs oder Mail-Nachrichten. Spotlight kann auch Ergebnisse für Dokumente anzeigen, die auf Cloud-Laufwerken von Drittanbietern gespeichert sind. Und wenn ein Benutzer nicht genau weiß, wonach er sucht, kann er mit den neuen Suchansichten von Spotlight ganz einfach seine Apps, Dateien, den Verlauf der Zwischenablage und vieles mehr durchsuchen.” Sie können auch Hunderte von Aktionen direkt in Spotlight durchführen, also etwa eine E-Mail senden oder eine Notiz schreiben. Viele dieser Funktionen werden zwar für den Mac beworben, aber Spotlight funktioniert auf allen Apple-Plattformen. Es wird also interessant sein zu sehen, wo diese Funktionen noch auftauchen werden, wenn die Beta-Tests beginnen und die zukünftige Unterstützung eingeführt wird. App Intents App Intents gibt es schon eine Weile, aber das Framework ermöglicht es Entwicklern jetzt, Aktionen in ihren Apps über Kurzbefehle (Shortcuts) oder Spotlight systemweit verfügbar zu machen. Das sollte nicht zuletzt die Arbeit an sich erleichtern. Wenn diese Verbesserungen in Apples Ökosystem Einzug halten, wird die schwierigste Aufgabe wahrscheinlich darin bestehen, sich zu merken, welche Aktionen Sie durchführen können. App Intents erhalten auch Unterstützung für visuelle Intelligenz, was Apps in die Lage versetzt, visuelle Suchergebnisse bereitzustellen und zu nutzen. Vision Pro Viele Unternehmen haben bereits Vision-Pro-Geräte im Einsatz und auch Apple verwies in seiner WWDC-Keynote auf die Möglichkeiten von Spatial Computing. Angesichts des hohen Preises dieser Geräte (ab 4.000 Euro) ist es eine willkommene Neuerung, dass es jetzt viel einfacher ist, sie in Arbeitsgruppen gemeinsam zu nutzen. Jeder Benutzer kann demnach sein eigenes Vision OS-Profil auf seinem iPhone speichern und dann das Vision-Gerät entsprechend einrichten. Apple hat auch ein neues Vision Pro Tool vorgestellt, mit dem man einen Inhalt als geschützten Inhalt speichern können. Damit soll sichergestellt werden, dass Inhalte, die auf einem Vision- Pro-Gerät freigegeben werden, nicht außerhalb des Unternehmens gelangen. Es gibt auch Unterstützung für ein neues Vision-Pro-Peripheriegerät, das nicht von Apple stammt. Logitech Muse ist ein neues Stift-/Steuerungsgerät für die Spatial Reality, mit dem man gemeinsam mit anderen an Projekten arbeiten und zeichnen kann. Look to Scroll wiederum ermöglicht es Benutzern, Apps und Websites nur mit ihren Augen zu erkunden. Dabei können sie die Scroll-Geschwindigkeit nach ihren Wünschen anpassen. Wenig überraschend werden auch Entwickler in der Lage sein, Look to Scroll in ihre visionOS-Apps zu integrieren. Apple Intelligence war überall Wenn man zwischen den Zeilen liest, kann man erkennen, dass künstliche Intelligenz tatsächlich überall in den WWDC-Ankündigungen dieses Jahres zu finden ist. Eine der größten Ankündigungen in diesem Zusammenhang deutet auf kontextbezogene Intelligenz hin, von der Apple schon früher berichtet hat: Visuelle Intelligenz versteht jetzt, was auf dem Bildschirm zu sehen ist, ermöglicht es, Fragen dazu zu stellen, nach bestimmten Objekten zu suchen oder Ereignisse zum Kalender hinzuzufügen. Apple hat es Entwicklern natürlich ermöglicht, Auch diese Funktion können Entwickler künftig in ihren Apps unterstützen. “Letztes Jahr haben wir die ersten Schritte unternommen, um den Nutzern hilfreiche, relevante und benutzerfreundliche Informationen genau dort zur Verfügung zu stellen, wo sie sie brauchen, und gleichzeitig ihre Privatsphäre zu schützen“, erklärte Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Jetzt werden die Modelle, die Apple Intelligence antreiben, immer leistungsfähiger und effizienter, und wir integrieren die Funktionen an noch mehr Stellen in jedem unserer Betriebssysteme.” Oder kurz: Entwickler können jetzt dank des Foundation Model Framework die Apple Intelligence APIs nutzen, um deren Tools in ihre Apps einzubauen. Entwickler können sich auch auf Xcode 26 freuen, das dank der eingebauten Unterstützung für ChatGPT große Sprachmodelle (LLMs) direkt in ihre Coding-Erfahrung einbinden kann. Alternativ können sie auch API-Schlüssel von anderen Anbietern verwenden oder lokale Modelle ausführen, um Xcode zu unterstützen. Wie Apple weiter bekannt gab, werden die Apple Intelligence-Funktionen bis Ende des Jahres für acht weitere Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch. Live-Übersetzung Die Live-Übersetzung ist ebenfalls weitreichend. Sie ist in Messages, FaceTime und iPhone integriert und läuft vollständig auf dem Gerät. Sie kann automatisch Nachrichten zwischen Sprachen übersetzen, bei FaceTime-Anrufen übersetzte Untertitel anbieten oder die Übersetzung während eines Telefongesprächs laut vorlesen. Apple hat auch ein neues System angekündigt, das die Barrierefreiheit in Apps unterstützen soll. Mit den Accessibility Nutrition Labels für die Produktseiten im App Store können Entwickler ihren Kunden mitteilen, welche Funktionen ihre Apps für die Barrierefreiheit unterstützen. (mb)
WWDC: Wie Apple sein Ökosystem verbessert
srcset="https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Die WWDC hatte auch 2025 Etliches für Business-Anwender zu bieten. Apple Das neue Design der Benutzeroberfläche, das Apple auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellte, mag ja eine kleine visuelle Ablenkung darstellen. Dennoch dachte Apple auch mit ein paar wichtigen Ankündigungen an die Business-Nutzer. Angesichts der zahlreichen angekündigten Änderungen war die WWDC-Keynote von Apple alles andere als die von vielen erwartete Enttäuschung. Neben der neuen Benutzeroberfläche Liquid Glass, die auf allen Apple-Produkten zu sehen sein wird, gab es unter anderem auch APIs für Entwickler, um KI in ihre Software zu integrieren. Letzteres ist ein Hinweis auf die langsamen Bemühungen des Unternehmens, Apple Intelligence zu der Vorzeigetechnologie zu machen, die auf der WWDC im letzten Jahr versprochen wurde. Aber zunächst einmal zu den Änderungen, die die größten Auswirkungen auf Unternehmensanwender haben dürften. iPad Nutzer von Apples iPads können künftig nicht nur mehrere App-Fenster gleichzeitig öffnen, Apple hat dafür außerdem ein cleveres und vielseitiges Fenstersystem entwickelt, das sogar eine Änderung der Größe, das Speichern der Position und mehr unterstützt. Diese Verbesserungen beim Multitasking und der Fensterverwaltung sollten die professionelle Arbeit auf einem iPad erheblich erleichtern und sind die Art von Verbesserungen, die sich die Leute seit Jahren gewünscht haben. Die Änderungen auf dem iPad erstrecken sich auch auf die Dateien-App, die wichtige und nützliche Updates erhält. Dateien für uns alle Alle Apple-Benutzer, nicht nur iPad-Besitzer, sollten von den Änderungen in der Dateien-App profitieren. Für iPad-Benutzer wird es damit einfacher, die benötigten Dateien zu finden und mit ihnen zu arbeiten. Gleichzeitig gibt es zusätzliche Sortieroptionen im Dateien-Fenster. Da es sich bei Dateien um eine App handelt, kann man davon ausgehen, dass zumindest einige dieser Verbesserungen auch auf anderen Apple-Geräten verfügbar sein werden. Profi-Anwender werden wahrscheinlich auch die neue Möglichkeit zu schätzen wissen, Ordner mit Symbolen, Emojis und Farben zu versehen. Die Transformation der Automatisierung Apple hat Verbesserungen bei den Kurzbefehlen (Shortcuts) eingeführt, darunter die Möglichkeit, sie zu erstellen und Spotlight zu verwenden, um sie zu identifizieren und aufzurufen. Und da sich die erstellten Shortcuts über alle Geräte hinweg synchronisieren lassen, können Benutzer leistungsstarke Produktivitäts-Shortcuts auf einem Gerät erstellen und auf einem anderen verwenden. Diese Integration spiegelt sich natürlich auch in der Liquid-Glass-Benutzeroberfläche wider, die den reibungslosen Wechsel vom Mac über das Tablet zum iPhone unterstützen soll. Spotlight entwickelt sich weiter Apple kündigte auch große Änderungen bei der Spotlight- Suche auf dem Mac an, einschließlich intelligenter Aktionen, die auf Shortcuts und Apple Intelligence basieren. Weiterhin gibt es neue Spotlight-Aktionen und -Schnelltasten. Letztere zeigen automatisch Aktionen an, die Sie mit einem in Spotlight ausgewählten Objekt vornehmen möchten, und übernehmen diese Aktionen aus der Suche heraus. Das ist sehr effektiv – Sie können damit etwa aus Spotlight heraus ein Objekt finden, es ändern, speichern und weitergeben. Die Software kann auch aus Ihrem Verhalten lernen und Ihnen personalisierte Aktionen für das anbieten, was Sie vielleicht tun möchten. „Während einer Suche werden jetzt alle Ergebnisse – einschließlich Dateien, Ordner, Ereignisse, Apps, Nachrichten und mehr – zusammen aufgelistet und intelligent nach Relevanz für den Benutzer sortiert“, so Apple. „Neue Filteroptionen schränken die Suche schnell auf genau das ein, was der Benutzer sucht, wie PDFs oder Mail-Nachrichten. Spotlight kann auch Ergebnisse für Dokumente anzeigen, die auf Cloud-Laufwerken von Drittanbietern gespeichert sind. Und wenn ein Benutzer nicht genau weiß, wonach er sucht, kann er mit den neuen Suchansichten von Spotlight ganz einfach seine Apps, Dateien, den Verlauf der Zwischenablage und vieles mehr durchsuchen.” Sie können auch Hunderte von Aktionen direkt in Spotlight durchführen, also etwa eine E-Mail senden oder eine Notiz schreiben. Viele dieser Funktionen werden zwar für den Mac beworben, aber Spotlight funktioniert auf allen Apple-Plattformen. Es wird also interessant sein zu sehen, wo diese Funktionen noch auftauchen werden, wenn die Beta-Tests beginnen und die zukünftige Unterstützung eingeführt wird. App Intents App Intents gibt es schon eine Weile, aber das Framework ermöglicht es Entwicklern jetzt, Aktionen in ihren Apps über Kurzbefehle (Shortcuts) oder Spotlight systemweit verfügbar zu machen. Das sollte nicht zuletzt die Arbeit an sich erleichtern. Wenn diese Verbesserungen in Apples Ökosystem Einzug halten, wird die schwierigste Aufgabe wahrscheinlich darin bestehen, sich zu merken, welche Aktionen Sie durchführen können. App Intents erhalten auch Unterstützung für visuelle Intelligenz, was Apps in die Lage versetzt, visuelle Suchergebnisse bereitzustellen und zu nutzen. Vision Pro Viele Unternehmen haben bereits Vision-Pro-Geräte im Einsatz und auch Apple verwies in seiner WWDC-Keynote auf die Möglichkeiten von Spatial Computing. Angesichts des hohen Preises dieser Geräte (ab 4.000 Euro) ist es eine willkommene Neuerung, dass es jetzt viel einfacher ist, sie in Arbeitsgruppen gemeinsam zu nutzen. Jeder Benutzer kann demnach sein eigenes Vision OS-Profil auf seinem iPhone speichern und dann das Vision-Gerät entsprechend einrichten. Apple hat auch ein neues Vision Pro Tool vorgestellt, mit dem man einen Inhalt als geschützten Inhalt speichern können. Damit soll sichergestellt werden, dass Inhalte, die auf einem Vision- Pro-Gerät freigegeben werden, nicht außerhalb des Unternehmens gelangen. Es gibt auch Unterstützung für ein neues Vision-Pro-Peripheriegerät, das nicht von Apple stammt. Logitech Muse ist ein neues Stift-/Steuerungsgerät für die Spatial Reality, mit dem man gemeinsam mit anderen an Projekten arbeiten und zeichnen kann. Look to Scroll wiederum ermöglicht es Benutzern, Apps und Websites nur mit ihren Augen zu erkunden. Dabei können sie die Scroll-Geschwindigkeit nach ihren Wünschen anpassen. Wenig überraschend werden auch Entwickler in der Lage sein, Look to Scroll in ihre visionOS-Apps zu integrieren. Apple Intelligence war überall Wenn man zwischen den Zeilen liest, kann man erkennen, dass künstliche Intelligenz tatsächlich überall in den WWDC-Ankündigungen dieses Jahres zu finden ist. Eine der größten Ankündigungen in diesem Zusammenhang deutet auf kontextbezogene Intelligenz hin, von der Apple schon früher berichtet hat: Visuelle Intelligenz versteht jetzt, was auf dem Bildschirm zu sehen ist, ermöglicht es, Fragen dazu zu stellen, nach bestimmten Objekten zu suchen oder Ereignisse zum Kalender hinzuzufügen. Apple hat es Entwicklern natürlich ermöglicht, Auch diese Funktion können Entwickler künftig in ihren Apps unterstützen. “Letztes Jahr haben wir die ersten Schritte unternommen, um den Nutzern hilfreiche, relevante und benutzerfreundliche Informationen genau dort zur Verfügung zu stellen, wo sie sie brauchen, und gleichzeitig ihre Privatsphäre zu schützen“, erklärte Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Jetzt werden die Modelle, die Apple Intelligence antreiben, immer leistungsfähiger und effizienter, und wir integrieren die Funktionen an noch mehr Stellen in jedem unserer Betriebssysteme.” Oder kurz: Entwickler können jetzt dank des Foundation Model Framework die Apple Intelligence APIs nutzen, um deren Tools in ihre Apps einzubauen. Entwickler können sich auch auf Xcode 26 freuen, das dank der eingebauten Unterstützung für ChatGPT große Sprachmodelle (LLMs) direkt in ihre Coding-Erfahrung einbinden kann. Alternativ können sie auch API-Schlüssel von anderen Anbietern verwenden oder lokale Modelle ausführen, um Xcode zu unterstützen. Wie Apple weiter bekannt gab, werden die Apple Intelligence-Funktionen bis Ende des Jahres für acht weitere Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch. Live-Übersetzung Die Live-Übersetzung ist ebenfalls weitreichend. Sie ist in Messages, FaceTime und iPhone integriert und läuft vollständig auf dem Gerät. Sie kann automatisch Nachrichten zwischen Sprachen übersetzen, bei FaceTime-Anrufen übersetzte Untertitel anbieten oder die Übersetzung während eines Telefongesprächs laut vorlesen. Apple hat auch ein neues System angekündigt, das die Barrierefreiheit in Apps unterstützen soll. Mit den Accessibility Nutrition Labels für die Produktseiten im App Store können Entwickler ihren Kunden mitteilen, welche Funktionen ihre Apps für die Barrierefreiheit unterstützen. (mb)
WWDC: Wie Apple sein Ökosystem verbessert srcset="https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?quality=50&strip=all 3840w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/Apple-WWDC25-iPadOS-26-hero-250609.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Die WWDC hatte auch 2025 Etliches für Business-Anwender zu bieten. Apple Das neue Design der Benutzeroberfläche, das Apple auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellte, mag ja eine kleine visuelle Ablenkung darstellen. Dennoch dachte Apple auch mit ein paar wichtigen Ankündigungen an die Business-Nutzer. Angesichts der zahlreichen angekündigten Änderungen war die WWDC-Keynote von Apple alles andere als die von vielen erwartete Enttäuschung. Neben der neuen Benutzeroberfläche Liquid Glass, die auf allen Apple-Produkten zu sehen sein wird, gab es unter anderem auch APIs für Entwickler, um KI in ihre Software zu integrieren. Letzteres ist ein Hinweis auf die langsamen Bemühungen des Unternehmens, Apple Intelligence zu der Vorzeigetechnologie zu machen, die auf der WWDC im letzten Jahr versprochen wurde. Aber zunächst einmal zu den Änderungen, die die größten Auswirkungen auf Unternehmensanwender haben dürften. iPad Nutzer von Apples iPads können künftig nicht nur mehrere App-Fenster gleichzeitig öffnen, Apple hat dafür außerdem ein cleveres und vielseitiges Fenstersystem entwickelt, das sogar eine Änderung der Größe, das Speichern der Position und mehr unterstützt. Diese Verbesserungen beim Multitasking und der Fensterverwaltung sollten die professionelle Arbeit auf einem iPad erheblich erleichtern und sind die Art von Verbesserungen, die sich die Leute seit Jahren gewünscht haben. Die Änderungen auf dem iPad erstrecken sich auch auf die Dateien-App, die wichtige und nützliche Updates erhält. Dateien für uns alle Alle Apple-Benutzer, nicht nur iPad-Besitzer, sollten von den Änderungen in der Dateien-App profitieren. Für iPad-Benutzer wird es damit einfacher, die benötigten Dateien zu finden und mit ihnen zu arbeiten. Gleichzeitig gibt es zusätzliche Sortieroptionen im Dateien-Fenster. Da es sich bei Dateien um eine App handelt, kann man davon ausgehen, dass zumindest einige dieser Verbesserungen auch auf anderen Apple-Geräten verfügbar sein werden. Profi-Anwender werden wahrscheinlich auch die neue Möglichkeit zu schätzen wissen, Ordner mit Symbolen, Emojis und Farben zu versehen. Die Transformation der Automatisierung Apple hat Verbesserungen bei den Kurzbefehlen (Shortcuts) eingeführt, darunter die Möglichkeit, sie zu erstellen und Spotlight zu verwenden, um sie zu identifizieren und aufzurufen. Und da sich die erstellten Shortcuts über alle Geräte hinweg synchronisieren lassen, können Benutzer leistungsstarke Produktivitäts-Shortcuts auf einem Gerät erstellen und auf einem anderen verwenden. Diese Integration spiegelt sich natürlich auch in der Liquid-Glass-Benutzeroberfläche wider, die den reibungslosen Wechsel vom Mac über das Tablet zum iPhone unterstützen soll. Spotlight entwickelt sich weiter Apple kündigte auch große Änderungen bei der Spotlight- Suche auf dem Mac an, einschließlich intelligenter Aktionen, die auf Shortcuts und Apple Intelligence basieren. Weiterhin gibt es neue Spotlight-Aktionen und -Schnelltasten. Letztere zeigen automatisch Aktionen an, die Sie mit einem in Spotlight ausgewählten Objekt vornehmen möchten, und übernehmen diese Aktionen aus der Suche heraus. Das ist sehr effektiv – Sie können damit etwa aus Spotlight heraus ein Objekt finden, es ändern, speichern und weitergeben. Die Software kann auch aus Ihrem Verhalten lernen und Ihnen personalisierte Aktionen für das anbieten, was Sie vielleicht tun möchten. „Während einer Suche werden jetzt alle Ergebnisse – einschließlich Dateien, Ordner, Ereignisse, Apps, Nachrichten und mehr – zusammen aufgelistet und intelligent nach Relevanz für den Benutzer sortiert“, so Apple. „Neue Filteroptionen schränken die Suche schnell auf genau das ein, was der Benutzer sucht, wie PDFs oder Mail-Nachrichten. Spotlight kann auch Ergebnisse für Dokumente anzeigen, die auf Cloud-Laufwerken von Drittanbietern gespeichert sind. Und wenn ein Benutzer nicht genau weiß, wonach er sucht, kann er mit den neuen Suchansichten von Spotlight ganz einfach seine Apps, Dateien, den Verlauf der Zwischenablage und vieles mehr durchsuchen.” Sie können auch Hunderte von Aktionen direkt in Spotlight durchführen, also etwa eine E-Mail senden oder eine Notiz schreiben. Viele dieser Funktionen werden zwar für den Mac beworben, aber Spotlight funktioniert auf allen Apple-Plattformen. Es wird also interessant sein zu sehen, wo diese Funktionen noch auftauchen werden, wenn die Beta-Tests beginnen und die zukünftige Unterstützung eingeführt wird. App Intents App Intents gibt es schon eine Weile, aber das Framework ermöglicht es Entwicklern jetzt, Aktionen in ihren Apps über Kurzbefehle (Shortcuts) oder Spotlight systemweit verfügbar zu machen. Das sollte nicht zuletzt die Arbeit an sich erleichtern. Wenn diese Verbesserungen in Apples Ökosystem Einzug halten, wird die schwierigste Aufgabe wahrscheinlich darin bestehen, sich zu merken, welche Aktionen Sie durchführen können. App Intents erhalten auch Unterstützung für visuelle Intelligenz, was Apps in die Lage versetzt, visuelle Suchergebnisse bereitzustellen und zu nutzen. Vision Pro Viele Unternehmen haben bereits Vision-Pro-Geräte im Einsatz und auch Apple verwies in seiner WWDC-Keynote auf die Möglichkeiten von Spatial Computing. Angesichts des hohen Preises dieser Geräte (ab 4.000 Euro) ist es eine willkommene Neuerung, dass es jetzt viel einfacher ist, sie in Arbeitsgruppen gemeinsam zu nutzen. Jeder Benutzer kann demnach sein eigenes Vision OS-Profil auf seinem iPhone speichern und dann das Vision-Gerät entsprechend einrichten. Apple hat auch ein neues Vision Pro Tool vorgestellt, mit dem man einen Inhalt als geschützten Inhalt speichern können. Damit soll sichergestellt werden, dass Inhalte, die auf einem Vision- Pro-Gerät freigegeben werden, nicht außerhalb des Unternehmens gelangen. Es gibt auch Unterstützung für ein neues Vision-Pro-Peripheriegerät, das nicht von Apple stammt. Logitech Muse ist ein neues Stift-/Steuerungsgerät für die Spatial Reality, mit dem man gemeinsam mit anderen an Projekten arbeiten und zeichnen kann. Look to Scroll wiederum ermöglicht es Benutzern, Apps und Websites nur mit ihren Augen zu erkunden. Dabei können sie die Scroll-Geschwindigkeit nach ihren Wünschen anpassen. Wenig überraschend werden auch Entwickler in der Lage sein, Look to Scroll in ihre visionOS-Apps zu integrieren. Apple Intelligence war überall Wenn man zwischen den Zeilen liest, kann man erkennen, dass künstliche Intelligenz tatsächlich überall in den WWDC-Ankündigungen dieses Jahres zu finden ist. Eine der größten Ankündigungen in diesem Zusammenhang deutet auf kontextbezogene Intelligenz hin, von der Apple schon früher berichtet hat: Visuelle Intelligenz versteht jetzt, was auf dem Bildschirm zu sehen ist, ermöglicht es, Fragen dazu zu stellen, nach bestimmten Objekten zu suchen oder Ereignisse zum Kalender hinzuzufügen. Apple hat es Entwicklern natürlich ermöglicht, Auch diese Funktion können Entwickler künftig in ihren Apps unterstützen. “Letztes Jahr haben wir die ersten Schritte unternommen, um den Nutzern hilfreiche, relevante und benutzerfreundliche Informationen genau dort zur Verfügung zu stellen, wo sie sie brauchen, und gleichzeitig ihre Privatsphäre zu schützen“, erklärte Craig Federighi, Senior Vice President of Software Engineering bei Apple. „Jetzt werden die Modelle, die Apple Intelligence antreiben, immer leistungsfähiger und effizienter, und wir integrieren die Funktionen an noch mehr Stellen in jedem unserer Betriebssysteme.” Oder kurz: Entwickler können jetzt dank des Foundation Model Framework die Apple Intelligence APIs nutzen, um deren Tools in ihre Apps einzubauen. Entwickler können sich auch auf Xcode 26 freuen, das dank der eingebauten Unterstützung für ChatGPT große Sprachmodelle (LLMs) direkt in ihre Coding-Erfahrung einbinden kann. Alternativ können sie auch API-Schlüssel von anderen Anbietern verwenden oder lokale Modelle ausführen, um Xcode zu unterstützen. Wie Apple weiter bekannt gab, werden die Apple Intelligence-Funktionen bis Ende des Jahres für acht weitere Sprachen verfügbar sein: Dänisch, Niederländisch, Norwegisch, Portugiesisch (Portugal), Schwedisch, Türkisch, Chinesisch (traditionell) und Vietnamesisch. Live-Übersetzung Die Live-Übersetzung ist ebenfalls weitreichend. Sie ist in Messages, FaceTime und iPhone integriert und läuft vollständig auf dem Gerät. Sie kann automatisch Nachrichten zwischen Sprachen übersetzen, bei FaceTime-Anrufen übersetzte Untertitel anbieten oder die Übersetzung während eines Telefongesprächs laut vorlesen. Apple hat auch ein neues System angekündigt, das die Barrierefreiheit in Apps unterstützen soll. Mit den Accessibility Nutrition Labels für die Produktseiten im App Store können Entwickler ihren Kunden mitteilen, welche Funktionen ihre Apps für die Barrierefreiheit unterstützen. (mb)