AWS-CEO Matt Garman geleitete die Gäste der diesjährigen Hausmesse re:Invent durch drei Stunden Ankündigungen. Amazon Web Services Die Keynote der hauseigenen Konferenzmesse re:Invent 2024 in Las Vegas war eigentlich keine Keynote, sondern ein dreistündiger Ankündigungsmarathon. AWS-CEO Matt Garman sprach über deutlich mehr als 20 neue Produkte und Services. Amazons neue KI-Modellfamilie Allerdings durfte er die größte Neuigkeit, die Verfügbarkeit einer eigenen KI-Modellfamilie, nicht verkünden. Das übernahm Amazon-Chef Andy Jassy höchstpersönlich: Amazon schickt jetzt mit Nova seine eigene Foundation-Model-Familie ins Feld. Bislang zählt diese fünf Mitglieder: Nova Micro ist ein Text-Only-Modell, das nach Amazon-Aussagen die schnellsten und preiswertesten Antworten liefert. Nova Lite ist ein preiswertes, multimodales Modell, das sehr schnell Bild-, Video- und Text-Inputs verarbeiten kann. Nova Pro ist ebenfalls multimodal, dabei laut Amazon jedoch genauer und schneller als Nova Lite – aber offenbar auch teurer. Nova Canvas ist ein auf Bildgenerierung ausgerichtetes Modell. Nova Reel ist schließlich dafür vorgesehen, Videos zu generieren. Im Gegensatz zu Nova Micro, Lite und Pro sind Canvas und Reel noch nicht verfügbar. Sie erscheinen wohl im ersten Quartal 2025. Jassy berichtete von Benchmarks gegen die Foundation Models anderer Anbieter. Nova schneide zwar nicht überall am besten ab, sei aber sehr wettbewerbsfähig. KI-Handling soll einfacher werden Neben Nova spielte im AWS-Ankündigungsmarathon die einfachere Handhabung von KI- und Analytics-Services eine zentrale Rolle. Es gehe auch darum, so AWS-CEO Garman, die Nutzung von KI und Analytics in Applikationen einfacher zu gestalten. Künftig würden viele Applikationen nicht mehr ohne sogenannte Inference-Features auskommen, also Fähigkeiten, mit denen Anwendungen auf Basis zur Verfügung stehender Daten Schlussfolgerungen ziehen können. Eine dieser Möglichkeiten, um AI stärker in die produktiven Systeme und Applikationen zu integrieren, stellt Bedrock dar. Mit dieser Machine-Learning-Plattform lassen sich generative KI-Lösungen erstellen. Sie stellt Nutzern verschiedene Foundation-Modelle zur Verfügung (demnächst auch für die Nova-Familie) – unter anderem von: AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Für Bedrock kündigte Garman ebenfalls zahlreiche Neuerungen an. Sie reichen von Hilfen zur Fehlervermeidung über den Einsatz von AI-basierten Agenten, die komplexe Aufgaben erfüllen, bis hin zur Generierung aufgabenspezifischer, kleinerer Modelle. Diese können in ihrem Aufgabenbereich ähnlich viel wie die großen Foundation-Modelle, kosten aber viel weniger und weisen kürzere Antwortzeiten auf. Mit der Automated-Reasoning-Funktion lässt sich zum Beispiel mit Hilfe von mathematischen Verfahren überprüfen, ob die Ergebnisse, die eine KI ausspuckt, realistisch sind oder ob es sich um Halluzinationen handelt. Autonome Agenten für Q Developer Außer Bedrock bildete auf der re:Invent die Entwicklerplattform Q Developer einen Schwerpunkt. Unter anderem bietet der Hyperscaler in diesem Bereich jetzt drei autonome Agenten an, die: Unittests automatisch generieren und anwenden; Dokumentationen für Anwendungssoftware entweder komplett neu erstellen oder bestehende, aber lückenhafte Dokumentationen überprüfen und komplementieren; sowie Code Reviews ausführen. Entwickelter Code wird dabei nicht nur überprüft, sondern der Agent schlägt auch Korrekturen vor. So steigt die Code-Qualität erheblich, schon bevor ein menschlicher Reviewer ihn zu Gesicht bekommt, verspricht AWS. Darüber hinaus wird es Agenten geben, die alte .Net-Applikationen automatisch auf Linux oder alte Cobol-Mainframe-Anwendungen auf Java migrieren. Kombi aus Analytics und AI Heute nutzen Kunden Amazon SageMaker, um Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Die gleichen Kunden nutzen zudem Analytics-Services von AWS. Jetzt kombiniert das Unternehmen beides in SageMaker Next Generation. Die Lösung bietet mit Unified Studio eine Entwicklungsumgebung, die es ermöglicht, Daten siloübergreifend zu finden und zugänglich zu machen. So lassen sich Analytics-, Machine-Learning- und KI-Fähigkeiten kombinieren. AWS entwickelt sich immer mehr zu einem globalen Rundum-Compute- und Digitalisierungsdienstleister. Das belegen auch die zahlreichen Ankündigungen, die CEO Garman in Sachen Hardware machte. So ist die eigene CPU Graviton jetzt in der 4. Generation erhältlich. Auch der speziell für Machine Learning entwickelte Trainium-Chip ist ab sofort in seiner 2. Version generell verfügbar. Sein Nachfolger Trainium 3 wurde für das kommende Jahr in Aussicht gestellt. Auf Basis der Trainium bietet AWS auch die neuen TRN2 Ultraserver an, die in der Lage sind, die ganz großen KI-Modelle auf einem Server zu bearbeiten. (mb)
AWS mausert sich zum globalen KI-Ökosystem
AWS-CEO Matt Garman geleitete die Gäste der diesjährigen Hausmesse re:Invent durch drei Stunden Ankündigungen. Amazon Web Services Die Keynote der hauseigenen Konferenzmesse re:Invent 2024 in Las Vegas war eigentlich keine Keynote, sondern ein dreistündiger Ankündigungsmarathon. AWS-CEO Matt Garman sprach über deutlich mehr als 20 neue Produkte und Services. Amazons neue KI-Modellfamilie Allerdings durfte er die größte Neuigkeit, die Verfügbarkeit einer eigenen KI-Modellfamilie, nicht verkünden. Das übernahm Amazon-Chef Andy Jassy höchstpersönlich: Amazon schickt jetzt mit Nova seine eigene Foundation-Model-Familie ins Feld. Bislang zählt diese fünf Mitglieder: Nova Micro ist ein Text-Only-Modell, das nach Amazon-Aussagen die schnellsten und preiswertesten Antworten liefert. Nova Lite ist ein preiswertes, multimodales Modell, das sehr schnell Bild-, Video- und Text-Inputs verarbeiten kann. Nova Pro ist ebenfalls multimodal, dabei laut Amazon jedoch genauer und schneller als Nova Lite – aber offenbar auch teurer. Nova Canvas ist ein auf Bildgenerierung ausgerichtetes Modell. Nova Reel ist schließlich dafür vorgesehen, Videos zu generieren. Im Gegensatz zu Nova Micro, Lite und Pro sind Canvas und Reel noch nicht verfügbar. Sie erscheinen wohl im ersten Quartal 2025. Jassy berichtete von Benchmarks gegen die Foundation Models anderer Anbieter. Nova schneide zwar nicht überall am besten ab, sei aber sehr wettbewerbsfähig. KI-Handling soll einfacher werden Neben Nova spielte im AWS-Ankündigungsmarathon die einfachere Handhabung von KI- und Analytics-Services eine zentrale Rolle. Es gehe auch darum, so AWS-CEO Garman, die Nutzung von KI und Analytics in Applikationen einfacher zu gestalten. Künftig würden viele Applikationen nicht mehr ohne sogenannte Inference-Features auskommen, also Fähigkeiten, mit denen Anwendungen auf Basis zur Verfügung stehender Daten Schlussfolgerungen ziehen können. Eine dieser Möglichkeiten, um AI stärker in die produktiven Systeme und Applikationen zu integrieren, stellt Bedrock dar. Mit dieser Machine-Learning-Plattform lassen sich generative KI-Lösungen erstellen. Sie stellt Nutzern verschiedene Foundation-Modelle zur Verfügung (demnächst auch für die Nova-Familie) – unter anderem von: AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Für Bedrock kündigte Garman ebenfalls zahlreiche Neuerungen an. Sie reichen von Hilfen zur Fehlervermeidung über den Einsatz von AI-basierten Agenten, die komplexe Aufgaben erfüllen, bis hin zur Generierung aufgabenspezifischer, kleinerer Modelle. Diese können in ihrem Aufgabenbereich ähnlich viel wie die großen Foundation-Modelle, kosten aber viel weniger und weisen kürzere Antwortzeiten auf. Mit der Automated-Reasoning-Funktion lässt sich zum Beispiel mit Hilfe von mathematischen Verfahren überprüfen, ob die Ergebnisse, die eine KI ausspuckt, realistisch sind oder ob es sich um Halluzinationen handelt. Autonome Agenten für Q Developer Außer Bedrock bildete auf der re:Invent die Entwicklerplattform Q Developer einen Schwerpunkt. Unter anderem bietet der Hyperscaler in diesem Bereich jetzt drei autonome Agenten an, die: Unittests automatisch generieren und anwenden; Dokumentationen für Anwendungssoftware entweder komplett neu erstellen oder bestehende, aber lückenhafte Dokumentationen überprüfen und komplementieren; sowie Code Reviews ausführen. Entwickelter Code wird dabei nicht nur überprüft, sondern der Agent schlägt auch Korrekturen vor. So steigt die Code-Qualität erheblich, schon bevor ein menschlicher Reviewer ihn zu Gesicht bekommt, verspricht AWS. Darüber hinaus wird es Agenten geben, die alte .Net-Applikationen automatisch auf Linux oder alte Cobol-Mainframe-Anwendungen auf Java migrieren. Kombi aus Analytics und AI Heute nutzen Kunden Amazon SageMaker, um Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Die gleichen Kunden nutzen zudem Analytics-Services von AWS. Jetzt kombiniert das Unternehmen beides in SageMaker Next Generation. Die Lösung bietet mit Unified Studio eine Entwicklungsumgebung, die es ermöglicht, Daten siloübergreifend zu finden und zugänglich zu machen. So lassen sich Analytics-, Machine-Learning- und KI-Fähigkeiten kombinieren. AWS entwickelt sich immer mehr zu einem globalen Rundum-Compute- und Digitalisierungsdienstleister. Das belegen auch die zahlreichen Ankündigungen, die CEO Garman in Sachen Hardware machte. So ist die eigene CPU Graviton jetzt in der 4. Generation erhältlich. Auch der speziell für Machine Learning entwickelte Trainium-Chip ist ab sofort in seiner 2. Version generell verfügbar. Sein Nachfolger Trainium 3 wurde für das kommende Jahr in Aussicht gestellt. Auf Basis der Trainium bietet AWS auch die neuen TRN2 Ultraserver an, die in der Lage sind, die ganz großen KI-Modelle auf einem Server zu bearbeiten. (mb)
AWS mausert sich zum globalen KI-Ökosystem AWS-CEO Matt Garman geleitete die Gäste der diesjährigen Hausmesse re:Invent durch drei Stunden Ankündigungen. Amazon Web Services Die Keynote der hauseigenen Konferenzmesse re:Invent 2024 in Las Vegas war eigentlich keine Keynote, sondern ein dreistündiger Ankündigungsmarathon. AWS-CEO Matt Garman sprach über deutlich mehr als 20 neue Produkte und Services. Amazons neue KI-Modellfamilie Allerdings durfte er die größte Neuigkeit, die Verfügbarkeit einer eigenen KI-Modellfamilie, nicht verkünden. Das übernahm Amazon-Chef Andy Jassy höchstpersönlich: Amazon schickt jetzt mit Nova seine eigene Foundation-Model-Familie ins Feld. Bislang zählt diese fünf Mitglieder: Nova Micro ist ein Text-Only-Modell, das nach Amazon-Aussagen die schnellsten und preiswertesten Antworten liefert. Nova Lite ist ein preiswertes, multimodales Modell, das sehr schnell Bild-, Video- und Text-Inputs verarbeiten kann. Nova Pro ist ebenfalls multimodal, dabei laut Amazon jedoch genauer und schneller als Nova Lite – aber offenbar auch teurer. Nova Canvas ist ein auf Bildgenerierung ausgerichtetes Modell. Nova Reel ist schließlich dafür vorgesehen, Videos zu generieren. Im Gegensatz zu Nova Micro, Lite und Pro sind Canvas und Reel noch nicht verfügbar. Sie erscheinen wohl im ersten Quartal 2025. Jassy berichtete von Benchmarks gegen die Foundation Models anderer Anbieter. Nova schneide zwar nicht überall am besten ab, sei aber sehr wettbewerbsfähig. KI-Handling soll einfacher werden Neben Nova spielte im AWS-Ankündigungsmarathon die einfachere Handhabung von KI- und Analytics-Services eine zentrale Rolle. Es gehe auch darum, so AWS-CEO Garman, die Nutzung von KI und Analytics in Applikationen einfacher zu gestalten. Künftig würden viele Applikationen nicht mehr ohne sogenannte Inference-Features auskommen, also Fähigkeiten, mit denen Anwendungen auf Basis zur Verfügung stehender Daten Schlussfolgerungen ziehen können. Eine dieser Möglichkeiten, um AI stärker in die produktiven Systeme und Applikationen zu integrieren, stellt Bedrock dar. Mit dieser Machine-Learning-Plattform lassen sich generative KI-Lösungen erstellen. Sie stellt Nutzern verschiedene Foundation-Modelle zur Verfügung (demnächst auch für die Nova-Familie) – unter anderem von: AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Für Bedrock kündigte Garman ebenfalls zahlreiche Neuerungen an. Sie reichen von Hilfen zur Fehlervermeidung über den Einsatz von AI-basierten Agenten, die komplexe Aufgaben erfüllen, bis hin zur Generierung aufgabenspezifischer, kleinerer Modelle. Diese können in ihrem Aufgabenbereich ähnlich viel wie die großen Foundation-Modelle, kosten aber viel weniger und weisen kürzere Antwortzeiten auf. Mit der Automated-Reasoning-Funktion lässt sich zum Beispiel mit Hilfe von mathematischen Verfahren überprüfen, ob die Ergebnisse, die eine KI ausspuckt, realistisch sind oder ob es sich um Halluzinationen handelt. Autonome Agenten für Q Developer Außer Bedrock bildete auf der re:Invent die Entwicklerplattform Q Developer einen Schwerpunkt. Unter anderem bietet der Hyperscaler in diesem Bereich jetzt drei autonome Agenten an, die: Unittests automatisch generieren und anwenden; Dokumentationen für Anwendungssoftware entweder komplett neu erstellen oder bestehende, aber lückenhafte Dokumentationen überprüfen und komplementieren; sowie Code Reviews ausführen. Entwickelter Code wird dabei nicht nur überprüft, sondern der Agent schlägt auch Korrekturen vor. So steigt die Code-Qualität erheblich, schon bevor ein menschlicher Reviewer ihn zu Gesicht bekommt, verspricht AWS. Darüber hinaus wird es Agenten geben, die alte .Net-Applikationen automatisch auf Linux oder alte Cobol-Mainframe-Anwendungen auf Java migrieren. Kombi aus Analytics und AI Heute nutzen Kunden Amazon SageMaker, um Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Die gleichen Kunden nutzen zudem Analytics-Services von AWS. Jetzt kombiniert das Unternehmen beides in SageMaker Next Generation. Die Lösung bietet mit Unified Studio eine Entwicklungsumgebung, die es ermöglicht, Daten siloübergreifend zu finden und zugänglich zu machen. So lassen sich Analytics-, Machine-Learning- und KI-Fähigkeiten kombinieren. AWS entwickelt sich immer mehr zu einem globalen Rundum-Compute- und Digitalisierungsdienstleister. Das belegen auch die zahlreichen Ankündigungen, die CEO Garman in Sachen Hardware machte. So ist die eigene CPU Graviton jetzt in der 4. Generation erhältlich. Auch der speziell für Machine Learning entwickelte Trainium-Chip ist ab sofort in seiner 2. Version generell verfügbar. Sein Nachfolger Trainium 3 wurde für das kommende Jahr in Aussicht gestellt. Auf Basis der Trainium bietet AWS auch die neuen TRN2 Ultraserver an, die in der Lage sind, die ganz großen KI-Modelle auf einem Server zu bearbeiten. (mb)