Weniger Latenz bei KI-Berechnungen verspricht AWS durch eine Bearbeitung in der Region. ArtemisDiana/Shutterstock.com Für seine neue Foundation-Modellgeneration hat Amazon regionale Verarbeitungsoptionen für die Regionen EU und Asia Pacific angekündigt. Mit regionenübergreifenden Inferenzprofilen können Anwender Anfragen automatisch über mehrere Regionen hinweg an Amazon Nova weiterleiten, wobei die Quellregion priorisiert wird, um die Latenz zu minimieren. In der EU stellt AWS drei Modelle der Nova-Familie in Rechenzentren in Frankfurt, Stockholm, Irland und Paris bereit. Die Data Center für den Asien-Pazifik-Raum stehen in Tokio, Seoul, Mumbai, Singapur, Sydney. Die Nova-Modelle Bei den drei Modellen der Nova-Familie handelt es sich um Nova Micro, Nova Lite und Nova Pro. Amazon Nova Micro ist ein reines Textmodell, das Antworten mit niedriger Latenz zu günstigen Kosten liefern soll. Es eignet sich hervorragend für Sprachverständnis, Übersetzung, Argumentation, Codevervollständigung, Brainstorming und mathematische Problemlösung. Amazon Nova Lite ist ein multimodales Modell, das Bild-, Video- und Texteingaben verarbeitet. Laut AWS eignet sich das Modell für eine Vielzahl interaktiver und umfangreicher Anwendungen, bei denen die Kosten eine wichtige Rolle spielen. Amazon Nova Pro ist ein hochleistungsfähiges multimodales Modell für eine Vielzahl von Aufgaben. Als typische Anwendungen nennt AWS etwa Videozusammenfassung, Fragen und Antworten, mathematisches Denken, Softwareentwicklung und KI-Agenten, die mehrstufige Workflows ausführen können. Keine Routing-Kosten AWS verspricht, dass bei der Nutzung von Cross-Region-Inferenzprofilen keine zusätzlichen Routing-Kosten anfallen. Vielmehr würden die Gebühren auf der Ursprungsregion der Anfrage basieren. Über die Region Frankfurt könnten Anwender so Nova-Modelle mit regionsübergreifender Inferenz nutzen. Glaubt man AWS, so sind die Modelle bis zu 75 Prozent günstiger als vergleichbare Angebote. Zudem seien die Nova-Modelle nahtlos in Amazon Bedrock integriert. Über den KI-Service sind auch diverse weitere Foundation Models von anderen KI-Unternehmen über eine einzige API verfügbar.
Amazon hostet Nova-KI auch in Frankfurt
Weniger Latenz bei KI-Berechnungen verspricht AWS durch eine Bearbeitung in der Region. ArtemisDiana/Shutterstock.com Für seine neue Foundation-Modellgeneration hat Amazon regionale Verarbeitungsoptionen für die Regionen EU und Asia Pacific angekündigt. Mit regionenübergreifenden Inferenzprofilen können Anwender Anfragen automatisch über mehrere Regionen hinweg an Amazon Nova weiterleiten, wobei die Quellregion priorisiert wird, um die Latenz zu minimieren. In der EU stellt AWS drei Modelle der Nova-Familie in Rechenzentren in Frankfurt, Stockholm, Irland und Paris bereit. Die Data Center für den Asien-Pazifik-Raum stehen in Tokio, Seoul, Mumbai, Singapur, Sydney. Die Nova-Modelle Bei den drei Modellen der Nova-Familie handelt es sich um Nova Micro, Nova Lite und Nova Pro. Amazon Nova Micro ist ein reines Textmodell, das Antworten mit niedriger Latenz zu günstigen Kosten liefern soll. Es eignet sich hervorragend für Sprachverständnis, Übersetzung, Argumentation, Codevervollständigung, Brainstorming und mathematische Problemlösung. Amazon Nova Lite ist ein multimodales Modell, das Bild-, Video- und Texteingaben verarbeitet. Laut AWS eignet sich das Modell für eine Vielzahl interaktiver und umfangreicher Anwendungen, bei denen die Kosten eine wichtige Rolle spielen. Amazon Nova Pro ist ein hochleistungsfähiges multimodales Modell für eine Vielzahl von Aufgaben. Als typische Anwendungen nennt AWS etwa Videozusammenfassung, Fragen und Antworten, mathematisches Denken, Softwareentwicklung und KI-Agenten, die mehrstufige Workflows ausführen können. Keine Routing-Kosten AWS verspricht, dass bei der Nutzung von Cross-Region-Inferenzprofilen keine zusätzlichen Routing-Kosten anfallen. Vielmehr würden die Gebühren auf der Ursprungsregion der Anfrage basieren. Über die Region Frankfurt könnten Anwender so Nova-Modelle mit regionsübergreifender Inferenz nutzen. Glaubt man AWS, so sind die Modelle bis zu 75 Prozent günstiger als vergleichbare Angebote. Zudem seien die Nova-Modelle nahtlos in Amazon Bedrock integriert. Über den KI-Service sind auch diverse weitere Foundation Models von anderen KI-Unternehmen über eine einzige API verfügbar.
Amazon hostet Nova-KI auch in Frankfurt Weniger Latenz bei KI-Berechnungen verspricht AWS durch eine Bearbeitung in der Region. ArtemisDiana/Shutterstock.com Für seine neue Foundation-Modellgeneration hat Amazon regionale Verarbeitungsoptionen für die Regionen EU und Asia Pacific angekündigt. Mit regionenübergreifenden Inferenzprofilen können Anwender Anfragen automatisch über mehrere Regionen hinweg an Amazon Nova weiterleiten, wobei die Quellregion priorisiert wird, um die Latenz zu minimieren. In der EU stellt AWS drei Modelle der Nova-Familie in Rechenzentren in Frankfurt, Stockholm, Irland und Paris bereit. Die Data Center für den Asien-Pazifik-Raum stehen in Tokio, Seoul, Mumbai, Singapur, Sydney. Die Nova-Modelle Bei den drei Modellen der Nova-Familie handelt es sich um Nova Micro, Nova Lite und Nova Pro. Amazon Nova Micro ist ein reines Textmodell, das Antworten mit niedriger Latenz zu günstigen Kosten liefern soll. Es eignet sich hervorragend für Sprachverständnis, Übersetzung, Argumentation, Codevervollständigung, Brainstorming und mathematische Problemlösung. Amazon Nova Lite ist ein multimodales Modell, das Bild-, Video- und Texteingaben verarbeitet. Laut AWS eignet sich das Modell für eine Vielzahl interaktiver und umfangreicher Anwendungen, bei denen die Kosten eine wichtige Rolle spielen. Amazon Nova Pro ist ein hochleistungsfähiges multimodales Modell für eine Vielzahl von Aufgaben. Als typische Anwendungen nennt AWS etwa Videozusammenfassung, Fragen und Antworten, mathematisches Denken, Softwareentwicklung und KI-Agenten, die mehrstufige Workflows ausführen können. Keine Routing-Kosten AWS verspricht, dass bei der Nutzung von Cross-Region-Inferenzprofilen keine zusätzlichen Routing-Kosten anfallen. Vielmehr würden die Gebühren auf der Ursprungsregion der Anfrage basieren. Über die Region Frankfurt könnten Anwender so Nova-Modelle mit regionsübergreifender Inferenz nutzen. Glaubt man AWS, so sind die Modelle bis zu 75 Prozent günstiger als vergleichbare Angebote. Zudem seien die Nova-Modelle nahtlos in Amazon Bedrock integriert. Über den KI-Service sind auch diverse weitere Foundation Models von anderen KI-Unternehmen über eine einzige API verfügbar.