Führen Sie die anspruchsvollsten KI-Workloads schneller aus, einschließlich generativer KI, Computer Vision und prädiktiver Analysen, überall in unserer verteilten Cloud. Holen Sie sich das neueste GPU-Compute, skalierbar auf den Oracle Cloud Infrastructure (OCI) Supercluster mit 32.768 GPUs.
Die KI-Infrastruktur von OCI bietet die höchste Performance und den besten Wert für alle KI-Workloads, einschließlich Inferenzierung, Training und KI-Assistenten.
Nur OCI Supercluster bietet eine branchenführende Skalierung mit Bare Metal-Compute, sodass Sie das Training für KI-Modelle mit Billionen von Parametern beschleunigen können.
Die verteilte Cloud von Oracle ermöglicht Ihnen, KI-Infrastrukturen überall bereitzustellen, um die Anforderungen an Performance, Sicherheit und KI-Souveränität zu erfüllen.
Ganz gleich, ob Sie Inferenzen oder Feinabstimmungen durchführen oder große Scale-Out-Modelle für generative KI trainieren möchten, OCI bietet branchenführende Bare Metal- und Virtual-Machine-GPU-Cluster-Optionen, die von einem Netzwerk mit extrem hoher Bandbreite und Hochleistungsspeicher unterstützt werden und Ihren KI-Anforderungen entsprechen.
Bare Metal- und VM-Computing mit NVIDIA A10 Tensor Core GPU, GH200 Grace Hopper Superchip* und GB200 NVL72* ermöglichen KI-Inferenzierung, Feinabstimmung und Training.
Bare Metal-Computing mit NVIDIA A100, H100, H200* und B200* Tensor Core GPUs beschleunigt KI-Training und Inferenzierung in großem Maßstab.
RDMA mit dedizierten Cluster-Netzwerken ermöglicht eine KI-Infrastruktur und bietet Latenz im Mikrosekundenbereich sowie eine Bandbreite von 1,6 Tbit/s zwischen den Knoten.
Der Speicher für die KI-Infrastruktur umfasst lokal angeschlossenen NVMe-Speicher für anspruchsvolle KI-Workloads und Cluster-Dateisysteme wie BeeGFS, Lustre und WEKA.
* Demnächst verfügbar
Mit OCI Supercluster können Sie bis zu 32.768 Grafikprozessoren pro Cluster einsetzen und dabei RDMA-Cluster-Networking und lokalen Speicher nutzen, um schnelles Training und Inferencing für umfangreiche KI-Modelle zu erreichen.
Über OCI Supercluster können Kunden auf lokalen, Block-, Objekt- und Dateispeicher für Exascale-Computing zugreifen. Unter den großen Cloud-Providern bietet OCI die größte Kapazität an lokalem NVMe-Hochleistungsspeicher für häufigeres Checkpointing während der Trainingsläufe, was zu einer schnelleren Wiederherstellung nach Ausfällen führt.
HPC-Dateisysteme wie BeeGFS, GlusterFS, Lustre und WEKA können für das KI-Training in großem Maßstab ohne Leistungseinbußen verwendet werden.
Hochgeschwindigkeits-RDMA-Clusternetzwerke auf Basis der ConnectX-5 100-Gbit/s-Netzwerkschnittstellenkarten von Mellanox mit RDMA über Converged Ethernet v2 ermöglichen Ihnen die Erstellung großer Cluster von GPU-Instanzen mit der gleichen extrem niedrigen Latenzzeit und Anwendungsskalierbarkeit, die Sie On-Premises erwarten.
Sie zahlen keinen Aufpreis für RDMA-Fähigkeit, Blockspeicher oder Netzwerkbandbreite und die ersten 10 TB Daten-Egress sind kostenlos.
OCI-Bare Metal-Instanzen mit NVIDIA H100- und A100-GPUs ermöglichen Kunden die Ausführung großer KI-Modelle wie Deep Learning, dialogorientierte KI und generative KI. Mit Supercluster können Kunden bis zu 32.768 A100-GPUs pro Cluster skalieren.
Sehen Sie sich an, wie Chief Technical Architect Pradeep Vincent erklärt, wie OCI Supercluster das Training und Inferenzieren von ML-Modellen unterstützt und auf Zehntausende von NVIDIA-GPUs skaliert.
Trainieren Sie KI-Modelle auf OCI Bare Metal-Instanzen, die von GPUs, RDMA-Cluster-Netzwerken und OCI Data Science unterstützt werden.
Der Schutz der Milliarden von Finanztransaktionen, die jeden Tag stattfinden, erfordert bessere KI-Tools, die große Mengen historischer Kundendaten analysieren können. KI-Modelle, die auf OCI Compute powered by NVIDIA GPUs zusammen mit Modellmanagement-Tools wie OCI Data Science und anderen Open-Source-Modellen laufen, helfen Finanzinstituten bei der Betrugsbekämpfung.
KI wird häufig zur Analyse verschiedener medizinischer Bilder (z. B. Röntgenbilder und MRTs) in Krankenhäusern eingesetzt. Trainierte Modelle können dabei helfen, Fälle zu priorisieren, die eine sofortige Überprüfung durch einen Radiologen erfordern, und aussagekräftige Ergebnisse für andere melden.
Die Entdeckung von Arzneimitteln ist ein zeitaufwendiger und teurer Prozess, der viele Jahre dauern und Millionen von Dollar kosten kann. Durch den Einsatz von KI-Infrastrukturen und -Analysen können Forscher die Arzneimittelentdeckung beschleunigen. Darüber hinaus ermöglicht OCI Compute powered by NVIDIA GPUs zusammen mit KI-Workflow-Management-Tools wie BioNeMo den Kunden, ihre Daten zu kuratieren und vorzuverarbeiten.
Oracle bietet Ihnen eine kostenlose Preisstufe für die meisten KI-Services sowie einen Testaccount mit einem Guthaben in Höhe von 300 US-Dollar, um zusätzliche Cloud-Services zu testen. KI-Services sind eine Sammlung von Services mit vordefinierten Machine Learning-(ML-)Modellen, die es Entwicklern erleichtern, KI auf Anwendungen und Geschäftsabläufe anzuwenden.
Sie müssen dabei nur die Compute- und Speichergebühren für OCI Data Science bezahlen.
Erfahren Sie mehr über RDMA-Cluster-Networking, GPU-Instanzen, Bare Metal-Server und vieles mehr.
Die Tarife für Oracle Cloud sind unkompliziert, mit weltweit konsequent niedrigen Tarifen und zahlreichen unterstützten Anwendungsfällen. Um den für Sie zutreffenden, niedrigen Tarif zu berechnen, gehen Sie zum Kostenrechner und konfigurieren Sie die Services entsprechend Ihrer Anforderungen.
Holen Sie sich Hilfe beim Aufbau Ihrer nächsten KI-Lösung oder bei der Bereitstellung Ihrer Workloads auf der KI-Infrastruktur von OCI.