Skalierbare KI/ML-Infrastrukturen Evaluieren, Automatisieren, Praxis
€ 79,90
Sofort lieferbar
€ 79,90
Sofort verfügbar
nur € 84,90
Sofort verfügbar
Rheinwerk Computing, ISBN 978-3-8362-7393-0
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7394-7
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7396-1
E-Book-Formate: PDF, EPUB, Online
Rheinwerk Computing, ISBN 978-3-8362-7397-8
Moderne KI/ML-Modelle brauchen leistungsstarke Infrastrukturen. Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.
Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.
- Kubernetes- und OpenShift-Cluster mit NVIDIA-GPUs
- Skalierbare und resiliente Infrastrukturen in der Cloud oder On-Prem
- Vollautomation mit IaC und Operatoren
-
Zusatzmaterial
Im Zusatzmaterial finden Sie die Konfigurationsdateien der Beispielprojekte.
-
Best Practices für Planung und Umsetzung
Wenn Daten im Tera- oder Peta-Bereich verarbeitet werden müssen und Investitionen im sechs- oder siebenstelligen Bereich anstehen, ist durchdachte Planung unabdingbar. Mit Hintergrundwissen und fundierten Markteinschätzungen treffen Sie die richtigen Entscheidungen für zukunftssichere KI/ML-Projekte und haben alle Kostenfaktoren im Blick.
-
Bewährte Technologie-Stacks für praxistaugliche Setups
Sie arbeiten bereits mit Kubernetes und OpenShift? Dann wissen Sie, wie viel bei einer Cluster-Konfiguration schiefgehen kann. Oliver Liebel kennt komplexe Systeme aus jahrelanger Erfahrung und zeigt Ihnen mögliche Probleme und Fallstricke auf. Auf dieser Basis entsteht ein moderner Infrastruktur-Stack für KI-/ML-Anwendungen: sowohl in der Cloud als auch On-Premises.
-
Setzen Sie auf Industriestandards
Datacenter-GPUs von NVIDIA sind die Arbeitspferde moderner KI/ML-Infrastrukturen. In enger Zusammenarbeit mit NVIDIA wurden die vorgestellten Setups getestet und evaluiert. Profitieren Sie von dieser Praxiserfahrung und erfahren Sie, wie Sie leistungsstarke GPUs richtig in vollautomatisierte und skalierbare Container-Cluster integrieren.
-
Zuverlässig und automatisiert
Operator-gestützte Vollautomation ist ein Muss, um containerisierte KI/ML-Infrastrukturen skalierbar, resilient und kosteneffizient zu betreiben. Hands-on führen Sie zahlreiche Beispiele durch Konfigurationen von Praxissystemen, die durch ihren hohen Automationsgrad und Auto-Skalierbarkeit für aktuelle und zukünftige Anforderungen gerüstet sind.
Aus dem Inhalt
- KI/ML: Grundlagen und Use Cases
- Infrastruktur planen: On-Premises, Cloud oder Hybrid?
- Technischer Background: KI/ML mit NVIDIA-GPUs
- GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU
- NVIDIA-GPUs auf vSphere On-Prem implementieren
- NVIDIA AI Enterprise
- KI/ML-Cluster mit Kubernetes und OpenShift
- GPU-spezifische Operatoren
- GPU-Cluster mit OpenShift
- Von CI/CD über GitOps zu MLOps
- ML-Pipelines & AI End-to-End
Stimmen zum Buch
Diese Bücher könnten Sie auch interessieren
-
ChatGPT & Co. – Wie du KI richtig nutzt – schreiben, recherchieren, Bilder erstellen, programmieren
360 Seiten, broschiert, in Farbe
E-Book-Formate: PDF, EPUB, Online€ 24,90
Sofort verfügbar
E-Book
-
Hacking & Security – Das umfassende Handbuch
1200 Seiten, gebunden
E-Book-Formate: PDF, EPUB, Online€ 49,90
Sofort lieferbar
Buch | E-Book | Bundle
-
Grundkurs Machine Learning
256 Seiten, broschiert
E-Book-Formate: PDF, Online€ 29,90
Sofort lieferbar
Buch | E-Book | Bundle