Ready for Production

Skalierbare KI/ML-Infrastrukturen Evaluieren, Automatisieren, Praxis

ca. € 79,90

Vorbestellbar
Lieferbar ab 05.01.2023

ca. € 79,90

Vorbestellbar
Verfügbar ab 05.01.2023

ca. € 84,90

Vorbestellbar
Verfügbar ab 05.01.2023

468 Seiten, , gebunden
Rheinwerk Computing, ISBN 978-3-8362-7393-0
468 Seiten,
E-Book-Formate: PDF, EPUB, MOBI/Kindle, Online
Rheinwerk Computing, ISBN 978-3-8362-7394-7
468 Seiten, , gebunden
E-Book-Formate: PDF, EPUB, MOBI/Kindle, Online
Rheinwerk Computing, ISBN 978-3-8362-7396-1
468 Seiten,
E-Book-Formate: PDF, EPUB, MOBI/Kindle, Online
Rheinwerk Computing, ISBN 978-3-8362-7397-8

Moderne KI/ML-Modelle brauchen leistungsstarke Infrastrukturen. Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen, die im Unternehmenseinsatz und echten Business Cases bestehen.

Betrachtet wird der ganze Infrastruktur-Stack, mit Fokus auf effizienter Vollautomation: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.

  • Kubernetes- und OpenShift-Cluster mit NVIDIA-GPUs
  • Skalierbare und resiliente Infrastrukturen in der Cloud oder On-Prem
  • Vollautomation mit IaC und Operatoren
468 Seiten, gebunden, 35 mm. Breites Handbuchformat 19 x 24 cm, mit Lesebändchen. Schwarzweiß gedruckt auf 90g-Offsetpapier. Lesefreundliche Serifenschrift (TheAntiqua B 9,3 Pt.). Einspaltiges Layout.
E-Book zum Herunterladen in den Formaten PDF (12 MB), EPUB (12 MB) und MOBI/Kindle (25 MB) sowie als Onlinebuch. Dateien sind DRM-frei, mit personalisierter digitaler Signatur. Drucken, Copy & Paste sowie Kommentare sind zugelassen. Abbildungen in Farbe. Inhaltsverzeichnis, Index und Verweise im Text sind verlinkt. Weitere Informationen zum E-Book.

  1. Best Practices für Planung und Umsetzung

    Wenn Daten im Tera- oder Peta-Bereich verarbeitet werden müssen und Investitionen im sechs- oder siebenstelligen Bereich anstehen, ist durchdachte Planung unabdingbar. Mit Hintergrundwissen und fundierten Markteinschätzungen treffen Sie die richtigen Entscheidungen für zukunftssichere KI/ML-Projekte und haben alle Kostenfaktoren im Blick.

  2. Bewährte Technologie-Stacks für praxistaugliche Setups

    Sie arbeiten bereits mit Kubernetes und OpenShift? Dann wissen Sie, wie viel bei einer Cluster-Konfiguration schiefgehen kann. Oliver Liebel kennt komplexe Systeme aus jahrelanger Erfahrung und zeigt Ihnen mögliche Probleme und Fallstricke auf. Auf dieser Basis entsteht ein moderner Infrastruktur-Stack für KI-/ML-Anwendungen: sowohl in der Cloud als auch On-Premises.

  3. Setzen Sie auf Industriestandards

    Datacenter-GPUs von NVIDIA sind die Arbeitspferde moderner KI/ML-Infrastrukturen. In enger Zusammenarbeit mit NVIDIA wurden die vorgestellten Setups getestet und evaluiert. Profitieren Sie von dieser Praxiserfahrung und erfahren Sie, wie Sie leistungsstarke GPUs richtig in vollautomatisierte und skalierbare Container-Cluster integrieren.

  4. Zuverlässig und automatisiert

    Operator-gestützte Vollautomation ist ein Muss, um containerisierte KI/ML-Infrastrukturen skalierbar, resilient und kosteneffizient zu betreiben. Hands-on führen Sie zahlreiche Beispiele durch Konfigurationen von Praxissystemen, die durch ihren hohen Automationsgrad und Auto-Skalierbarkeit für aktuelle und zukünftige Anforderungen gerüstet sind.

Aus dem Inhalt

  • KI/ML: Grundlagen und Use Cases
  • Infrastruktur planen: On-Premises, Cloud oder Hybrid?
  • Technischer Background: KI/ML mit NVIDIA-GPUs
  • GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU
  • NVIDIA-GPUs auf vSphere On-Prem implementieren
  • NVIDIA AI Enterprise
  • KI/ML-Cluster mit Kubernetes und OpenShift
  • GPU-spezifische Operatoren
  • GPU-Cluster mit OpenShift
  • Von CI/CD über GitOps zu MLOps
  • ML-Pipelines & AI End-to-End
»
Profitieren Sie von Erfahrungen rund um den aktuellen Industriestandard in Sachen KI/ML.
«
Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte, Partner von Red Hat und SUSE und steht in engem Kontakt mit NVIDIAs EGX-Abteilung.
Autorenporträt

Diese Bücher könnten Sie auch interessieren

Buch

ca. € 79,90 inkl. MwSt.

Vorbestellbar
Lieferbar ab 05.01.2023

Kostenloser Versand nach Deutschland, Österreich und in die Schweiz

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

E-Book

ca. € 79,90 inkl. MwSt.

Vorbestellbar
Verfügbar ab 05.01.2023

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

Bundle Buch + E-Book

ca. € 84,90 inkl. MwSt.

Vorbestellbar
Verfügbar ab 05.01.2023

Kostenloser Versand nach Deutschland, Österreich und in die Schweiz

DSAG Mitglieder
Der Rabatt wird im Warenkorb sichtbar

Kostenloser Versand
nach Deutschland, Österreich und in die Schweiz
Bequem zahlen
Kreditkarte, Rechnung oder Bankeinzug
Schnelle Lieferung
Auch per Express