Skalierbare KI/ML-Infrastrukturen von Oliver Liebel | NVIDIA-GPUs in Container-Systemen – Expertenwissen zur Evaluierung, Automatisierung und für die Praxis | ISBN 9783836273930

Skalierbare KI/ML-Infrastrukturen

NVIDIA-GPUs in Container-Systemen – Expertenwissen zur Evaluierung, Automatisierung und für die Praxis

von Oliver Liebel
Buchcover Skalierbare KI/ML-Infrastrukturen | Oliver Liebel | EAN 9783836273930 | ISBN 3-8362-7393-4 | ISBN 978-3-8362-7393-0
Inhaltsverzeichnis 1
Im Rahmen dieser Buchbesprechung ist es gerade einmal möglich, an der Oberfläche von Oliver Liebels Werk zu kratzen. Das liegt weniger an den rund 470 Seiten, als vielmehr am wahrlich komprimierten Inhalt, den der Autor verständlich vermittelt. Er führt Schritt für Schritt durch das Planen und Aufbauen einer eigenen ML/KI-Infrastruktur, ohne unnötige Worte zu verlieren. Auf den Punkt geschrieben, setzt er allerdings Vorkenntnisse in Sachen IT-Administration, Virtualisierung wie auch Cluster voraus.
Sehr gut für den Admin- bzw. DevOps-Bereich in mittleren oder größeren Enterprise-Umgebungen geeignet.

Skalierbare KI/ML-Infrastrukturen

NVIDIA-GPUs in Container-Systemen – Expertenwissen zur Evaluierung, Automatisierung und für die Praxis

von Oliver Liebel
Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen. Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks.
Aus dem Inhalt:
KI/ML: Grundlagen und Use Cases Infrastruktur planen: On-Premises, Cloud oder Hybrid? Technischer Background: KI/ML mit NVIDIA-GPUs GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU NVIDIA-GPUs auf vSphere On-Prem implementieren NVIDIA AI Enterprise KI/ML-Cluster mit Kubernetes und OpenShift GPU-spezifische Operatoren GPU-Cluster mit OpenShift Von CI/CD über GitOps zu MLOps ML-Pipelines & AI End-to-End