Oliver Liebel

Skalierbare KI/ML-Infrastrukturen

NVIDIA-GPUs in Container-Systemen - Expertenwissen zur Evaluierung, Automatisierung und für die Praxis. 'Rheinwerk Computing'.
gebunden , 468 Seiten
ISBN 3836273934
EAN 9783836273930
Veröffentlicht Januar 2023
Verlag/Hersteller Rheinwerk Verlag GmbH
Leseprobe öffnen

Auch erhältlich als:

epub eBook
79,90
79,90 inkl. MwSt.
Sofort lieferbar (Versand mit Deutscher Post/DHL)
Teilen
Beschreibung

Wie Sie abseits der Hypes resiliente, hochautomatisierte und autoskalierbare Systeme für Produktiv-Workloads aufbauen, zeigt Ihnen Oliver Liebel in diesem Wegweiser. Sie erfahren, wie Sie NVIDIAs Datacenter-GPUs nahtlos in Hypervisoren und moderne Container-Infrastrukturen integrieren, sie Operator-gestützt mit Kubernetes bzw. OpenShift verwalten und daraus praxistaugliche Setups machen.
Betrachtet wird der ganze Infrastruktur-Stack: Von On-Premises-Installationen auf vSphere oder Cloud-Setups auf GCP und AWS über Plattform-Automation per IaaS/IaC sowie den GPU- und Network-Operatoren bis hin zu einem Ausblick auf AI End-to-End-Tool-Stacks. Aus dem Inhalt:

- KI/ML: Grundlagen und Use Cases - Infrastruktur planen: On-Premises, Cloud oder Hybrid? - Technischer Background: KI/ML mit NVIDIA-GPUs - GPU-Modi: Passthrough-MIG vs. MIG-backed vGPU vs. vGPU - NVIDIA-GPUs auf vSphere On-Prem implementieren - NVIDIA AI Enterprise - KI/ML-Cluster mit Kubernetes und OpenShift - GPU-spezifische Operatoren - GPU-Cluster mit OpenShift - Von CI/CD über GitOps zu MLOps - ML-Pipelines & AI End-to-End
Portrait

Dipl.-Ing. Oliver Liebel ist LPI-zertifizierter Linux-Enterprise-Experte und
offizieller Business Partner von SUSE und Red Hat. Als Dozent, Autor, Berater und Projektleiter ist er seit vielen Jahren für namhafte Unternehmen, internationale Konzerne und Institutionen auf Landes- und Bundesebene tätig. Dabei blickt er auf 25 Jahre Berufserfahrung zurück.