Открыто

Инфраструктура ИИ NVIDIA и подготовка к NCA-AIIO [Udemy] [Ashish Prajapati]

Тема в разделе "Курсы по администрированию", создана пользователем Топикстартер, 10 апр 2026.

Основной список: 1 участников

  1. 10 апр 2026
    #1
    Топикстартер
    Топикстартер ЧКЧлен клуба

    Складчина: Инфраструктура ИИ NVIDIA и подготовка к NCA-AIIO [Udemy] [Ashish Prajapati]

    Master NVIDIA AI Infrastructure & Pass NCA-AIIO
    Язык: английский

    IMG_20260410_090722.png

    Курс по основам AI-инфраструктуры на базе решений NVIDIA и подготовке к сертификации NVIDIA Certified Associate: AI Infrastructure & Operations (NCA-AIIO).
    Подойдет начинающим специалистам, IT-специалистам, системным администраторам и DevOps-инженерам, которым нужно разобраться в устройстве современной AI-инфраструктуры: от роли GPU и архитектуры дата-центра до программного стека NVIDIA, мониторинга, сетевого взаимодействия и AI-workflows.

    Что будет в курсе:
    • основы AI, ML, DL и GenAI;
    • устройство AI-ориентированного дата-центра;
    • различия CPU, GPU и DPU;
    • сети и хранение данных в AI-инфраструктуре;
    • стек NVIDIA: DGX, BlueField, ConnectX, NVLink, InfiniBand, CUDA, NCCL, DCGM, NVIDIA-SMI и др.;
    • виртуализация GPU, vGPU и MIG;
    • AI-workflows, MLOps, Slurm и Kubernetes;
    • подготовка к экзамену NCA-AIIO.
    Требования:
    Специальный опыт в AI-инфраструктуре не требуется. Базовое понимание IT, оборудования и сетей будет полезно, но не обязательно.

    Для кого курс:

    Для IT-специалистов, начинающих инженеров, системных администраторов, DevOps-специалистов и всех, кто готовится к сертификации NVIDIA NCA-AIIO.

    Программа

    6 разделов • 72 лекции • Общая продолжительность 4 ч 40 мин
    Модуль 1
    • Движущие силы эволюции ИИ
    • Сценарии применения ИИ в различных отраслях
    • ИИ, МО, ГО, Генеративный ИИ
    • Аналогия для ИИ, МО, ГО, Генеративного ИИ
    • Модель Transformer
    Модуль 2 — Внутри центра обработки данных на базе ИИ
    • Внутри центра обработки данных на базе ИИ
    • Эффективность использования энергии (PUE)
    • Вычислительная мощность
    • ЦП и ГП
    • ЦП против ГП — Архитектурные различия
    • За пределами закона Мура
    • Блок обработки данных (DPU)
    • Сеть внутри центра обработки данных на базе ИИ
    • Сетевая инфраструктура
    • Ethernet против InfiniBand
    • Конвергентный Ethernet (CE)
    • Хранилище внутри центра обработки данных на базе ИИ
    • Облако против локальных решений (On-Prem)
    Модуль 3 — Технологический стек NVIDIA
    • NVIDIA: Движущая сила инноваций GPU для ИИ
    • Технологический стек NVIDIA
    • Уровень 1 — Физический уровень
    • GPU на графической карте
    • Платформа DGX
    • DGX SuperPOD
    • ConnectX
    • BlueField DPUs
    • Референсные архитектуры NVIDIA
    • Понимание ядер GPU
    • Сравнение ядер GPU
    • Платформа NVIDIA DGX — Хронология
    • Платформа DGX — Варианты развертывания
    • DGX A100 против H100
    • Уровень 2: Перемещение данных и ускорение ввода-вывода (I/O)
    • NVLink
    • InfiniBand
    • InfiniBand против Ethernet
    • DMA и RDMA
    • GPUDirect RDMA
    • GPUDirect Storage
    • Краткое сравнение
    • Уровень 3: ОС, драйвер и виртуализация
    • Драйверы GPU
    • Виртуализация GPU
    • vGPU против MIG - Часть 1
    • vGPU против MIG - Часть 2
    • Уровень 4: Основные библиотеки
    • Единая архитектура вычислительных устройств (CUDA)
    • Установка CUDA
    • Библиотека коллективных коммуникаций NVIDIA (NCCL)
    • NVLink, NVSwitch, PCIe, RDMA против NCCL
    • Уровень 5: Мониторинг и управление
    • NVIDIA-SMI
    • Менеджер GPU центра обработки данных (DCGM)
    • Base Command Manager
    • Что использовать?
    • Уровень 6: Приложения и отраслевые решения
    • Резюме
    • NVIDIA AI Enterprise: (ИИ-решения NVIDIA для предприятий)
    • NVIDIA AI Factory (Фабрика ИИ NVIDIA)
    Модуль 4 — Рабочие процессы ИИ
    • Рабочие процессы ИИ
    • Фреймворки машинного обучения
    • Ключевое отличие NVIDIA
    • Обучение моделей против Вывода моделей (Inference)
    • Планирование заданий против Оркестрации контейнеров
    • Slurm против Kubernetes
    • Интеграция NVIDIA
    • MLOps — Аналогия
    • Почему MLOps?
    • Инструменты NVIDIA для поддержки MLOps
    A course on the fundamentals of AI infrastructure based on NVIDIA solutions, designed to prepare learners for the NVIDIA Certified Associate: AI Infrastructure & Operations (NCA-AIIO) certification.

    It is suitable for beginners, IT professionals, system administrators, and DevOps engineers who want to understand how modern AI infrastructure works — from the role of GPUs and data center architecture to the NVIDIA software stack, monitoring, networking, and AI workflows.

    What the course covers:
    • the fundamentals of AI, ML, DL, and GenAI;
    • the structure of an AI-focused data center;
    • the differences between CPU, GPU, and DPU;
    • networking and storage in AI infrastructure;
    • the NVIDIA stack: DGX, BlueField, ConnectX, NVLink, InfiniBand, CUDA, NCCL, DCGM, NVIDIA-SMI, and more;
    • GPU virtualization, vGPU, and MIG;
    • AI workflows, MLOps, Slurm, and Kubernetes;
    • preparation for the NCA-AIIO exam.
    Requirements:

    No prior AI infrastructure experience is required; this course is suitable for beginners. Basic understanding of IT concepts, data centers, or enterprise computing is helpful but not mandatory.
    Familiarity with general IT hardware and networking concepts is useful.

    Who this course is for:

    IT professionals, junior engineers, system administrators, DevOps specialists, and anyone preparing for the NVIDIA NCA-AIIO certification.

    Course content

    6 sections • 72 lectures • 4h 40m total length

    Module 1
    • Drivers of AI evolution
    • AI use cases across industries
    • AI, ML, DL, Gen AI
    • Analogy for AI, ML, DL, Gen AI
    • Transformer Model
    Module 2 - Inside an AI centric Data Center
    • Inside an AI centric Data Center
    • Power Usage Effectiveness (PUE)
    • The Compute Power
    • CPU and GPU
    • CPU vs. GPU - Architectural difference
    • Beyond Moore's law
    • Data Processing Unit (DPU)
    • Network inside an AI centric Data Center
    • Network fabric
    • Ethernet vs. InfiniBand
    • Converged Ethernet (CE)
    • Storage inside an AI centric Data Center
    • Cloud vs. On-Prem
    Module 3 - NVIDIA Technology Stack
    • NVIDIA: Powering AI GPU Innovation
    • NVIDIA Technology Stack
    • Layer 1 - Physical Layer
    • GPU on a Graphic Card
    • DGX Platform
    • DGX SuperPOD
    • ConnectX
    • BlueField DPUs
    • NVIDIA Reference Architectures
    • Understanding GPU Cores
    • Comparing GPU Cores
    • NVIDIA DGX Platform - Timeline
    • DGX Platform - Deployment Options
    • DGX A100 vs H100
    • Layer 2: Data Movement and I/O Acceleration
    • NVLink
    • InfiniBand
    • InfiniBand vs. Ethernet
    • DMA and RDMA
    • GPUDirect RDMA
    • GPUDirect Storage
    • Quick Comparison
    • Layer 3: OS, Driver and Virtualization
    • GPU Drivers
    • GPU Virtualization
    • vGPU vs. MIG - Part 1
    • vGPU vs. MIG - Part 2
    • Layer 4: Core Libraries
    • Compute Unified Device Architecture (CUDA)
    • Installing CUDA
    • NVIDIA Collective Communications Library (NCCL)
    • NVLink, NVSwitch, PCIe, RDMA vs. NCCL
    • Layer 5: Monitoring and Management
    • NVIDIA-SMI
    • Data Center GPU Manager (DCGM)
    • Base Command Manager
    • Which one to use?
    • Layer 6: Applications & Vertical Solutions
    • Summary
    • NVIDIA AI Enterprise:
    • NVIDIA AI Factory
    Module 4 - AI Workflows
    • AI Workflows
    • ML Frameworks
    • The NVIDIA differentiator
    • Model Training vs. Model Inference
    • Job Scheduling vs. Container Orchestration
    • Slurm vs Kubernetes
    • NVIDIA Integration
    • ML Ops - Analogy
    • Why ML Ops?
    • NVIDIA Tools supporting ML Ops

    Ashish Prajapati - технический специалист, в настоящее время проживающий в Лондоне, Великобритания.
    Его глубокий опыт работы экспертом по виртуализации и миграции в облако позволяет ему применять свои профессиональные знания в учебном процессе, приводя учащимся примеры из реальной жизни.

    Цена 1500 руб. (14,99 евро)
    Скрытая ссылка
     
    Последнее редактирование модератором: 12 апр 2026
    2 пользователям это понравилось.
  2. Последние события

    1. deface
      deface участвует в складчине.
      12 апр 2026
    2. Money Maker LTD
      Money Maker LTD участвует в складчине.
      10 апр 2026