#Topic
1

Ôn tập Học máy

- Hướng dẫn làm quen với hệ thống. - Học máy là gì.

2

Mô hình hồi quy tuyến tính

  • Giới thiệu bài toán Grab
  • Quá trình xây dựng một mô hình
  • Mô hình hồi quy tuyến tính
  • Thuật toán Gradient Descent
  • Lập trình hồi quy tuyến tính một biến
3

Khai giảng lớp học

Khai giảng lớp học

4

Pytorch + Tensorflow + HuggingFace

  • Thư viện Tensorflow với bài toán phân loại hình ảnh
  • Thư viện HuggingFace với bài toán phân loại văn bản
5

MongoDB + Crawl dữ liệu

Cách sử dụng DB lưu trữ dữ liệu hiệu quả

6

MLOps

No content
7

Tiền xử lý dữ liệu + Hoàn thiện pipeline

  • Tiền xử lý dữ liệu
  • Quy trình đảm bảo chất lượng dũ liệu
  • Hoàn thiện pipeline
8

Các kỹ thuật training hiệu quả

  • Sử dụng các thuật toán training.

  • Cài đặt các tham số khởi tạo

9

CPUs

  • Giới thiệu CPU

  • Tính toán song song trên CPUs

  • Nhiều lệnh song song (ILP)

  • Một lệnh trên nhiều luồng dữ liệu (SIMD)

  • Đa luồng (Multi-thread parallelism)

  • Phân tán (Distributed Compute) - Bài tập: Lập trình multi threading.

10

GPUs

GPUs và TPUs

  • Sự khác biệt giữa CPUs và GPUs (tối ưu cho độ trễ và tối ưu cho băng thông)

  • Chi tiết kiến trúc của GPU

  • Giới thiệu CUDA

  • Lập trình CUDA với C++

  • Song song trên GPUs - Thư viện Numba

11

RAM và cơ chế cache của CPUs

  • RAM và cơ chế cache

  • Đánh giá hiệu năng truy cập dữ liệu

12

TPUs - Số thực dấu phẩy động

  • Bàn về các phiên bản của TPUs

  • Tham số đo quan trọng đo lường tốc độ phần cứng

  • TPUs

  • Số thực dấu phẩy động

13

Học máy chính xác thấp

  • Lượng tử hóa mô hình

  • ONNX

14

Chắt lọc tri thức + TensorRT

  • Chắt lọc tri thức

  • TensorRT

15

Docker + Cloud

  • Docker là gì?

  • Phân biệt image và container

  • Cài đặt Docker

  • Xây dựng Docker Image và chạy docker Container

  • Docker container

16

Thực hành Docker và Cloud

Thực hành

  • Docker và Cloud

17

Triton Inference Server

  • Tại sao cần dùng Intriton Inference Server?

  • Cách Deploy mô hình ONNX

  • Cách Deploy mô hình Pytorch

  • Cách Deploy mô hình Tensorflow

  • Concurrent Model Execution

  • Instance group

  • Dynamic Batching

  • Stateful vs Stateless Model

  • Migrate từ Flask sang Triton Server

18

Đào tạo phân tán

No content
19

Orchestration for Machine Learning: Airflow + DVC

Giới thiệu về ML Orchestration

  • Thiết kế một flow đơn giản

  • Airflow

  • Hướng dẫn quy trình học máy với Airflow

20

Làm project cuối khóa

Dự án cuối khóa lớp học MLEs 03

  • Project 1 - Triton Inference Server tập trung vào Client

  • Project 2 - Triton Inference Server tập trung vào Server

  • Project 3 - Deploy Bert với SQUAD model trên Triton Inference Server