1 | - Hướng dẫn làm quen với hệ thống. - Học máy là gì. |
---|
2 | Mô hình hồi quy tuyến tính
- Giới thiệu bài toán Grab
- Quá trình xây dựng một mô hình
- Mô hình hồi quy tuyến tính
- Thuật toán Gradient Descent
- Lập trình hồi quy tuyến tính một biến
|
---|
3 | |
---|
4 | Pytorch + Tensorflow + HuggingFace
- Thư viện Tensorflow với bài toán phân loại hình ảnh
- Thư viện HuggingFace với bài toán phân loại văn bản
|
---|
5 | Cách sử dụng DB lưu trữ dữ liệu hiệu quả |
---|
6 | |
---|
7 | Tiền xử lý dữ liệu + Hoàn thiện pipeline
- Tiền xử lý dữ liệu
- Quy trình đảm bảo chất lượng dũ liệu
- Hoàn thiện pipeline
|
---|
8 | Các kỹ thuật training hiệu quả |
---|
9 | Giới thiệu CPU Tính toán song song trên CPUs Nhiều lệnh song song (ILP) Một lệnh trên nhiều luồng dữ liệu (SIMD) Đa luồng (Multi-thread parallelism) Phân tán (Distributed Compute) - Bài tập: Lập trình multi threading.
|
---|
10 | GPUs và TPUs Sự khác biệt giữa CPUs và GPUs (tối ưu cho độ trễ và tối ưu cho băng thông) Chi tiết kiến trúc của GPU Giới thiệu CUDA Lập trình CUDA với C++ Song song trên GPUs - Thư viện Numba
|
---|
11 | RAM và cơ chế cache của CPUs |
---|
12 | TPUs - Số thực dấu phẩy động |
---|
13 | |
---|
14 | Chắt lọc tri thức + TensorRT Chắt lọc tri thức TensorRT
|
---|
15 | |
---|
16 | Thực hành Docker và Cloud |
---|
17 |
-
Tại sao cần dùng Intriton Inference Server?
-
Cách Deploy mô hình ONNX
-
Cách Deploy mô hình Pytorch
-
Cách Deploy mô hình Tensorflow
-
Concurrent Model Execution
-
Instance group
-
Dynamic Batching
-
Stateful vs Stateless Model
-
Migrate từ Flask sang Triton Server
|
---|
18 | |
---|
19 | Orchestration for Machine Learning: Airflow + DVC Giới thiệu về ML Orchestration |
---|
20 | Dự án cuối khóa lớp học MLEs 03 Project 1 - Triton Inference Server tập trung vào Client Project 2 - Triton Inference Server tập trung vào Server Project 3 - Deploy Bert với SQUAD model trên Triton Inference Server
|
---|