List of topics
Giới thiệu học máy/học sâu
Mô hình hồi quy tuyến tính
Khai giảng
MLOps
Pytorch + Tensorflow + HuggingFace
MongoDB + Crawl dữ liệu
CPUs
GPUs
TPUs - Số thực dấu phẩy động
Học máy chính xác thấp
Chắt lọc tri thức + TensorRT
Docker + Cloud
Triton Inference Server - Phần 1
Triton Inference Server - Phần 2
Machine Learning CI/CD
Project - Thực hành chắt lọc tri thức
Đào tạo phân tán
Deploy mô hình trên Jetson Nano
Dự án cuối khóa
Triton Inference Server - Phần 1
- Tại sao cần dùng Intriton Inference Server?
- Cách Deploy mô hình ONNX
- Cách Deploy mô hình Pytorch
- Cách Deploy mô hình Tensorflow
- Concurrent Model Execution
- Instance group
- Dynamic Batching
- Stateful vs Stateless Model
- Migrate từ Flask sang Triton Server
1. Slide
1.1. Triton-Server-v2.pdf
1.2. Phiên bản sử dụng
Click to view more
1.3. Code inference bằng Google Colab
2. Video
2.1. Thực hành phần 1
Click to view more
1. Slide
1.1. Triton-Server-v2.pdf
1.2. Phiên bản sử dụng
1.3. Code inference bằng Google Colab
2. Video
2.1. Thực hành phần 1