List of topics
Giới thiệu học máy/học sâu
Mô hình hồi quy tuyến tính
Khai giảng
MLOps
Pytorch + Tensorflow + HuggingFace
MongoDB + Crawl dữ liệu
CPUs
GPUs
TPUs - Số thực dấu phẩy động
Học máy chính xác thấp
Chắt lọc tri thức + TensorRT
Docker + Cloud
Triton Inference Server - Phần 1
Triton Inference Server - Phần 2
Machine Learning CI/CD
Project - Thực hành chắt lọc tri thức
Đào tạo phân tán
Deploy mô hình trên Jetson Nano
Dự án cuối khóa

Triton Inference Server - Phần 1

- Tại sao cần dùng Intriton Inference Server?

- Cách Deploy mô hình ONNX

- Cách Deploy mô hình Pytorch

- Cách Deploy mô hình Tensorflow

- Concurrent Model Execution

- Instance group

- Dynamic Batching

- Stateful vs Stateless Model

- Migrate từ Flask sang Triton Server

1. Slide

1.1. Triton-Server-v2.pdf

1.2. Phiên bản sử dụng

Click to view more

1.3. Code inference bằng Google Colab

2. Video

2.1. Thực hành phần 1

Click to view more
1. Slide
1.1. Triton-Server-v2.pdf
1.2. Phiên bản sử dụng
1.3. Code inference bằng Google Colab
2. Video
2.1. Thực hành phần 1