List of topics
MLOPs và các khái niệm liên quan
Deploy AI Model bằng Docker
Tối ưu hóa mô hình
Triton Inference Server
Đào tạo phân tán
TensorRT
Apache Airflow
MongoDB + Crawl dữ liệu
Triton Inference Server
-
Tại sao cần dùng Intriton Inference Server?
-
Cách Deploy mô hình ONNX
-
Cách Deploy mô hình Pytorch
-
Cách Deploy mô hình Tensorflow
-
Concurrent Model Execution
-
Instance group
-
Dynamic Batching
-
Stateful vs Stateless Model
-
Migrate từ Flask sang Triton Server
1. Slide
1.1. Slide v1
Slide v1
1. Slide
1.1. Slide v1