List of topics
Ôn tập Học máy
Khai giảng
Mô hình hồi quy tuyến tính
Ôn tập mô hình
Giới thiệu xác suất - Đếm
Xác suất + Định lý Bayes
Xác suất và ứng dụng AI
Biến ngẫu nhiên + Phân phối rời rạc
Phân phối liên tục
Phân phối chuẩn
Kỹ thuật lấy mẫu con (Subsampling) (Nguyên tắc 1)
Tensorflow + HuggingFace
MongoDB + Training bằng Pytorch
Các kỹ thuật training hiệu quả 1 (Nguyên tắc 2)
Cloud Storage + Hoàn thiện pipeline training
Giảm chiều dữ liệu
PCA - Principal Component Analysis
MLOPs - các khái niệm liên quan
CPUs
CPUs trên Google Cloud + AWS + Digital Ocean
RAM và cơ chế cache của CPUs
GPUs
TPUs - Số thực dấu phẩy động
Học máy chính xác thấp
ONNX và một số phương pháp tối ưu khác
Deploy AI Model bằng Docker
Docker + Cloud
Chắt lọc tri thức + TensorRT
Triton Inference Server
Đào tạo phân tán
Cùng nhau làm Project
Demo quy trình làm MLOPs
Xây dựng Crawler Web và xây dựng Text Dataset

Triton Inference Server

  • Tại sao cần dùng Intriton Inference Server?

  • Cách Deploy mô hình ONNX

  • Cách Deploy mô hình Pytorch

  • Cách Deploy mô hình Tensorflow

  • Concurrent Model Execution

  • Instance group

  • Dynamic Batching

  • Stateful vs Stateless Model

  • Migrate từ Flask sang Triton Server

1. Slide

1.1. Triton-Server-v2.pdf

2. Video

2.1. Phần 1

2.2. Phần 2

1. Slide
1.1. Triton-Server-v2.pdf
2. Video
2.1. Phần 1
2.2. Phần 2