#Topic
1

Biểu thức chính quy - Regular Expressions

  • Luyện tập thuần thục viết Regular Expressions

    • Các toán tử thông thường

    • Các toán tử nâng cao

  • Thực hiện tiền xử lý trên văn bản tiếng Việt

2

Chi tiết các thuật toán tách từ

  • Thuật toán BPE

  • Thuật toán WordPiece

  • Sử dụng thư viện SentencePiece

  • Sử dụng thư viện Spacy

  • Sử dụng thư viện Underthesea cho Tiếng Việt

3

Chuẩn hóa văn bản

Các quy trình của chuẩn hóa văn bản

  • Tách văn bản thành nhiều câu (Segmenting sentence)

  • Tách (phân đoạn) từ - Tokenizing (segmenting) words

  • Chuẩn hóa từ

4

[Bổ trợ] Học máy là gì

  • Giới thiệu về học máy

  • Làm gì khi ít dữ liệu

5

[Bổ trợ] Đại số tuyến tính

  • Công thức toán cơ bản

  • Sigma

  • Ký hiệu tổng

  • Vector cơ bản và ứng dụng

  • Ma trận cơ bản và ứng dụng

  • Tensor

  • Sách Toán tham khảo

6

Ôn tập Toán + học máy, học sâu và các khái niệm liên quan

No content
7

[Bổ trợ] Các thuật toán Training

  • Tối ưu lồi

  • Vấn đề của SGD

  • SGD với quán tính

  • AdaGrad

  • AdaDelta và RMSProp

8

Vector Semantics và Embeddings

  • Biểu diễn từ dưới dạng vector Semantics

  • Cách cách biểu diễn từ khác nhau

  • Độ do cosine

9

SkipGram, Glove, FastText và Softmax đa tầng

  • Softmax đa tầng

  • Skip Gram và Glove

  • Thư viện FastText

10

Mô hình ngôn ngữ

  • Mô hình ngôn ngữ n-grams

  • Mạng RNN

  • Mô hình ngôn ngữ mạng nơ ron

11

RNN và LSTM

  • Mạng nơ ron hồi quy RNN

  • LSTM

  • GRU

  • Bidirectional RNN

  • Deep RNN

12

Chữa bài tập + Ôn tập lập trình mô hình

No content
13

Bài toán dịch máy

  • Bài toán dịch máy

  • Mô hình Seq2Seq

  • Vấn đề BottleNeck của Seq2Seq

  • Mô hình Seq2Seq và cơ chế Attention

  • BLEU Score

  • Thuật toán Greedy/Beam Search

14

Mô hình Transfomer (3 buổi)

  • Transformer Encoder

    • Positional encoding

    • Cơ chế Attention

    • Multiheaded Attention

  • Transformer Decoder

  • Lập trình mô hình Transformer từ đầu

15

Mô hình Bert và ứng dụng

  • Mô hình Bert và ứng dụng

  • Bert nguyên bản

  • Các phiên bản Bert nâng cấp: Roberta, PhoBert

16

Thực hành Bert và ứng dụng với bài toán NER và POS Tag

  • Bài toán NER + Pos Tagging

  • Ứng dụng Bert để xử lý hai bài toán này

17

GPT + Đào tạo phân tán

  • Đọc các nghiên cứu của GPT-1, GPT-2, GPT-3 và GPT 3.5

  • Đào tạo mô hình phân tán song song dữ liệu và song song mô hình

18

Bài toán truy xuất thông tin - Information Retrieval

  • Thuật toán tìm kiếm theo từ khóa TF-IDF và BM25

  • Thuật toán tìm kiếm theo Vector

  • Thư viện FAISS để tìm kiếm vector nhanh chóng

    • Các thuật toán quan trọng của FAISS

19

Vector Database and RAG

Vector Database and RAG

  • Điểm qua Vector Database

  • Chi tiết về RAG

  • Thiết kế một RAG Pipeline

20

Transformer nâng cao

Các cách đào tạo mô hình Transformer trên văn bản dài

  • Cách 1: Positional Encoding tốt hơn. Thay vì dùng encoding vị trí như paper gốc Transformer, 2 cái tên có thể thay thế là ALiBi và ROPE. Một cách encode vị trí có thể scale theo context của câu.

  • Cách 2: Bạn không cần phải tính toán attention scores giữa tất cả các tokens. Một số tokens quan trọng hơn các tokens khác, vì vậy có thể sử dụng Sparse Attention. Điều này sẽ tăng tốc cả quá trình training và inference.

  • Cách 3: Flash Attention triển khai hiệu quả attention layer cho GPU. Nó sử dụng tiling và tránh việc tạo ra các ma trận trung gian lớn (n, n) không phù hợp với GPU SRAM. Điều này sẽ tăng tốc cả quá trình training và inference.

  • Multi-Query attention thay vì Multi-Head attention. Bạn chia sẻ weights giữa tất cả các heads khi nhân tuyến tính K và V. Nó sẽ tăng tốc đáng kể quá trình inference.

  • Conditional computation tránh việc sử dụng tất cả các model parameters lên tất cả các tokens từ input sequence. CoLT5 chỉ áp dụng các tính toán nặng nề lên những tokens quan trọng nhất và xử lý phần còn lại của các tokens với một phiên bản nhẹ hơn của các layers. Điều này sẽ tăng tốc cả quá trình training và inference.

21

Dự án cuối khóa - 2 tuần

No content
22

Đọc thêm - Model hỏi đáp (QA)

No content
23

Paper Reading - LLAMA 3.1

No content