#Topic
1

Khai giảng lớp học NLP 04

No content
2

Biểu thức chính quy - Regular Expressions

  • Luyện tập thuần thục viết Regular Expressions

    • Các toán tử thông thường

    • Các toán tử nâng cao

  • Thực hiện tiền xử lý trên văn bản tiếng Việt

3

Chi tiết các thuật toán tách token

  • Thuật toán BPE

  • Thuật toán WordPiece

  • Sử dụng thư viện SentencePiece

  • Sử dụng thư viện Spacy

  • Sử dụng thư viện Underthesea cho Tiếng Việt

4

Chuẩn hóa văn bản

Các quy trình của chuẩn hóa văn bản

  • Tách văn bản thành nhiều câu (Segmenting sentence)

  • Tách (phân đoạn) từ - Tokenizing (segmenting) words

  • Chuẩn hóa từ

5

[Zoom 4-12-2024] Ôn tập đại số tuyến tính

No content
6

[Zoom 9-12-2024 và 11-12-204] Ôn tập học máy, học sâu và các khái niệm liên quan

No content
7

[Zoom 16-12-2024] Ôn tập quá trình training

No content
8

[Bổ trợ] Các thuật toán Training

  • Tối ưu lồi

  • Vấn đề của SGD

  • SGD với quán tính

  • AdaGrad

  • AdaDelta và RMSProp

9

[Zoom 18-12-2024] Vector Semantics và Embeddings

  • Biểu diễn từ dưới dạng vector Semantics

  • Cách cách biểu diễn từ khác nhau

  • Độ do cosine

10

[Zoom 23-12-2024] SkipGram, Glove và FastText

  • Skip Gram và Glove

  • Thư viện FastText

11

[Zoom 25-12-2024] Mô hình ngôn ngữ

  • Mô hình ngôn ngữ n-grams

  • Mô hình ngôn ngữ mạng nơ ron

  • Giới thiệu mô hình ngôn ngữ nổi tiếng gần đây: GPT1, GPT2, GPT3, GPT 3.5, LLAMA1, LLAMA 2

  • Mô hình ngôn ngữ Mistral

12

[Zoom 30-12-2024] RNN và LSTM

  • Mạng nơ ron hồi quy RNN

  • LSTM

  • GRU

  • Bidirectional RNN

  • Deep RNN

13

[Zoom 06-01-2025] Bài toán dịch máy

  • Bài toán dịch máy

  • Mô hình Seq2Seq

  • Vấn đề BottleNeck của Seq2Seq

  • Mô hình Seq2Seq và cơ chế Attention

  • BLEU Score

  • Thuật toán Greedy/Beam Search

14

[Zoom [8-13-16-20]-1-2025] Mô hình Transfomer (3 buổi)

  • Transformer Encoder

    • Positional encoding

    • Cơ chế Attention

    • Multiheaded Attention

  • Transformer Decoder

  • Lập trình mô hình Transformer từ đầu

15

[Zoom 05-02-2025] Mô hình Bert và ứng dụng

  • Mô hình Bert và ứng dụng

  • Bert nguyên bản

  • Các phiên bản Bert nâng cấp: Roberta, PhoBert

16

[Zoom 05-02-2025] Thực hành Bert và ứng dụng với bài toán NER và POS Tag

  • Bài toán NER + Pos Tagging

  • Ứng dụng Bert để xử lý hai bài toán này

17

[Zoom 10-2-2025] GPT + Đào tạo phân tán

  • Đọc các nghiên cứu của GPT-1, GPT-2, GPT-3 và GPT 3.5

  • Đào tạo mô hình phân tán song song dữ liệu và song song mô hình

18

[Zoom 12-02-2025] Bài toán truy xuất thông tin - Information Retrieval

  • Thuật toán tìm kiếm theo từ khóa TF-IDF và BM25

  • Thuật toán tìm kiếm theo Vector

  • Thư viện FAISS để tìm kiếm vector nhanh chóng

    • Các thuật toán quan trọng của FAISS

19

[Zoom 17-2-2025] Vector Database and RAG

Vector Database and RAG

  • Điểm qua Vector Database

  • Chi tiết về RAG

  • Thiết kế một RAG Pipeline

20

[Zoom 19-2-2025] Transformer nâng cao

Các cách đào tạo mô hình Transformer trên văn bản dài

  • Cách 1: Positional Encoding tốt hơn. Thay vì dùng encoding vị trí như paper gốc Transformer, 2 cái tên có thể thay thế là ALiBi và ROPE. Một cách encode vị trí có thể scale theo context của câu.

  • Cách 2: Bạn không cần phải tính toán attention scores giữa tất cả các tokens. Một số tokens quan trọng hơn các tokens khác, vì vậy có thể sử dụng Sparse Attention. Điều này sẽ tăng tốc cả quá trình training và inference.

  • Cách 3: Flash Attention triển khai hiệu quả attention layer cho GPU. Nó sử dụng tiling và tránh việc tạo ra các ma trận trung gian lớn (n, n) không phù hợp với GPU SRAM. Điều này sẽ tăng tốc cả quá trình training và inference.

  • Multi-Query attention thay vì Multi-Head attention. Bạn chia sẻ weights giữa tất cả các heads khi nhân tuyến tính K và V. Nó sẽ tăng tốc đáng kể quá trình inference.

  • Conditional computation tránh việc sử dụng tất cả các model parameters lên tất cả các tokens từ input sequence. CoLT5 chỉ áp dụng các tính toán nặng nề lên những tokens quan trọng nhất và xử lý phần còn lại của các tokens với một phiên bản nhẹ hơn của các layers. Điều này sẽ tăng tốc cả quá trình training và inference.

21

Dự án cuối khóa - 2 tuần

No content
22

Workshop cuối khóa

No content