1 | Khai giảng lớp học NLP 04 |
---|
2 | Biểu thức chính quy - Regular Expressions |
---|
3 | Chi tiết các thuật toán tách token |
---|
4 | Các quy trình của chuẩn hóa văn bản |
---|
5 | [Zoom 4-12-2024] Ôn tập đại số tuyến tính |
---|
6 | [Zoom 9-12-2024 và 11-12-204] Ôn tập học máy, học sâu và các khái niệm liên quan |
---|
7 | [Zoom 16-12-2024] Ôn tập quá trình training |
---|
8 | [Bổ trợ] Các thuật toán Training Tối ưu lồi Vấn đề của SGD SGD với quán tính AdaGrad AdaDelta và RMSProp
|
---|
9 | [Zoom 18-12-2024] Vector Semantics và Embeddings |
---|
10 | [Zoom 23-12-2024] SkipGram, Glove và FastText Skip Gram và Glove Thư viện FastText
|
---|
11 | [Zoom 25-12-2024] Mô hình ngôn ngữ Mô hình ngôn ngữ n-grams Mô hình ngôn ngữ mạng nơ ron Giới thiệu mô hình ngôn ngữ nổi tiếng gần đây: GPT1, GPT2, GPT3, GPT 3.5, LLAMA1, LLAMA 2 Mô hình ngôn ngữ Mistral
|
---|
12 | [Zoom 30-12-2024] RNN và LSTM Mạng nơ ron hồi quy RNN LSTM GRU Bidirectional RNN Deep RNN
|
---|
13 | [Zoom 06-01-2025] Bài toán dịch máy Bài toán dịch máy Mô hình Seq2Seq Vấn đề BottleNeck của Seq2Seq Mô hình Seq2Seq và cơ chế Attention BLEU Score Thuật toán Greedy/Beam Search
|
---|
14 | [Zoom [8-13-16-20]-1-2025] Mô hình Transfomer (3 buổi) |
---|
15 | [Zoom 05-02-2025] Mô hình Bert và ứng dụng |
---|
16 | [Zoom 05-02-2025] Thực hành Bert và ứng dụng với bài toán NER và POS Tag |
---|
17 | [Zoom 10-2-2025] GPT + Đào tạo phân tán Đọc các nghiên cứu của GPT-1, GPT-2, GPT-3 và GPT 3.5 Đào tạo mô hình phân tán song song dữ liệu và song song mô hình
|
---|
18 | [Zoom 12-02-2025] Bài toán truy xuất thông tin - Information Retrieval Thuật toán tìm kiếm theo từ khóa TF-IDF và BM25 Thuật toán tìm kiếm theo Vector Thư viện FAISS để tìm kiếm vector nhanh chóng
|
---|
19 | [Zoom 17-2-2025] Vector Database and RAG |
---|
20 | [Zoom 19-2-2025] Transformer nâng cao Các cách đào tạo mô hình Transformer trên văn bản dài Cách 1: Positional Encoding tốt hơn. Thay vì dùng encoding vị trí như paper gốc Transformer, 2 cái tên có thể thay thế là ALiBi và ROPE. Một cách encode vị trí có thể scale theo context của câu. Cách 2: Bạn không cần phải tính toán attention scores giữa tất cả các tokens. Một số tokens quan trọng hơn các tokens khác, vì vậy có thể sử dụng Sparse Attention. Điều này sẽ tăng tốc cả quá trình training và inference. Cách 3: Flash Attention triển khai hiệu quả attention layer cho GPU. Nó sử dụng tiling và tránh việc tạo ra các ma trận trung gian lớn (n, n) không phù hợp với GPU SRAM. Điều này sẽ tăng tốc cả quá trình training và inference. Multi-Query attention thay vì Multi-Head attention. Bạn chia sẻ weights giữa tất cả các heads khi nhân tuyến tính K và V. Nó sẽ tăng tốc đáng kể quá trình inference. Conditional computation tránh việc sử dụng tất cả các model parameters lên tất cả các tokens từ input sequence. CoLT5 chỉ áp dụng các tính toán nặng nề lên những tokens quan trọng nhất và xử lý phần còn lại của các tokens với một phiên bản nhẹ hơn của các layers. Điều này sẽ tăng tốc cả quá trình training và inference.
|
---|
21 | |
---|
22 | |
---|