List of topics
Hướng dẫn đọc AI paper bất kỳ
MLP-Mixer
Transformer
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
Đọc nghiên cứu GPT-1, GPT-2 và GPT-3
InstructionGPT và ChatGPT
Đào tạo mô hình ngôn ngữ trên Tiếng Việt

Đọc nghiên cứu GPT-1, GPT-2 và GPT-3

  • GPT-1
  • GPT-2
  • GPT-3

1. Giới thiệu về GPT + ChatGPT

1.1. Giới thiệu GPT

Click to view more

1.2. Demo sử dụng ChatGPT

Click to view more

2. Nhắc lại về Transformer

2.1. Kiến thức cần chuẩn bị

Click to view more

2.2. Transformer và cơ chế Attention

Click to view more

3. Ứng dụng của Transformer

3.1. Bert.mp4

Click to view more

3.2. Bert sử dụng phần nào của Transformer?

Click to view more

3.3. Transformer Decoder và GPT

Click to view more

4. Lịch sử GPT

4.1. Lịch sử GPT

Click to view more

4.2. Triết lý kiên định

Click to view more

5. GPT-1

5.1. Giới thiệu về GPT-1

Click to view more

5.2. Masked MultiHead Attention

Click to view more

5.3. Fine Tune trên bài toán phân loại

Click to view more

5.4. Finetune trên các bài toán khác nhau

Click to view more

5.5. Trả lời câu hỏi về fine tune GPT?

Click to view more

6. GPT-2

6.1. GPT-2 - Nâng cấp từ GPT-1

Click to view more

6.2. GPT-2 với bài toán dịch máy

Click to view more

6.3. GPT-2 trên câu dài

Click to view more

7. GPT-3

7.1. Scale GPT-2 thành GPT-3

Click to view more

7.2. In-context Learning

Click to view more

7.3. Đảm bảo chất lượng dữ liệu

Click to view more

8. Slide

8.1. Slide GPT + ChatGPT

Click to view more

9. GPT trên sản phẩm thực tế

9.1. Crawl và lưu trữ data Tiếng Việt

Click to view more

9.2. Quy trình thiết kế

Click to view more

9.3. Quá trình training

Click to view more

9.4. Triển khai trên server

Click to view more

9.5. Theo dõi mô hình sau khi đã triển khai

Click to view more
1. Giới thiệu về GPT + ChatGPT
1.1. Giới thiệu GPT
1.2. Demo sử dụng ChatGPT
2. Nhắc lại về Transformer
2.1. Kiến thức cần chuẩn bị
2.2. Transformer và cơ chế Attention
3. Ứng dụng của Transformer
3.1. Bert.mp4
3.2. Bert sử dụng phần nào của Transformer?
3.3. Transformer Decoder và GPT
4. Lịch sử GPT
4.1. Lịch sử GPT
4.2. Triết lý kiên định
5. GPT-1
5.1. Giới thiệu về GPT-1
5.2. Masked MultiHead Attention
5.3. Fine Tune trên bài toán phân loại
5.4. Finetune trên các bài toán khác nhau
5.5. Trả lời câu hỏi về fine tune GPT?
6. GPT-2
6.1. GPT-2 - Nâng cấp từ GPT-1
6.2. GPT-2 với bài toán dịch máy
6.3. GPT-2 trên câu dài
7. GPT-3
7.1. Scale GPT-2 thành GPT-3
7.2. In-context Learning
7.3. Đảm bảo chất lượng dữ liệu
8. Slide
8.1. Slide GPT + ChatGPT
9. GPT trên sản phẩm thực tế
9.1. Crawl và lưu trữ data Tiếng Việt
9.2. Quy trình thiết kế
9.3. Quá trình training
9.4. Triển khai trên server
9.5. Theo dõi mô hình sau khi đã triển khai