Vector Semantics và Embeddings
- Biểu diễn từ dưới dạng vector Semantics 
- Cách cách biểu diễn từ khác nhau 
- Độ do cosine 
1. Slide
1.1. Slide
1.2. Sự tương đồng của ngữ nghĩa

1.3. Mô phỏng từ/văn bản thành vector thưa (Sparse vector)
 Mô phỏng văn bản thông qua số lượng các từ trong từ điển
Mô phỏng văn bản thông qua số lượng các từ trong từ điển
- Bài thơ thứ 1 chứa 2 từ em và 1 từ anh nên vector của bài thơ này sẽ là [2, 1] 
- Bài thơ thứ 2 chứa 1 từ em và 1 từ anh nên vector của bài thơ này sẽ là [1, 1] 
- Bài thơ thứ 3 chứa 2 từ em và 0 từ anh nên vector của bài thơ này sẽ là [2, 0] 
 Mô phỏng một từ dựa vào vector số lượng từ đó xuất hiện bên trong các văn bản.
Mô phỏng một từ dựa vào vector số lượng từ đó xuất hiện bên trong các văn bản.
- Từ em xuất hiện bên trong bài thơ 1: 2 lần, bài thớ 2: 1 lần và bài thơ 3: 2 lần nên vector của từ em sẽ là [2, 1, 2] 
- Tương tự vector của từ anh sẽ là [1, 1, 0] 
1.4. Mô phỏng từ/văn bản thành vector dày (Dense Vector)
Sử dụng Word Embeddings để mô phỏng từ. Từ sẽ được mô phỏng dưới dạng vector dày.

1.5. Video NLP 01
1.6. Video NLP 02
- Giới thiệu Semantic 
- Cách đào tạo Embeddings 
- CBOW và Skip Gram 
2. Code thực hành
2.1. Cbow Training
2.2. Hiển thị Embedding
3. Nâng cao
3.1. Embedding cả ảnh và văn bản
Tài liệu: https://openai.com/research/clip