Học Sâu - Deep Learning
60
115 LƯỢT XEM
NỘI DUNG MÔN HỌC
Khóa học Deep Learning này cung cấp một cái nhìn toàn diện về lĩnh vực Deep Learning, từ cơ bản đến nâng cao. Học viên sẽ được học lý thuyết kết hợp với thực hành qua các bài tập và dự án thực tế. Khóa học bao gồm các chủ đề như Neural Networks, Convolutional Neural Networks (CNNs), Recurrent Neural Networks (RNNs), Long Short-Term Memory (LSTM), Attention mechanism, Transformer, và Auto Encoders. Ngoài ra, khóa học cũng giới thiệu các ứng dụng hiện đại của Deep Learning trong xử lý ảnh, xử lý ngôn ngữ tự nhiên, và sinh dữ liệu.
Thời lượng: 60 giờ
Sau khi hoàn thành khóa học, học viên có khả năng:
- Nắm vững các khái niệm cơ bản và nâng cao về Deep Learning
- Hiểu và áp dụng được các kiến trúc mạng neural phổ biến như CNN, RNN/LSTM, và Transformer
- Có khả năng xây dựng và huấn luyện các mô hình Deep Learning cho các bài toán thực tế
- Thành thạo việc sử dụng các framework Deep Learning phổ biến như TensorFlow hoặc PyTorch
- Phát triển tư duy phân tích và giải quyết vấn đề trong lĩnh vực AI và Deep Learning
- Học viên sẽ được cấp chứng nhận hoàn tất khóa học theo quy định của ITSTARVN.
1. Giới thiệu Deep Learning và sự khác biệt với Machine Learning (4 giờ)
- Bài 1: Tổng quan về Deep Learning (2 giờ)
- Định nghĩa và lịch sử phát triển của Deep Learning
- So sánh Deep Learning với Machine Learning truyền thống
- Các ứng dụng của Deep Learning trong thực tế
- Bài 2: Cơ sở toán học và công cụ (2 giờ)
- Ôn tập kiến thức toán học cần thiết (đại số tuyến tính, giải tích, xác suất thống kê)
- Giới thiệu các framework và thư viện Deep Learning phổ biến (TensorFlow, PyTorch)
- Cài đặt môi trường làm việc
2. Neural Networks (12 giờ)
- Bài 3: Cấu trúc cơ bản của Neural Network (3 giờ)
- Neurons và layers
- Forward propagation
- Bài tập: Xây dựng mạng neural đơn giản bằng NumPy
- Bài 4: Activation Functions (3 giờ)
- Sigmoid, Tanh, ReLU, Leaky ReLU, và các biến thể
- Ảnh hưởng của activation functions đến quá trình học
- Bài tập: Thử nghiệm các activation functions khác nhau
- Bài 5: Gradient Descent và Backpropagation (3 giờ)
- Nguyên lý của Gradient Descent
- Thuật toán Backpropagation
- Các biến thể của Gradient Descent (SGD, Mini-batch GD)
- Bài 6: Quá trình huấn luyện và tối ưu hóa (3 giờ)
- Loss functions
- Regularization (L1, L2)
- Dropout và các kỹ thuật ngăn chặn overfitting
- Dự án nhỏ: Xây dựng và huấn luyện mạng neural để phân loại ảnh MNIST
3. Mạng CNN (Computer Vision) (12 giờ)
- Bài 7: Giới thiệu về Convolutional Neural Networks (3 giờ)
- Cấu trúc của CNN
- Convolutional layers, pooling layers
- Bài tập: Implement convolution operation từ đầu
- Bài 8: Kiến trúc CNN phổ biến (3 giờ)
- LeNet, AlexNet, VGGNet
- ResNet, Inception
- Bài tập: Implement một kiến trúc CNN đơn giản
- Bài 9: Transfer Learning và Fine-tuning (3 giờ)
- Nguyên lý của Transfer Learning
- Các kỹ thuật Fine-tuning
- Bài tập: Sử dụng pre-trained model cho bài toán phân loại ảnh
- Bài 10: Ứng dụng nâng cao của CNN (3 giờ)
- Object Detection (YOLO, SSD)
- Semantic Segmentation
- Dự án nhỏ: Xây dựng ứng dụng nhận diện đối tượng trong ảnh
4. Mạng RNN/LSTM (12 giờ)
- Bài 11: Recurrent Neural Networks (RNN) (3 giờ)
- Cấu trúc và nguyên lý hoạt động của RNN
- Vanishing và exploding gradient trong RNN
- Bài tập: Implement RNN từ đầu cho bài toán dự đoán chuỗi thời gian đơn giản
- Bài 12: Long Short-Term Memory (LSTM) (3 giờ)
- Cấu trúc của LSTM
- Cơ chế hoạt động của các cổng trong LSTM
- Bài tập: Implement LSTM cell
- Bài 13: Gated Recurrent Unit (GRU) và các biến thể (3 giờ)
- Cấu trúc và nguyên lý của GRU
- So sánh GRU với LSTM
- Bidirectional RNN/LSTM
- Bài 14: Ứng dụng của RNN/LSTM (3 giờ)
- Sentiment Analysis
- Machine Translation
- Dự án nhỏ: Xây dựng mô hình sinh văn bản tự động
5. Cơ chế Attention và kiến trúc Transformer (10 giờ)
- Bài 15: Cơ chế Attention (3 giờ)
- Nguyên lý của Attention
- Self-Attention và Multi-Head Attention
- Bài tập: Implement cơ chế Attention đơn giản
- Bài 16: Kiến trúc Transformer (4 giờ)
- Cấu trúc tổng quan của Transformer
- Encoder và Decoder trong Transformer
- Positional Encoding
- Bài 17: Ứng dụng của Transformer (3 giờ)
- BERT, GPT và các mô hình ngôn ngữ lớn
- Transformer trong Computer Vision
- Dự án nhỏ: Fine-tuning BERT cho bài toán phân loại văn bản
6. Kiến trúc Auto Encoder (10 giờ)
- Bài 18: Giới thiệu về Auto Encoder (3 giờ)
- Cấu trúc và nguyên lý hoạt động của Auto Encoder
- Undercomplete và Overcomplete Auto Encoder
- Bài tập: Implement Auto Encoder đơn giản cho nén ảnh
- Bài 19: Variational Auto Encoder (VAE) (3 giờ)
- Nguyên lý của VAE
- Reparameterization trick
- Bài tập: Implement VAE cho sinh ảnh
- Bài 20: Generative Adversarial Networks (GAN) (4 giờ)
- Cấu trúc và nguyên lý hoạt động của GAN
/* Nội dung chương trình có thể thay đổi theo yêu cầu đào tạo của Doanh nghiệp */
------------------------------------