Giới thiệu về Học sâu
Học sâu là một nhánh của học máy tập trung vào việc học các biểu diễn đặc trưng phức tạp, theo cấp bậc từ dữ liệu thô bằng mạng nơ-ron nhân tạo. Khóa học bao gồm các nguyên lý cơ bản, toán học nền tảng, các khái niệm tối ưu hóa (giảm gradient, truyền ngược), các mô-đun mạng (lớp tuyến tính, lớp tích chập, lớp lấy mẫu) và các kiến trúc phổ biến (CNN, RNN). Các ứng dụng được minh họa bao gồm thị giác máy tính, xử lý ngôn ngữ tự nhiên và học tăng cường. Sinh viên sẽ sử dụng thư viện học sâu PyTorch để triển khai và hoàn thành một dự án cuối khóa trên một tình huống thực tế.
Tổng quan khóa học
📚 Tóm tắt nội dung
Học sâu là một nhánh con của học máy, tập trung vào việc học các biểu diễn đặc trưng phức tạp, có cấu trúc phân cấp từ dữ liệu thô bằng mạng nơ-ron nhân tạo. Khóa học bao gồm các nguyên lý nền tảng, toán học cơ sở, các khái niệm tối ưu hóa (giảm dần gradient, truyền ngược gradient), các mô-đun mạng (lớp tuyến tính, lớp tích chập, lớp lấy mẫu) và các kiến trúc phổ biến (CNNs, RNNs). Các ứng dụng được minh họa bao gồm thị giác máy tính, xử lý ngôn ngữ tự nhiên và học tăng cường. Sinh viên sẽ sử dụng thư viện học sâu PyTorch để triển khai và hoàn thành một dự án cuối khóa trong một tình huống thực tế.
Tóm tắt ngắn gọn về các mục tiêu cốt lõi: Nắm vững lý thuyết học sâu, triển khai mô hình bằng PyTorch, hiểu rõ các kiến trúc chuyên biệt (CNNs, RNNs, Transformers), và áp dụng các khái niệm này vào lĩnh vực thị giác máy tính, xử lý ngôn ngữ tự nhiên và ra quyết định tuần tự.
🎯 Mục tiêu học tập
- Giải thích các nền tảng toán học và các kỹ thuật tối ưu hóa cốt lõi (Giảm dần Gradient, Truyền ngược Gradient) cần thiết để huấn luyện mạng nơ-ron sâu.
- Sử dụng khung học sâu PyTorch để triển khai, huấn luyện và gỡ lỗi hiệu quả các kiến trúc mạng hiện đại bằng cách tận dụng gia tốc CUDA và các kỹ thuật xử lý dữ liệu hiệu quả.
- Thiết kế và phân tích các kiến trúc chuyên biệt, bao gồm Mạng nơ-ron tích chập (CNNs) cho dữ liệu ảnh và mô hình Transformer cho các mối quan hệ tuần tự.
- Áp dụng các kỹ thuật học sâu để giải quyết các vấn đề thực tiễn trong các lĩnh vực ứng dụng chính: Thị giác máy tính, Xử lý ngôn ngữ tự nhiên và Học tăng cường.
- Đánh giá mô hình dựa trên độ bền, khả năng giải thích và công bằng đạo đức, so sánh điểm mạnh của các khuôn khổ tiên tiến khác nhau (ví dụ: Mô hình sinh học, Học bán giám sát).
🔹 Bài học 1: Cơ bản học sâu và tối ưu hóa
Tổng quan: Bài học nền tảng này giới thiệu các khối xây dựng cốt lõi của học sâu. Chúng ta bắt đầu bằng việc xem xét các bộ phân loại tuyến tính, cụ thể là hàm Softmax và việc sử dụng hàm mất mát Entropy chéo để đo lường sai số. Từ nền tảng này, chúng ta xác định cấu trúc của một mạng nơ-ron hồi tiếp cơ bản (Multi-Layer Perceptron), chi tiết vai trò của trọng số, ngưỡng và các hàm kích hoạt phi tuyến (ví dụ: ReLU). Trọng tâm chính chuyển sang quá trình tối ưu hóa cần thiết để huấn luyện các mô hình có tham số rất lớn. Chúng ta sẽ giới thiệu Giảm dần Gradient (GD) như thuật toán tối ưu cốt lõi, so sánh yêu cầu tính toán của nó với Stochastic Gradient Descent (SGD) và Mini-batch GD. Quan trọng nhất, bài học kết thúc bằng phần giải thích chi tiết về thuật toán truyền ngược gradient, cho thấy cách quy tắc dây chuyền trong giải tích được áp dụng hiệu quả qua đồ thị tính toán để tính toán gradient cần thiết cho cập nhật trọng số ở tất cả các lớp. Kết quả học tập:
- Định nghĩa cấu trúc của một mạng nơ-ron hồi tiếp cơ bản và giải thích sự cần thiết của các hàm kích hoạt phi tuyến (ví dụ: ReLU).
- Thiết lập các hàm mất mát phân loại (ví dụ: Softmax và Cross-Entropy) và hiểu cách chúng đo lường sai số mô hình.
- Giải thích cơ chế của Giảm dần Gradient (GD) và phân biệt giữa các biến thể của nó (SGD, Mini-batch GD) về mặt hội tụ và hiệu quả tính toán.
- Trình bày thuật toán truyền ngược gradient bằng quy tắc dây chuyền và minh họa việc triển khai thông qua đồ thị tính toán để tính toán gradient.
- Xác định các kiến thức toán học cốt lõi (đại số tuyến tính và giải tích đa biến) cần thiết để hiểu tối ưu hóa mạng nơ-ron.
🔹 Bài học 2: Triển khai thực tế và công cụ học sâu
Tổng quan: Bài học này chuyển từ các khái niệm lý thuyết sang triển khai học sâu sẵn sàng sản xuất sử dụng PyTorch – thư viện chính của khóa học. Chúng ta bắt đầu với các yếu tố nền tảng của PyTorch, chi tiết về cấu trúc Tensor, sử dụng CUDA để gia tốc GPU, và hiểu về đạo hàm tự động thông qua đồ thị tính toán động. Một trọng tâm quan trọng sẽ là xử lý dữ liệu hiệu quả: giới thiệu lớp Dataset của PyTorch để trừu tượng hóa dữ liệu và DataLoader để quản lý tập dữ liệu lớn, cho phép ghép nhóm, xáo trộn và tải dữ liệu song song nhiều tiến trình. Cuối cùng, chúng ta sẽ đề cập đến các vấn đề thực tế khi mở rộng quy mô huấn luyện, bao gồm tối ưu hóa quản lý bộ nhớ, các kỹ thuật như tích lũy gradient, và giới thiệu các khái niệm cốt lõi về huấn luyện phân tán (ví dụ: Song song hóa dữ liệu) cần thiết để làm việc với các mô hình vượt quá khả năng GPU đơn. Kết quả học tập:
- Triển khai các thao tác học sâu cốt lõi bằng Tensor của PyTorch và tận dụng tính năng đạo hàm tự động của nó để tính gradient.
- Thiết kế và triển khai các đường dẫn dữ liệu hiệu quả bằng các trừu tượng Dataset và DataLoader của PyTorch để xử lý đầu vào dữ liệu quy mô lớn, được ghép nhóm.
- Cấu hình mô hình và dữ liệu để huấn luyện trên GPU hỗ trợ CUDA nhằm tăng tốc đáng kể quá trình huấn luyện và suy luận.
- Giải thích vai trò của các kỹ thuật tối ưu hóa bộ nhớ, như tích lũy gradient, và hiểu các cơ bản khái niệm về huấn luyện phân tán để mở rộng quy mô.
🔹 Bài học 3: Mạng tích chập: Lớp và Kiến trúc
Tổng quan: Bài học này giới thiệu Mạng nơ-ron tích chập (CNNs), nền tảng của thị giác máy tính hiện đại. Chúng ta sẽ tìm hiểu sâu về các mô-đun nền tảng: Lớp tích chập và Lớp lấy mẫu. Đối với lớp tích chập, chúng ta sẽ đề cập đến toán học vận hành, bao gồm vai trò của kernel (bộ lọc), bước đi (stride), và độ đệm (padding), đồng thời thảo luận các khái niệm quan trọng như kết nối cục bộ và chia sẻ tham số giúp CNN trở nên hiệu quả đối với dữ liệu ảnh chiều cao. Chúng ta sẽ phân biệt giữa Max Pooling và Average Pooling và giải thích vai trò then chốt của chúng trong giảm kích thước và tạo ra tính bất biến dịch chuyển. Cuối cùng, chúng ta sẽ tổng hợp các lớp này thành các kiến trúc CNN cơ bản, minh họa quá trình chuyển đổi tuần tự từ dữ liệu pixel thô thông qua các chồng trích xuất đặc trưng phân cấp đến các lớp kết nối đầy đủ để phân loại cuối cùng, sử dụng các mô hình cổ điển như LeNet-5 như ví dụ đại diện. Kết quả học tập:
- Giải thích toán học của phép tích chập 2D, bao gồm cách kích thước bộ lọc, bước đi và độ đệm ảnh hưởng đến kích thước bản đồ đặc trưng đầu ra.
- Trình bày các khái niệm về kết nối cục bộ và chia sẻ tham số và cách chúng góp phần vào hiệu quả và hiệu suất của CNN so với các mạng kết nối đầy đủ đối với dữ liệu ảnh.
- Phân biệt giữa Max Pooling và Average Pooling, và mô tả mục đích chính của các lớp lấy mẫu trong việc giảm kích thước bản đồ đặc trưng và đạt được tính bất biến dịch chuyển.
- Thiết kế và phân tích một kiến trúc CNN tuần tự cơ bản gồm các lớp xen kẽ tích chập, hàm kích hoạt (ReLU), lấy mẫu và lớp kết nối đầy đủ.
🔹 Bài học 4: Thị giác máy tính: Mô hình nâng cao và giải thích
Tổng quan: Bài học này đi xa hơn các CNN cơ bản (như AlexNet) để khám phá các kiến trúc học sâu tinh vi và có ảnh hưởng lớn được sử dụng trong các nhiệm vụ thị giác máy tính hàng đầu. Chúng ta sẽ phân tích các nguyên lý thiết kế và đổi mới đột phá đằng sau các mô hình quan trọng, bao gồm độ sâu được tối giản của mạng VGG, tích hợp đặc trưng đa mức của Inception (GoogLeNet), và việc sử dụng quan hệ dư thừa (residual connections) trong ResNet để khắc phục vấn đề gradient biến mất trong các mạng cực kỳ sâu. Phần thứ hai của bài học tập trung vào chủ đề then chốt về khả năng giải thích mô hình và AI có thể giải thích được (XAI). Sinh viên sẽ học các kỹ thuật trực quan hóa, chẳng hạn như kiểm tra các hoạt động bản đồ đặc trưng, và đi sâu vào các phương pháp dựa trên gradient để xác định vị trí. Cụ thể, chúng ta sẽ nghiên cứu cơ chế và triển khai của Bản đồ Kích hoạt Lớp (CAM) và phiên bản tổng quát hóa dựa trên gradient của nó, Grad-CAM, giúp trực quan hóa các quyết định của mạng bằng cách nhấn mạnh các vùng nổi bật trong ảnh đầu vào. Kết quả học tập:
- So sánh và đối chiếu các đổi mới kiến trúc cốt lõi (ví dụ: kết nối dư thừa, mô-đun Inception) của các mô hình VGG, GoogLeNet và ResNet.
- Giải thích vai trò và thách thức khi mở rộng độ sâu mạng, đặc biệt là vấn đề suy giảm hiệu suất và cách ResNet giảm thiểu nó.
- Chi tiết các phương pháp cơ bản để trực quan hóa đặc trưng, bao gồm kiểm tra các hoạt động ở tầng trung gian và các bộ lọc đã học.
- Trình bày cơ chế lý thuyết của Bản đồ Kích hoạt Lớp (CAM) và Grad-CAM để tạo ra các giải thích trực quan dựa trên dòng gradient.
- Áp dụng các kỹ thuật giải thích để phân tích và chẩn đoán quy trình ra quyết định của các CNN nâng cao trong các nhiệm vụ phân loại.
🔹 Bài học 5: Mạng nơ-ron hồi tiếp và mô hình hóa chuỗi
Tổng quan: Bài học này giới thiệu những thách thức trong việc mô hình hóa dữ liệu có cấu trúc, cụ thể là chuỗi (ví dụ: văn bản, chuỗi thời gian), vốn vi phạm giả định độc lập thường gặp trong các mạng hồi tiếp. Chúng ta sẽ định nghĩa các nhiệm vụ mô hình hóa chuỗi, như dịch máy, nhận dạng giọng nói và dự đoán chuỗi thời gian, nhấn mạnh nhu cầu về cơ chế duy trì thông tin trạng thái. Trọng tâm chính sẽ là kiến trúc của Mạng nơ-ron hồi tiếp truyền thống (RNNs). Các khái niệm chính được đề cập bao gồm cơ chế chia sẻ trọng số, mở rộng đồ thị tính toán qua các bước thời gian, tính toán cập nhật trạng thái ẩn (h_t), và xử lý các chuỗi đầu vào có độ dài biến đổi. Chúng ta cũng sẽ xem xét các hạn chế chính của RNN cơ bản, đó là không thể nắm bắt các mối liên hệ dài hạn do vấn đề gradient biến mất và bùng nổ xảy ra trong quá trình truyền ngược theo thời gian (BPTT). Kết quả học tập:
- Định nghĩa dữ liệu có cấu trúc (chuỗi) và giải thích vì sao các Mạng hồi tiếp chuẩn (FNNs) không phù hợp để mô hình hóa các mối quan hệ tuần tự.
- Mô tả kiến trúc cơ bản của Mạng nơ-ron hồi tiếp (RNN), xác định các thành phần như trạng thái ẩn và ma trận trọng số chia sẻ.
- Minh họa quá trình "mở rộng" đồ thị tính toán RNN theo các bước thời gian và thảo luận cách xử lý các chuỗi đầu vào có độ dài khác nhau.
- Giải thích cơ chế truyền ngược theo thời gian (BPTT) và phân tích các vấn đề gradient biến mất và bùng nổ vốn tồn tại trong việc huấn luyện RNN truyền thống.
🔹 Bài học 6: Cơ chế chú ý và Kiến trúc Transformer
Tổng quan: Bài học này đi sâu vào cuộc cách mạng tư duy do bài báo "Attention Is All You Need" khởi xướng, chuyển việc mô hình hóa chuỗi khỏi Mạng nơ-ron hồi tiếp (RNNs) bằng cách loại bỏ sự hồi tiếp và chỉ dựa hoàn toàn vào cơ chế chú ý. Chúng ta sẽ trước tiên thiết lập nền tảng toán học của Cơ chế Chú ý, cụ thể là Chú ý Điểm-Tích Được Điều chỉnh (Scaled Dot-Product Attention) sử dụng các vector Truy vấn (Q), Khóa (K), và Giá trị (V). Bài giảng sau đó mở rộng khái niệm này thành Cơ chế Chú ý Nhiều Đầu (Multi-Head Attention), giải thích vai trò của nó trong việc nắm bắt các mối quan hệ ngữ cảnh đa dạng. Trọng tâm chính sẽ là kiến trúc Transformer hoàn chỉnh, phân tích cấu trúc của cả các ngăn Encoder và Decoder, bao gồm các yếu tố then chốt như Kết nối Dư thừa, Chuẩn hóa Tầng, và Mã hóa Vị trí thiết yếu cần thiết để duy trì thông tin tuần tự. Cuối cùng, chúng ta xem xét cách Transformer cho phép song song hóa mạnh mẽ và ảnh hưởng cách mạng của nó lên các lĩnh vực như Dịch máy Neural và các mô hình ngôn ngữ tiền huấn luyện. Kết quả học tập:
- Định nghĩa mục đích của cơ chế chú ý và giải thích cách chúng giải quyết các hạn chế (ví dụ: mối quan hệ dài hạn, nghẽn tắc xử lý tuần tự) của Mạng nơ-ron hồi tiếp.
- Chi tiết thao tác toán học của Chú ý Điểm-Tích Được Điều chỉnh, xác định chính xác vai trò của các vector Truy vấn, Khóa, và Giá trị.
- Mô tả cấu trúc tổng thể của mô hình Transformer, phân biệt giữa các ngăn Encoder và Decoder và giải thích chức năng của Chú ý Nhiều Đầu và Mạng Tiền xử lý.
- Giải thích sự cần thiết và triển khai toán học của Mã hóa Vị trí trong kiến trúc Transformer bất biến hoán vị.
- Phân tích lợi thế tính toán (song song hóa) và tính phổ biến rộng rãi của kiến trúc Transformer trong các nhiệm vụ học sâu hiện đại, tham khảo các mô hình như BERT và GPT.
🔹 Bài học 7: Ứng dụng Xử lý ngôn ngữ tự nhiên và Biểu diễn từ
Tổng quan: Bài giảng này đi sâu vào các khía cạnh nền tảng và ứng dụng của Học sâu cho Xử lý ngôn ngữ tự nhiên (NLP). Chúng ta bắt đầu bằng việc giải quyết nhu cầu thiết yếu về biểu diễn từ hiệu quả, chuyển từ các phương pháp thưa sang các biểu diễn từ mật độ, được học. Các cơ chế cốt lõi của Word2Vec (Skip-gram và CBOW) sẽ được giải thích, nhấn mạnh cách ngữ cảnh tạo ra các biểu diễn vector phong phú, phản ánh ý nghĩa ngữ nghĩa. Sau đó, chúng ta áp dụng các khái niệm nền tảng này vào hai nhiệm vụ NLP lớn: Dịch máy thần kinh (NMT), sử dụng kiến trúc mã hóa - giải mã chuỗi tới chuỗi và vai trò then chốt của Cơ chế Chú ý trong việc xử lý các mối quan hệ dài hạn và sự cân bằng; và Nhận dạng tiếng nói tự động (ASR), khám phá cách các mô hình sâu xử lý các chuỗi thời gian dữ liệu âm thanh để tạo ra đầu ra văn bản. Thảo luận sẽ nhấn mạnh cách biểu diễn từ và các kiến trúc học sâu tuần tự tạo thành xương sống của các hệ thống NLP thương mại hiện đại. Kết quả học tập:
- Giải thích hạn chế của các biểu diễn từ thưa (ví dụ: mã hóa one-hot) và biện minh cho nhu cầu về các biểu diễn vector từ mật độ.
- Mô tả các nguyên lý và kiến trúc cơ bản của các mô hình như Word2Vec (Skip-gram/CBOW) dùng để học các biểu diễn phân tán.
- Trình bày các thành phần cốt lõi (Mã hóa, Giải mã, Chú ý) của hệ thống Dịch máy thần kinh hiện đại, so sánh với các phương pháp truyền thống.
- Phân tích các thách thức vốn có trong các nhiệm vụ chuỗi tới chuỗi như NMT và Nhận dạng tiếng nói tự động (ASR), đặc biệt là về độ dài đầu vào/đầu ra biến đổi.
- Xác định cách các kiến trúc thần kinh được điều chỉnh để xử lý đầu vào âm thanh trong ngữ cảnh Nhận dạng tiếng nói tự động.
🔹 Bài học 8: Mô hình sinh học: VAEs và Mạng đối kháng sinh học
Tổng quan: Bài học này giới thiệu hai mô hình sinh học sâu hiện đại cốt lõi: Mô hình tự mã hóa biến thiên (VAEs) và Mạng đối kháng sinh học (GANs). Chúng ta bắt đầu với VAEs, chi tiết về kiến trúc – một bộ mã hóa ánh xạ dữ liệu thành một phân bố tiềm ẩn được tham số hóa và một bộ giải mã tạo ra các mẫu. Một trọng tâm lớn sẽ là toán học nền tảng, đặc biệt là hàm mục tiêu Lower Bound của Evidence (ELBO), phân tích vai trò của hàm mất mát tái tạo và thành phần độ lệch KL để điều chỉnh. Kỹ thuật Thay thế tham số (Reparameterization Trick) quan trọng, cần thiết để cho phép dòng gradient đi qua quá trình lấy mẫu, sẽ được giải thích kỹ lưỡng. Sau đó, chúng ta chuyển sang GANs, định nghĩa trò chơi đối kháng, tổng bằng không giữa người sinh (G) và người phân biệt (D). Bài giảng đề cập đến hàm giá trị minimax lý thuyết, khám phá cách người phân biệt tối ưu hóa mục tiêu, và thảo luận các thách thức thực tế lớn như hiện tượng đóng băng chế độ (mode collapse) và bất ổn trong huấn luyện. Cuối cùng, chúng ta cung cấp một so sánh định tính, đối chiếu không gian tiềm ẩn dễ hiểu của VAEs với chất lượng mẫu vượt trội của GANs. Kết quả học tập:
- Phân biệt giữa mô hình phân biệt và mô hình sinh học và giải thích mục tiêu toán học của việc học các phân bố dữ liệu phức tạp.
- Giải thích kiến trúc của Mô hình tự mã hóa biến thiên (VAE) và chứng minh hàm mục tiêu Lower Bound của Evidence (ELBO).
- Phân tích sự cần thiết và chức năng của kỹ thuật Thay thế tham số trong huấn luyện VAE để đảm bảo truyền ngược hiệu quả.
- Mô tả quy trình huấn luyện của Mạng đối kháng sinh học (GAN) như một trò chơi minimax giữa Người sinh và Người phân biệt.
- So sánh và đối chiếu VAEs và GANs dựa trên chất lượng mẫu, khả năng giải thích không gian tiềm ẩn, và các thách thức huấn luyện phổ biến như hiện tượng đóng băng chế độ.
🔹 Bài học 9: Học tăng cường sâu
Tổng quan: Bài học này giới thiệu Học tăng cường sâu (DRL) bằng cách thiết lập khung nền tảng ra quyết định, đó là Quyết định Markov (MDP). Chúng ta sẽ định nghĩa vòng lặp tác nhân-môi trường, không gian trạng thái và hành động, và mục tiêu tối đa hóa phần thưởng được_discount kỳ vọng. Các khái niệm cốt lõi của RL truyền thống sẽ được đề cập, bao gồm Hàm Giá trị và Phương trình Bellman Tối ưu. Bài học sau đó chuyển sang DRL, khám phá các thách thức của không gian trạng thái lớn và cách Mạng Q Sâu (DQN) vượt qua điều này bằng cách sử dụng mạng nơ-ron để xấp xỉ hàm Q. Chúng ta sẽ chi tiết các kỹ thuật ổn định cần thiết cho DQN, như lưu trữ trải nghiệm và mạng mục tiêu. Cuối cùng, chúng ta so sánh các phương pháp dựa trên giá trị với các phương pháp dựa trên chính sách, mô tả trực giác toán học phía sau thuật toán REINFORCE để tối ưu hóa chính sách trực tiếp và đặt nền móng cho các kiến trúc Actor-Critic tiên tiến hơn. Kết quả học tập:
- Công thức hóa các bài toán ra quyết định tuần tự bằng khung MDP, bao gồm định nghĩa trạng thái, hành động, phần thưởng và hàm giá trị.
- Giải thích quá trình chuyển từ học Q bảng sang Mạng Q Sâu (DQN) và xác định các kỹ thuật then chốt (lưu trữ trải nghiệm, mạng mục tiêu) được dùng để ổn định huấn luyện DRL.
- Phân biệt căn bản giữa các phương pháp dựa trên giá trị (như DQN) và phương pháp dựa trên chính sách (như REINFORCE).
- Mô tả hàm mục tiêu và trực giác toán học phía sau Định lý Gradient Chính sách và việc triển khai nó trong thuật toán REINFORCE.
- So sánh ứng dụng của các phương pháp dựa trên giá trị và dựa trên chính sách trong các tình huống học sâu hiện đại.
🔹 Bài học 10: Các khuôn khổ học tập nâng cao và AI đạo đức
Tổng quan: Bài học này giới thiệu các khuôn khổ học sâu nâng cao cần thiết cho triển khai vững chắc và xem xét các hệ quả xã hội quan trọng. Trước tiên, chúng ta khám phá nền tảng lý thuyết và ứng dụng thực tiễn của Học sâu vô giám sát, tập trung vào các mô hình như Tự mã hóa và Mô hình sinh học khi được dùng cho học biểu diễn và phát hiện bất thường. Tiếp theo, chúng ta đi sâu vào các kỹ thuật Học bán giám sát (SSL), như đánh nhãn giả và điều chỉnh nhất quán (ví dụ: \Pi-Model, MixMatch), vốn rất quan trọng để tận dụng lượng lớn dữ liệu chưa gán nhãn cùng với các ví dụ có gán nhãn hiếm hoi. Phần thứ hai của bài học phê phán việc xem xét AI đạo đức, mô tả cách thu thập dữ liệu và lựa chọn kiến trúc tạo ra Sự thiên vị thuật toán. Chúng ta định nghĩa và phân tích các chỉ số công bằng then chốt (ví dụ: Hiệu suất Đồng đều, Bình đẳng Dân số) và thảo luận các chiến lược giảm thiểu hiệu quả, nhấn mạnh tầm quan trọng của khả năng giải thích mô hình (XAI) và trách nhiệm trong các hệ thống học sâu có tính chất quyết định cao. Kết quả học tập:
- Phân biệt giữa học sâu vô giám sát, học bán giám sát và học sâu chuẩn, xác định các tình huống thực tế phù hợp với từng khuôn khổ.
- Mô tả chức năng và kiến trúc của các mô hình vô giám sát chính, như Tự mã hóa và cách sử dụng chúng trong giảm chiều hoặc học biểu diễn.
- Giải thích phương pháp của các kỹ thuật bán giám sát hiện đại, bao gồm các khái niệm về đánh nhãn giả và điều chỉnh nhất quán.
- Xác định và phân loại các nguồn gốc chính của sự thiên vị thuật toán được đưa vào suốt chu trình học sâu (thu thập dữ liệu, mô hình hóa, triển khai).
- Định nghĩa và so sánh các chỉ số công bằng thuật toán phổ biến (ví dụ: Đồng nhất hóa Nghĩa vụ) và thảo luận các thỏa hiệp vốn có trong các chiến lược giảm thiểu thiên vị.