Quay lại Khóa học
AI010 Professional

Giới thiệu về Mô hình Ngôn ngữ Lớn cho Nhà phát triển

Khóa học này là phiên bản thích nghi dành cho người Trung Quốc của chuỗi ba khóa học về mô hình ngôn ngữ lớn do Andrew Ng và OpenAI cùng phát hành. Khóa học bao gồm kỹ thuật lập trình lời nhắc (Prompt Engineering), xây dựng hệ thống với API ChatGPT, phát triển ứng dụng LangChain và sử dụng LangChain để truy cập dữ liệu riêng tư. Khóa học cung cấp một giới thiệu rõ ràng và dễ tiếp cận về cách tận dụng khả năng của các mô hình ngôn ngữ lớn để xây dựng ứng dụng với các chức năng tóm tắt, suy luận, chuyển đổi, mở rộng và trò chuyện.

4.8
24h
916 học viên
8 lượt thích
Trí tuệ nhân tạo

Tổng quan khóa học

📚 Tóm tắt nội dung

Khóa học này là bản điều chỉnh tiếng Trung của loạt bài học ba phần về Mô hình Ngôn ngữ Lớn (LLM) do Andrew Ng và OpenAI cùng phát triển. Khóa học bao gồm kỹ thuật Prompt Engineering, xây dựng hệ thống dựa trên API ChatGPT, phát triển ứng dụng với LangChain, và sử dụng LangChain để truy cập dữ liệu riêng tư. Khóa học cung cấp một giới thiệu sâu sắc nhưng dễ tiếp cận về việc tận dụng khả năng của LLM để phát triển các ứng dụng có chức năng tóm tắt, suy luận, chuyển đổi, mở rộng và trò chuyện.

Thành thạo kỹ thuật Prompt Engineering và khung LangChain để trở thành nhà phát triển ứng dụng AI trong thời đại mô hình lớn.

🎯 Mục tiêu học tập

  1. Phân biệt giữa LLM cơ sở và LLM được điều chỉnh theo hướng dẫn.
  2. Áp dụng bốn chiến lược cụ thể để viết chỉ dẫn rõ ràng và chính xác (dấu phân cách, đầu ra có cấu trúc, kiểm tra điều kiện, và gợi ý ít ví dụ).
  3. Triển khai các chiến lược giúp mô hình "có thời gian suy nghĩ" bằng cách xác định các bước nhiệm vụ và yêu cầu giải quyết vấn đề độc lập.
  4. Thực hiện Xử lý văn bản có cấu trúc: Tóm tắt và trích xuất thông tin cụ thể từ một hoặc nhiều tài liệu đồng thời kiểm soát độ dài và trọng tâm đầu ra.
  5. Thực hiện Phân tích văn bản tự động: Phân loại cảm xúc, xác định cảm xúc cụ thể, và thực hiện phân loại chủ đề không cần huấn luyện (zero-shot) bằng chỉ dẫn.
  6. Thực hiện Chuyển đổi đa phương thức: Dịch ngôn ngữ, chuyển đổi định dạng dữ liệu (ví dụ: JSON sang HTML), và sửa lỗi ngữ pháp/chính tả theo chương trình.
  7. Phân biệt giữa LLM cơ sở và LLM được điều chỉnh theo hướng dẫn, đồng thời hiểu tác động của việc mã hóa token đến hành vi mô hình.
  8. Triển khai kiến trúc hệ thống có cấu trúc bằng cách sử dụng vai trò tin nhắn System, User và Assistant để xác định tính cách mô hình.
  9. Áp dụng kỹ thuật phân loại và kiểm duyệt để đánh giá đầu vào người dùng về mặt an toàn và định tuyến.
  10. Triển khai Chuỗi Prompt: Phân tích nhiệm vụ phức tạp thành các nhiệm vụ con nhỏ gọn để tăng độ tin cậy và giảm chi phí.

🔹 Bài học 1: Nguyên tắc Prompt và Phát triển lặp lại

Tổng quan: Bài học này trình bày các nguyên tắc nền tảng của kỹ thuật Prompt Engineering dành cho nhà phát triển, chuyển từ "LLM cơ sở" đơn giản sang "LLM được điều chỉnh theo hướng dẫn". Nó giới thiệu hai trụ cột chính cho tương tác hiệu quả: viết chỉ dẫn rõ ràng, cụ thể và cho phép mô hình có đủ "thời gian suy nghĩ". Ngoài ra, nó thiết lập quy trình làm việc lặp lại để tinh chỉnh prompt nhằm đáp ứng các yêu cầu kinh doanh cụ thể như giới hạn độ dài và định dạng.

Kết quả học tập:

  • Phân biệt giữa LLM cơ sở và LLM được điều chỉnh theo hướng dẫn.
  • Áp dụng bốn chiến lược cụ thể để viết chỉ dẫn rõ ràng và chính xác (dấu phân cách, đầu ra có cấu trúc, kiểm tra điều kiện, và gợi ý ít ví dụ).
  • Triển khai các chiến lược giúp mô hình "có thời gian suy nghĩ" bằng cách xác định các bước nhiệm vụ và yêu cầu giải quyết vấn đề độc lập.

🔹 Bài học 2: Các khả năng cơ bản của Prompt và Chatbot

Tổng quan: Bài học này khám phá ứng dụng thực tế của Mô hình Ngôn ngữ Lớn (LLM) trong năm lĩnh vực chính: Tóm tắt, Suy luận, Chuyển đổi, Mở rộng và xây dựng Chatbot tương tác. Nó cung cấp cho nhà phát triển hướng dẫn thực hành sử dụng Python và API OpenAI để xử lý văn bản, trích xuất dữ liệu có cấu trúc, điều chỉnh phong cách ngôn ngữ và duy trì ngữ cảnh hội thoại cho các ứng dụng thực tế như bot hỗ trợ khách hàng.

Kết quả học tập:

  • Thực hiện Xử lý văn bản có cấu trúc: Tóm tắt và trích xuất thông tin cụ thể từ một hoặc nhiều tài liệu đồng thời kiểm soát độ dài và trọng tâm đầu ra.
  • Thực hiện Phân tích văn bản tự động: Phân loại cảm xúc, xác định cảm xúc cụ thể, và thực hiện phân loại chủ đề không cần huấn luyện (zero-shot) bằng chỉ dẫn.
  • Thực hiện Chuyển đổi đa phương thức: Dịch ngôn ngữ, chuyển đổi định dạng dữ liệu (ví dụ: JSON sang HTML), và sửa lỗi ngữ pháp/chính tả theo chương trình.

🔹 Bài học 3: Logic Hệ thống: Phân loại đầu vào và Suy luận

Tổng quan: Bài học này khám phá cơ chế cơ bản của Mô hình Ngôn ngữ Lớn (LLM), đi từ việc mã hóa token cơ bản và vai trò tin nhắn đến các chiến lược xử lý đầu vào nâng cao. Học viên sẽ học cách xây dựng hệ thống mạnh mẽ bằng cách phân loại ý định người dùng, kiểm duyệt nội dung vì an toàn, và triển khai suy luận Chuỗi Tư duy (CoT) để cải thiện độ chính xác và kiểm soát trải nghiệm người dùng qua "bản ghi nội tâm".

Kết quả học tập:

  • Phân biệt giữa LLM cơ sở và LLM được điều chỉnh theo hướng dẫn, đồng thời hiểu tác động của việc mã hóa token đến hành vi mô hình.
  • Triển khai kiến trúc hệ thống có cấu trúc bằng cách sử dụng vai trò tin nhắn System, User và Assistant để xác định tính cách mô hình.
  • Áp dụng kỹ thuật phân loại và kiểm duyệt để đánh giá đầu vào người dùng về mặt an toàn và định tuyến.

🔹 Bài học 4: Quy trình phức tạp và Đánh giá Hệ thống

Tổng quan: Bài học này đề cập đến sự chuyển dịch từ các prompt đơn giản sang các quy trình LLM phức tạp, đa bước. Nó tập trung vào "Chuỗi Prompt" để phân tích nhiệm vụ, triển khai lớp bảo mật thông qua API Kiểm duyệt, và thiết lập các khung đánh giá nghiêm ngặt — cả đối với trường hợp có một câu trả lời đúng duy nhất và những trường hợp yêu cầu đánh giá chủ quan, dựa trên thang điểm.

Kết quả học tập:

  • Triển khai Chuỗi Prompt: Phân tích nhiệm vụ phức tạp thành các nhiệm vụ con nhỏ gọn để tăng độ tin cậy và giảm chi phí.
  • Xây dựng Hệ thống An toàn Toàn diện: Tích hợp các cơ chế kiểm duyệt đầu vào/đầu ra và kiểm tra sự thật vào một quy trình sẵn sàng sản xuất.
  • Phát triển Chiến lược Đánh giá: Tạo bộ dữ liệu xác minh để đo lường hiệu suất LLM bằng cách so sánh với câu trả lời "lý tưởng" và thang điểm do LLM hỗ trợ.

🔹 Bài học 5: Cơ bản LangChain: Mô hình, Prompt và Bộ nhớ

Tổng quan: Bài học này giới thiệu các thành phần cốt lõi của khung LangChain, đặc biệt tập trung vào việc trừu tượng hóa tương tác với Mô hình Ngôn ngữ Lớn (LLM). Nó bao gồm việc chuyển từ gọi API trực tiếp sang sử dụng các thành phần modular của LangChain: Mô hình, Mẫu Prompt và Bộ phân tích Đầu ra, đồng thời kết thúc bằng một nghiên cứu sâu về bốn chiến lược Bộ nhớ khác nhau để duy trì trạng thái hội thoại.

Kết quả học tập:

  • Triển khai các cuộc gọi LLM cơ bản bằng cách sử dụng ChatOpenAI và các thành phần modular của LangChain.
  • Xây dựng cấu trúc ChatPromptTemplate tái sử dụng để quản lý logic prompt phức tạp và biến số.
  • Trích xuất dữ liệu có cấu trúc (JSON/Dictionary Python) từ phản hồi không có cấu trúc của LLM bằng StructuredOutputParser.

🔹 Bài học 6: Chuỗi LangChain, Hỏi-Đáp và Đại diện Tự động

Tổng quan: Bài học này khám phá các khối xây dựng kiến trúc cốt lõi của LangChain, chuyển từ các chuỗi hoàn thành prompt tuyến tính đơn giản sang các hệ thống phức tạp, dựa trên logic. Học viên sẽ học cách phối hợp nhiều cuộc gọi LLM thông qua Chuỗi, triển khai Tăng cường Truy xuất (Q&A) trên tài liệu riêng tư bằng kho vector, và triển khai Đại diện Tự động sử dụng suy luận để chọn và thực thi công cụ. Tài liệu nhấn mạnh việc vượt xa tương tác đơn lẻ bằng prompt hướng tới các ứng dụng LLM tự động, mở rộng.

Kết quả học tập:

  • Xây dựng các quy trình tuần tự và phức tạp đa bước bằng SequentialChain và RouterChain.
  • Xây dựng hệ thống hỏi-đáp dựa trên tài liệu bằng cách sử dụng nhúng (embeddings), kho vector và chuỗi RetrievalQA.
  • Triển khai đánh giá tự động ứng dụng LLM bằng QAGenerateChain và QAEvalChain.

🔹 Bài học 7: Chuẩn bị Dữ liệu Riêng tư: Tải và Biến đổi Vector

Tổng quan: Bài học này đề cập đến các giai đoạn ban đầu khi xây dựng hệ thống Tăng cường Truy xuất (RAG) sử dụng LangChain. Nó hướng dẫn nhà phát triển tải dữ liệu không có cấu trúc từ nhiều nguồn khác nhau (PDF, YouTube, Web, Notion), chia nhỏ dữ liệu thành các đoạn có ý nghĩa ngữ nghĩa, và chuyển đổi các đoạn đó thành các nhúng số học để lưu trữ và tìm kiếm tương tự trong cơ sở dữ liệu vector.

Kết quả học tập:

  • Triển khai các Bộ tải Tài liệu LangChain khác nhau để nhập dữ liệu từ PDF, âm thanh YouTube, URL web và cơ sở dữ liệu Notion.
  • Cấu hình và so sánh các Bộ chia Văn bản khác nhau (ký tự, đệ quy, token và Markdown) bằng các tham số như chunk_size và chunk_overlap.
  • Thực hiện quá trình Biến đổi Vector bằng cách tạo nhúng và lưu trữ chúng vào kho vector Chroma để hỗ trợ tìm kiếm tương tự ngữ nghĩa.

🔹 Bài học 8: Tăng cường Truy xuất (RAG) và Tương tác

Tổng quan: Tài liệu này khám phá sự chuyển dịch từ tìm kiếm ngữ nghĩa cơ bản sang các kỹ thuật truy xuất tiên tiến và tương tác hội thoại trong ứng dụng LLM. Nó đề cập đến các kỹ thuật truy xuất tinh vi — như Maximum Marginal Relevance (MMR), lọc theo nhãn metadata, và nén ngữ cảnh — trước khi minh họa cách xây dựng các chuỗi hỏi-đáp có trạng thái và chatbot đầy đủ chức năng bằng các thành phần bộ nhớ và giao diện người dùng của LangChain.

Kết quả học tập:

  • Triển khai các chiến lược truy xuất nâng cao (MMR, Tự hỏi, Nén) để cải thiện độ đa dạng và liên quan của tài liệu được truy xuất.
  • So sánh và triển khai các kiểu chuỗi khác nhau (stuff, MapReduce, Refine) để xử lý ngữ cảnh đã truy xuất trong các nhiệm vụ hỏi-đáp.
  • Xây dựng giao diện chatbot có trạng thái bằng ConversationalRetrievalChain và ConversationBufferMemory để duy trì ngữ cảnh hội thoại.