Quay lại Khóa học
AI011 Professional

Trí tuệ nhân tạo sinh ra cho người mới bắt đầu

Chương trình toàn diện khám phá các nền tảng của Trí tuệ nhân tạo sinh ra, Mô hình Ngôn ngữ quy mô lớn, kỹ thuật lập trình câu lệnh và việc phát triển ứng dụng được hỗ trợ bởi AI bằng các công cụ như Azure OpenAI và Power Platform.

5.0
21h
615 học viên
0 lượt thích
Trí tuệ nhân tạo

Tổng quan khóa học

📚 Tóm tắt nội dung

Một chương trình học toàn diện khám phá các nền tảng của Trí tuệ nhân tạo sinh tạo (Generative AI), các Mô hình Ngôn ngữ lớn (LLMs), kỹ thuật lập trình lời nhắc (prompt engineering) và việc phát triển ứng dụng dựa trên AI sử dụng các công cụ như Azure OpenAI và Power Platform.

Thành thạo các nền tảng của Trí tuệ nhân tạo sinh tạo và xây dựng các ứng dụng thông minh từ đầu.

Ghi nhận: Microsoft, Azure và OpenAI.

🎯 Mục tiêu học tập

  1. Giải thích cách hoạt động cơ chế bên trong của LLMs, bao gồm quá trình token hóa, cơ chế chú ý (attention mechanism) và kết quả không xác định.
  2. So sánh các loại LLM khác nhau (Mô hình nền tảng, mã nguồn mở so với sở hữu, kiến trúc Encoder/Decoder) để lựa chọn công cụ phù hợp cho tình huống kinh doanh.
  3. Đánh giá các chiến lược cải thiện kết quả mô hình, đặc biệt là việc lựa chọn giữa Kỹ thuật lập trình lời nhắc (Prompt Engineering), Tăng cường truy xuất (Retrieval Augmented Generation - RAG) và Tinh chỉnh mô hình (Fine-tuning).
  4. Định nghĩa Kỹ thuật lập trình lời nhắc và giải thích vai trò của nó như giao diện lập trình chính cho AI sinh tạo.
  5. Phân biệt giữa LLM cơ bản và LLM được điều chỉnh theo hướng dẫn (Instruction-Tuned LLMs) và cách chúng xử lý token.
  6. Xây dựng lời nhắc phức tạp bằng cách sử dụng chỉ dẫn, nội dung chính, gợi ý và mẫu (template).
  7. Xây dựng và cấu hình ứng dụng sinh văn bản bằng thư viện openai, quản lý biến môi trường và điều chỉnh độ đa dạng đầu ra thông qua nhiệt độ (temperature).
  8. Phân biệt giữa chatbot dựa trên quy tắc và ứng dụng AI sinh tạo nhận biết ngữ cảnh, đồng thời triển khai Sáu Nguyên tắc của AI Có trách nhiệm từ Microsoft.
  9. Thực hiện tìm kiếm ngữ nghĩa bằng cách chuyển đổi văn bản thành embedding (vectơ) và áp dụng độ tương đồng cosin để tìm nội dung liên quan ngoài việc khớp từ khóa đơn giản.
  10. Xây dựng và cấu hình ứng dụng sinh ảnh đồng thời triển khai "lời nhắc meta" để xác định giới hạn nội dung và đảm bảo an toàn.

🔹 Bài học 1: Nền tảng và đạo đức của Trí tuệ nhân tạo sinh tạo

Tổng quan: Bài học này cung cấp một cái nhìn toàn diện về Trí tuệ nhân tạo sinh tạo, theo dõi hành trình phát triển từ học máy thống kê đến các Mô hình Ngôn ngữ lớn (LLMs) dựa trên Transformer hiện đại. Người học sẽ tìm hiểu cách các mô hình này vận hành thông qua token hóa và xác suất, cách lựa chọn và tối ưu hóa các loại mô hình khác nhau (mã nguồn mở so với sở hữu), cùng với khung đánh giá quan trọng về nguyên tắc AI có trách nhiệm nhằm giảm thiểu rủi ro như hiện tượng “ảo giác” (hallucinations) và thiên vị.

Kết quả học tập:

  • Giải thích cách hoạt động cơ chế bên trong của LLMs, bao gồm quá trình token hóa, cơ chế chú ý (attention mechanism) và kết quả không xác định.
  • So sánh các loại LLM khác nhau (Mô hình nền tảng, mã nguồn mở so với sở hữu, kiến trúc Encoder/Decoder) để lựa chọn công cụ phù hợp cho tình huống kinh doanh.
  • Đánh giá các chiến lược cải thiện kết quả mô hình, đặc biệt là việc lựa chọn giữa Kỹ thuật lập trình lời nhắc (Prompt Engineering), Tăng cường truy xuất (Retrieval Augmented Generation - RAG) và Tinh chỉnh mô hình (Fine-tuning).

🔹 Bài học 2: Nghệ thuật và khoa học của Kỹ thuật lập trình lời nhắc

Tổng quan: Bài học này khám phá Kỹ thuật lập trình lời nhắc (PE) như quá trình thiết kế và tối ưu hóa đầu vào văn bản (lời nhắc) nhằm định hướng các Mô hình Ngôn ngữ lớn (LLMs) tạo ra phản hồi chất lượng cao, nhất quán. Học viên sẽ tiến từ việc hiểu cơ chế cơ bản về token hóa và loại mô hình đến áp dụng các kỹ thuật nâng cao như lập luận chuỗi (Chain-of-thought) và gợi mở (Maieutic prompting) nhằm khắc phục các hạn chế của mô hình như tính ngẫu nhiên và sự tạo dựng giả mạo.

Kết quả học tập:

  • Định nghĩa Kỹ thuật lập trình lời nhắc và giải thích vai trò của nó như giao diện lập trình chính cho AI sinh tạo.
  • Phân biệt giữa LLM cơ bản và LLM được điều chỉnh theo hướng dẫn (Instruction-Tuned LLMs) và cách chúng xử lý token.
  • Xây dựng lời nhắc phức tạp bằng cách sử dụng chỉ dẫn, nội dung chính, gợi ý và mẫu (template).

🔹 Bài học 3: Phát triển các ứng dụng AI cốt lõi

Tổng quan: Bài học này khám phá việc phát triển thực tế các công cụ dựa trên AI, tập trung vào sinh văn bản, giao diện trò chuyện nhận biết ngữ cảnh và các ứng dụng tìm kiếm ngữ nghĩa. Người học sẽ chuyển từ tích hợp API cơ bản và điều chỉnh tham số (nhiệt độ và số token) sang triển khai các tính năng nâng cao như embedding văn bản, độ tương đồng cosin và các khuôn khổ AI có trách nhiệm.

Kết quả học tập:

  • Xây dựng và cấu hình ứng dụng sinh văn bản bằng thư viện openai, quản lý biến môi trường và điều chỉnh độ đa dạng đầu ra thông qua nhiệt độ (temperature).
  • Phân biệt giữa chatbot dựa trên quy tắc và ứng dụng AI sinh tạo nhận biết ngữ cảnh, đồng thời triển khai Sáu Nguyên tắc của AI Có trách nhiệm từ Microsoft.
  • Thực hiện tìm kiếm ngữ nghĩa bằng cách chuyển đổi văn bản thành embedding (vectơ) và áp dụng độ tương đồng cosin để tìm nội dung liên quan ngoài việc khớp từ khóa đơn giản.

🔹 Bài học 4: Giải pháp AI ít mã hóa và tích hợp

Tổng quan: Nội dung này đề cập đến ba trụ cột tiên tiến trong triển khai AI: xây dựng ứng dụng sinh ảnh sử dụng các mô hình như DALL-E và Midjourney, phát triển giải pháp ít mã hóa thông qua nền tảng Power Platform của Microsoft, và nâng cao khả năng của LLM thông qua "gọi hàm" (function calling). Nội dung tập trung vào triển khai thực tế, từ tích hợp API dựa trên Python đến phát triển ứng dụng bằng ngôn ngữ tự nhiên và kết nối AI với các nguồn dữ liệu bên ngoài.

Kết quả học tập:

  • Xây dựng và cấu hình ứng dụng sinh ảnh đồng thời triển khai "lời nhắc meta" để xác định giới hạn nội dung và đảm bảo an toàn.
  • Thiết kế ứng dụng AI ít mã hóa và quy trình tự động hóa bằng Copilot, Dataverse và AI Builder trong Power Platform.
  • Triển khai gọi hàm để đảm bảo đầu ra dữ liệu có cấu trúc nhất quán (JSON) và tích hợp LLM với các API bên ngoài.

🔹 Bài học 5: Trải nghiệm người dùng, bảo mật và vòng đời ứng dụng

Tổng quan: Bài học này đề cập đến điểm giao thoa quan trọng giữa trải nghiệm người dùng (UX), các quy trình bảo mật và vòng đời vận hành đặc biệt dành cho ứng dụng Trí tuệ nhân tạo sinh tạo. Nó khám phá cách xây dựng niềm tin thông qua tính minh bạch, xác định các mối đe dọa bảo mật AI đặc thù như tấn công làm nhiễu dữ liệu và xâm nhập lời nhắc, đồng thời nêu rõ quá trình chuyển đổi từ MLOps truyền thống sang LLMOps để quản lý vòng đời ứng dụng.

Kết quả học tập:

  • Thiết kế giao diện AI thúc đẩy niềm tin và tính minh bạch thông qua tính giải thích và kiểm soát người dùng.
  • Nhận diện và giảm thiểu các rủi ro bảo mật đặc thù AI bao gồm làm nhiễu dữ liệu, xâm nhập lời nhắc và các lỗ hổng trong chuỗi cung ứng.
  • Phân biệt giữa MLOps và LLMOps và giải thích các giai đoạn trong vòng đời ứng dụng Trí tuệ nhân tạo sinh tạo (Tư duy ý tưởng, Xây dựng, Vận hành).

🔹 Bài học 6: Hệ thống truy xuất nâng cao và hệ thống tác nhân

Tổng quan: Bài học này đề cập đến quá trình chuyển đổi từ tương tác LLM cơ bản sang các hệ thống phức tạp sử dụng Tăng cường truy xuất (Retrieval Augmented Generation - RAG) và các Tác nhân AI tự chủ. Người học sẽ khám phá cách định vị mô hình bằng dữ liệu riêng tư thông qua cơ sở dữ liệu vectơ và cách mở rộng khả năng của LLM thông qua các khung tác nhân có thể lập kế hoạch, sử dụng công cụ và tương tác với các tác nhân khác.

Kết quả học tập:

  • Giải thích quy trình kỹ thuật của RAG, bao gồm chia nhỏ (chunking), embedding và truy xuất ngữ nghĩa.
  • So sánh và lựa chọn mô hình mã nguồn mở phù hợp (Llama 2, Mistral, Falcon) dựa trên chi phí, khả năng tùy chỉnh và hiệu suất.
  • Phân biệt giữa các khung tác nhân AI chính (LangChain, AutoGen, TaskWeaver, JARVIS) và các trường hợp sử dụng cụ thể của từng cái.

🔹 Bài học 7: Tinh chỉnh mô hình và kiến trúc chuyên biệt

Tổng quan: Bài học này đề cập đến quá trình chuyển đổi từ kỹ thuật lập trình lời nhắc tổng quát sang tối ưu hóa mô hình thông qua tinh chỉnh có giám sát và sử dụng các Mô hình Ngôn ngữ Nhỏ chuyên biệt (SLMs). Nó cung cấp phân tích so sánh giữa các họ mô hình Microsoft Phi, Mistral và Meta Llama, mô tả các thỏa hiệp kiến trúc về kích thước, yêu cầu tính toán và khả năng đa phương tiện để triển khai trên môi trường đám mây và biên (edge).

Kết quả học tập:

  • Định nghĩa tinh chỉnh mô hình và xác định khi nào nên sử dụng nó thay vì lập trình lời nhắc hoặc Tăng cường truy xuất (RAG).
  • So sánh đặc điểm của Mô hình Ngôn ngữ Lớn (LLMs) và Mô hình Ngôn ngữ Nhỏ (SLMs) về kích thước, khả năng hiểu và tốc độ suy diễn.
  • Xác định các đặc điểm độc đáo và trường hợp sử dụng cho các họ mô hình Phi-3.5, Mistral (Large/Small/NeMo) và Llama (3.1/3.2).