Kembali ke Kursus
AI010 Professional

Pengantar LLM bagi Pengembang

Kursus ini adalah versi yang disesuaikan dengan budaya Tiongkok dari seri tiga kursus model bahasa besar yang bersama-sama diluncurkan oleh Andrew Ng dan OpenAI. Kursus ini mencakup Teknik Prompt, pembuatan sistem dengan API ChatGPT, pengembangan aplikasi LangChain, serta penggunaan LangChain untuk mengakses data pribadi. Kursus ini memberikan pengantar yang jelas dan mudah dipahami tentang bagaimana memanfaatkan kemampuan model bahasa besar untuk membangun aplikasi dengan fungsi ringkasan, inferensi, transformasi, ekspansi, dan percakapan.

4.8
24h
916 siswa
8 suka
Kecerdasan Buatan

Gambaran Umum Kursus

📚 Ringkasan Konten

Kursus ini merupakan adaptasi bahasa Mandarin dari seri tiga bagian tentang Model Bahasa Besar (LLM) yang dikembangkan bersama oleh Andrew Ng dan OpenAI. Kursus ini mencakup Teknik Prompt, pembangunan sistem berbasis API ChatGPT, pengembangan aplikasi LangChain, serta penggunaan LangChain untuk mengakses data pribadi. Kursus ini memberikan pengantar mendalam namun mudah dipahami dalam memanfaatkan kemampuan LLM untuk mengembangkan aplikasi dengan fungsi ringkasan, inferensi, transformasi, ekspansi, dan obrolan.

Kelola Teknik Prompt dan kerangka kerja LangChain untuk menjadi pengembang aplikasi AI di era model besar.

🎯 Tujuan Pembelajaran

  1. Membedakan antara LLM dasar dan LLM yang disesuaikan instruksi.
  2. Menerapkan empat strategi khusus untuk menulis instruksi yang jelas dan spesifik (pemisah, output terstruktur, pemeriksaan kondisi, dan prompting sedikit contoh).
  3. Menerapkan strategi agar model "memiliki waktu berpikir" dengan menentukan langkah tugas dan mensyaratkan pemecahan masalah secara mandiri.
  4. Melaksanakan Pemrosesan Teks Terstruktur: Merangkum dan mengekstrak informasi tertentu dari satu atau beberapa dokumen sambil mengendalikan panjang dan fokus output.
  5. Melakukan Analisis Teks Otomatis: Mengkategorikan sentimen, mengidentifikasi emosi tertentu, dan melaksanakan klasifikasi topik zero-shot menggunakan prompt.
  6. Melaksanakan Transformasi Multi-modal: Menerjemahkan antar bahasa, mengubah format data (misalnya JSON ke HTML), dan secara otomatis memperbaiki tata bahasa/kosakata.
  7. Membedakan antara LLM dasar dan LLM yang disesuaikan instruksi sambil memahami dampak tokenisasi terhadap perilaku model.
  8. Menerapkan arsitektur sistem terstruktur menggunakan peran pesan System, User, dan Assistant untuk menentukan persona model.
  9. Menerapkan teknik klasifikasi dan moderasi untuk menilai input pengguna dari segi keamanan dan penjadwalan.
  10. Menerapkan Rantai Prompt: Memecah tugas kompleks menjadi sub-tugas yang dapat dikelola untuk meningkatkan keandalan dan mengurangi biaya.

🔹 Pelajaran 1: Prinsip Prompt dan Pengembangan Iteratif

Gambaran Umum: Pelajaran ini membahas prinsip dasar rekayasa prompt bagi pengembang, beralih dari "LLM dasar" menuju "LLM yang disesuaikan instruksi". Ini memperkenalkan dua pilar utama interaksi efektif: menulis instruksi yang jelas dan spesifik, serta memberi model cukup "waktu berpikir". Selain itu, pelajaran ini menetapkan alur kerja iteratif untuk menyempurnakan prompt agar sesuai dengan kebutuhan bisnis tertentu, seperti batasan panjang dan kebutuhan format.

Hasil Pembelajaran:

  • Membedakan antara LLM dasar dan LLM yang disesuaikan instruksi.
  • Menerapkan empat strategi khusus untuk menulis instruksi yang jelas dan spesifik (pemisah, output terstruktur, pemeriksaan kondisi, dan prompting sedikit contoh).
  • Menerapkan strategi agar model "memiliki waktu berpikir" dengan menentukan langkah tugas dan mensyaratkan pemecahan masalah secara mandiri.

🔹 Pelajaran 2: Kemampuan Dasar Prompt dan Chatbot

Gambaran Umum: Pelajaran ini menjelajahi aplikasi praktis Model Bahasa Besar (LLM) di lima bidang fungsional utama: Merangkum, Menarik Kesimpulan, Mengubah, Memperluas, dan membangun chatbot interaktif. Ini memberikan panduan langsung kepada pengembang untuk menggunakan Python dan API OpenAI dalam memproses teks, mengekstrak data terstruktur, menyesuaikan gaya bahasa, serta mempertahankan konteks percakapan untuk aplikasi dunia nyata seperti bot layanan pelanggan.

Hasil Pembelajaran:

  • Melaksanakan Pemrosesan Teks Terstruktur: Merangkum dan mengekstrak informasi tertentu dari satu atau beberapa dokumen sambil mengendalikan panjang dan fokus output.
  • Melakukan Analisis Teks Otomatis: Mengkategorikan sentimen, mengidentifikasi emosi tertentu, dan melaksanakan klasifikasi topik zero-shot menggunakan prompt.
  • Melaksanakan Transformasi Multi-modal: Menerjemahkan antar bahasa, mengubah format data (misalnya JSON ke HTML), dan secara otomatis memperbaiki tata bahasa/kosakata.

🔹 Pelajaran 3: Logika Sistem: Klasifikasi Input dan Berpikir

Gambaran Umum: Pelajaran ini mengeksplorasi mekanisme dasar Model Bahasa Besar (LLM), beralih dari tokenisasi dasar dan peran pesan menuju strategi penanganan input tingkat lanjut. Siswa akan belajar membuat sistem yang kuat dengan mengklasifikasikan niat pengguna, memoderasi konten demi keamanan, serta menerapkan penalaran Chain of Thought (CoT) untuk meningkatkan akurasi dan mengendalikan pengalaman pengguna melalui "Monolog Dalam".

Hasil Pembelajaran:

  • Membedakan antara LLM dasar dan LLM yang disesuaikan instruksi sambil memahami dampak tokenisasi terhadap perilaku model.
  • Menerapkan arsitektur sistem terstruktur menggunakan peran pesan System, User, dan Assistant untuk menentukan persona model.
  • Menerapkan teknik klasifikasi dan moderasi untuk menilai input pengguna dari segi keamanan dan penjadwalan.

🔹 Pelajaran 4: Alur Kerja Kompleks dan Evaluasi Sistem

Gambaran Umum: Pelajaran ini membahas transisi dari prompt sederhana menuju alur kerja LLM kompleks bertahap. Fokusnya pada "Rantai Prompt" untuk memecah tugas, menerapkan lapisan keamanan melalui API Moderasi, serta menetapkan kerangka evaluasi ketat—baik untuk kasus jawaban tunggal yang benar maupun untuk kasus yang memerlukan penilaian subjektif berdasarkan rubrik.

Hasil Pembelajaran:

  • Menerapkan Rantai Prompt: Memecah tugas kompleks menjadi sub-tugas yang dapat dikelola untuk meningkatkan keandalan dan mengurangi biaya.
  • Membangun Sistem End-to-End yang Aman: Mengintegrasikan mekanisme moderasi input/output dan verifikasi fakta ke dalam pipeline siap produksi.
  • Mengembangkan Strategi Evaluasi: Menciptakan set validasi untuk mengukur kinerja LLM menggunakan perbandingan jawaban "ideal" dan rubrik yang dibantu LLM.

🔹 Pelajaran 5: Dasar-dasar LangChain: Model, Prompt, dan Memori

Gambaran Umum: Pelajaran ini memperkenalkan komponen inti dari kerangka kerja LangChain, khususnya bagaimana mengabstraksi interaksi Model Bahasa Besar (LLM). Ini mencakup transisi dari panggilan API langsung menuju penggunaan komponen modular LangChain: Model, Template Prompt, dan Parser Output, serta diakhiri dengan eksplorasi mendalam tentang empat strategi memori yang berbeda untuk menjaga keadaan percakapan.

Hasil Pembelajaran:

  • Melaksanakan panggilan LLM dasar menggunakan ChatOpenAI dan komponen modular LangChain.
  • Membangun struktur ChatPromptTemplate yang dapat digunakan kembali untuk mengelola logika prompt yang kompleks dan variabel.
  • Mengekstrak data terstruktur (JSON/Dictionaries Python) dari respons LLM yang tidak terstruktur menggunakan StructuredOutputParser.

🔹 Pelajaran 6: Rantai LangChain, Q&A, dan Agen Otonom

Gambaran Umum: Pelajaran ini membahas blok-blok arsitektural inti LangChain, beralih dari urutan prompt-kompletasi linier sederhana menuju sistem kompleks yang didorong logika. Siswa akan belajar mengoordinasikan beberapa panggilan LLM melalui Rantai, menerapkan Generasi Penguatan Pencarian (Q&A) atas dokumen pribadi menggunakan penyimpanan vektor, serta menerapkan Agen Otonom yang menggunakan penalaran untuk memilih dan mengeksekusi alat. Materi ini menekankan pergeseran dari interaksi tunggal prompt menuju aplikasi LLM otomatis dan skalabel.

Hasil Pembelajaran:

  • Membangun alur kerja linier dan kompleks bertahap menggunakan SequentialChain dan RouterChain.
  • Membangun sistem Q&A berbasis dokumen menggunakan embedding, penyimpanan vektor, dan rantai RetrievalQA.
  • Menerapkan evaluasi otomatis aplikasi LLM menggunakan QAGenerateChain dan QAEvalChain.

🔹 Pelajaran 7: Persiapan Data Pribadi: Muat dan Vektorisasi

Gambaran Umum: Pelajaran ini membahas tahap awal pembangunan sistem Retrieval Augmented Generation (RAG) menggunakan LangChain. Ini membimbing pengembang melalui proses memuat data tidak terstruktur dari berbagai sumber (PDF, YouTube, Web, Notion), membagi data tersebut menjadi potongan-potongan yang bermakna secara semantik, dan mengubah potongan-potongan tersebut menjadi embedding numerik untuk penyimpanan dan pencarian kesamaan dalam basis data vektor.

Hasil Pembelajaran:

  • Menerapkan berbagai Loader Dokumen LangChain untuk mengimpor data dari PDF, audio YouTube, URL web, dan database Notion.
  • Mengkonfigurasi dan membandingkan berbagai Splitter Teks (Karaktar, Rekursif, Token, dan Markdown) menggunakan parameter seperti chunk_size dan chunk_overlap.
  • Melaksanakan proses Vektorisasi dengan membuat embedding dan menyimpannya di Chroma vectorstore untuk memungkinkan pencarian kesamaan semantik.

🔹 Pelajaran 8: Generasi Penguatan Pencarian (RAG) dan Interaksi

Gambaran Umum: Materi ini mengeksplorasi transisi dari pencarian semantik dasar menuju teknik pencarian canggih dan interaksi percakapan dalam aplikasi LLM. Ini mencakup teknik pencarian canggih—seperti Maximum Marginal Relevance (MMR), filter metadata, dan kompresi konteks—sebelum menunjukkan cara membangun rantai Q&A stateful dan bot obrolan lengkap menggunakan komponen memori dan GUI dari LangChain.

Hasil Pembelajaran:

  • Menerapkan strategi pencarian canggih (MMR, Self-Querying, dan Kompresi) untuk meningkatkan keragaman dan relevansi dokumen yang diambil.
  • Membandingkan dan menerapkan berbagai jenis rantai (stuff, MapReduce, Refine) untuk memroses konteks yang diambil dalam tugas jawab pertanyaan.
  • Membangun antarmuka bot obrolan stateful menggunakan ConversationalRetrievalChain dan ConversationBufferMemory untuk mempertahankan konteks percakapan.