COMP5511

PolyU | 인공지능 개념

이 포괄적인 강의는 대학원생 및 전문가를 대상으로 인공지능에 대한 엄밀하면서도 접근하기 쉬운 소개를 제공합니다. 역사적 기반과 최신 혁신 사이의 격차를 메우며, 강의는 상징적 인공지능과 검색 알고리즘에서 시작하여 현대적인 딥러닝과 생성형 인공지능으로 나아갑니다. 학생들은 지식 표현, 확률적 추론, 전통적인 머신러닝과 같은 핵심 주제를 탐구한 후, 신경망, 트랜스포머, 대규모 언어 모델(Large Language Models, LLM)에 깊이 파고들게 됩니다. 이론과 실습을 강조하는 본 과정은 파이썬과 프로젝트 개발에 널리 사용되는 프레임워크인 파이토치(PyTorch)를 활용하여 알고리즘 구현, 최신 API와의 상호작용, 그리고 인공지능 윤리와 안전성과 같은 중요한 문제들을 다룹니다.

5.0 평점
100 수강생

강좌 개요

--- SOURCE TEXT ---

📚 Content Summary

This comprehensive course provides a rigorous yet accessible introduction to Artificial Intelligence, designed for postgraduate students and professionals. Bridging the gap between historical foundations and cutting-edge innovations, the curriculum progresses from symbolic AI and search algorithms to modern Deep Learning and Generative AI. Students will explore essential topics such as knowledge representation, probabilistic reasoning, and classical machine learning before diving deep into neural networks, Transformers, and Large Language Models (LLMs). Emphasizing both theory and practice, the course utilizes Python and industry-standard frameworks like PyTorch to implement algorithms, interact with modern APIs, and address critical issues in AI ethics and safety.

Bridging the gap between classical Symbolic AI and modern Generative AI, this course equips students with the theoretical depth and practical Python skills to architect, implement, and ethically evaluate intelligent systems.

🎯 Learning Objectives

  1. Master AI Foundations: Analyze and implement fundamental problem-solving paradigms, including heuristic search, logic-based reasoning, and probabilistic modeling.
  2. Implement Deep Learning Architectures: Design and train advanced neural networks using PyTorch, ranging from Multi-layer Perceptrons to Convolutional Neural Networks and Transformers.
  3. Deploy Generative AI Solutions: Engineer applications utilizing Large Language Models (LLMs), employing techniques such as fine-tuning, prompt engineering, and Retrieval-Augmented Generation (RAG).
  4. Ensure Ethical AI Development: Critically evaluate AI systems for bias, safety, and alignment, applying strategies for explainability and robustness in real-world scenarios.

🔹 Lesson 1: History and Foundations of AI

Overview: An exploration of the origins of Artificial Intelligence, covering the Turing Test, the Dartmouth Conference, and the cyclical nature of AI development known as 'AI Winters'.

Learning Outcomes:

  • Trace the historical evolution of AI from 1956 to the present day.
  • Compare and contrast Symbolic AI (GOFAI) and Connectionism paradigms.
  • Discuss the impact of the Deep Learning Revolution and recent generative breakthroughs.

🔹 Lesson 2: Search Strategies: Uninformed and Informed

Overview: Introduction to fundamental problem-solving agents using search algorithms, distinguishing between blind search and heuristic-based approaches.

Learning Outcomes:

  • Implement uninformed search methods including BFS, DFS, and Uniform Cost search.
  • Apply heuristic search techniques such as A* and Greedy Best-First search.
  • Analyze the complexity and optimality of different search strategies.

🔹 Lesson 3: Adversarial Search and Constraint Satisfaction

Overview: A deep dive into decision-making in competitive environments (games) and solving problems defined by constraints.

Learning Outcomes:

  • Master the Minimax algorithm and Alpha-Beta pruning for game playing.
  • Understand Monte Carlo Tree Search (MCTS) used in advanced systems like AlphaGo.
  • Solve Constraint Satisfaction Problems (CSP) using backtracking and local search.

🔹 Lesson 4: Knowledge Representation and Reasoning

Overview: Study of how AI systems represent information logically to perform inference, moving from classical logic to modern knowledge structures.

Learning Outcomes:

  • Utilize Propositional and First-Order Logic for representation and inference.
  • Compare legacy Expert Systems with modern Knowledge Graphs and Ontologies.
  • Explore Neuro-Symbolic AI as a bridge between logic and neural networks.

🔹 Lesson 5: Uncertainty in the Age of GenAI

Overview: Moving beyond classical probability calculations to understand how uncertainty drives modern AI. This lesson explores why LLMs hallucinate (and why that is a feature, not a bug), how Diffusion models create art from pure noise, and how Autonomous Agents make decisions in unpredictable open worlds.

Learning Outcomes:

  • From Bayes to "Vibes": Gain an intuitive understanding of confidence and calibration, learning why "99% probability" can still be wrong without getting lost in complex math.
  • The Engine of Creativity: Analyze how probabilistic sampling mechanisms (Temperature, Top-P) enable Generative AI creativity and lead to hallucinations.
  • Agent Decision Making: Understand decision-making strategies under uncertainty, focusing on the "Exploration vs. Exploitation" dilemma in Reinforcement Learning and Multi-Agent Systems.

🔹 Lesson 6: Classical Machine Learning

Overview: A practical introduction to data-driven algorithms for supervised and unsupervised learning using Python.

Learning Outcomes:

  • Implement supervised learning models including Decision Trees and SVMs.
  • Apply unsupervised techniques like K-means clustering and PCA.
  • Use Scikit-learn to solve basic data analytic problems.

🔹 Lesson 7: Neural Network Foundations

Overview: The transition to biological-inspired computing, covering the architecture and training mechanisms of artificial neural networks.

Learning Outcomes:

  • Explain the structure of artificial neurons and Multi-layer Perceptrons (MLP).
  • Master the Backpropagation algorithm and various activation functions (ReLU, GELU).
  • Build a basic neural network using PyTorch.

🔹 Lesson 8: Computer Vision and CNNs

Overview: Focus on processing visual data through specialized deep learning architectures.

Learning Outcomes:

  • Understand the mechanics of Convolutional Neural Networks (CNNs).
  • Analyze advanced architectures like ResNet and Vision Transformers (ViT).
  • Implement a basic image classification model.

🔹 Lesson 9: Sequence Modeling and The Transformer

Overview: Evolution of sequence processing from Recurrent Neural Networks to the revolutionary Attention mechanism.

Learning Outcomes:

  • Differentiate between RNNs, LSTMs, and the Transformer architecture.
  • Explain the 'Attention Is All You Need' paper and self-attention mechanisms.
  • Understand the role of Encoders and Decoders in models like BERT and GPT.

🔹 Lesson 10: Large Language Models (LLMs)

Overview: In-depth study of state-of-the-art Generative AI focusing on text generation and model adaptation.

Learning Outcomes:

  • Describe the Pre-training and Fine-tuning lifecycle of LLMs.
  • Explore Reinforcement Learning from Human Feedback (RLHF).
  • Practice Prompt Engineering and parameter-efficient fine-tuning methods (PEFT/LoRA).

🔹 Lesson 11: Advanced Generative AI Applications

Overview: Expanding beyond text to retrieval systems and generative media using modern APIs.

Learning Outcomes:

  • Implement Retrieval-Augmented Generation (RAG) to reduce hallucinations.
  • Understand the math behind Diffusion Models (e.g., Stable Diffusion) and VAEs.
  • Interact with modern AI APIs to build a generative application.

🔹 Lesson 12: AI Ethics, Safety, and Alignment

Overview: Critical analysis of the societal impact of AI, focusing on responsibility and safety protocols.

Learning Outcomes:

  • Identify sources of bias and ensure fairness in AI models.
  • Discuss AI Safety, Robustness, and the Alignment problem.
  • Evaluate Explainability (XAI) and mitigation strategies for LLM hallucinations.

--- END SOURCE TEXT ---

📚 콘텐츠 요약

이 포괄적인 과정은 대학원생과 전문가를 위해 설계된 인공지능에 대한 엄격하면서도 접근하기 쉬운 입문 과정을 제공합니다. 역사적 기초와 최첨단 혁신 사이의 간극을 메우며, 교육 과정은 기호 AI 및 검색 알고리즘부터 현대 딥러닝 및 생성 AI까지 발전합니다. 학생들은 지식 표현, 확률적 추론, 고전적인 기계 학습과 같은 필수 주제를 탐구한 후 신경망, 트랜스포머 및 대규모 언어 모델(LLM)에 대해 깊이 파고들게 됩니다. 이론과 실습을 모두 강조하는 이 과정은 Python과 PyTorch와 같은 산업 표준 프레임워크를 사용하여 알고리즘을 구현하고, 현대 API와 상호 작용하며, AI 윤리 및 안전의 중요한 문제를 다룹니다.

고전적인 기호 AI와 현대 생성 AI 사이의 격차를 해소하는 이 과정은 학생들에게 지능형 시스템을 설계, 구현 및 윤리적으로 평가할 수 있는 이론적 깊이와 실용적인 Python 기술을 제공합니다.

🎯 학습 목표

  1. AI 기초 마스터: 휴리스틱 검색, 논리 기반 추론 및 확률 모델링을 포함한 기본 문제 해결 패러다임을 분석하고 구현합니다.
  2. 딥러닝 아키텍처 구현: 다층 퍼셉트론부터 컨볼루션 신경망 및 트랜스포머에 이르기까지 PyTorch를 사용하여 고급 신경망을 설계하고 훈련합니다.
  3. 생성 AI 솔루션 배포: 미세 조정, 프롬프트 엔지니어링 및 검색 증강 생성(RAG)과 같은 기술을 사용하여 대규모 언어 모델(LLM)을 활용하는 애플리케이션을 개발합니다.
  4. 윤리적 AI 개발 보장: 편향성, 안전성 및 정렬에 대한 AI 시스템을 비판적으로 평가하고 실제 시나리오에서 설명 가능성 및 견고성을 위한 전략을 적용합니다.

🔹 1강: AI의 역사와 기초

개요: 튜링 테스트, 다트머스 회의, 'AI 겨울'로 알려진 AI 개발의 순환적 특성을 다루며 인공지능의 기원에 대한 탐구입니다.

학습 결과:

  • 1956년부터 현재까지 AI의 역사적 발전을 추적합니다.
  • 기호 AI(GOFAI)와 커넥셔니즘 패러다임을 비교 및 대조합니다.
  • 딥러닝 혁명과 최근 생성적 돌파구의 영향을 논의합니다.

🔹 2강: 검색 전략: 비정보 및 정보 검색

개요: 검색 알고리즘을 사용하는 기본 문제 해결 에이전트에 대한 소개이며, 무차별 검색과 휴리스틱 기반 접근 방식의 차이점을 구분합니다.

학습 결과:

  • BFS, DFS 및 Uniform Cost 검색을 포함한 비정보 검색 방법을 구현합니다.
  • A* 및 Greedy Best-First 검색과 같은 휴리스틱 검색 기법을 적용합니다.
  • 다양한 검색 전략의 복잡성과 최적성을 분석합니다.

🔹 3강: 적대적 검색 및 제약 만족

개요: 경쟁 환경(게임)에서의 의사 결정 및 제약 조건으로 정의된 문제 해결에 대한 심층 분석입니다.

학습 결과:

  • 게임 플레이를 위한 미니맥스 알고리즘 및 알파-베타 가지치기를 마스터합니다.
  • AlphaGo와 같은 고급 시스템에 사용되는 몬테카를로 트리 검색(MCTS)을 이해합니다.
  • 백트래킹 및 지역 검색을 사용하여 제약 만족 문제(CSP)를 해결합니다.

🔹 4강: 지식 표현 및 추론

개요: AI 시스템이 고전 논리에서 현대 지식 구조로 이동하면서 추론을 수행하기 위해 정보를 논리적으로 표현하는 방법을 연구합니다.

학습 결과:

  • 표현 및 추론을 위해 명제 논리 및 1차 논리를 활용합니다.
  • 레거시 전문가 시스템과 현대 지식 그래프 및 온톨로지를 비교합니다.
  • 논리와 신경망 간의 다리 역할을 하는 신경-기호 AI를 탐구합니다.

🔹 5강: 생성 AI 시대의 불확실성

개요: 고전적인 확률 계산을 넘어 현대 AI를 이끄는 불확실성을 이해합니다. 이 강의는 LLM이 환각을 일으키는 이유(그리고 왜 그것이 버그가 아니라 기능인지), 확산 모델이 순수한 노이즈에서 어떻게 예술을 창조하는지, 그리고 자율 에이전트가 예측 불가능한 열린 세상에서 어떻게 의사 결정을 내리는지 탐구합니다.

학습 결과:

  • 베이즈에서 "바이브"까지: 복잡한 수학에 빠지지 않고 "99% 확률"이 여전히 틀릴 수 있는 이유를 배우면서 자신감과 보정(calibration)에 대한 직관적인 이해를 얻습니다.
  • 창의성의 엔진: 확률적 샘플링 메커니즘(온도, Top-P)이 어떻게 생성 AI 창의성을 가능하게 하고 환각으로 이어지는지 분석합니다.
  • 에이전트 의사 결정: 강화 학습 및 다중 에이전트 시스템에서 "탐색 대 활용(Exploration vs. Exploitation)" 딜레마에 초점을 맞춰 불확실성 하에서의 의사 결정 전략을 이해합니다.

🔹 6강: 고전 기계 학습

개요: Python을 사용한 지도 및 비지도 학습을 위한 데이터 기반 알고리즘의 실용적인 소개입니다.

학습 결과:

  • 의사결정 트리 및 SVM을 포함한 지도 학습 모델을 구현합니다.
  • K-평균 클러스터링 및 PCA와 같은 비지도 기법을 적용합니다.
  • Scikit-learn을 사용하여 기본적인 데이터 분석 문제를 해결합니다.

🔹 7강: 신경망 기초

개요: 인공 신경망의 아키텍처 및 훈련 메커니즘을 다루는 생물학적 영감 컴퓨팅으로의 전환입니다.

학습 결과:

  • 인공 뉴런 및 다층 퍼셉트론(MLP)의 구조를 설명합니다.
  • 역전파 알고리즘 및 다양한 활성화 함수(ReLU, GELU)를 마스터합니다.
  • PyTorch를 사용하여 기본적인 신경망을 구축합니다.

🔹 8강: 컴퓨터 비전 및 CNN

개요: 특수 딥러닝 아키텍처를 통한 시각 데이터 처리 집중 탐구입니다.

학습 결과:

  • 컨볼루션 신경망(CNN)의 작동 방식을 이해합니다.
  • ResNet 및 Vision Transformer(ViT)와 같은 고급 아키텍처를 분석합니다.
  • 기본적인 이미지 분류 모델을 구현합니다.

🔹 9강: 시퀀스 모델링 및 트랜스포머

개요: 순환 신경망에서 혁신적인 어텐션 메커니즘으로의 시퀀스 처리의 진화입니다.

학습 결과:

  • RNN, LSTM 및 트랜스포머 아키텍처를 구분합니다.
  • 'Attention Is All You Need' 논문 및 자체 어텐션 메커니즘을 설명합니다.
  • BERT 및 GPT와 같은 모델에서 인코더 및 디코더의 역할을 이해합니다.

🔹 10강: 대규모 언어 모델(LLM)

개요: 텍스트 생성 및 모델 적응에 중점을 둔 최첨단 생성 AI에 대한 심층 연구입니다.

학습 결과:

  • LLM의 사전 훈련 및 미세 조정 수명 주기를 설명합니다.
  • 인간 피드백 기반 강화 학습(RLHF)을 탐구합니다.
  • 프롬프트 엔지니어링 및 파라미터 효율적인 미세 조정 방법(PEFT/LoRA)을 연습합니다.

🔹 11강: 고급 생성 AI 애플리케이션

개요: 현대 API를 사용하여 텍스트를 넘어 검색 시스템 및 생성 미디어로 확장합니다.

학습 결과:

  • 검색 증강 생성(RAG)을 구현하여 환각을 줄입니다.
  • 확산 모델(예: Stable Diffusion) 및 VAE의 수학을 이해합니다.
  • 현대 AI API와 상호 작용하여 생성 애플리케이션을 구축합니다.

🔹 12강: AI 윤리, 안전 및 정렬

개요: 책임 및 안전 프로토콜에 중점을 두고 AI의 사회적 영향에 대한 비판적 분석입니다.

학습 결과:

  • 편향의 원인을 파악하고 AI 모델의 공정성을 보장합니다.
  • AI 안전성, 견고성 및 정렬 문제를 논의합니다.
  • LLM 환각에 대한 설명 가능성(XAI) 및 완화 전략을 평가합니다.