課程資料
- 可獲發
- *證書的發放與分配,依課程提供者的政策及安排而定。
課程簡介
近40小時的全攻略課程,帶你掌握資料科學套件(NumPy、Pandas、Matplotlib、Seaborn),由淺入深學習「機器學習」的數學原理、理論與程式應用,全面涵蓋監督式學習(回歸、分類)與非監督式學習(降維、聚類)等 AI 模型!
你對資料科學、人工智能、機器學習有興趣嗎?未來的世界很可能將由 AI 技術驅動,無論是資訊、醫療、金融、零售還是日常生活,人工智慧都將扮演關鍵角色。如果你對資料科學、人工智能和機器學習等領域有興趣,卻不知道從哪裡開始,本課程將是你進入 AI 領域的最佳起點!
學習機器學習不僅需要動手寫程式,更需要紮實的數學基礎。因此,本課程特別強調「理論與實作並重」:你不僅會學到每個演算法背後的數學原理,還會學會如何用 Python 及主流資料科學套件將這些理論落實到實際應用中。無論你是理論數學派還是實戰應用派,都能在這門課找到屬於自己的學習重點!
這堂課程的內容會循序漸進,涵蓋以下主題:
1. 從零開始,熟悉和學習以下常見的資料科學套件,並且從統計分析、資料可視化到探索式資料分析(Exploratory Data Analysis),全面理解資料背後的故事。運用統計方法發掘資料中的關鍵特徵,並透過各種視覺化工具將複雜的數據轉化為直觀易懂的圖像,快速掌握資料的分布、趨勢與潛在關係。
NumPy
Pandas
Matplotlib
Seaborn
Plotly
2. 監督式學習:詳細介紹回歸與分類模型,理解以下模型的數學推導、損失函數設計方法、模型訓練與優化流程、模型差異比較、評估指標,並學會如何透過超參數調整來選擇最佳模型:
線性迴歸(Linear Regression)
多項式迴歸(Polynomial Regression)
邏輯迴歸(Logistic Regression)
K-近鄰演算法(K Nearest Neighbors)
Naive Bayes Classifier
支援向量機(Support Vector Machine)
決策樹(Decision Tree)
隨機森林(Random Forest)
自適應增強(AdaBoost)
梯度提升技術(Gradient Boosting)
XGBoost
3. 無監督學習:了解以下每種無監督學習的模型運作原理、數學推導、適用場景與限制,並透過實際案例操作,讓你掌握如何在不同資料型態下選擇合適的演算法。
KMeans Clustering
Hierarchical Agglomerative Clustering
DBSCAN
主成份分析(Principal Component Analysis)
4. 了解機器學習中的其他重要概念,包含:
梯度下降演算法(Gradient Descent Algorithm)
反向傳播演算法(Back Propagation Algorithm)
Overfitting 與 Underfitting
Bias-Variance Tradeoff
模型訓練的問題處理方法
L1, L2 正則化規則與特性分析
交叉驗證(Cross Validation)與超參數調整(Hyperparameter Tuning)
特徵選擇(Feature Selection)與特徵縮放(Feature Scaling)
ROC-AUC 原理
交叉熵(Cross Entropy)完整公式推導
Accuracy, Recall, Recision and F1 Score 等模型分數差異比較
為了學以致用、強化實戰能力,此課程中特別設計了 7 個 Labs 實作練習。每個 Lab 都以真實世界的資料集為主題,讓你有機會將課堂所學應用到實際問題中,從資料清理、特徵工程到模型訓練與評估,全面提升你的資料思維與解決問題的能力。這些 Labs 不僅是課程範例的一部分,更是額外的 bonus 練習,讓實作過程中累積實戰經驗。
無論你是剛踏入 AI 領域的新手,還是希望補強基礎的進階學習者,此課程都能帶給你紮實的知識與技能。現在就加入此課程,和來自各地的同學一起學習、交流,開啟屬於你的 AI 人工智慧、機器學習之旅吧!
課程章節
- 12 個章節
- 110 堂課
- 第 1 章 Chapter 0 - 機器學習入門(Intro to Machine Learning)
- 第 2 章 Chapter 1 - Numpy
- 第 3 章 Chapter 2 - Pandas
- 第 4 章 Chapter 3 - 資料可視化(Data Visualization)
- 第 5 章 Chapter 4 - 資料處理與探索式資料分析(Data Wrangling and EDA)
- 第 6 章 Chapter 5 - 監督式學習 - 迴歸任務(Supervised Learning - Regression)
- 第 7 章 Chapter 6 - 模型表現評估(Model Performance)
- 第 8 章 Chapter 7 - 監督式學習 - 分類任務(Supervised Learning - Classification)
- 第 9 章 Chapter 8 - 樹狀模型與集成學習(Tree Based Models and Ensemble)
- 第 10 章 Chapter 9 - 無監督學習(Unsupervised Learning)
- 第 11 章 Chapter 10 - 機器學習的其他主題(Topics in Machine Learning)
- 第 12 章 恭喜完成課程!
課程內容
- 了解監督式學習(Supervised Learning)、非監督式學習(Unsupervised Learning)與強化學習(Reinforcement)的基本概念
- 了解人工智能(AI)領域的分類、研究領域,並且熟悉機器學習的常見演算法
- 使用監督式學習中的迴歸任務(Regression)與分類任務(Classification)的常見機器學習模型
- 熟悉 Numpy Array 的建立、索引、切片與運算,以及能夠使用 Numpy 進行向量化運算以提升效能
- 熟悉 DataFrame 與 Series 的常見操作
- 能夠使用 Matplotlib、Seaborn 與 Plotly 等工具繪製各類圖表(長條圖、折線圖、散佈圖等)
- 理解資料視覺化在資料分析中的重要性
- 能夠進行資料探索性分析(EDA),發現資料中的趨勢與異常值
- 熟悉資料清理、轉換、特徵選擇等前處理技巧
- 能夠透過 Python 產生統計數據並解讀其意義
- 理解梯度下降演算法的原理與實作
- 能夠評估模型的效能,包含迴歸任務與分類任務的評估指標(Evaluation metrics)
- 能夠辨識並解釋過擬合與欠擬合的現象
- 了解 Bias-Variance Tradeoff
- 理解正則化(L1、L2)對模型的影響
- 能夠運用交叉驗證(Cross Validation)與超參數調整(Hyperparameter Tuning)提升模型效能
- 熟悉特徵工程(Feature Engineering)與特徵縮放(Feature Scaling)的方法
- 深度了解邏輯迴歸(Logistic Regression)的數學邏輯、模型優化方法
- 了解 K Nearest Neighbors(KNN)模型,並且透過 KD Tree 優化演算法
- 對文字資料使用 Naive Bayes Classifier 實行自然語言處理、文本分類
- 理解混淆矩陣、Accuracy、Recall、Precision、F1 分數等分類評估指標
- 理解集成學習(Bagging、Boosting、Stacking、Voting)的原理
- 了解決策樹(Decision Tree)與隨機森林(Random Forest)的生成與優化過程
- 比較與使用 KMeans, Hierarchical Clustering 與 DBSCAN 演算法
- 理解主成分分析(PCA)等降維技術的應用與優缺點分析
- 能夠說明深度學習的基本概念與常見架構
- 理解機器學習倫理議題(如偏見、可解釋性)
- 理解大型語言模型(如 ChatGPT)的基本架構與原理
- 能夠根據資料特性與問題需求選擇合適的機器學習模型
此課程所涵蓋的技能
評價
-
MMolly Chou
課程很棒,符合需求!老師透過理論的說明與實作練習,讓我可以更了解各種演算法適用的資料型態,也釐清了一些過往不太了解的問題。謝謝老師用心準備課程!也期待老師未來能開深度學習的課程。
-
蔣蔣誠宇
看影片幾天了,所以覺得有必要給個公正好評。我是老師的老學生了~老師其他課也都超棒,但這堂機器學習課真的可以說是我看過最厲害、最強的機器學習課!每個演算法都有很詳細的講解,連公式的推導也都有說明,真的比我大學上同樣主題時學到的內容還多很多。(大學的機器學習課真的是有夠扯。。。。什麼屁都沒有學到,真的超浪費時間)課程裡的 lab 練習也讓我學到很多實作技巧,真的很感謝老師用心規劃這堂課!