⚡️ AI Bundle Pack 03 ⚡️
.
คุ้มกว่านี้ไม่มีอีกแล้ว 🔥🔥 Package ตัวจบในสายงาน AI ที่ละเอียดและครบถ้วนมากที่สุดในเวลานี้ 🌐👑 ที่รวมคอร์สแบบจัดหนักจัดเต็มถึง 9 คอร์ส ในราคา 89,900 บาท เฉลี่ยแล้วราคาคอร์สละไม่ถึงหมื่น ❗️❗️❗️
สำหรับผู้ที่อยากรู้ทุกซอกทุกมุมของ AI และผู้ที่อยากพัฒนาประสิทธิภาพของ AI ให้ดียิ่งขึ้น 😎✋ ทางเราขอนำเสนอ AI Bundle Pack 03 🎁🎊 การรวมคอร์สสุดปัง ที่จะพาทุกท่านเรียนรู้เบื้องลึกเบื้องหลังของ AI ทุกรูปแบบอย่างลึกซึ้ง โดยเนื้อหาจะประกอบไปด้วย
.
🚀 AI ชนิดต่างๆ ที่สามารถเรียนรู้ได้ด้วยตนเองจากข้อมูล (Machine Learning)
🚀 AI ที่โดดเด่นในเรื่องของข้อมูลที่ซับซ้อนและไม่สามารถตีความได้ (Deep Learning the Series)
🚀 AI ที่เรียนรู้ด้วยตนเองผ่านการลองผิดลองถูก (Reinforcement Learning)
🚀 AI ที่ผสานกำลังของ Deep Learning และ Reinforcement Learning มาไว้ด้วยกัน (Deep Reinforcement Learning)
🚀 การวิเคราะข้อมูลที่อยู่ในรูปของอนุกรมเวลา (Time Series Analysis and Stochastic Process)
🚀 ทฤษฎีความน่าจะเป็นระดับสูง (Probability for Financial Machine Learning)
🚀 AI ที่ช่วยในการตรวจสอบการเข้าซื้อสินทรัพย์ เพื่อให้ได้ผลตอบแทนที่ดีที่สุด (AI for Finance)
🚀 ระบบผู้ช่วยแนะนำที่รู้ใจเรามากกว่าตัวเราเอง (Recommendation System)
🚀 ทฤษฎีการประมาณค่าของฟังก์ชัน ซึ่งเป็นแก่นหลักทางคณิตศาสตร์ของ Deep Learning (Mathematics for Approximations)
.
📍ทำไมถึงควรเรียนกับเรา
– เรียบเรียงเนื้อหาอย่างพิถีพิถันและเป็นขั้นเป็นตอน 🗃
– อธิบายคณิตศาสตร์ที่ซับซ้อนด้วยภาพที่เข้าใจง่าย 📑
– มีตัวอย่างการคำนวณ เพื่อให้ท่านเข้าใจการทำงานอย่างละเอียด 🖊
– มี workshop เพื่อให้ท่านได้ฝึกฝน และเห็นตัวอย่างการนำไปใช้งานจริง 🖥
.
.
📚ใน AI Bundle Pack 03 จะประกอบไปด้วยคอร์ส
1. Machine Learning (18,000 บาท)
2. Deep Learning the Series (18,000 บาท)
3. Reinforcement Learning (21,000 บาท)
4. Deep Reinforcement Learning (19,900 บาท)
5. Probability for Financial Machine Learning (18,000 บาท)
6. Time Series & Stochastic Process (21,000 บาท)
7. AI for Finance (19,900 บาท)
8. Recommendation System (11,900 บาท)
9. Mathematics for Approximation (15,000 บาท)
.
💥💥ในราคาสุดพิเศษเพียง 89,900 บาท (จาก 162,700 บาท)💥💥
.
วิธีการเรียน
– เรียนออนไลน์ผ่าน https://madebyai.io
– สามารถเรียนได้ตลอดชีวิต
.
🗣 สามารถดูรีวิวการสอนได้ที่ https://madebyai.io/reviews/
.
.
📗Machine Learning
.
– K Nearest Neighbors (KNN)
– Naive Bayes
– Decision Tree
– Random Forest
– Lagrange Multipliers
– Karush Kuhn Tucker
– Support Vector Machine (SVM)
.
.
📕Deep Learning the Series
.
– Data Preparation
– Linear Regression
– Improvement of Linear Regression
– Workshop of Linear Regression
– Logistic Regression
– Improvement of Logistic Regression
– Workshop of Logistic Regression
– Neural Network
– Deep Learning
– Improvement of Deep Learning
– Workshop of Deep Learning
.
.
📘Reinforcement Learning
.
– Multi-Armed Bandit Problem
– Markov Decision Process
– Dynamic Programming
– Monte Carlo
– Temporal Difference
– N-step Temporal Difference
– Off-Policy
– Planning
.
.
📙Deep Reinforcement Learning
.
– Episodic and Continuing Tasks
– State-Value Function
– Action-Value Function
– Q-Table Improvement
– Deep Q Network
– Fixed Q-Targets
– Experience Replay
– Workshop of Deep RL
📕Time Series Analysis and Stochastic Process
.
– Introduction
– Time Series Model
– Statistics for Time Series Model
– Other Models (ARCH/ Bilinear/ Piecewise Linear/ Multivariate)
– Continuous Time Series (Stochastic Process)
– Stochastic Calculus
– Stochastic Numerical Methods
.
.
📔Probability for Financial Machine Learning
.
– Basic Knowledge
– Probability
– Random Variables
– Random Sampling
– Estimation
– Hypothesis Testing
.
.
📗AI for Finance
– Introduction To Artificial Intelligence and Quantitative Trading
– Supervised Learning Workflow
– Data Preparation Workflow
– Trade Signal as Trigger
– Labelling Financial Data
– Feature Selection for Financial Data
– Decision Tree : Foundation, Mathematics And Modelling
– Decision Tree : Coding and Implementation for False Signal Detection
– Performance Improvement
.
.
📘Recommendation System
– Introduction to Recommendation System
– Recommendation System with Rating
– Recommendation System Overview
– Collaborative Filtering
– Coding for Recommendation System
.
.
📒Mathematics for Approximation
– Vector Space
– Inner Product Space
– Topological Space
– Spaces of Functions
.
แล้วเจอกันในคลาสนะครับ 💖💖💖
Course Features
- Lectures 382
- Quizzes 0
- Duration Lifetime access
- Skill level All levels
- Language English
- Students 13
- Assessments Yes
-
Deep Learning the Series
- Document
- Week 1 – Welcome
- Week 1 – AI Overview
- Week 1 – Introduction
- Week 1 – Model Creation
- Week 1 – ตอบคำถาม SSE มีไว้ใช้ทำอะไร?
- Week 1 – Data Preparation
- Week 2 – Recap Week 1
- Week 2 – Model Evaluation for Regression
- Week 2 – Basic Workshop – Code Pipeline
- Week 2 – Basic Workshop – AI in Marketing
- Week 2 – Basic Workshop – AI in Investment
- Week 2 – Basic Workshop – Smart Farm
- Week 2 – ตอบคำถามนักเรียน
- Week 2 – Basic Workshop – AI in Rental Business
- Week 2 – Basic Workshop – AI in Insurance
- Week 3 – Model Improvement – Strong Assumption
- Week 3 – Model Improvement – Weak Assumption
- Week 3 – Model Improvement – Problem with Linearly Dependent
- Week 3 – ตอบคำถาม ข้อเสียของการ drop one hot
- Week 3 – Model Improvement – Solution
- Week 3 – Model Improvement – Regularization
- Week 3 – ตอบคำถาม Regularization
- Week 3 – Cross Validation
- Week 3 – Data Preparation – Feature Scaling
- Week 3 – Advanced Workshop
- Week 4 – Roadmap
- Week 4 – DL102 – Introduction
- Week 4 – LoR (2-class) – Introduction
- Week 4 – LoR (2-class) – Data
- Week 4 – LoR (2-class) – Model Creation part1
- Week 4 – LoR (2-class) – Model Creation part2
- Week 4 – LoR (2-class) – Prediction
- Week 4 – LoR (2-class) – Improvement
- Week 4 – Model Evaluation for Classification
- Week 4 – Workshop LoR (2-class) – Code Pipeline
- Week 4 – Workshop LoR (2-class) – AI in Healthcare
- Week 4 – Workshop LoR (2-class) – AI in Agriculture
- Week 4 – Workshop LoR (2-class) – Fake News
- week 5 – Recap – LoR (2-class)
- Week 5 – LoR (multi-class) – เกริ่นนำ
- Week 5 – LoR (multi-class) – Introduction – LoR with Multiclass
- Week 5 – LoR (multi-class) – Introduction – Why Softmax?
- Week 5 – LoR (multi-class) – Introduction – Extension to Neural Network
- Week 5 – LoR (multi-class) – Introduction – Real World Application
- Week 5 – ตอบคำถาม sigmoid vs softmax
- Week 5 – LoR (multi-class) – Data
- Week – LoR (multi-class) – Model
- Week 5 – LoR (multi-class) – Prediction
- Week 5 – LoR (multi-class) – Improvement
- Week 5 – Workshop LoR (multi-class) – AI in Fruit Industry
- Week 5 – Workshop LoR (multi-class) – AI in News Categorization
- Week 5 – Cross Entropy
- Week 6 – Roadmap
- Week 6 – DL103 – Introduction
- Week 6 – NN&DL – What is NN?
- Week 6 – NN&DL – Why we need NN?
- Week 6 – NN&DL – Real World Application
- Week 6 – NN&DL – Architecture of NN
- Week 6 – NN&DL – Component of NN
- Week 6 – NN&DL – How NN Work
- Week 6 – ตอบคำถาม decision boundary เปลี่ยนแปลงตามเวลาไหม?
- Week 6 – NN&DL – What is DL?
- Week 6 – NN&DL – Architecture of DL
- Week 6 – NN&DL – Component of DL
- Week 6 – NN&DL – Why we need DL?
- Week 6 – NN&DL – How DL Work
- Week 6 – DL for Regression
- Week 6 – DL for Binary Classification
- Week 6 – DL for Multiclass Classification
- Week 7 – Recap – NN&DL
- Week 7 – DL Workshop – Workflow
- Week 7 – DL Workshop – Overview
- Week 7 – DL Workshop – Code Pipeline Part1
- Week 7 – DL Workshop – Code Pipeline Part2
- Week 7 – DL Workshop – Code Pipeline Part3
- Week 7 – DL Workshop – AI in Civil Engineering
- Week 7 – DL Workshop – AI in Healthcare
- Week 7 – DL Workshop – AI in Skin Cancer
- Week 7 – ตอบคำถาม underfit & overfit คืออะไร?
- Week 7 – DL Interpretation – 1st Hidden Layer
- Week 7 – DL Interpretation – 2nd Hidden Layer
- Week 7 – DL Interpretation – 3rd Hidden Layer & Conclusion
- Week 7 – DL Interpretation – Conclusion & Adaptation
- Week 8 – Recap – DL Interpretation
- Week 8 – Improvement of DL – Overview
- Week 8 – Speed Up with GPU – What is GPU?
- Week 8 – Speed Up with GPU – How GPU Accelerate DL?
- Week 8 – Speed Up with GPU – Welcome to Colab
- Week 8 – Speed Up with GPU – Train Model with GPU
- Week 8 – Imbalanced Class
- Week 8 – L2, L1, Elastic Net
- Week 8 – Dropout Regularization part1
- Week 8 – Dropout Regularization part2
- Week 8 – Gradient Descent Variants
- Week 8 – Momentum
- Week 8 – Adagrad & RMSProp & Adam
- Week 8 – Advanced Workshop – Code Pipeline
- Week 8 – Advanced Workshop – AI in Real Estate Business
- Week 8 – Advanced Workshop – AI in Diagnosing Alzheimer’s
- Week 8 – Advanced Workshop – AI in Speech Recognition
- Week 8 – สรุปคอร์ส DL the Series
-
Machine Learning
- Document
- Week 1 – Introduction
- Week 1 – K Nearest Neighbor : Theory : What is K Nearest Neighbor ?
- Week 1 – K Nearest Neighbor : Theory : State
- Week 1 – K Nearest Neighbor : Theory : How to create model
- Week 1 – K Nearest Neighbor : Theory : ตอบคำถามนักเรียน
- Week 1 – K Nearest Neighbor : Theory : ตัวอย่างการคำนวณ KNN-C
- Week 1 – K Nearest Neighbor : Theory : When will we use KNN-C ?
- Week 1 – K Nearest Neighbor : Code : Overview & Import Library
- Week 1 – K Nearest Neighbor : Code : Normalization
- Week 1 – K Nearest Neighbor : Code : วัดระยะห่าง
- Week 1 – K Nearest Neighbor : Code : เรียงลำดับ Target ตามระยะห่าง
- Week 1 – K Nearest Neighbor : Code : หาผลลัพธ์จากเพื่อนบ้าน K ตัว
- Week 1 – K Nearest Neighbor : Code : หา K ที่ดีที่สุด
- Week 1 – K Nearest Neighbor : Code : เรียนรู้ & พยากรณ์ Part 1
- Week 1 – K Nearest Neighbor : Code : เรียนรู้ & พยากรณ์ Part 2
- Week 1 – K Nearest Neighbor for Regression : Theory & Code & Example
- Week 1 – K Nearest Neighbor for Regression : Theory : เฉลยการบ้าน
- Week 1 – เฉลยการบ้าน K Nearest Neighbor for Regression
- Week 2 – Naive Bayes : Theory : Bayes’ Theorem
- Week 2 – Naive Bayes : Theory : What is Naive Bayes ?
- Week 2 – Naive Bayes : Theory : State
- Week 2 – Naive Bayes : Theory : How to create model
- Week 2 – Naive Bayes : Theory : ตัวอย่างการคำนวณ Naive Bayes
- Week 2 – Naive Bayes : Theory : ที่มาสมการ Naive Bayes
- Week 2 – Naive Bayes : Code : Overview & Import Library
- Week 2 – Naive Bayes : Code : สร้าง Dictionary สำหรับเตรียมนับสมาชิกและเตรียมเก็บความน่าจะเป็น
- Week 2 – Naive Bayes : Code : นับจำนวนสมาชิกจาก Training Set เพื่อใส่ใน Count_Matrix
- Week 2 – Naive Bayes : Code : คำนวณความน่าจะเป็นจาก Count_Matrix เพื่อใส่ใน Prob_Matrix & เรียนรู้
- Week 2 – Naive Bayes : Code : พยากรณ์
- Week 2 – Naive Bayes : Code : Read Data & Prepare Data, Create Model, Making Predictions
- Week 2 – Naive Bayes : Example
- Week 2 – Naive Bayes : Theory
- Week 2 – Naive Bayes : ตัวอย่างการคำนวณ Naive Bayes Continuous Data
- Week 2 – Naive Bayes : Code
- Week 2 – Naive Bayes : Example
- Week 3 – Decision Tree : Theory : Introduction
- Week 3 – Decision Tree : Theory : What is Decision Tree ?
- Week 3 – Decision Tree : Theory : State
- Week 3 – Decision Tree : Theory : How to create model
- Week 3 – Decision Tree : Theory : ตัวอย่างการคำนวณ Decision Tree
- Week 3 – Decision Tree : Theory : ที่มาของ Gini
- Week 3 – Decision Tree : ตัวอย่างการเขียน Code Recursive
- Week 3 – Decision Tree : Code Part 1
- Week 3 – Decision Tree : Code Part 2
- Week 3 – Random Forest
- Week 4 – SVM : Theory : Introduction
- Week 4 – SVM : Theory : Method of Lagrange Multipliers
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ Method of Lagrange Multipliers Part 1
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ Method of Lagrange Multipliers Part 2
- Week 4 – SVM : Theory : Karush Kuhn Tucker
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ Karush Kuhn Tucker Part 1
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ Karush Kuhn Tucker Part 2
- Week 4 – SVM : Theory : เฉลยการบ้าน Method of Lagrange Multipliers ข้อ 1
- Week 4 – SVM : Theory : เฉลยการบ้าน Karush Kuhn Tucker ข้อ 2
- Week 4 – SVM : Theory : What is SVM ? & State
- Week 4 – SVM : Theory : How to create model Part 1
- Week 4 – SVM : Theory : How to create model Part 2
- Week 4 – SVM : Theory : How to create model Part 3
- Week 4 – SVM : Theory : How to create model Part 4
- Week 4 – SVM : Theory : How to create model Part 5
- Week 4 – SVM : Theory : SMO
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ SMO Part 1
- Week 4 – SVM : Theory : ตัวอย่างการคำนวณ SMO Part 2
- Week 4 – SVM : Code & Example
- Week 5 – สรุปเนื้อหาคอร์ส Part 1
- Week 5 – สรุปเนื้อหาคอร์ส Part 2
- Week 5 – Workshop 1
- Week 5 – Workshop 2 Part 1
- Week 5 – Workshop 2 Part 2
- Week 5 – ปิดคอร์ส Machine Learning
-
Reinforcement Learning
- Document
- Week 1 – Introduction + Multi-Armed Bandit Problem part1
- Week 1 – Multi-Armed Bandit Problem part2 + Markov Decision Process part1
- Week 2 – Markov Decision Process part2
- Week 3 – Markov Decision Process part3
- Week 3 – Dynamic Programming
- Week 4 – Monte Carlo
- Week 4 – Temporal Difference part1
- Week 5 – Temporal Difference part2
- Week 5 – n-step Temporal Difference
- Week 5 – Off-Policy + Roll Out
- Week 6 – Code of Reinforcement Learning
-
Deep Reinforcement Learning
- Document – Deep RL
- Introduction to Deep RL
- Fundamentals of RL – Core Concepts
- Fundamentals of RL – Markov Decision Process
- Fundamentals of RL – Episodic and Continuing Tasks
- Fundamentals of RL – The Reward Hypothesis
- Fundamentals of RL – Discounted Return
- RL Algorithms – Policy
- RL Algorithms – State-Value Function
- RL Algorithms – Action-Value Function
- RL Algorithms – RL Algorithms
- Q-learning – Introduction to Q-Learning
- Q-learning – Epsilon Greedy
- Q-learning – Q-Table Improvement
- Q-learning – Q-Learning Examples
- Deep Q-Networks – Introduction to DQN
- Deep Q-Networks – Deep Learning
- Deep Q-Networks – Deep Q Network
- Deep Q-Networks – Fixed Q-Targets
- Deep Q-Networks – Experience Replay
- Deep Q-Networks – DQN Algorithms
- DQN Code – Breakout Environment
- DQN Code – Import Libraries and Environment Setup
- DQN Code – DQN Implementation
- DQN Code – Training DQN
- DQN Code – Update DQN
- DQN Code – Step-by-Step Walkthrough
- DQN Code – Code Execution
-
Probability for Financial Machine Learning
- Document
- Week 1 – Introduction
- Week 1 – Basic Knowledge – Set and Set Operations
- Week 1 – Basic Knowledge – Functions and Graphing
- Week 1 – Basic Knowledge – Sequences and Series
- Week 1 – Basic Knowledge – Counting Technique
- Week 2 – Probability – Sample Spaces and Events
- Week 2 – Probability – Properties of Probability
- Week 2 – Probability – Conditional Probability
- Week 2 – Probability – Bayes’ Theorem
- Week 2 – Probability – Independent of Event
- Week 3 – Random Variables – Discrete Random Variables
- Week 3 – Random Variables – Expectation and Variance of Discrete Random
- Week 3 – Random Variables – The Bernoulli Distribution
- Week 3 – Random Variables – The Binomial Distribution
- Week 3 – Random Variables – The Geometric Distribution
- Week 3 – Random Variables – The Poisson Distribution
- Week 3 – Random Variables – Continuous Random Variables
- Week 3 – Random Variables – Expectation and Variance of Continuous Random
- Week 3 – Random Variables – The Uniform Distribution
- Week 3 – Random Variables – Random Number Generation by Rejection Method and Inversion Method
- Week 3 – Random Variables – The Normal Distribution
- Week 3 – Random Variables – The Exponential Distribution
- Week 3 – Random Variables – The Poisson Process
- Week 3 – Random Variables – Recap and Overview
- Week 3 – Random Variables – Random Walk
- Week 3 – Random Variables – Joint Distributions
- Week 3 – Random Variables – Marginal Distributions
- Week 3 – Random Variables – Conditional Distribution
- Week 3 – Random Variables – Independence of Random Variables
- Week 3 – Random Variables – Covariance and Correlation
- Week 4 – Random Sampling – Random Sampling
- Week 4 – Random Sampling – Moment Generating Function
- Week 4 – Random Sampling – Sampling Distributions
- Week 4 – Random Sampling – Central Limit Theorem
- Week 4 – Random Sampling – Distribution of Variance
- Week 4 – Random Sampling – Conclusion
- Week 5 – Estimation – Point Estimator
- Week 5 – Estimation – Unbiased Estimator
- Week 5 – Estimation – Consistent Estimator
- Week 5 – Estimation – Asymptotically Normal Estimator
- Week 5 – Estimation – Moment Method
- Week 5 – Estimation – Maximum Likelihood Method
- Week 5 – Estimation – Bayesian Method
- Week 5 – Estimation – Confident Interval
- Week 5 – Estimation – Sample Size
- Week 6 – Hypothesis Testing – Statistical hypotheses
- Week 6 – Hypothesis Testing – Two tails test
- Week 6 – Hypothesis Testing – One tails test
- Week 6 – Hypothesis Testing – p-value
- Week 6 – Hypothesis Testing – Goodness-of-fit test
- Week 6 – Hypothesis Testing – Jarque-Bera normality test
- Week 6 – Hypothesis Testing – Test of Independence and homogeneity
- Week 6 – Hypothesis Testing – Kolomogorov-Smirnov test
- Week 6 – Hypothesis Testing – งานวิจัยที่มีรากฐานจาก Prob
- Week 6 – Hypothesis Testing – Linear regression
- Week 6 – Hypothesis Testing – MLE of coefficients
- Week 6 – Hypothesis Testing – Correlation
- Week 6 – Hypothesis Testing – Extension
- Week 6 – Hypothesis Testing – Nonprametric Test
- Week 6 – Hypothesis Testing – Sign test
- Week 6 – Hypothesis Testing – Wilcoxon sign-rank test
- Week 6 – Hypothesis Testing – Mann-Whitney U-test and KrusKruskal-Wallis H-test
- Week 6 – Hypothesis Testing – Run test
- Week 6 – Hypothesis Testing – Conclusion of Probability for Financial Machine Learning
-
Time Series Analysis and Stochastic Process
- Document
- Week 1 – Introduction & Time Series Model
- Week 1 – Time Series Model
- Week 2 – Statistics for Time Series Model (1)
- Week 2 – Statistics for Time Series Model (2)
- Week 3 – Other Models (ARCH/ Bilinear/ Piecewise Linear/ Multivariate) & Stochastic Process
- Week 3 – Stochastic Process
- Week 4 – Stochastic Calculus (1)
- Week 4 – Stochastic Calculus (2)
- Week 5 – Stochastic Numerical Methods (1)
- Week 5 – Stochastic Numerical Methods (2)
-
AI for Finance
- Document
- Week 1 – Artificial Intelligence for Quantitative trading
- Week 1 – Introduction to Quantitative trading
- Week 1 – Introduction to Artificial Intelligence
- Week 1 – Trader Workflow
- Week 1 – Trade Signal – Problem and Solution
- Week 2 – Supervised Learning Workflow
- Week 2 – Data Preparation Workflow
- Week 2 – EMA Crossover as Trigger
- Week 2 – Bollinger Band Touching as Trigger
- Week 2 – Candlestick Patterns as Trigger
- Week 3 – Labelling by Trade Signal
- Week 3 – Labelling by Triple Barrier Method
- Week 3 – Feature Selection Concept
- Week 3 – Hypothesis for Feature Selection
- Week 4 – Introduction to Decision Tree
- Week 4 – State Data, Model and Prediction
- Week 4 – Decision Tree Modelling
- Week 4 – Gini Impurity and Information Gain
- Week 4 – Decision Tree Examples
- Week 5 – Coding for Data Preparation
- Week 5 – Coding for Model Creation and Model Evaluation
- Week 5 – Result Analysis
- Week 5 – Non-Stationary Market Distribution
- Week 5 – Advanced Feature Extraction
- Week 5 – Advanced Model Selection
-
Recommendation System
- Document
- Week 1 – Introduction to Recommendation System
- Week 1 – Motivation behind Recommendation System
- Week 1 – Delve into Explicit Rating
- Week 1 – Delve into Implicit Rating
- Week 2 – Content Based overview
- Week 2 – Model Based and Hybrid overview
- Week 3 – Delve into Content Based (Similarity function)
- Week 3 – Similarity Calculation Examples
- Week 3 – Delve into Model Based (Matrix Factorization)
- Week 3 – User Matrix, Item Matrix and Approximated Rating Matrix
- Week 4 – Recommendation coding overview
- Week 4 – Recommendation coding with Small Dataset
- Week 4 – Recommendation coding with Real World Dataset
-
Mathematics for Approximation
- Document
- Week 1 – เกริ่นนำภาพรวมวิชา
- Week 1 – ฟังก์ชันที่สื่อโดย Neural Network
- Week 1 – สัจพจน์ของ vector space
- Week 1 – เข้าใจคำว่า span
- Week 1 – เข้าใจคำว่า linearly independent
- Week 1 – การตรวจสอบ linearly independent ด้วย matrix
- Week 1 – ทำความรู้จักเบื้องต้นกับ vector space of functions
- Week 1 – radial kernel และตัวอย่างต่าง ๆ
- Week 1 – เข้าใจลักษณะและนิยามของ radial basis functions RBF
- Week 1 – ตัวอย่างการทำ Interpolation ด้วย RBF
- Week 1 – Activity 1
- Week 1 – Activity 2
- Week 2 – เกริ่นนำ and Fact เบื้องต้น
- Week 2 – สัจพจน์ของ inner product และนิยามของ norm
- Week 2 – ตัวอย่าง Euclidean space R^n
- Week 2 – สมบัติเบื้องต้น และสมบัติใน R^2 และ R^3
- Week 2 – สมบัติของ norm และ Cauchy-Schwarz Inequality (Theorem 2)
- Week 2 – นิยามของ orthogonal และ orthonormal
- Week 2 – ถ้า orthogonal แล้วจะได้ linearly independent (Theorem 4)
- Week 2 – ตัวอย่าง + ภาพประกอบ + ทำความเข้าใจเพิ่มเติม
- Week 2 – การแยกองค์ประกอบเวกเตอร์ (Theorem 5 + Corollary 6)
- Week 2 – การหา projection (Theorem เสริมนอกชีท + Theorem 7)
- Week 2 – ทำแบบฝึกหัดข้อ 3. และ 4.
- Week 2 – inner product ของ functions
- Week 2 – orthogonal set ที่สำคัญ (ที่นำไปสู่ Fourier series)
- Week 2 – หา projection ด้วย Theorem 7 ได้ผลลัพธ์ออกมาเป็น Fourier series (Definition 9-11)
- Week 2 – Activity I + II
- Week 3 – เกริ่นนำ/ supremum & infimum
- Week 3 – นิยามลิมิตของลำดับ
- Week 3 – นิยามลิมิตของอนุกรมอนันต์
- Week 3 – นิยามฟังก์ชันต่อเนื่องและ intermediate value theorem
- Week 3 – metric spaces พร้อมตัวอย่าง metric แบบต่าง ๆ
- Week 3 – นิยามลิมิตและความต่อเนื่องใน metric space
- Week 3 – open sets และ closed sets
- Week 3 – limit points และ closure
- Week 3 – density (อธิบายละเอียดพร้อมตัวอย่าง)
- Week 3 – แนะนำ topology เล็กน้อย
- Week 3 – เฉลยแบบฝึกหัด 3.(b) และอธิบายเพิ่มเติม
- Week 3 – compact sets และสมบัติที่น่าสนใจ
- Week 3 – Activity I
- Week 3 – Activity II
- Week 4 – การลู่เข้าแบบรายจุด (pointwise convergence)
- Week 4 – การลู่เข้าแบบสม่ำเสมอ (uniform convergence)
- Week 4 – normed linear space
- Week 4 – supremum norm
- Week 4 – B(X) and C(X) spaces
- Week 4 – Weierstrass theorem
- Week 4 – Universal Approximation Theorem (Part 1)
- Week 4 – ตอบคำถามเกี่ยวกับ activation function
- Week 4 – Exercise 1.(a)
- Week 4 – Riemann & Lebesgue integrationUniversal Approximation Theorem (Part 2)
- Week 4 – ตอบคำถามตอนท้าย