|
3 | 3 |
|
4 | 4 | [](https://github.com/lawlite19/MachineLearning_Python/blob/master/LICENSE)
|
5 | 5 |
|
6 |
| - |
7 | 6 | ## 目录
|
8 | 7 | * [机器学习算法Python实现](#机器学习算法python实现)
|
9 |
| - * [一、线性回归](#一-线性回归) |
10 |
| - * [1、代价函数](#1-代价函数) |
11 |
| - * [2、梯度下降算法](#2-梯度下降算法) |
12 |
| - * [3、均值归一化](#3-均值归一化) |
13 |
| - * [4、最终运行结果](#4-最终运行结果) |
14 |
| - * [5、使用scikit-learn库中的线性模型实现](#5-使用scikit-learn库中的线性模型实现) |
15 |
| - * [二、逻辑回归](#二-逻辑回归) |
16 |
| - * [1、代价函数](#1-代价函数) |
17 |
| - * [2、梯度](#2-梯度) |
18 |
| - * [3、正则化](#3-正则化) |
19 |
| - * [4、S型函数(即)](#4-s型函数即) |
20 |
| - * [5、映射为多项式](#5-映射为多项式) |
21 |
| - * [6、使用的优化方法](#6-使用的优化方法) |
22 |
| - * [7、运行结果](#7-运行结果) |
23 |
| - * [8、使用scikit-learn库中的逻辑回归模型实现](#8-使用scikit-learn库中的逻辑回归模型实现) |
| 8 | + * [一、线性回归](#一线性回归) |
| 9 | + * [1、代价函数](#1代价函数) |
| 10 | + * [2、梯度下降算法](#2梯度下降算法) |
| 11 | + * [3、均值归一化](#3均值归一化) |
| 12 | + * [4、最终运行结果](#4最终运行结果) |
| 13 | + * [5、使用scikit-learn库中的线性模型实现](#5使用scikit-learn库中的线性模型实现) |
| 14 | + * [二、逻辑回归](#二逻辑回归) |
| 15 | + * [1、代价函数](#1代价函数) |
| 16 | + * [2、梯度](#2梯度) |
| 17 | + * [3、正则化](#3正则化) |
| 18 | + * [4、S型函数(即)](#4s型函数即) |
| 19 | + * [5、映射为多项式](#5映射为多项式) |
| 20 | + * [6、使用的优化方法](#6使用的优化方法) |
| 21 | + * [7、运行结果](#7运行结果) |
| 22 | + * [8、使用scikit-learn库中的逻辑回归模型实现](#8使用scikit-learn库中的逻辑回归模型实现) |
24 | 23 | * [逻辑回归_手写数字识别_OneVsAll](#逻辑回归_手写数字识别_onevsall)
|
25 |
| - * [1、随机显示100个数字](#1-随机显示100个数字) |
26 |
| - * [2、OneVsAll](#2-onevsall) |
27 |
| - * [3、手写数字识别](#3-手写数字识别) |
28 |
| - * [4、预测](#4-预测) |
29 |
| - * [5、运行结果](#5-运行结果) |
30 |
| - * [6、使用scikit-learn库中的逻辑回归模型实现](#6-使用scikit-learn库中的逻辑回归模型实现) |
31 |
| - * [三、BP神经网络](#三-bp神经网络) |
32 |
| - * [1、神经网络model](#1-神经网络model) |
33 |
| - * [2、代价函数](#2-代价函数) |
34 |
| - * [3、正则化](#3-正则化) |
35 |
| - * [4、反向传播BP](#4-反向传播bp) |
36 |
| - * [5、BP可以求梯度的原因](#5-bp可以求梯度的原因) |
37 |
| - * [6、梯度检查](#6-梯度检查) |
38 |
| - * [7、权重的随机初始化](#7-权重的随机初始化) |
39 |
| - * [8、预测](#8-预测) |
40 |
| - * [9、输出结果](#9-输出结果) |
41 |
| - * [四、SVM支持向量机](#四-svm支持向量机) |
42 |
| - * [1、代价函数](#1-代价函数) |
43 |
| - * [2、Large Margin](#2-large-margin) |
44 |
| - * [3、SVM Kernel(核函数)](#3-svm-kernel核函数) |
45 |
| - * [4、使用中的模型代码](#4-使用中的模型代码) |
46 |
| - * [5、运行结果](#5-运行结果) |
47 |
| - * [五、K-Means聚类算法](#五-k-means聚类算法) |
48 |
| - * [1、聚类过程](#1-聚类过程) |
49 |
| - * [2、目标函数](#2-目标函数) |
50 |
| - * [3、聚类中心的选择](#3-聚类中心的选择) |
51 |
| - * [4、聚类个数K的选择](#4-聚类个数k的选择) |
52 |
| - * [5、应用——图片压缩](#5-应用图片压缩) |
53 |
| - * [6、使用scikit-learn库中的线性模型实现聚类](#6-使用scikit-learn库中的线性模型实现聚类) |
54 |
| - * [7、运行结果](#7-运行结果) |
55 |
| - * [六、PCA主成分分析(降维)](#六-pca主成分分析降维) |
56 |
| - * [1、用处](#1-用处) |
57 |
| - * [2、2D-->1D,nD-->kD](#2-2d-1dnd-kd) |
58 |
| - * [3、主成分分析PCA与线性回归的区别](#3-主成分分析pca与线性回归的区别) |
59 |
| - * [4、PCA降维过程](#4-pca降维过程) |
60 |
| - * [5、数据恢复](#5-数据恢复) |
61 |
| - * [6、主成分个数的选择(即要降的维度)](#6-主成分个数的选择即要降的维度) |
62 |
| - * [7、使用建议](#7-使用建议) |
63 |
| - * [8、运行结果](#8-运行结果) |
64 |
| - * [9、使用scikit-learn库中的PCA实现降维](#9-使用scikit-learn库中的pca实现降维) |
65 |
| - * [七、异常检测 Anomaly Detection](#七-异常检测-anomaly-detection) |
66 |
| - * [1、高斯分布(正态分布)](#1-高斯分布正态分布) |
67 |
| - * [2、异常检测算法](#2-异常检测算法) |
68 |
| - * [3、评价的好坏,以及的选取](#3-评价的好坏以及的选取) |
69 |
| - * [4、选择使用什么样的feature(单元高斯分布)](#4-选择使用什么样的feature单元高斯分布) |
70 |
| - * [5、多元高斯分布](#5-多元高斯分布) |
71 |
| - * [6、单元和多元高斯分布特点](#6-单元和多元高斯分布特点) |
72 |
| - * [7、程序运行结果](#7-程序运行结果) |
| 24 | + * [1、随机显示100个数字](#1随机显示100个数字) |
| 25 | + * [2、OneVsAll](#2onevsall) |
| 26 | + * [3、手写数字识别](#3手写数字识别) |
| 27 | + * [4、预测](#4预测) |
| 28 | + * [5、运行结果](#5运行结果) |
| 29 | + * [6、使用scikit-learn库中的逻辑回归模型实现](#6使用scikit-learn库中的逻辑回归模型实现) |
| 30 | + * [三、BP神经网络](#三bp神经网络) |
| 31 | + * [1、神经网络model](#1神经网络model) |
| 32 | + * [2、代价函数](#2代价函数) |
| 33 | + * [3、正则化](#3正则化) |
| 34 | + * [4、反向传播BP](#4反向传播bp) |
| 35 | + * [5、BP可以求梯度的原因](#5bp可以求梯度的原因) |
| 36 | + * [6、梯度检查](#6梯度检查) |
| 37 | + * [7、权重的随机初始化](#7权重的随机初始化) |
| 38 | + * [8、预测](#8预测) |
| 39 | + * [9、输出结果](#9输出结果) |
| 40 | + * [四、SVM支持向量机](#四svm支持向量机) |
| 41 | + * [1、代价函数](#1代价函数) |
| 42 | + * [2、Large Margin](#2large-margin) |
| 43 | + * [3、SVM Kernel(核函数)](#3svm-kernel核函数) |
| 44 | + * [4、使用中的模型代码](#4使用中的模型代码) |
| 45 | + * [5、运行结果](#5运行结果) |
| 46 | + * [五、K-Means聚类算法](#五k-means聚类算法) |
| 47 | + * [1、聚类过程](#1聚类过程) |
| 48 | + * [2、目标函数](#2目标函数) |
| 49 | + * [3、聚类中心的选择](#3聚类中心的选择) |
| 50 | + * [4、聚类个数K的选择](#4聚类个数k的选择) |
| 51 | + * [5、应用——图片压缩](#5应用图片压缩) |
| 52 | + * [6、使用scikit-learn库中的线性模型实现聚类](#6使用scikit-learn库中的线性模型实现聚类) |
| 53 | + * [7、运行结果](#7运行结果) |
| 54 | + * [六、PCA主成分分析(降维)](#六pca主成分分析降维) |
| 55 | + * [1、用处](#1用处) |
| 56 | + * [2、2D-->1D,nD-->kD](#22d-1dnd-kd) |
| 57 | + * [3、主成分分析PCA与线性回归的区别](#3主成分分析pca与线性回归的区别) |
| 58 | + * [4、PCA降维过程](#4pca降维过程) |
| 59 | + * [5、数据恢复](#5数据恢复) |
| 60 | + * [6、主成分个数的选择(即要降的维度)](#6主成分个数的选择即要降的维度) |
| 61 | + * [7、使用建议](#7使用建议) |
| 62 | + * [8、运行结果](#8运行结果) |
| 63 | + * [9、使用scikit-learn库中的PCA实现降维](#9使用scikit-learn库中的pca实现降维) |
| 64 | + * [七、异常检测 Anomaly Detection](#七异常检测-anomaly-detection) |
| 65 | + * [1、高斯分布(正态分布)](#1高斯分布正态分布) |
| 66 | + * [2、异常检测算法](#2异常检测算法) |
| 67 | + * [3、评价的好坏,以及的选取](#3评价的好坏以及的选取) |
| 68 | + * [4、选择使用什么样的feature(单元高斯分布)](#4选择使用什么样的feature单元高斯分布) |
| 69 | + * [5、多元高斯分布](#5多元高斯分布) |
| 70 | + * [6、单元和多元高斯分布特点](#6单元和多元高斯分布特点) |
| 71 | + * [7、程序运行结果](#7程序运行结果) |
73 | 72 |
|
74 | 73 | ## 一、[线性回归](/LinearRegression)
|
75 | 74 | - [全部代码](/LinearRegression/LinearRegression.py)
|
|
0 commit comments