无监督学习方法的关系和特点
八种常用的统计机器学习方法:
1. 聚类方法(层次聚类、k均值聚类)
2.奇异值分解(SVD)
3.主成分分析(PCA)
4.潜在语义分析(LSA)
5.概率潜在语义分析(PLSA)
6.马尔可夫链蒙特卡罗法(MCMC,包括Metropolis-Hastings算法、吉布斯抽样)
7.潜在狄利克雷分配(LDA)
8.PageRank算法
三种常用的统计机器学习方法,非负矩阵分解(NMF)、变分推理、幂法
这些方法通常用于无监督学习的 聚类、降维、话题分析、图分析
1 各种方法之间的关系
2 无监督学习方法
聚类有硬聚类和软聚类,层次聚类、k均值聚类是硬聚类方法
高斯混合模型是软聚类方法
层次聚类基于启发式算法,k均值聚类基于迭代算法,高斯混合模型学习通常基于EM算法
降维有线性降维和非线性降维,PCA是线性降维方法。PCA基于SVD
话题分析兼有聚类和降维特点,有非概率模型、概率模型
LSA、NMF是非概率模型,PLSA、LDA是概率模型
PLSA不假设模型具有先验分布,学习基于极大似然估计
LDA假设模型具有先验分布,学习基于贝叶斯学习,具体地后验概率估计
LSA的学习基于SVD,NMF可以直接用于话题分析
PLSA的学习基于EM算法
LDA的学习基于吉布斯抽样或变分推理
图分析的一个问题是链接分析,即结点的重要度计算
PageRank是链接分析的一个方法。PageRank通常基于幂法
3 基础机器学习方法
矩阵分解基于不同假设:SVD基于正交假设,即分解得到的左右矩阵是正交矩阵,中间矩阵是非负对角矩阵
非负矩阵分解基于非负假设,即分解得到的左右矩阵皆是非负矩阵
含有隐变量的概率模型的学习有两种方法:迭代计算方法、随机抽样方法
EM算法 和 变分推理(包括变分EM算法)属于迭代计算方法
吉布斯抽样 属于随机抽样方法
变分EM算法是EM算法的推广
矩阵的特征值与特征向量求解方法中,幂法是常用的算法
文章来源:CSDN博客
原文链接:https://blog.csdn.net/qq_21201267/article/details/105982531
如有侵权,请联系本人删除