搜索结果
Powered by: Simple-Jekyll-Search
降维是机器学习中的一个重要概念,对于考试来说,应该不是考试重点,了解思想为重点。
没啥特别值得聊的,同样不是考试重点
可以说,这就是根据训练集的分布直接预测。
可以说非常的简单,并且没有明显的“学习”过程。对于这种不需要显式训练过程的学习算法,称为“懒惰学习”(lazy learning),与之相反的,前面学过的大多数都属于“急切学习”(eager learning)。
方法 | 原理 | 效果 | 假设 |
---|---|---|---|
MDS | 计算样本之间的距离,然后将这些距离映射到低维空间中,使得映射后的样本之间的距离在低维空间中尽量保持与高维空间中的距离相似 | 保持样本之间的距离关系,尽可能地保留原始数据的结构信息 | 样本之间的距离可以反映它们的相似性或差异性,即距离越近的样本越相似,距离越远的样本越不相似 |
PCA | 将原始数据投影到新的特征空间中,选择投影后具有最大方差的方向作为主成分。主成分是原始特征的线性组合,它们是数据中包含的最重要的信息。PCA通过保留方差最大的主成分,实现对数据的降维 | 减少特征的维度,同时保留尽可能多的原始数据的信息 | 高维数据中的信息主要集中在少数几个主成分上,且主成分之间应该是正交的 |