实验的tricks

1、某个PCA原理中提到:因为在降维映射的过程中,存在映射误差,所有在对高维特征降维之前, 需要做特征归一化(feature normalization),这个归一化操作包括:(1)feature scaling (让所有的特征拥有相似的尺度, 要不然一个特征特别小, 一个特征特别大会影响降维的效果)(2)zero mean normalization (零均值归一化)。

2、SVMexhibits low sensitivity to high dimensionality and is unlikely to suffer from theHughes phenomenon.

3、注意:Deep Learning学习的高层的抽象复杂的特征一般不会随着大部分局部输入的change而改变

比如说为什么要用深度去提取高光谱数据的特征:

实验的tricks_第1张图片

4、

5、对于patch的,这点很重要

实验的tricks_第2张图片

6、一般是将样本分为:训练集,验证集,测试集,分别:60%,20%,20%

7、不同方法的比较用来kappa系数

8、Euclidean distance(欧几里得距离)对数据之间相似性测量

实验的tricks_第3张图片

9、奇异性问题:

实验的tricks_第4张图片

10、关于性能是不是平稳上升还是咋地(小范围波动时肯定的)

实验的tricks_第5张图片

11、高光谱图像分类:

实验的tricks_第6张图片

你可能感兴趣的:(实验的tricks)