对抗自编码器(AAE)
自编码器转换成生成模型
通过两个目标训练:传统的重构误差函数和对抗训练函数—>将AE隐藏层向量表示的聚合后验分布与任意先验分布匹配。训练准则和VAE很像
- 1、编码器学到将数据分布转换成该先验分布
- 2、解码器学到一个模型,可以将强加的先验映射到数据分布上
teacher forcing的方法通过将被观测的序列值作为训练过程中的输入和使用该网络自己的提前一步预测(one-step-ahead-predictions)l来进行多步采样
比如时间序列的条件分布模型:
$$
P(y_1,y_2,…,y_T)=P(y_1)\prod_{t=1}^T P(y_t|y_1,…,y_{t-1})
$$
这种形式一般的机器学习的训练策略就是最大似然,而在RNN中,这种策略可以类似为teacher forcing,由于使用真值样本,将其反馈到模型中,以便对后一时刻输出进行预测。这种反馈迫使(force)RNN接近真实的序列
SVM
xgboost
lightgbm
线性回归
聚类
数据评估
异常值
逻辑回归
数据划分
$$
Q=[q_1,q_2…,q_N]是所有可能的状态集合 \qquad V=[v_1,v_2…v_M]是所有目标集合\
I=[i_1,i_2…i_T]表示长度为T的状态序列\qquad O=[o_1,o_2…o_T]表示长度为T的观测序列\
\
概率转移矩阵A=[a_{ij}]{n×n}\qquad a{ij}=P(i_{t+1}=q_j|i_{t}=q_i)\qquad(在t时刻)\
观测概率矩阵B=[b_j(k)]_{N×M}\qquad b_j(k)=P(o_t=v_k|i_t=q_j)\
初始状态概率向量\pi=(\pi_i)\qquad \pi_i=P(i_1=q_i)
$$