Fork me on GitHub

Matlab Cody——Basics on Vectors题解

0. Matlab Cody 简介

Matlab Cody是一个类似Leetcode的oj网站,网址:https://ww2.mathworks.cn/matlabcentral/cody

1. Problem 3. Find the sum of all the numbers of the input vector

1
2
3
function y = vecsum(x)
y = sum(x,'all')
end

2. Problem 6. Select every other element of a vector

1
2
3
function y = everyOther(x)
y = x(1:2:end);
end

3. Problem 247. Arrange Vector in descending order

1
2
3
function y = desSort(x)
y = sort(x,'descend');
end

4. Problem 135. Inner product of two vectors

1
2
3
function z = your_fcn_name(x,y)
z = dot(x,y);
end

5. Problem 624. Get the length of a given vector

1
2
3
function y = VectorLength(x)
y = length(x);
end

6. Problem 1107. Find max

1
2
3
function y = your_fcn_name(x)
y = max(x,[],'all');
end

7. Problem 605. Whether the input is vector?

1
2
3
4
5
6
7
function y = checkvector(x)
if isvector(x)
y = 1;
else
y = 0;
end
end

8. Problem 2631. Flip the vector from right to left

题目要求不能直接使用函数,所以自己写

1
2
3
function y = flip_vector(x)
y = x(end:-1:1);
end

9. Problem 3076. Create a vector

1
2
3
function y = zeroToNby2(n)
y = 0:2:n;
end

10. Problem 1024. Doubling elements in a vector

1
2
3
4
5
function B = your_fcn_name(A)
B = zeros(1,2*length(A));
B(1:2:end-1) = A;
B(2:2:end) = A;
end

11. Problem 42651. Vector creation

1
2
3
function y = vector(x)
y = 1:x;
end

林轩田机器学习每章要点

0. 符号假设

1. When Can Machine Learn?

1.1

1.2 Learning to Answer Yes-­No

本节主要介绍了感知机算法,它在一定条件下可以使得 $\textbf{E}_{in} \approx 0$ (在数据集上的误差近似为0)。

感知机学习算法 $\mathcal{A}$ 通过线性可分的数据 $\mathcal{D}$ 以及感知机 $\mathcal{H}$ 获得假设 $g$

  • 感知机的假设空间:定义在 $\mathbb{R}^d$ 上的一条直线或超平面
  • 感知机算法可以不断纠正错误并改进
  • 感知机的分类正确性保证:数据是线性可分的
  • 无法分类的数据:存储效果最好的直线

1.3 Types of Learning

本节主要介绍机器学习的分类

  • 按输出空间 $\mathcal{Y}$ 分类:分类、回归、结构化学习
  • 按数据标签 $y_n$ 分类:监督学习、半监督学习、无监督学习、强化学习
  • 按不同的学习方式分类:批量学习、在线学习、主动学习
  • 按输入空间 $\mathcal{X}$ 分类:具体意义的数据、原始数据、抽象数据

1.4 Feasibility of Learning

本节主要介绍机器学习的可能性

  • NFL定理:面对所有的问题,没有一种算法能说比另一种算法更好
  • 验证一个固定假设 $h$ 的 $E_{in}$ 和 $E_{out}$ 是否PAC

    • 机器能够学习的必要条件:样本满足独立同分布假设 (每次抽样之间相互独立,样本服从同一分布)

    • $E_{in}$ 为抽样样本(数据集)内所有数据中 $h(\vec{x}) = f(\vec{x})$ 的概率,
      $E_{out}$ 为抽样样本外所有数据中 $h(\vec{x}) = f(\vec{x})$ 的概率

      ($E_{in}(h) = \frac{1}{N} \sum\limits_{n=1}^{N} \mathbb{I}[h(\vec{x}) \neq y_n]$、
      $E_{out} = \mathop{\varepsilon}\limits_{\vec{x} \sim{P}} \mathbb{I}[h(\vec{x}) \neq f(\vec{x})]$)

    • Hoeffding 不等式:$P[\lvert E_{in} - E_{out} \rvert > \epsilon] \leq 2exp(-2 \epsilon^2 N)$

      (说明了只要样本数 $N$ 够大,$E_{in}$ 和 $E_{out}$ 相差的很大概率会很小,也就可以用 $E_{in}$ 来估计 $E_{out}$)

    • 上述 Hoeffding 不等式说明了 $E_{in}$ 和 $E_{out}$ 是 PAC(概率近似相等) 的
  • 在 $E_{in}(h)$ 足够小且 $\lvert \mathcal{H} \rvert$ 有限的情况下,学习有可能能实现了

    • 坏数据集 (BAD $\mathcal{D}$):使得假设 $h$ 的 $E_{in}$ 和 $E_{out}$ 相差很大的数据集
    • $P_{\mathcal{D}}(BAD \; \mathcal{D}) \leq P(BAD \; \mathcal{D} \; for \; h_1) + … + P(BAD \; \mathcal{D} \; for \; h_M)$

      $P_{\mathcal{D}}(BAD \; \mathcal{D}) \leq 2exp(-2 \epsilon^2 N) + … + 2exp(-2 \epsilon^2 N)$

      $P_{\mathcal{D}}(BAD \; \mathcal{D}) \leq 2Mexp(-2 \epsilon^2 N)$

      也就是说只要 $N$ 足够大,$\lvert \mathcal{H} \rvert$ 有限的情况下。
      不管使用什么算法 $\mathcal{A}$ 都能够使得 $E_{in}$ 和 $E_{out}$ PAC,

      如果 $\mathcal{A}$ 可以找到 $g$ 使 $E_{in}(g) \approx 0$ 那么PAC可以保证 $E_{out}(g) \approx 0$

2. Why Can Machines Learn?

2.1 Training VS Testing

本节主要介绍假设数量 $M = \infty$ 时,机器学习是否有可能性

  • $M$ 过小 $E_{in}(g) \approx 0$ 难以实现(选择过少),$M$ 过大出现坏样本的概率又显著增加,
    导致 $E_{in}(g)$ 和 $E_{out}(g)$ 无法PAC
  • 按照对数据集中样本点的分类结果可以将无穷种假设分成 $effective(N)$ 种,
    如果 $effective(N) << 2^N$ ,机器学习是有可能的
  • 成长函数 $m_{\mathcal{H}}(N)$ 是含N个数据点的数据集最多的假设种类数
    ($m_{\mathcal{H}}(N) = \mathop{max}\limits_{\vec{x_1},…,\vec{x_N} \in \mathcal{X}} \lvert \mathcal{H}(x_1,…,x_N) \rvert$)
  • $m_{\mathcal{H}}(N) = O(N^{k-1})$ ($k$ 是break point,也就是 $k$ 个样本点类别的 $2^k$ 种情况
    都能被 $\mathcal{H}$ 中其中一个假设全部正确分类)

2.2 Theory of Generalization

  • $N > k$ 时,$m_{\mathcal{H}}(N)$ 会比 $2^N$ 小的多
  • Bounding Function $B(N,k)$ 是 $m_{\mathcal{H}}(N)$ 的上限,以下是它的一些性质:

    • $k = 1$ 时,$B(N,1) = 1$

    • $N < k$ 时,$B(N,k) = 2^N$ (相当于没有限制)

    • $N = k$ 时,$B(N,k) = 2^k - 1$ (刚出现不能被覆盖的分类情况)

  • 通过递推得到 $B(N,k)$ 其他情况下的一些性质:

    • 把 $N$ 个样本可以被覆盖的二分情况再分为两类:第一类每两种情况的 $x_1$ 到 $x_{k-1}$ 的类别完全相同,$x_k$ 的类别不同且成对,其他为第二类

    • 第一类情况个数记为 $\alpha$,第二类为 $\beta$,存在以下关系:$B(N,k) = 2\alpha + \beta$、
      $\alpha + \beta \leq B(N-1,k)$、$\alpha \leq B(N-1,k-1)$

    • 因此可以得到 $B(N,k) = B(N-1,k) + B(N-1,k-1)$ (取等证明略)

    • 因此 $B(N,k) = \sum\limits_{i=0}^{k-1} C_i^N$,最高次项为 $N^{k-1}$,所以成长函数 $m_{\mathcal{H}}(N)$ 是 $poly(N)$ 的

  • 用成长函数 $m_{\mathcal{H}}(N)$ 替代 $M$ 证明 $E_{in}$ 和 $E_{out}$ 是PAC的

    • 证明略

    • VC bound:$P_{\mathcal{D}}(\lvert E_{in} - E_{out} \rvert > \epsilon) \leq 4m_{\mathcal{H}}(N)exp(-\frac{1}{8} \epsilon^2 N)$

2.3 The VC Dimension

本节介绍VC维的意义及其与泛化能力的关系

  • VC维的定义:使得 $m_{\mathcal{H}}(N) = 2^N$ 成立的最大N,记为 $d_{VC}$

    • 机器学习的条件:1、$m_{\mathcal{H}}(N)$ 有间断点k;2、样本数N足够大(这两点保证 $E_{out}$ 和 $E_{in}$ PAC);
      3、合适的算法 $\mathcal{A}$ (保证 $E_{in} \approx 0$)

    • $d_{VC}$ 有限时,$E_{out}$ 和 $E_{in}$ 是PAC的

  • $d_{VC} = d+1$

    • 先证明 $d_{VC} \geq d+1$,由于 $X\vec{w}_{d+1} = \vec{y}_{d+1}$ 可得 $\vec{w} = X^{-1}\vec{y}$
      (X有 $d+1$ 个维度和 $d+1$ 个样本).

      因此对每一种 $\vec{y}$,$\vec{w}$ 唯一确定. $\vec{w}$ 的所有情况也就可以覆盖 $\vec{y}$ 的所有情况

    • 再证明 $d_{VC} \leq d+1$,也就是对 $d+2$ 个样本 $\vec{w}$ 的所有情况不可以覆盖 $\vec{y}$ 的所有情况

      由于 $\vec{x}_{d+2}$ (第 $d+2$ 个样本) 能被表示成前 $d+1$ 个样本的线性组合.

      也就是:$\vec{x}_{d+2} = a_1\vec{x}_{1} + … + a_{d+1}\vec{x}_{d+1}$

      因此存在 $\vec{w}$ 使得 $\vec{x}_{d+2}\vec{w} = a_1\vec{x}_{1}\vec{w} + … + a_{d+1}\vec{x}_{d+1}*\vec{w}>0$

      这种情况下 $\vec{x}_{d+2}$ 一定是正类. $\vec{w}$ 的所有情况不能覆盖 $\vec{y}$ 的所有情况

  • $d_{VC}$ 的物理意义:假设空间的自由度。所以 $M$ 和 $d_{VC}$ 是成正比的
  • $d_{VC}$ 和泛化能力、样本复杂度以及模型复杂度的关系

    • $E_{out}(g) \leq E_{in}(g) + \sqrt{\dfrac{8}{N} \ln{\dfrac{4(2N)^{d_{VC}}}{\delta}}}$

    • $\Omega(N,\mathcal{H},\delta) = \sqrt{\dfrac{8}{N} \ln{\dfrac{4(2N)^{d_{VC}}}{\delta}}}$ 称为模型复杂度的惩罚项

    • 随着 $d_{VC}$ 增加,$E_{in}$ 下降,但是 $\Omega$ 上升。所以 $E_{out}$ 随 $d_{VC}$ 先下降后上升

    • 样本复杂度:$d_{VC}$ 固定的情况下,$N$ 的合理取值(理论上 $N \approx 10000d_{VC}$ 实际上只需要 $N \approx 10d_{VC}$)

2.4 Noise and Error

本节主要说了在数据集有噪声的情况下,VC维依然是成立的,机器学习依然是可能的

  • 样本由 $P(y|\vec{x})$ (也就是 $f(\vec{x}) + noise$ ) 产生
    • 只要 $\vec{x} \stackrel{\text{i.i.d}}{\sim}{P(\vec{x})}$ 和 $y \stackrel{\text{i.i.d}}{\sim}{P(y)}$,VC维理论依然成立
  • 误差的度量方式

    • 误差度量的特点:1、只考虑样本外的未知数据,2、分别考虑每个数据点的误差(不一定满足,但本课程只考虑这个)

    • 常用误差有:0-1误差和平均平方误差(MSE),前者用于分类,后者用于回归

    • 0-1误差下的 $f(\vec{x}) = \mathop{\arg\max}\limits_{y \in \mathcal{Y}} P(y|\vec{x})$,使得翻转噪声最小

    • MSE下的 $f(\vec{x}) = \sum\limits_{y \in \mathcal{Y}} yP(y|\vec{x})$,使得高斯噪声最小

  • 错误衡量设计的两种方式:有意义的或者易于设计算法
  • 通过”虚拟复制”某类错误对应的标签的样本w次的方法,可以计算 $E_{in}^w$ (w为某类错误的权重)

3. How Can Machines Learn?

3.1 Linear Regression

  • 线性回归使用超平面 $h(\vec{x}) = \vec{w}^T\vec{x}$ 估计真实值
  • 线性回归存在用伪逆表示的解析解 $\vec{w}_{LIN} = X^{\dagger}\vec{y}$

    • MSE误差最小等价于:$\min\limits_{\vec{w}} E_{in}(\vec{w}) = \frac{1}{N} \Vert X\vec{w} - \vec{y} \Vert^2$

    • 因为MSE损失函数为凸函数,所以 $\nabla E_{in}(\vec{w}) = 0$ 处即为最小值点

  • 线性回归相当于使 $\vec{y}$ 投影到由 $X$ 的特征张成的平面内,其中 $y - \hat{y}$ 是误差

    • $trace(I - H) = N-(d+1)$ 表示$\vec{y}$ 投影到由 $X$ 的特征张成的平面内损失的自由度

    • 如果有真实值来自于$f(X) \in span{X}$,那么对 noise 进行投影即 $I-H$ 操作可得:

      $\overline{E_{in}} = \frac{1}{N}\Vert y - \hat{y} \Vert^2 = \frac{1}{N}\Vert (I-H)\textbf{noise} \Vert^2 =
      \textbf{noise} (1-\frac{d+1}{N})$

    • $\overline{E_{out}} = \textbf{noise} (1+\frac{d+1}{N})$,随着 $N$ 逐渐增大 $\overline{E_{in}} \approx \overline{E_{out}}$

  • 用回归器进行分类的代价是更松的上界,因为 $err_{0/1} \leq err_{sqr}$,所以 $E_{out} \leq 分类E_{in} + 复杂度 \leq 回归E_{in} + 复杂度$

3.2 Logistic Regression

  • Logistic 回归的目标函数是 $P(+1|x)$,其假设为 $h(x) = \theta(\vec{w}^T x)$(其中 $\theta = \dfrac{1}{1+e^{-s}}$)
  • Logistic 回归的损失函数是交叉熵函数(似然函数的负对数 $L(\vec{w}) = \frac{1}{N}\sum\limits_{n=1}^{N} -\ln \theta(y_n \vec{w}^T \vec{x}_n)$)
  • Logistic 回归的损失函数是凸函数,因此其最小值在
    $\nabla E_{in}(\vec{w}) = \frac{1}{N} \sum\limits_{n=1}^{N} \theta(-y_n \vec{w}^T \vec{x}_n) (-y_n \vec{x}_n) = 0$ 处取得
  • Logistic 回归可以用梯度下降法求得 $L(\vec{w})$ 最小值
    • $\vec{w}$ 更新方式:$\vec{w}_{t+1} = \vec{w}_{t} + \eta \vec{v}$
    • $\eta$ 很小的时候可以泰勒展开近似,$E_{in}(\vec{w}_{t+1}) \approx E_{in}(\vec{w}_{t} + \eta \vec{v}^T \nabla E_{in}(\vec{w}_t))$
    • 当 $\vec{v}$ 与 $\nabla E_{in}(\vec{w}_t)$ 方向相反时(即 $\vec{v} = -\dfrac{\nabla E_{in}(\vec{w}_t)}{\Vert \nabla E_{in}(\vec{w}_t) \Vert}$)
      $E_{in}$ 下降最快
    • 我们希望 $\eta$ 与 $\Vert \nabla E_{in}(\vec{w}_t) \Vert$ 正相关,因此更新的式子可以改为:
      $\vec{w}_{t+1} = \vec{w}_{t} - \eta \nabla E_{in}(\vec{w}_t)$

3.3 Linear Models for Classification

  • 线性回归和Logistic 回归都可以解决线性分类问题
  • 随机梯度下降(SGD)可以简化更新操作到 $\mathcal{O}(1)$ 复杂度
    简化后的更新操作:$\vec{w}_{t+1} = \vec{w}_{t} - \eta \theta(-y_n \vec{w}_t^T \vec{x}_n) (-y_n \vec{x}_n)$
  • 多分类问题
    • OVA:对每一类和所有其他类别数据做二分类,分别计算 $P(k|\vec{x})$
      • 优点:高效,可以和所有类似Logistic 回归的算法结合
      • 缺点:K较大时容易类别不平衡
    • OVO:对每一类和每种其他类别数据做二分类
      • 优点:可以和所有二分类算法结合
      • 缺点:时空复杂度高,预测速度慢

3.4 Nonlinear Transformation

  • 可以用一非线性函数 $\Phi$ 将非线性函数映射到线性空间中,实现x域到z域特征转换
  • z域特征维度 $\tilde{d} = C_{Q+d}^{Q} = C_{Q+d}^{d} = \mathcal{O}(Q^d)$ 较大,
    会导致模型泛化能力差,时空复杂度高
  • 优先选择 $Q$ 较小的假设,如果 $E_{in}$ 太高在考虑复杂假设

4. How Can Machines Learn Better?

4.1 Hazard of Overfitting

  • 过拟合:$E_{in}$ 变小但是 $E_{out}$ 变大的过程。以下是过拟合常见原因:
    • VC Dimension太大
    • 随机噪声或系统性噪声过强
    • 训练样本数 $N$ 不够
  • 避免过拟合的措施:
    • 从简单的模型开始
    • 数据清理(修正明显错误的label或者删除错误样本点)
    • 数据增强(注意新增的数据可能和原来数据不是 $i.i.d.$ 的,尽量保证新数据内的样本是 $i.i.d.$ 的)
    • 正则化
    • 验证

4.2 Regularization

  • 正则化约束条件:$\Vert \vec{w} \Vert^2 \leq C$,$H_n \subset H(C) \subset H_m$ ($n<m$)
  • 最优解需要满足 $-\nabla E_{in}(w_{reg})$ 与 $w^Tw = C$ 的法向量平行,
    即 $\nabla E_{in}(w_{reg}) + \frac{2\lambda}{N}w_{reg}=0$
    • 求解 $w_{reg}$ 等价于最小化 $E_{aug} = E_{in} + \frac{\lambda}{N} w_{reg}^Tw_{reg}$
    • 多项式变换除了可以用朴素的 $x^n$,也可以用勒让德多项式
  • $E_{aug}$ 可以看成 $E_{out}$ 的代理
    • $E_{aug} = E_{in} + \frac{\lambda}{N} w^Tw$ 中的 $w^Tw$ 是单个假设的复杂度,记为 $\Omega(w)$。
      整个 $H$ 的复杂度为 $\Omega(H)$,$\Omega(w)$ 包含在 $\Omega(H)$ 中
    • 整个 $H$ 的VC维是 $d_{VC} = \tilde{d} + 1$,引入正则化限定条件 $H(C)$ 后的VC维记为 $d_{EFF}(H,A)$.
      则有 $d_{EFF}(H,A) \leq d_{VC}$
  • 正则化项选择方法
    • 基于目标特性,比如目标具有对称性则考虑用 $\sum\mathbb{I}(q \% 2==0)w^2_q$ 作为正则化项
    • 接近真实(曲线平滑、简单),如L1正则化 $\sum \vert w_q \vert$
    • 易于实现,如L2正则化 $\sum w^2_q$
    • 噪音越大,$\lambda$ 也要越大

4.3 Validation

模型选择指的是在 $M$ 个假设空间 $H_m$ 对应 $M$ 种算法 $A_m$ 中选择最优假设空间 $H_{m^*}$

使得 $g_{m^} = A_{m^}(D)$,$E_{out}(g_{m^*})$ 最小

  • 用验证集选择模型
    • 用 $E_{in}$ 选择模型是危险的(因为即用 $D$ 训练模型又用它选择模型)
    • 用 $E_{test}$ 选择模型是作弊且无法实现的(难以获得测试数据)
  • 验证集模型选择原理:$E_{out}(g) \mathop{\approx}\limits_{small K} E_{out}(g^-) \mathop{\approx}\limits_{large K} E_{val}(g^-)$
    • 验证集大小 $K$ 越大,$g^-$ 越不如 $g$,但是 $E_{val}$ 越接近 $E_{out}$ (学习曲线)
    • 验证集大小 $K$ 越小,$g^-$ 越接近 $g$,但是 $E_{val}$ 越不如 $E_{out}$ (学习曲线)
  • 留一法交叉验证(LOOCV) 的期望 $\mathop{\varepsilon}\limits_{D} E_{LOOCV}(H,A) = \overline{E_{out}}(N-1)$
    是对 $\overline{E_{out}}$的近似无偏估计
    • $E_{LOOCV} = \frac{1}{N} \sum\limits_{n=1}^{N} err(g_m^-(\vec{x}_n),y_n)$ ($K = 1$ 的特殊情况)
    • LOOCV的缺点:计算量大、结果不稳定
  • V折交叉验证公式:$E_{CV} = \frac{1}{V} \sum\limits_{v=1}^{V} E_{val}^{(v)}(g_v^-)$

4.4 Three Learning Principles

  • 奥卡姆剃刀原则:适合数据的最简单的模型是最合适的
  • 抽样误差:数据要匹配测试环境
  • 偷窥数据:容易造成过拟合。应当避免通过数据进行决策,并且对别人的研究成果保持警惕
  • power of three
    • 机器学习相关的三个领域:数据挖掘、机器学习、统计
    • 三个理论保证:霍夫丁不等式、多假设霍夫丁不等式、VC维
    • 三种线性模型:感知机、线性回归、Logistic回归
    • 三种重要的工具:特征转换、正则化、验证
    • 三个锦囊妙计:奥卡姆剃刀、防止抽样误差、谨慎偷窥数据
    • 机器学习未来方向:更多转换、更多正则化、更少标签

chap3 KNN模型简洁总结

由于KNN是一种基于实例学习的算法,不需要训练过程。

只需要确定了数据集、距离度量、k值以及分类规则,某个样本的类别就能被唯一确定。

因此下文不介绍学习策略和学习算法。

1、KNN模型

输入空间:$\mathcal{X} \in \mathbb{R}^n$

输出空间:$\mathcal{y} \in \{c_1,c_2,…,c_K\}$

特征空间:不显式学习

2、距离度量

一般采用 $L_p$ 距离(闵可夫斯基距离,Minkowski distance).

$L_p$ 的表达式:$L_p(\vec{x_i},\vec{x_j}) = (\sum\limits_{l=1}^n \lvert x_i^{(l)} - x_j^{(l)} \rvert ^p)^{\frac{1}{p}}$ $\quad$ ($p \geq 1$)

$p = 2$ 时就是欧氏距离:$L_2(\vec{x_i},\vec{x_j}) = \sqrt{\sum\limits_{l=1}^n (x_i^{(l)} - x_j^{(l)})^2}$

$p = 1$ 时称为曼哈顿距离:$L_1(\vec{x_i},\vec{x_j}) = \sum\limits_{l=1}^n \lvert x_i^{(l)} - x_j^{(l)} \rvert$

$p = \infty$ 时,它是各个维度坐标距离的最大值:$L_{\infty} = \max\limits_{l} \lvert x_i^{(l)} - x_j^{(l)} \rvert$

3、k值选择

k值过小,模型容易受到噪声点影响导致过拟合;k值过大则容易欠拟合.

k值一般通过交叉验证选取。

4、分类决策规则

一般考虑让经验风险最小,也就是误分类率 $\frac{1}{K} \sum\limits_{\vec{x_i} \in N_K(\vec{x})} \mathbb{I}(y_i \neq c_k)$ 最小

也就是要让 $\frac{1}{K} \sum\limits_{\vec{x_i} \in N_K(\vec{x})}\mathbb{I}(y_i = c_j) = 1 - \frac{1}{K} \sum\limits_{\vec{x_i} \in N_K(\vec{x})} \mathbb{I}(y_i \neq c_k)$ 最大

当损失函数为0-1损失很熟时,多数表决规则分类函数为:$y = \mathop{\arg\max}\limits_{c_j} \sum\limits_{\vec{x_i} \in N_K(\vec{x})}\mathbb{I}(y_i = c_j)$

所以多数表决规则等价于经验风险最小

chap2 感知机模型简洁总结

1、感知机模型

输入空间:$\mathcal{X} \in \mathbb{R}^n$

输出空间:$\mathcal{Y} = \{+1,-1\}$

特征空间:$\{f|f(\vec{x}) = sign(\vec{w} \cdot \vec{x} + b)\}$
($sign$ 为符号函数)

2、学习策略

$x_0$到超平面的距离:$\frac{1}{\Vert \vec{w} \Vert} \lvert \vec{w} \cdot \vec{x_0} + b \rvert$
($\Vert \vec{w} \Vert$ 是 $\vec{w}$ 的 $L_2$ 范数)

由于误分类点实际类别$y_i$与预测类别$f(\vec{x_i}) = sign(\vec{w} \cdot \vec{x_i} + b)$正负相反

因此误分类点到超平面的距离是:$-\frac{1}{\Vert \vec{w} \Vert} y_i (\vec{w} \cdot \vec{x_i} + b)$

为了便于求导,损失函数可以定义为:$L(\vec{w},b) = -\sum\limits_{x_i \in M} y_i (\vec{w} \cdot \vec{x_i} + b)$

3、学习算法

随机梯度下降:一次随机选取一个误分类点进行梯度下降

损失函数$L$ 分别对 $\vec{w}$ 和 $b$ 求梯度得:
$\nabla_{\vec{w}} L(\vec{w},b) = -\sum\limits_{x_i \in M} y_i \vec{x_i}$、
$\nabla_{b} L(\vec{w},b) = -\sum\limits_{x_i \in M} y_i$

参数更新方式:$\vec{w} = \vec{w} + \eta y_i x_i$、$b = b + \eta y_i$
($\eta \in (0,1]$ 为学习率)

参数一直更新,直到样本点中没有误分类点为止。

4、对偶问题

由上文的学习算法可得,$\vec{w}$ 和 $b$ 是通过逐次随机选取一个误分类点更新而来

因此可以设 $\vec{w}$ 的每个元素和 $b$ 都为0,参数总共更新 $n$ 次;

最终学习到的 $\vec{w}$ 和 $b$ 可以表示为:
$\vec{w} = \sum\limits_{i=1}\limits^{N} \alpha_i y_i x_i$、
$b = \sum\limits_{i=1}\limits^{N} \alpha_i y_i$
($\alpha_i = n_i \eta$,其中 $n_i$ 为点i被选中用于更新的次数)

由第三节中提到的 $\vec{w}$ 和 $b$ 的更新方式,可以反推出 $\alpha$ 和 $b$ 的更新方式:

$\alpha_i = \alpha_i + \eta$、$b = b + \eta y_i$

粗糙度定标公式整理

1 公式形式

\begin{equation}\tag{1}
L_{opt1}(rms,\theta,pp) = \alpha rms^{\beta}
\end{equation}

2 公式

2.1 在HH极化下的公式

latex 测试

高斯粗糙面的均方根斜率可以表示为均方根高度和相关长度的函数:

matlab编码规范学习

命名约定

变量

变量名应该记录它们的含义或用途。

1
wage = hourlyRate * nHours

从小写开始用混合大小写命名变量名

以大写开头的名称通常是为类型或者结构体保留的。

很短的变量名可以是大写的,如果它们在常规用法中是大写的,并且不太可能成为复合变量名的一部分。

例如在特定领域,杨氏模量的E,可能会被误导为e。

有些程序员喜欢用下划线来分隔复合变量名的各个部分。

这种方式虽然易于阅读,但在其他语言中并不常用来命名变量。

在图形标题、标签和图例的变量名中使用下划线的另一个考虑因素是,MATLAB中的Tex解释器将把下划线转换为下标来读取,因此需要为每个文本字符串应用参数/值对进行设置,即‘Interpreter’,’none’。

具有大作用域的变量应该具有有意义的命名,作用域小的变量可以有简短的命名

在实践中,大多数变量都应该具有有意义的名字。

在某些条件下,应保留使用简短的命名,以澄清陈述的结构或与预期的通用性相一致。

  • Copyrights © 2022-2026 CPY
  • Visitors: | Views:

请我喝杯咖啡吧~

支付宝
微信