本文介绍了逻辑回归 (Logistic Regression) 相关的数学知识,重点在于参数和变量的向量化。
二元分类,是将示例归类为两个类别中的一类。
例如,有 1000 张 64 x 64 像素的图片,已知其中哪些是猫、哪些不是。在这个基础上,给一张新的 64 x 64 像素的图片,需要判断是不是猫。
这种基础的图像识别问题,可以归为二元分类。
训练样本数和测试样本数
m=mtrainmtest=1000=1
单个样本的特征数
n=nx=64×64×3
单个样本的输入和输出
x(i)=x1(i)x2(i)⋮xn(i)∈Rn,y(i)∈{0,1}⊂R1
总样本的输入和输出
XY=[x(1)x(2)⋯x(m)]∈Rn×m=[y(1)y(2)⋯y(m)]∈R1×m
逻辑回归是一种学习算法,适用于输出为 0 或 1 的情况。逻辑回归的目标是最小化其预测输出 y^ 和实际输出 y 的误差。
Given x, y^=P(y=1∣x),where 0≤y^≤1
对于单个样本,逻辑回归使用的参数如下:
- 输入:x∈Rn
- 实际输出:y∈0,1
- 权重:w∈Rn
- 阈值/偏置:b∈R1
- 净输入/加权输入:z=wTx+b
- 预测输出:y^=σ(z)=σ(wTx+b)
将输入 z 映射到输出 y^ 的函数称为激活函数 (Activation Function)。这里激活函数使用 Sigmoid 函数σ(z),可以将输出映射到 [0,1] 的范围内:
σ(z)=1+e−z1