逻辑回归数学推倒讲解

来源:互联网 发布:爱心网络宣传语 编辑:程序博客网 时间:2024/06/09 20:51

the logistic function公式

θ=es1+es 其中入参是s,也就是神经元的信号s=WTX, 它的意思是归类到目标分类的概率是多少。这个公式也叫sigmoid,因为他是平滑的临界值。

现在我们有h(x)=θ(s),这个被解释为一个概率的含义,举个例子,比如心脏病的概率是多少。
输入为一个向量x: 血脂水平,年龄,体重,血压等。
θ(s):就是心脏病的概率,我们知道s=WTX 可以理解为 风险指数。

推广到一般的概率概念

数据 Data(x,y) 里面的y是二进制啊。这个数据集并没有给你概率,而是直接给你了到底y是归属与某个分类与否,举个例子,比如到底有心脏病,还是没有。并不会告诉你25%的概率生心脏病。

那么 y是有一个噪声的,并不准确。所以说目标函数

  • p(y|x)=f(x) for y=+1,

  • p(y|x)=1-f(x) for y=-1
    公式1

y的分布概率是通过f来产生的。

我们想来学习一个目标函数g(x)=θ(WTX)f(x)

现在的问题就是,我们如何来找到一个w,它能够产生和样本一样的概率分布的y。

错误度量

每一个(x,y) ,y 是被概率f(x)来产生的,比较常用的错误代价函数是likelihood
如果 目标函数就是f, 那么从x产生y的概率有多像,多类似。

如何来计算呢,我们来再回顾一下

  • p(y|x)=θ(ywTx) 这个公式可以用来替代公式1
  • θ(s)=1θ(s)

数据集的最大似然 D=(x1,y1),…,(xn,yn) 可以写成一个概率的连乘,这样就是把所有测试数据里面的的概率都考虑了一便。

公式如下:

max_value= Ni=1θ(ynwTxn)

相当于最小化:

min_value=-1NNi=1θ(ynwTxn)

我们的目标就是把这个连乘写成一个对数函数的相加.

min_value=1NNi=1ln(1θ(ynwTxn))

这里θ=11+es 所以上述公式可以简化为:

Ein=1NNi=1ln(1+eynwTxn)

所以我们的误差度量函数可以写成如下的形式:

e(h(xn),yn)=ln(1+eynwTxn)

未完待续

1 0
原创粉丝点击