avatar
文章
23
标签
8
分类
0
首页
音乐
照片
友链
说说
关于
LogoLuckylogistic回归
搜索
首页
音乐
照片
友链
说说
关于

logistic回归

发表于2019-07-24|更新于2025-03-03
|总字数:228|阅读时长:1分钟

总结一小下

1.logistic回归为二分类问题,所以说y值只有1和0。

2.sigmod函数方程式:g (θ) = $\frac{1}{1+e^-θTx }$

1
2
3
4

f = np.matmul(x, weights.T) # f为直线,所以说当f>0时,g(θ)为1,反之为0。
g(θ)=1, np.add(1, np.exp(-f))

3.代价函数:J = - $\frac{1}{m}$$\sum_{i=1}^m$ (y log [g(θ)] )+(1-y) (log[1-g(θ)])
代码表示:

1
2
3
4
5

loss_1 = -np.matmul(y.T, np.log(h))
loss_0 = -np.matmul(np.add(1, -y).T, np.log(np.add(1, -h)))
J= np.divide( loss_0+ loss_1 ,m)

4.梯度下降:θ(j)-= α{$\frac{1}{m}$ $\sum_{i=1}^m$(g(θ) x^i^-y^i^}$x_j^i$
代码表示:

1
2
3
4

θ -= np.divide(np.multiply(α, np.matmul(np.add(-y, np.matmul(g(θ),x)).T, x)), m)
#可以分开变为五行。

5.基本上就这三个公式,具体梯度下降何时停止,参照线性回归。

文章作者: 刘同学
文章链接: https://mouhorse.github.io/2019-07-24/logistic%E5%9B%9E%E5%BD%92/
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 Lucky!
机器学习
赞助
  • wechat
    wechat
  • alipay
    alipay
cover of previous post
上一篇
高数第三章
...
cover of next post
下一篇
数据结构:顺序表(c语言)
...
相关推荐
cover
2018-12-25
机器学习
机器学习 ==1.监督学习== 利用一组已知类别的样本调整算法的参数,使其达到所要求的性能。 ==2.无监督学习== 利用聚类算法,不知样本类别,使其达到所要求的性能。 3.过拟合:训练集好,测试集不好。(后期再详细介绍) 欠拟合:两者都不好。 单变量线性回归 ...
avatar
刘同学
欢迎光临我的博客
文章
23
标签
8
分类
0
Follow Me
公告
欢迎来到我的博客!
可以交换友链
联系方式:485182274@qq.com
目录
  1. 1. 总结一小下
最新文章
Hexo本地与云端布局不同处理办法
Hexo本地与云端布局不同处理办法2025-02-25
解决 Hexo 部署到 GitHub Pages 自定义域名失效
解决 Hexo 部署到 GitHub Pages 自定义域名失效2025-02-24
Butterfly 个性化配置教程
Butterfly 个性化配置教程2025-02-23
Hexo安装并修改主题
Hexo安装并修改主题2025-02-23
MNE脑电预处理
MNE脑电预处理2024-10-07
©2018 - 2025 By 刘同学
框架 Hexo 7.3.0|主题 Butterfly 5.3.3
活出个样子给自己看
搜索
数据加载中