对于《机器学习实战》中逻辑斯谛回归算法公式理解
对于《机器学习实战》中逻辑斯谛回归算法公式理解
tantexian 发表于9个月前
对于《机器学习实战》中逻辑斯谛回归算法公式理解
  • 发表于 9个月前
  • 阅读 11
  • 收藏 0
  • 点赞 0
  • 评论 0

【腾讯云】买域名送云解析+SSL证书+建站!>>>   

对于《机器学习实战》中逻辑斯谛回归算法公式理解:

weights = weights + alpha * dataMatrix.transpose() * error  





附:logistic算法

[python] view plain copy
def sigmoid(inX):  
    return 1.0/(1+exp(-inX))  
      
def gradAscent(dataMatIn, classLabels):  
    dataMatrix = mat(dataMatIn)  
    labelMat = mat(classLabels).transpose()  
    m, n = shape(dataMatrix)  
    alpha = 0.001  
    maxCycles = 500  
    weights = ones((n, 1))  
    for k in range(maxCycles):  
        h = sigmoid(dataMatrix*weights)  
        error = (labelMat - h)  
        weights = weights + alpha * dataMatrix.transpose() * error  
    return weights  

 

原理推导如下:

 

  • 打赏
  • 点赞
  • 收藏
  • 分享
共有 人打赏支持
粉丝 182
博文 465
码字总数 717645
×
tantexian
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
* 金额(元)
¥1 ¥5 ¥10 ¥20 其他金额
打赏人
留言
* 支付类型
微信扫码支付
打赏金额:
已支付成功
打赏金额: