Machine Learning Chinese NLP :::: Cost Function - Chad Salinas ::: Data Scientist
Life and times of Chad Salinas
Chad Salinas, golf caddy, data scientist, chad rPubs, recovering chess addict, daddy caddy
1139
post-template-default,single,single-post,postid-1139,single-format-standard,qode-listing-1.0.1,qode-social-login-1.0,qode-news-1.0,qode-quick-links-1.0,qode-restaurant-1.0,ajax_fade,page_not_loaded,,qode-title-hidden,qode_grid_1300,qode-theme-ver-12.0.1,qode-theme-bridge,bridge,wpb-js-composer js-comp-ver-5.4.2,vc_responsive

Machine Learning Chinese NLP :::: Cost Function

Squared Error Cost Function

  1. 在这段视频中我们将定义代价函数的概念 这有助于我们
    弄清楚如何把最有可能的直线与我们的数据相拟合

    在线性回归中我们有一个像这样的训练集 记住
    M代表了训练样本的数量 所以 比如 M = 47
    而我们的假设函数 也就是用来进行预测的函数 是这样的线性函数形式

    接下来我们会引入一些术语 这些θ0和θ1

    这些θi我把它们称为模型参数 在这个视频中
    我们要做的就是谈谈如何选择这两个参数值θ0和θ1
    选择不同的参数θ0和θ1
    我们会得到不同的假设 不同的假设函数
    我知道你们中的有些人可能已经知道我在这张幻灯片上要讲的
    但我们还是用这几个例子来复习回顾一下
    如果θ0是1.5 θ1是0 那么假设函数会看起来是这样
    是吧 因为你的假设函数是h(x)=1.5+0*x
    是这样一个常数函数 恒等于1.5
    如果θ0=0并且θ1=0.5 那么假设会看起来像这样

    它会通过点(2,1) 这样你又得到了h(x)
    或者hθ(x) 但是有时我们为了简洁会省略θ
    因此 h(x)将等于0.5倍的x 就像这样
    最后 如果θ0=1并且θ1=0.5 我们最后得到的假设会看起来像这样
    让我们来看看 它应该通过点(2,2)
    这是我的新的h(x)或者写作hθ(x) 对吧?
    你还记得之前我们提到过hθ(x)的 但作为简写 我们通常只把它写作h(x)
    在线性回归中 我们有一个训练集
    可能就像我在这里绘制的 我们要做的就是
    得出θ0 θ1这两个参数的值 来让假设函数表示的直线
    尽量地与这些数据点很好的拟合
    也许就像这里的这条线一样 那么我们如何得出θ0 θ1的值
    来使它很好地拟合数据的呢?我们的想法是 我们要选择

    能使h(x) 也就是 输入x时我们预测的值
    最接近该样本对应的y值的参数θ0 θ1
    所以 在我们的训练集中我们会得到一定数量的样本
    我们知道x表示卖出哪所房子 并且知道这所房子的实际价格

    所以 我们要尽量选择参数值 使得
    在训练集中 给出训练集中的x值

    我们能合理准确地预测y的值
    让我们给出标准的定义 在线性回归中 我们要解决的是一个最小化问题
    所以我要写出关于θ0 θ1的最小化 而且
    我希望这个式子极其小 是吧 我想要h(x)和y之间的差异要小
    我要做的事情是尽量减少假设的输出与房子真实价格
    之间的差的平方 明白吗?接下来我会详细的阐述
    别忘了 我用符号( x(i),y(i) )代表第i个样本
    所以我想要做的是对所有训练样本进行一个求和
    对i=1到i=M的样本 将对假设进行预测得到的结果
    此时的输入是第i号房子的面积 对吧
    将第i号对应的预测结果 减去第i号房子的实际价格 所得的差的平方相加得到总和
    而我希望尽量减小这个值
    也就是预测值和实际值的差的平方误差和 或者说预测价格和
    实际卖出价格的差的平方
    我说了这里的m指的是训练集的样本容量
    对吧
    这个井号是训练样本“个数”的缩写 对吧 而为了让表达式的数学意义
    变得容易理解一点 我们实际上考虑的是
    这个数的1/m 因此我们要尝试尽量减少我们的平均误差
    也就是尽量减少其1/2m 通常是这个数的一半
    前面的这些只是为了使数学更直白一点 因此对这个求和值的二分之一求最小值
    应该得出相同的θ0值和相同的θ1值来
    请大家一定弄清楚这个道理
    没问题吧?在这里hθ(x)的这种表达 这是我们的假设

    它等于θ0加上θ1与x(i)的乘积 而这个表达
    表示关于θ0和θ1的最小化过程 这意味着我们要找到θ0和θ1
    的值来使这个表达式的值最小
    这个表达式因θ0和θ1的变化而变化对吧?
    因此 简单地说 我们正在把这个问题变成 找到能使
    我的训练集中预测值和真实值的差的平方的和
    的1/2M最小的θ0和θ1的值
    因此 这将是我的线性回归的整体目标函数
    为了使它更明确一点 我们要改写这个函数
    按照惯例 我要定义一个代价函数
    正如屏幕中所示 这里的这个公式
    我们想要做的就是关于θ0和θ1 对函数J(θ0,θ1)求最小值
    这就是我的代价函数
    代价函数也被称作平方误差函数 有时也被称为

    平方误差代价函数 事实上 我们之所以要求出
    误差的平方和 是因为误差平方代价函数
    对于大多数问题 特别是回归问题 都是一个合理的选择

    还有其他的代价函数也能很好地发挥作用
    但是平方误差代价函数可能是解决回归问题最常用的手段了
    在后续课程中 我们还会谈论其他的代价函数
    但我们刚刚讲的选择是对于大多数线性回归问题非常合理的
    好吧 所以这是代价函数 到目前为止 我们已经
    介绍了代价函数的数学定义
    也许这个函数J(θ0,θ1)有点抽象
    可能你仍然不知道它的内涵
    在接下来的几个视频里 我们要更进一步解释
    代价函数J的工作原理 并尝试更直观地解释它在计算什么

    以及我们使用它的目的 【教育无边界字幕组】翻译: antis 校对: cheerzzh 审核: 所罗门捷列夫
    按照惯例, 我们通常定义一个代价函数,

    正如屏幕中所示 这里的这个公式

    我们想要做的就是通过θ0和θ1 对函数J(θ0,θ1)求最小值
    这就是我的代价函数
    好了,写完了

    这就是我们的代价函数,

    这个代价函数也被叫做,平方差函数

    有时也叫做,平方差代价函数
    为什么我们要使用平方
    结果表明,这些平方差代价函数是一个合理的选择
    适用于大多数的回归程序和问题
    当然,还有其它工作得相当好的代价函数
    但是这个平方差代价函数 或许是回归问题中
    最常使用的一个
    在随后的这门课程里,我们也会谈到其它的代价函数
    但是这个平方差代价函数 对于大多数线性回归问题来说
    是非常有理由,试一试的函数

    这就是代价函数

    目前为止,我们对代价函数 做了数学定义
    这个函数 J(θ0, θ1)
    似乎有一点抽象
    你可能对它是干什么的,还是不太理解
    在下一个视频,以及接下来的系列视频中,我将
    稍微深入地介绍这个代价函数 “J”
    让你对这个函数的运算机理 以及我们为什么要使用它,有个更好的直观印象

No Comments

Sorry, the comment form is closed at this time.