Chinese, Computer Science, Technology
Machine Learning Chinese NLP :::: Cost Function
Squared Error Cost Function
-
在这段视频中我们将定义代价函数的概念 这有助于我们弄清楚如何把最有可能的直线与我们的数据相拟合在线性回归中我们有一个像这样的训练集 记住M代表了训练样本的数量 所以 比如 M = 47而我们的假设函数 也就是用来进行预测的函数 是这样的线性函数形式接下来我们会引入一些术语 这些θ0和θ1这些θi我把它们称为模型参数 在这个视频中我们要做的就是谈谈如何选择这两个参数值θ0和θ1选择不同的参数θ0和θ1我们会得到不同的假设 不同的假设函数我知道你们中的有些人可能已经知道我在这张幻灯片上要讲的但我们还是用这几个例子来复习回顾一下如果θ0是1.5 θ1是0 那么假设函数会看起来是这样是吧 因为你的假设函数是h(x)=1.5+0*x是这样一个常数函数 恒等于1.5如果θ0=0并且θ1=0.5 那么假设会看起来像这样它会通过点(2,1) 这样你又得到了h(x)或者hθ(x) 但是有时我们为了简洁会省略θ因此 h(x)将等于0.5倍的x 就像这样最后 如果θ0=1并且θ1=0.5 我们最后得到的假设会看起来像这样让我们来看看 它应该通过点(2,2)这是我的新的h(x)或者写作hθ(x) 对吧?你还记得之前我们提到过hθ(x)的 但作为简写 我们通常只把它写作h(x)在线性回归中 我们有一个训练集可能就像我在这里绘制的 我们要做的就是得出θ0 θ1这两个参数的值 来让假设函数表示的直线尽量地与这些数据点很好的拟合也许就像这里的这条线一样 那么我们如何得出θ0 θ1的值来使它很好地拟合数据的呢?我们的想法是 我们要选择能使h(x) 也就是 输入x时我们预测的值最接近该样本对应的y值的参数θ0 θ1所以 在我们的训练集中我们会得到一定数量的样本我们知道x表示卖出哪所房子 并且知道这所房子的实际价格所以 我们要尽量选择参数值 使得在训练集中 给出训练集中的x值我们能合理准确地预测y的值让我们给出标准的定义 在线性回归中 我们要解决的是一个最小化问题所以我要写出关于θ0 θ1的最小化 而且我希望这个式子极其小 是吧 我想要h(x)和y之间的差异要小我要做的事情是尽量减少假设的输出与房子真实价格之间的差的平方 明白吗?接下来我会详细的阐述别忘了 我用符号( x(i),y(i) )代表第i个样本所以我想要做的是对所有训练样本进行一个求和对i=1到i=M的样本 将对假设进行预测得到的结果此时的输入是第i号房子的面积 对吧将第i号对应的预测结果 减去第i号房子的实际价格 所得的差的平方相加得到总和而我希望尽量减小这个值也就是预测值和实际值的差的平方误差和 或者说预测价格和实际卖出价格的差的平方我说了这里的m指的是训练集的样本容量对吧这个井号是训练样本“个数”的缩写 对吧 而为了让表达式的数学意义变得容易理解一点 我们实际上考虑的是这个数的1/m 因此我们要尝试尽量减少我们的平均误差也就是尽量减少其1/2m 通常是这个数的一半前面的这些只是为了使数学更直白一点 因此对这个求和值的二分之一求最小值应该得出相同的θ0值和相同的θ1值来请大家一定弄清楚这个道理没问题吧?在这里hθ(x)的这种表达 这是我们的假设它等于θ0加上θ1与x(i)的乘积 而这个表达表示关于θ0和θ1的最小化过程 这意味着我们要找到θ0和θ1的值来使这个表达式的值最小这个表达式因θ0和θ1的变化而变化对吧?因此 简单地说 我们正在把这个问题变成 找到能使我的训练集中预测值和真实值的差的平方的和的1/2M最小的θ0和θ1的值因此 这将是我的线性回归的整体目标函数为了使它更明确一点 我们要改写这个函数按照惯例 我要定义一个代价函数正如屏幕中所示 这里的这个公式我们想要做的就是关于θ0和θ1 对函数J(θ0,θ1)求最小值这就是我的代价函数代价函数也被称作平方误差函数 有时也被称为平方误差代价函数 事实上 我们之所以要求出误差的平方和 是因为误差平方代价函数对于大多数问题 特别是回归问题 都是一个合理的选择还有其他的代价函数也能很好地发挥作用但是平方误差代价函数可能是解决回归问题最常用的手段了在后续课程中 我们还会谈论其他的代价函数但我们刚刚讲的选择是对于大多数线性回归问题非常合理的好吧 所以这是代价函数 到目前为止 我们已经介绍了代价函数的数学定义也许这个函数J(θ0,θ1)有点抽象可能你仍然不知道它的内涵在接下来的几个视频里 我们要更进一步解释代价函数J的工作原理 并尝试更直观地解释它在计算什么以及我们使用它的目的 【教育无边界字幕组】翻译: antis 校对: cheerzzh 审核: 所罗门捷列夫按照惯例, 我们通常定义一个代价函数,正如屏幕中所示 这里的这个公式我们想要做的就是通过θ0和θ1 对函数J(θ0,θ1)求最小值这就是我的代价函数好了,写完了这就是我们的代价函数,这个代价函数也被叫做,平方差函数有时也叫做,平方差代价函数为什么我们要使用平方结果表明,这些平方差代价函数是一个合理的选择适用于大多数的回归程序和问题当然,还有其它工作得相当好的代价函数但是这个平方差代价函数 或许是回归问题中最常使用的一个在随后的这门课程里,我们也会谈到其它的代价函数但是这个平方差代价函数 对于大多数线性回归问题来说是非常有理由,试一试的函数好这就是代价函数目前为止,我们对代价函数 做了数学定义这个函数 J(θ0, θ1)似乎有一点抽象你可能对它是干什么的,还是不太理解在下一个视频,以及接下来的系列视频中,我将稍微深入地介绍这个代价函数 “J”让你对这个函数的运算机理 以及我们为什么要使用它,有个更好的直观印象
Sorry, the comment form is closed at this time.