若是函数f(x)在闭区间[a,b]上连续,则在积分区间[a,b]上至少存在一个点$\xi $,使得$\int_{a}^{b}f(x)dx=f(\xi )(b-a).(a\leqslant \xi \leqslant b)$app
积分上限函数:函数f(x)在区间[a,b]上连续,对于定积分$\int_{a}^{x}f(x)dx$每个取值的x都有一个对应的定积分值。记做:$\Phi (x)=\int_{a}^{x}f(t)dt$机器学习
定理1:函数
定理2(原函数存在定理):学习
牛顿-莱布尼兹公式(Newton-Leibniz formula),一般也被称为微积分基本公式,它揭示了定积分与被积函数的原函数或者不定积分之间的联系。spa
若是F(x)是连续函数f(x)在区间[a,b]上的一个原函数,则:$\int_{a}^{b}f(x)dx=F(b)-F(a)$3d
解释:一个连续函数在区间[a,b]上的定积分等于它的任意一个原函数在区间[a,b]上的增量orm
几何解释:blog
可得:$f(b)-f(a)=\sum dy$,因为$dy={f}'(x)dx$,因此 $f(b)-f(a)=\sum f'(x)dx=\int_{a}^{b}f'(x)dx$深度学习
例题:求解$\int_{0}^{\frac{\pi }{2}}(2\cos x+\sin x-1)dx$form
定理3(微积分基本公式):
有$f(x)\in C[a,b]$,且$F'(x)=f(x)$
例题:计算由曲线y2=2x和直线y=x-4所围成的图形的面积
简单来说就是用一个多项式函数去无限逼近一个给定的函数(即尽可能使多项式函数图像拟合给定的函数图像,如sin x,cos x等函数值的近似计算),注意,逼近的时候必定是从函数图像上的某个点展开。若是一个很是复杂函数,想求其某点的值,直接求没法实现,这时候能够使用泰勒公式去近似的求该值,这是泰勒公式的应用之一。泰勒公式在机器学习中主要应用于梯度迭代。
首先回忆微分
若$f'(x_{0})$存在,在$x_{0}$附近有$f(x_{0}+\Delta x)-f(x_{0})\approx f'(x_{0})\Delta x$。
因为$\Delta x=x-x_{0}$,能够获得$f(x)=f(x_{0})+f'(x_{0})(x-x_{0})+o(x-x_{0})$,
近似可得$f(x)\approx f(x_{0})+f'(x_{0})(x-x_{0})$。
接着再来引出泰勒公式,若是说咱们想要以直线来近似的代替一个曲线,以下图所示
只用一阶导数看起来有点不许呀,如上图所示,能不能在利用一些呢?答案确定是能够的,一阶导数只帮咱们定位了下一个点是上升仍是降低,而后对以后的趋势就很难把控了。
那如何定位的更准确一些呢?若是咱们再把二阶导数利用上呢?
咱们能够发现,这样的方式存在精确度不够高,偏差不能估计等不足之处。因此,主要的问题就是寻找函数P(x),使得f(x)≈P(x),从而使得偏差R(x)=f(x)-P(x)可估计。
分析:若是说要f(x)≈P(x),且近似程度要好,Pn(x)应该知足什么条件?
由上图就能够引出泰勒公式了
$P_{n}(x)=f(x_{0})+f'(x_{0})(x-x_{0})+\frac{f''(x_{0})}{2!}(x-x_{0})^{2}+\cdots +\frac{f^{(n)}(x_{0})}{n!}(x-x_{0})^{n}$称为f(x)在点x0关于(x-x0)的n阶泰勒多项式,这个式子只能说是获得的值可以无限的逼近真正的函数值,可是其中还存在一个偏差项R(x),也就是说f(x)=R(x)+P(x),这里的偏差项称为余项。对于通常的机器学习、深度学习来讲,余项自己也用不上在加上其比较复杂,因此在这里就不做解释了。
多项式逼近以下图所示
公式里面的阶数是什么意思呢?
阶数越高增加速度越快。观察可发现,越高次项在越偏右侧影响越大。对于一个复杂函数,给咱们的感受是在当前点,低阶项能更好的描述当前点附近,对于以后的走势就愈来愈依靠高阶的了。
公式里面的阶乘是什么意思呢?
若是把9次的和2次的直接放在一块儿,那2次的就直接不用玩了呀,它们之间的差距太大了。可是在开始的时候应该是2次的效果更好,以后才是慢慢轮到9次的。
有了阶乘(!)以后,就帮助咱们解决了这样的问题
以下图所示,使用不一样阶的多项式函数来逼近$y=\sin x$函数
能够看到,阶数越高的函数越能拟合$y=\sin x$函数。