You need to enable JavaScript to run this app.
最新活动
大模型
产品
解决方案
定价
生态与合作
支持与服务
开发者
了解我们

关于拉加里斯等人论文中ANN求解一阶ODE时导数符号的疑问

关于拉加里斯等人论文中ANN求解一阶ODE时导数符号的疑问

嘿,这个问题提得特别细致!咱们来好好捋一捋:

首先先明确场景:我们用人工神经网络构造的试解是
$$y_t(x, \vec{p}) = A + (x-a)N(x, \vec{p})$$
没错,$y_t$确实是关于自变量$x$和网络权重$\vec{p}$的二元函数,你的这个观察是完全正确的。

那论文里写的$\frac{dy_t}{dx}$和你提出的$\frac{\partial y_t}{\partial x}$到底有啥区别?其实在这个问题的语境下,两者表达的是同一个意思:

  • 当我们计算误差函数$E[\vec{p}]$时,我们的操作是先固定权重$\vec{p}$,再对自变量$x$求导。这种“固定参数、仅对自变量求导”的操作,在数值计算和微分方程求解的领域里,大家习惯用全导数$\frac{dy_t}{dx}$来简化表达,但本质上就是多元函数对$x$的偏导数$\frac{\partial y_t}{\partial x}$。

咱们再拆解一遍求导过程验证:
根据乘积法则,对$y_t = A + (x-a)N(x, \vec{p})$求导(固定$\vec{p}$):

  1. 常数项$A$的导数为0;
  2. $(x-a)$对$x$的导数是1,乘以$N(x,\vec{p})$,得到第一项$N(x,\vec{p})$;
  3. 加上$(x-a)$乘以$N(x,\vec{p})$对$x$的导数(同样是固定$\vec{p}$对$x$求导),也就是$(x-a)\frac{dN(x,\vec{p})}{dx}$——这里的$\frac{dN}{dx}$同样是$\frac{\partial N}{\partial x}$的简化写法。

所以结论是:你的理解非常严谨,从纯数学的多元微分角度,用偏导数符号更准确,但论文里的写法是该领域的常用简化表达,两者没有本质区别,核心都是固定权重$\vec{p}$,仅对自变量$x$求导

备注:内容来源于stack exchange,提问作者Tan

火山引擎 最新活动