|
战巡
发表于 2024-9-27 11:08
本帖最后由 战巡 于 2024-9-27 17:58 编辑
我不建议你去定义“角度”这个东西,会非常麻烦
假设函数$f(x),g(x)$,定义域均为$x\in[a,b]$
现有的函数距离,有几种常用的定义:
1、积分距离
\[d(f,g)=\sqrt{\int_a^b[f(x)-g(x)]^2dx}\]
就是你定义的那个东西,只不过最好不要走到无穷大去,万一不收敛就不好玩了,没法比较了
虽然理论上函数的定义域可以到无穷大,但在实际科研、工作中是不可能的,你们的数据也是有范围的,就按你们的数据范围来设定$[a,b]$就行了,这种事我们也经常干
要知道,超出数据范围以外的地方,你的拟合是没有任何保障的,大概率出错
2、最大距离
\[d(f,g)=\max(|f(x)-g(x)|)\]
即测量两个函数差异最大处的距离
别的地方我不太清楚,我们统计学上在比较两个分布的接近程度时,可以通过计算两个分布的累积分布函数的最大差异来判断,这种方法叫做Kolmogorov-Smirnov检验
3、如果f,g都是恒正的函数(或者非正的部分,其集合的勒贝格测度为0),可以考虑KL散度(Kullback-Leibler Divergence)
\[KL(f||g)=\int_a^bf(x)\ln(\frac{f(x)}{g(x)})dx\]
统计学上也经常用这个东西测量两个分布的接近程度,它同样可以用到其他函数的距离测量上
最后好奇一下,你们之前常用的所谓“相关系数”是怎么回事?哪种相关系数?就皮尔逊线性相关系数么?
如果是皮尔逊线性相关系数,那它只表示两个函数的线性相关程度,举个极端的例子:如果$g(x)=2f(x)$,那两者相关为$1$,然而很显然$g(x)$和$f(x)$会越走越远 |
|