我在 SciPy 中使用 gaussian_kde 函数来生成内核密度估计:

from scipy.stats.kde import gaussian_kde
from scipy.stats import norm
from numpy import linspace,hstack
from pylab import plot,show,hist

# creating data with two peaks
sampD1 = norm.rvs(loc=-1.0,scale=1,size=300)
sampD2 = norm.rvs(loc=2.0,scale=0.5,size=300)
samp = hstack([sampD1,sampD2])

# obtaining the pdf (my_pdf is a function!)
my_pdf = gaussian_kde(samp)

# plotting the result
x = linspace(-5,5,100)
plot(x,my_pdf(x),'r') # distribution function
hist(samp,normed=1,alpha=.3) # histogram
show()

上面的代码可以工作,但对于大量样本可能会非常慢。

我没有将我的样本存储在数组中,而是有一个包含 value: counts 键/值对的字典。例如,数组 [1, 1, 1, 2, 2, 3] 将在此直方图字典中编码为:
{1:3, 2:2, 3:1}

我的问题是,如何使用字典数据结构生成内核密度估计?作为示例输入,考虑这个字典,其中 6 的值被看到了 2081 次:
samp = {1: 1000, 2: 2800, 3: 6900, 4: 4322:, 5: 2300, 6: 2081}

先谢谢您的帮助。

最佳答案

您可以自己进行高斯 KDE:您只需要首先创建步长足够小的简单直方图。然后使用 fftconvolve 将结果与高斯卷积
(scipy.signal.fftconvolve)

import numpy as np, numpy.random,scipy,scipy.stats,scipy.signal,matplotlib.pyplot as plt
N = 1e5
minx = -10
maxx = 10
bins = 10000
w = 0.1 # kernel sigma

xs1 = np.random.normal(0, 1, size=N)
xs2 = np.random.normal(1.9, 0.01, size=N)
xs = np.r_[xs1, xs2]
hh,loc = scipy.histogram(xs, range=(minx, maxx), bins=bins)
kernel = scipy.stats.norm.pdf((loc[1:]+loc[:-1]) * .5, 0, w)
kde = scipy.signal.fftconvolve(hh, kernel, 'same')
plt.plot((loc[1:] + loc[:-1])*.5, kde)

关于python - 大阵列的密度估计,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/18402592/

10-12 23:20