我目前正在尝试在 Python 中进行一些地理编码。过程如下:我有两个数据框(df1 和 df2,房屋和学校),具有纬度和经度值,并希望为 df1 中的每个观测值在 df2 中找到最近的邻居。我使用以下代码:
from tqdm import tqdm
import numpy as np
import pandas as pd
import math
def distance(lat1, long1, lat2, long2):
R = 6371 # Earth Radius in Km
dLat = math.radians(lat2 - lat1) # Convert Degrees 2 Radians
dLong = math.radians(long2 - long1)
lat1 = math.radians(lat1)
lat2 = math.radians(lat2)
a = math.sin(dLat/2) * math.sin(dLat/2) + math.sin(dLong/2) * math.sin(dLong/2) * math.cos(lat1) * math.cos(lat2)
c = 2 * math.atan2(math.sqrt(a), math.sqrt(1-a))
d = R * c
return d
dists = []
schools =[]
for index, row1 in tqdm(df1.iterrows()):
for index, row2 in df2.iterrows():
dists.append(distance(row1.lat, row1.lng, row2.Latitude, row2.Longitude))
schools.append(min(dists))
del dists [:]
df1["school"] = pd.Series(schools)
该代码有效,但是需要很长时间。使用 tqdm 我得到每秒 df1 2 次迭代的平均速度。作为比较,我在 STATA 中使用 geonear 完成了整个任务,在 df1 (950) 中的所有观察都需要 1 秒。我在 geonear 的帮助文件中读到他们使用聚类,不计算所有距离,而只计算最近的距离。但是,在我添加聚类函数(这也可能会占用 CPU 功率)之前,我想知道是否有人看到了某种方法来加速进程(我是 Python 新手,可能有一些低效的代码会减慢进程的速度) .或者是否有一个包可以更快地完成这个过程?
如果它需要比 STATA 更长的时间,我会没事的,但不会接近 7 分钟......
先感谢您
最佳答案
您这样做的方式很慢,因为您使用的是 O(n²) 算法:每一行都查看其他行。 Georgy's answer 在引入矢量化的同时,并没有解决这种根本的低效率问题。
我建议将您的数据点加载到 kd-tree :此数据结构提供了一种在多个维度中查找最近邻居的快速方法。构建这样的树需要 O(n log n) 并且查询需要 O(log n),所以总时间是 O(n log n)。
如果您的数据本地化到一个平面可以很好地近似的地理区域,请投影您的数据,然后在二维中执行查找。否则,如果您的数据在全局范围内分散,则投影到 spherical cartesian coordinates 并在那里执行查找。
如何执行此操作的示例如下所示:
#/usr/bin/env python3
import numpy as np
import scipy as sp
import scipy.spatial
Rearth = 6371
#Generate uniformly-distributed lon-lat points on a sphere
#See: http://mathworld.wolfram.com/SpherePointPicking.html
def GenerateUniformSpherical(num):
#Generate random variates
pts = np.random.uniform(low=0, high=1, size=(num,2))
#Convert to sphere space
pts[:,0] = 2*np.pi*pts[:,0] #0-360 degrees
pts[:,1] = np.arccos(2*pts[:,1]-1) #0-180 degrees
#Convert to degrees
pts = np.degrees(pts)
#Shift ranges to lon-lat
pts[:,0] -= 180
pts[:,1] -= 90
return pts
def ConvertToXYZ(lonlat):
theta = np.radians(lonlat[:,0])+np.pi
phi = np.radians(lonlat[:,1])+np.pi/2
x = Rearth*np.cos(theta)*np.sin(phi)
y = Rearth*np.sin(theta)*np.sin(phi)
z = Rearth*np.cos(phi)
return np.transpose(np.vstack((x,y,z)))
#For each entry in qpts, find the nearest point in the kdtree
def GetNearestNeighbours(qpts,kdtree):
pts3d = ConvertToXYZ(qpts)
#See: https://docs.scipy.org/doc/scipy-0.14.0/reference/generated/scipy.spatial.KDTree.query.html#scipy.spatial.KDTree.query
#p=2 implies Euclidean distance, eps=0 implies no approximation (slower)
return kdtree.query(pts3d,p=2,eps=0)
#Generate uniformly-distributed test points on a sphere. Note that you'll want
#to find a way to extract your pandas columns into an array of width=2, height=N
#to match this format.
df1 = GenerateUniformSpherical(10000)
df2 = GenerateUniformSpherical(10000)
#Convert df2 into XYZ coordinates. WARNING! Do not alter df2_3d or kdtree will
#malfunction!
df2_3d = ConvertToXYZ(df2)
#Build a kd-tree from df2_3D
kdtree = sp.spatial.KDTree(df2_3d, leafsize=10) #Stick points in kd-tree for fast look-up
#Return the distance to, and index of, each of df1's nearest neighbour points
distance, indices = GetNearestNeighbours(df1,kdtree)
关于Python - 低效的空间距离计算(如何加速),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/48620355/