我有一个栅格时间序列存储在多个GeoTIFF文件(*.tif)中,我想将其转换为单个NetCDF文件。数据为uint16

我可能可以使用gdal_translate使用以下命令将每个图像转换为netcdf:

 gdal_translate -of netcdf -co FORMAT=NC4 20150520_0164.tif foo.nc


然后使用NCO进行脚本编写以从文件名中提取日期然后进行连接,但是我想知道是否可以在Python中使用xarray以及新的rasterio后端更有效地执行此操作。

我可以轻松读取文件:

import glob
import xarray as xr
f = glob.glob('*.tif')
da = xr.open_rasterio(f[0])
da


哪个返回

<xarray.DataArray (band: 1, y: 5490, x: 5490)>
[30140100 values with dtype=uint16]
Coordinates:
  * band     (band) int64 1
  * y        (y) float64 5e+05 5e+05 5e+05 5e+05 5e+05 4.999e+05 4.999e+05 ...
  * x        (x) float64 8e+05 8e+05 8e+05 8e+05 8.001e+05 8.001e+05 ...
Attributes:
    crs:      +init=epsg:32620


我可以将其中之一写入NetCDF:

ds.to_netcdf('foo.nc')


但理想情况下,我可以使用类似xr.open_mfdataset的内容,写入时间值(从文件名中提取),然后将整个聚合写入netCDF。并让dask处理核心外内存问题。 :-)

可以使用xarraydask完成类似的操作吗?

最佳答案

Xarray应该能够为您完成concat步骤。我在下面稍微修改了您的示例。您可以将文件名解析为有用的内容。

import glob
import pandas as pd
import xarray as xr

def time_index_from_filenames(filenames):
    '''helper function to create a pandas DatetimeIndex
       Filename example: 20150520_0164.tif'''
    return pd.DatetimeIndex([pd.Timestamp(f[:8]) for f in filenames])

filenames = glob.glob('*.tif')
time = xr.Variable('time', time_index_from_filenames(filenames))
chunks = {'x': 5490, 'y': 5490, 'band': 1}
da = xr.concat([xr.open_rasterio(f, chunks=chunks) for f in filenames], dim=time)

关于python - 将多个GeoTIFF图像的栅格时间序列转换为NetCDF,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/46899337/

10-12 21:25