使用google脚本上传csv文件到bigquery失败

使用google脚本上传csv文件到bigquery失败

本文介绍了使用google脚本上传csv文件到bigquery失败的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我做了一个google脚本来自动将csv文件上传到bigquery。这是一个小文件(5mb),它的工作。现在,我试图用同一个脚本上传一个150MB的csv文件,我总是得到一个服务器错误。它应该工作到1GB,不是吗?

I did a google script to automatically upload a csv file to bigquery. It was a small file (5mb), and it worked out. Now, I'm trying to upload a 150MB csv file with the very same script, and I always get a "server error". Is it supposed to work until 1GB, isn't it?

我感谢您的帮助!

Albert

推荐答案

Bigquery有1GB的限制,但Google Apps Script UrlFetch Post Size最大可达10MB。您无法使用Apps Script UrlFetch POST 100MB档案

Bigquery has 1GB limit but the Google Apps Script UrlFetch Post Size can be maximum upto 10MB. You can not POST 100MB file using Apps Script UrlFetch

请在这里检查配额限制。

Check for Quota limits here.



  • https://docs.google.com/macros/dashboard

这篇关于使用google脚本上传csv文件到bigquery失败的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

07-29 11:41