我正在尝试使用hadoop fs和jets3t将文件从本地上传到s3,但是出现以下错误Caused by: java.util.concurrent.ExecutionException: org.apache.hadoop.fs.s3.S3Exception: org.jets3t.service.S3ServiceException: Request Error. HEAD '/project%2Ftest%2Fsome_event%2Fdt%3D2015-06-17%2FsomeFile' on Host 'host.s3.amazonaws.com' @ 'Thu, 18 Jun 2015 23:33:01 GMT' -- ResponseCode: 404, ResponseStatus: Not Found, RequestId: AVDFJKLDFJ3242, HostId: D+sdfjlakdsadf\asdfkpagjafdjsafdj
我对为什么jets3t需要执行HEAD请求进行上传感到困惑。由于我要上传的文件在s3上尚不存在,因此当然不应该找到它。
我假设因为我有404错误,所以它不可能是权限问题。
调用此错误的代码是:
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
...
String path = "s3n://mybucket/path/to/event/partition/file"
Configuration conf = new Configuration();
conf.set("fs.s3n.awsAccessKeyId", "MYACCESSKEY");
conf.set("fs.s3n.awsSecretAccessKey", "MYSECRETKEY");
FileSystem fileSystem = FileSystem.get(URI.create(path), conf);
fileSystem.moveFromLocalFile("my/source/path/to/file", path);
最佳答案
好吧,我为后代作答。问题实际上是专家。
看来我正在使用两个框架的不兼容版本。当然,maven是maven,无法检测到这一点。
关于hadoop - jets3t无法将文件上传到s3,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/30927835/