我需要在aws s3和我们的本地hdfs之间复制文件,我尝试使用distcp java api,但是它的问题是在distcp的末尾​​,它称为System.exit(),它也停止了我的应用程序,所以如果我有多个要复制的文件夹/文件,我使用了多个线程,每个线程执行一个distcp命令,完成distcp的第一个线程将停止应用程序,从而停止distcp的其余部分,还有其他方法可以避免这种情况,我知道我可以写我自己的MR工作来复制,但想知道是否还有其他选择

我的代码:

List<Future<Void>> calls = new ArrayList<Future<Void>>();
for (String dir : s3Dirs) {
    final String[] args = new String[4];
    args[0] = "-log";
    args[1] = LOG_DIR;
    args[2] = S3_DIR;
    args[3] = LOCAL_HDFS_DIR

    calls.add(_exec.submit(new Callable<Void>() {
       @Override
       public Void call() throws Exception {
         try {
        DistCp.main(args);      <-- Distcp command
         } catch (Exception e) {
        System.out.println("Failed to copy files from " + args[2] + " to " + args[3]);
         }
         return null;
    }
    }));
}

for (Future<Void> f : calls) {
    try {
        f.get();
    } catch (Exception e) {
        LOGGER.error("Error while distcp", e);
    }
}

Distcp main()
public static void main(String argv[]) {

        int exitCode;
        try {
          DistCp distCp = new DistCp();
          Cleanup CLEANUP = new Cleanup(distCp);

          ShutdownHookManager.get().addShutdownHook(CLEANUP,
            SHUTDOWN_HOOK_PRIORITY);
          exitCode = ToolRunner.run(getDefaultConf(), distCp, argv);
        }
        catch (Exception e) {
          LOG.error("Couldn't complete DistCp operation: ", e);
          exitCode = DistCpConstants.UNKNOWN_ERROR;
        }
        System.exit(exitCode);        <--- exit here
      }

最佳答案

我以前使用过distcp,即使有多个线程,也从未遇到过System.exit()问题。尝试使用ToolRunner调用distcp调用(而不是像on the Distcp Test cases from the hadoop tools package那样),而不要像这样使用Distcp。 Distcp测试用例使用ToolRunner运行distcp,它允许您使用多个线程来运行它。我正在从上面的链接中复制代码片段:

public void testCopyFromLocalToLocal() throws Exception {
  Configuration conf = new Configuration();
  FileSystem localfs = FileSystem.get(LOCAL_FS, conf);
  MyFile[] files = createFiles(LOCAL_FS, TEST_ROOT_DIR+"/srcdat");
  ToolRunner.run(new DistCp(new Configuration()),
                         new String[] {"file:///"+TEST_ROOT_DIR+"/srcdat",
                                       "file:///"+TEST_ROOT_DIR+"/destdat"});
  assertTrue("Source and destination directories do not match.",
             checkFiles(localfs, TEST_ROOT_DIR+"/destdat", files));
  deldir(localfs, TEST_ROOT_DIR+"/destdat");
  deldir(localfs, TEST_ROOT_DIR+"/srcdat");
}

关于hadoop - distcp java api退出应用程序,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/18643917/

10-16 02:59