根据之前的操作,我们已经可以正常的启动Hadoop了,关于真正的集群我会在之后进行说明。现在我们来看一下第一个程序吧
1. 在eclipse上建立一个java项目
2. 将 /usr/hadoop/share/hadoop/common/hadoop-common-2.2.0.jar 文件导入到项目中
3. 将 /usr/hadoop/share/hadoop/common/lib/commons-logging-1.1.1.jar 文件导入到项目中
4. 编写代码如下
import java.io.IOException; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path; public class DFSOperator { /**
* @param args
*/
public static void main(String[] args) {
Configuration conf = new Configuration();
try {
FileSystem fs = FileSystem.get(conf);
Path f = new Path("hdfs:///dfs_operator.txt");
FSDataOutputStream s = fs.create(f, true);
int i = 0;
for (i = 0; i < 100000; ++i)
s.writeChars("test");
s.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
5. 项目抓图
6. 将项目导出成为Jar包 dfsOperator.jar ,可以在如下地址下载
http://pan.baidu.com/share/link?shareid=3076182544&uk=2517512140
7. 将Jar包传输到Linux系统中,然后使用如下方法执行
7.1 查看是否存在dfs_operator.txt文件,如果存在需要先删除掉
hadoop fs -ls /
注明:如果要删除文件可以用如下命令 hadoop fs -rm /dfs_operator.txt
7.2 运行命令生成dfs_operator.txt文件
hadoop jar dfsOperator.jar DFSOperator
7.3 运行7.1的命令查看运行效果,如果增加了dfs_operator.txt文件,证明运行成功