版权声明:版权声明:本文为博主原创文章,转载请附上博文链接! https://blog.csdn.net/qq_42246689/article/details/83902412
可以有两种方式:
第一种:建立普通 java 工程,加入操作 hdfs 的 jar 包 1、 按键 ctrl + N 搜索 java project 建立普通 java 工程,如图所示:
2、 输入项目名字,点击确定,生成一个普通 java 工程
注意:建议大家使用jdk的版本和linux服务上的jdk版本一致。在这儿我选择的都是jdk1.7 的大版本
3、 加入依赖 jar,有两种方式
A、 先在项目中建立一个文件夹 lib,然后添加 hadoop 安装包下 share/hadoop/common 和 share/hadoop/hdfs 下的 jar 和它所依赖的 lib 目录下的 jar 包,然后把加入的所有 的 jar 包都 add classpath
B、 添加自己的依赖库,具体操作请按图所示操作进行: 1、在项目名字上鼠标右键选择 Build Path ,然后点击右边出现的 Configure Build Path, 出现:
都添加好了,点击 OK ,再点击 Finish,再点击 OK,项目会变成这样:
到此表示,我们利用 HDFS 的 api 编写业务代码所依赖的 jar 包都添加完成,接下来便可以愉快的玩耍代码了。