HDFS Java API 基本操作实验

Apache Hadoop Distributed File System (HDFS) 是 Hadoop 生态系统中的一部分,用于存储大数据集。HDFS 提供了一个 Java API,允许开发者在 Java 应用程序中执行 HDFS 的基本操作,如创建目录、上传文件、读取文件、删除文件等。

以下是一个简单的 HDFS Java API 基本操作实验,展示了如何使用 Java API 与 HDFS 交互:

1. 准备工作

确保你已经安装了 Hadoop,并且 HDFS 服务正在运行。你还需要一个 Java 开发环境,并添加了 Hadoop 的相关 JAR 包到你的项目依赖中。

2. 编写 Java 代码

java 复制代码
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

import java.io.BufferedInputStream;
import java.io.BufferedOutputStream;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.URI;

public class HdfsBasicOperations {

    public static void main(String[] args) throws IOException {
        // 1. 配置 Hadoop 环境
        Configuration conf = new Configuration();
        // 如果你的 Hadoop 集群不是本地运行,需要设置 fs.defaultFS
        // conf.set("fs.defaultFS", "hdfs://<your-namenode-host>:<port>");

        // 2. 获取 FileSystem 实例
        FileSystem fs = FileSystem.get(URI.create("hdfs://localhost:9000"), conf);

        // 3. 创建一个目录
        Path dirPath = new Path("/user/hadoop/testdir");
        if (!fs.exists(dirPath)) {
            fs.mkdirs(dirPath);
            System.out.println("Directory created: " + dirPath);
        }

        // 4. 上传一个文件到 HDFS
        Path filePath = new Path("/user/hadoop/testdir/testfile.txt");
        BufferedInputStream in = null;
        FSDataOutputStream out = null;
        try {
            in = new BufferedInputStream(new FileInputStream("localfile.txt"));
            out = fs.create(filePath);
            IOUtils.copyBytes(in, out, 4096, true);
            System.out.println("File uploaded to HDFS: " + filePath);
        } finally {
            IOUtils.closeStream(in);
            IOUtils.closeStream(out);
        }

        // 5. 读取 HDFS 上的文件内容
        in = null;
        BufferedOutputStream bos = null;
        try {
            in = new BufferedInputStream(fs.open(filePath));
            bos = new BufferedOutputStream(new FileOutputStream("downloadedfile.txt"));
            IOUtils.copyBytes(in, bos, 4096, true);
            System.out.println("File downloaded from HDFS: " + filePath);
        } finally {
            IOUtils.closeStream(in);
            IOUtils.closeStream(bos);
        }

        // 6. 删除 HDFS 上的文件
        if (fs.exists(filePath)) {
            fs.delete(filePath, true);
            System.out.println("File deleted from HDFS: " + filePath);
        }

        // 7. 关闭 FileSystem
        fs.close();
    }
}

3. 编译和运行

使用 javac 编译 Java 代码,并使用 java 命令运行它。确保 Hadoop 的相关 JAR 包在类路径中可用。

4. 注意事项

  • 在运行代码之前,确保 HDFS 服务正在运行,并且你的 Java 程序有足够的权限来执行这些操作。
  • 根据你的 Hadoop 集群配置,可能需要修改 fs.defaultFS 的值。
  • 在这个示例中,我们使用 localfile.txt 作为本地文件,它应该存在于你的本地文件系统中。
  • 我们将文件下载到本地系统的 downloadedfile.txt 文件中。你可以根据需要更改这些文件名和路径。
  • 在处理完 HDFS 操作后,确保关闭 FileSystem 实例以释放资源。
相关推荐
叫我阿柒啊34 分钟前
从Java全栈到前端框架:一次真实面试的深度复盘
java·spring boot·typescript·vue·database·testing·microservices
点云SLAM35 分钟前
C++ 常见面试题汇总
java·开发语言·c++·算法·面试·内存管理
sniper_fandc39 分钟前
IDEA修改系统缓存路径,防止C盘爆满
java·ide·intellij-idea
howard200543 分钟前
VMWare上搭建Hive集群
hive·hadoop
aristo_boyunv44 分钟前
拦截器和过滤器(理论+实操)
java·数据仓库·hadoop·servlet
半夏陌离1 小时前
SQL 入门指南:排序与分页查询(ORDER BY 多字段排序、LIMIT 分页实战)
java·前端·数据库
CUIYD_19891 小时前
Eclipse 常用搜索功能汇总
java·ide·eclipse
野犬寒鸦2 小时前
力扣hot100:相交链表与反转链表详细思路讲解(160,206)
java·数据结构·后端·算法·leetcode
ytadpole3 小时前
揭秘设计模式:工厂模式的五级进化之路
java·设计模式
计算机毕业设计木哥3 小时前
计算机毕设选题:基于Python+Django的B站数据分析系统的设计与实现【源码+文档+调试】
java·开发语言·后端·python·spark·django·课程设计