pyspark中怎么读取hdfs数据

在pyspark中读取HDFS数据可以通过以下步骤实现:

首先,导入必要的模块:

from pyspark.sql import SparkSession

创建一个SparkSession对象:

spark = SparkSession.builder \
    .appName("Read HDFS Data") \
    .getOrCreate()

使用SparkSession对象的read方法读取HDFS数据:

df = spark.read.csv("hdfs://<namenode>:<port>/path/to/file.csv")

其中,"hdfs://:/path/to/file.csv"是HDFS文件的路径,需要替换为实际的路径。

可以对读取的数据进行一些操作,比如显示数据的schema和前几行数据:

df.printSchema()
df.show()

最后,记得关闭SparkSession对象:

spark.stop()

通过以上步骤,就可以在pyspark中读取HDFS数据了。

阅读剩余
THE END