在 PySpark 中,要打印 pyspark.sql.dataframe.DataFrame
的列,可以使用 columns
属性。以下是一个示例代码:
python
from pyspark.sql import SparkSession
# 创建 SparkSession
spark = SparkSession.builder.getOrCreate()
# 假设您的 DataFrame 名称为 df
df = spark.createDataFrame([(1, 'John', 25), (2, 'Alice', 30), (3, 'Bob', 35)], ['id', 'name', 'age'])
# 打印 DataFrame 的列
columns = df.columns
print(columns)
运行上述代码将打印 DataFrame 的列名:
python
['id', 'name', 'age']
在上述示例中,我们创建了一个包含三列的 DataFrame (id
、name
和 age
),然后使用 columns
属性获取列名,并将其打印出来。您可以将代码中的 DataFrame df
替换为您的实际 DataFrame 对象。