代码如下,步骤流程在代码注释中可见:
# -*- coding: utf-8 -*-
import pandas as pd
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
from pyspark import SparkContext
#初始化数据
#初始化pandas Data
df = pd.Data ([[1, 2, 3], [4, 5, 6]], index=['row1', 'row2'], columns=['c1', 'c2', 'c3'])
#打印数据
print df
#初始化spark Data
sc = SparkContext()
if __name__ == "__main__":
spark = SparkSession\
.builder\
.appName("testData ")\
.getOrCreate()
sentenceData = spark.createData ([
(0.0, "I like Spark"),
(1.0, "Pandas is useful"),
(2.0, "They are coded by Python ")
], ["label", "sentence"])
#显示数据
sentenceData.select("label").show()
#spark.Data 转换成 pandas.Data
sqlContest = SQLContext(sc)
spark_df = sqlContest.createData (df)
#显示数据
spark_df.select("c1").show()
# pandas.Data 转换成 spark.Data
pandas_df = sentenceData.toPandas()
#打印数据
print pandas_df
程序结果:

以上这篇pyspark.sql.Data 与pandas.Data 之间的相互转换实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
继续阅读与本文标签相同的文章
上一篇 :
微信小程序之自定义组件的实现代码(附源码)
下一篇 :
没有大量预算,如何徒手获取精准的用户画像
-
2019阿里云双11特惠活动拼团会场攻略
2026-05-17栏目: 教程
-
机器学习的挑战:在开始之前需要知道什么
2026-05-17栏目: 教程
-
AWS瘫痪!!! DNS服务器安全再次敲响警钟
2026-05-17栏目: 教程
-
Nginx配置fluentd
2026-05-17栏目: 教程
-
传统媒体上线,如何安放海量内容?如何处理安全问题?
2026-05-17栏目: 教程
