我有以下格式的输入记录:
Input data format
我希望以以下格式转换数据:
Output data format
我想根据条件类型组合我的 2 行。
据我所知,我需要取 3 个数据字段的组合键,并在它们相等时比较类型字段。
有人可以帮助我使用 Python 在 Spark 中实现吗?
编辑:
以下是我在 pyspark 中使用 RDD 的尝试
record = spark.read.csv("wasb:///records.csv",header=True).rdd
print("Total records: %d")%record.count()
private_ip = record.map(lambda fields: fields[2]).distinct().count()
private_port = record.map(lambda fields: fields[3]).distinct().count()
destination_ip = record.map(lambda fields: fields[6]).distinct().count()
destination_port = record.map(lambda fields: fields[7]).distinct().count()
print("private_ip:%d, private_port:%d, destination ip:%d, destination_port:%d")%(private_ip,private_port,destination_ip,destination_port)
types = record.map(lambda fields: ((fields[2],fields[3],fields[6],fields[7]),fields[0])).reduceByKey(lambda a,b:a+','+b)
print types.first()
以下是我到目前为止的输出。
((u'100.79.195.101', u'54835', u'58.96.162.33', u'80'), u'22-02-2016 13:11:03,22-02-2016 13:13:53')
最佳答案
希望这可以帮助!
( 编辑说明: 在获得更新的要求后调整了代码)
import pyspark.sql.functions as func
#create RDD
rdd = sc.parallelize([(22,'C','xxx','yyy','zzz'),(23,'D','xxx','yyy','zzz'),(24,'C','xxx1','yyy1','zzz1'),(25,'D','xxx1','yyy1','zzz1')])
#convert RDD to dataframe
df = rdd.toDF(['Date','Type','Data1','Data2','Data3'])
df.show()
#group by 3 data columns to create list of date & type
df1 = df.sort("Data1","Data2","Data3","Type").groupBy("Data1","Data2","Data3").agg(func.collect_list("Type"),func.collect_list("Date")).withColumnRenamed("collect_list(Type)", "Type_list").withColumnRenamed("collect_list(Date)", "Date_list")
#add 2 new columns by splitting above date list based on type list's value
df2 = df1.where((func.col("Type_list")[0]=='C') & (func.col("Type_list")[1]=='D')).withColumn("Start Date",df1.Date_list[0]).withColumn("End Date",df1.Date_list[1])
#select only relevant columns as an output
df2.select("Data1","Data2","Data3","Start Date","End Date").show()
使用 RDD 的替代解决方案:-
( 编辑说明: 添加到下面的代码段中,因为@AnmolDave 也对 RDD 解决方案感兴趣)
import pyspark.sql.types as typ
rdd = sc.parallelize([('xxx','yyy','zzz','C',22),('xxx','yyy','zzz','D',23),('xxx1','yyy1','zzz1','C', 24),('xxx1','yyy1','zzz1','D', 25)])
reduced = rdd.map(lambda row: ((row[0], row[1], row[2]), [(row[3], row[4])]))\
.reduceByKey(lambda x,y: x+y)\
.map(lambda row: (row[0], sorted(row[1], key=lambda text: text[0])))\
.map(lambda row: (
row[0][0],
row[0][1],
row[0][2],
','.join([str(e[0]) for e in row[1]]),
row[1][0][1],
row[1][1][1]
)
)\
.filter(lambda row: row[3]=="C,D")
schema_red = typ.StructType([
typ.StructField('Data1', typ.StringType(), False),
typ.StructField('Data2', typ.StringType(), False),
typ.StructField('Data3', typ.StringType(), False),
typ.StructField('Type', typ.StringType(), False),
typ.StructField('Start Date', typ.StringType(), False),
typ.StructField('End Date', typ.StringType(), False)
])
df_red = sqlContext.createDataFrame(reduced, schema_red)
df_red.show()
关于python - 根据pyspark中的条件合并spark中的两行,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/45252906/