我有这些列id
,price
,timestamp
的数据框。
我想找到按id
分组的中位数。
我正在使用此代码来查找它,但它给了我这个错误。
from pyspark.sql import DataFrameStatFunctions as statFunc
windowSpec = Window.partitionBy("id")
median = statFunc.approxQuantile("price",
[0.5],
0) \
.over(windowSpec)
return df.withColumn("Median", median)
无法使用
DataFrameStatFunctions
在新列中填充值吗?TypeError: unbound method approxQuantile() must be called with DataFrameStatFunctions instance as first argument (got str instance instead)
最佳答案
好吧,确实可以使用approxQuantile
在新的dataframe列中填充值而不是,但这不是为什么您会收到此错误。不幸的是,整个故事底下是一个相当令人沮丧的故事,例如I have argued就是许多Spark(尤其是PySpark)功能和缺乏适当文档的情况。
首先,没有,而是两种 approxQuantile
方法。 first one是标准DataFrame类的一部分,即您不需要导入DataFrameStatFunctions:
spark.version
# u'2.1.1'
sampleData = [("bob","Developer",125000),("mark","Developer",108000),("carl","Tester",70000),("peter","Developer",185000),("jon","Tester",65000),("roman","Tester",82000),("simon","Developer",98000),("eric","Developer",144000),("carlos","Tester",75000),("henry","Developer",110000)]
df = spark.createDataFrame(sampleData, schema=["Name","Role","Salary"])
df.show()
# +------+---------+------+
# | Name| Role|Salary|
# +------+---------+------+
# | bob|Developer|125000|
# | mark|Developer|108000|
# | carl| Tester| 70000|
# | peter|Developer|185000|
# | jon| Tester| 65000|
# | roman| Tester| 82000|
# | simon|Developer| 98000|
# | eric|Developer|144000|
# |carlos| Tester| 75000|
# | henry|Developer|110000|
# +------+---------+------+
med = df.approxQuantile("Salary", [0.5], 0.25) # no need to import DataFrameStatFunctions
med
# [98000.0]
The second one是
DataFrameStatFunctions
的一部分,但是如果您按常规使用它,则会报告以下错误:from pyspark.sql import DataFrameStatFunctions as statFunc
med2 = statFunc.approxQuantile( "Salary", [0.5], 0.25)
# TypeError: unbound method approxQuantile() must be called with DataFrameStatFunctions instance as first argument (got str instance instead)
因为正确的用法是
med2 = statFunc(df).approxQuantile( "Salary", [0.5], 0.25)
med2
# [82000.0]
尽管您将无法在PySpark文档中找到关于此的简单示例(花了我一些时间自己弄清楚)...最好的部分?这两个值是不等于:
med == med2
# False
我怀疑这是由于使用了不确定性算法(毕竟,它应该是一个近似中值),即使您使用相同的玩具数据重新运行命令,您也可能会获得不同的值(与我在这里报告的内容)-我建议您做一些实验以获得感觉...
但是,正如我已经说过的,这不是不能使用
approxQuantile
在新的数据框列中填充值的原因-即使您使用正确的语法,您也会得到一个不同的错误:df2 = df.withColumn('median_salary', statFunc(df).approxQuantile( "Salary", [0.5], 0.25))
# AssertionError: col should be Column
在这里,
col
指的是withColumn
操作的第二个参数,即approxQuantile
一个,并且错误消息指出它不是Column
类型-实际上,它是一个列表:type(statFunc(df).approxQuantile( "Salary", [0.5], 0.25))
# list
因此,当填充列值时,Spark期望使用
Column
类型的参数,并且您不能使用列表。这是创建一个新列的示例,其中每个角色的平均值而不是中位数:import pyspark.sql.functions as func
from pyspark.sql import Window
windowSpec = Window.partitionBy(df['Role'])
df2 = df.withColumn('mean_salary', func.mean(df['Salary']).over(windowSpec))
df2.show()
# +------+---------+------+------------------+
# | Name| Role|Salary| mean_salary|
# +------+---------+------+------------------+
# | carl| Tester| 70000| 73000.0|
# | jon| Tester| 65000| 73000.0|
# | roman| Tester| 82000| 73000.0|
# |carlos| Tester| 75000| 73000.0|
# | bob|Developer|125000|128333.33333333333|
# | mark|Developer|108000|128333.33333333333|
# | peter|Developer|185000|128333.33333333333|
# | simon|Developer| 98000|128333.33333333333|
# | eric|Developer|144000|128333.33333333333|
# | henry|Developer|110000|128333.33333333333|
# +------+---------+------+------------------+
之所以有效,是因为与
approxQuantile
相反,mean
返回了Column
:type(func.mean(df['Salary']).over(windowSpec))
# pyspark.sql.column.Column
关于apache-spark - pyspark近似量子函数,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/45287832/