我正在尝试获取特定列的值,例如costs
如
spark.select(col("col1"), col("col2"), col("costs") )
.groupBy("col1")
.agg( sum( col("costs") ) );
输出应在列成本数据后附加
$
符号。 最佳答案
spark.select(col("col1"), col("col2"), col("costs") )
.groupBy("col1")
.agg( sum( col("costs") ).as("costs") )
.withColumn("costs" , concat(lit("$") , col("costs")) ) ;
关于java - 如何将字符连接到Java Apache Spark中的列值,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47993758/