我正在尝试获取特定列的值,例如costs
 如

spark.select(col("col1"), col("col2"), col("costs") )
     .groupBy("col1")
     .agg( sum( col("costs") ) );


输出应在列成本数据后附加$符号。

最佳答案

您需要结合使用concatlit

spark.select(col("col1"), col("col2"), col("costs") )
     .groupBy("col1")
     .agg( sum( col("costs") ).as("costs") )
     .withColumn("costs" , concat(lit("$") , col("costs")) ) ;

关于java - 如何将字符连接到Java Apache Spark中的列值,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47993758/

10-12 20:13