我正在尝试在spark(1.6.2)中进行左外部连接,但它不起作用。我的SQL查询是这样的:
sqlContext.sql("select t.type, t.uuid, p.uuid
from symptom_type t LEFT JOIN plugin p
ON t.uuid = p.uuid
where t.created_year = 2016
and p.created_year = 2016").show()
结果是这样的:
+--------------------+--------------------+--------------------+
| type| uuid| uuid|
+--------------------+--------------------+--------------------+
| tained|89759dcc-50c0-490...|89759dcc-50c0-490...|
| swapper|740cd0d4-53ee-438...|740cd0d4-53ee-438...|
使用LEFT JOIN或LEFT OUTER JOIN(第二个uuid不为null),我得到相同的结果。
我希望第二个uuid列只能为null。如何正确进行左外连接?
===其他信息==
如果我使用数据框执行左外部连接,则结果正确。
s = sqlCtx.sql('select * from symptom_type where created_year = 2016')
p = sqlCtx.sql('select * from plugin where created_year = 2016')
s.join(p, s.uuid == p.uuid, 'left_outer')
.select(s.type, s.uuid.alias('s_uuid'),
p.uuid.alias('p_uuid'), s.created_date, p.created_year, p.created_month).show()
我得到这样的结果:
+-------------------+--------------------+-----------------+--------------------+------------+-------------+
| type| s_uuid| p_uuid| created_date|created_year|created_month|
+-------------------+--------------------+-----------------+--------------------+------------+-------------+
| tained|6d688688-96a4-341...| null|2016-01-28 00:27:...| null| null|
| tained|6d688688-96a4-341...| null|2016-01-28 00:27:...| null| null|
| tained|6d688688-96a4-341...| null|2016-01-28 00:27:...| null| null|
谢谢,
最佳答案
我看不到您的代码中的任何问题。 “左连接”或“左外部连接”都可以正常工作。请再次检查数据,显示的数据是否匹配。
您还可以使用以下命令执行Spark SQL连接:
//显式的左外部联接
df1.join(df2, df1["col1"] == df2["col1"], "left_outer")