如何避免spark dataframe的JOIN操做以后产生重复列(Reference '***' is ambiguous问题解决)

spark datafrme提供了强大的JOIN操做。sql 可是在操做的时候,常常发现会碰到重复列的问题。以下:apache 如分别建立两个DF,其结果以下:spa val df = sc.parallelize(Array(     ("one", "A", 1), ("one", "B", 2), ("two", "A", 3), ("two", "B", 4) )).toDF("key1"
相关文章
相关标签/搜索