[Bug]Superset通过pyhive连接Spark SQL表名获取失败
生活随笔
收集整理的這篇文章主要介紹了
[Bug]Superset通过pyhive连接Spark SQL表名获取失败
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
文章目錄
- [Bug]Superset通過pyhive連接Spark SQL數據表名獲取失敗
- 問題原因
- 解決方案
[Bug]Superset通過pyhive連接Spark SQL數據表名獲取失敗
參考:Superset連接Spark-SQL
Superset官網推薦使用pyhive連接Spark SQL,在創建DataSet時,無法正常獲取數據表名:表名顯示為db名稱。
問題原因
這是因為spark-sql展示數據表列表時,會顯示兩列,第一列是數據表所在的數據庫的名稱,第二列才是數據表名稱,而pyhive默認選擇第一列數據返回,所以在superset中,數據表列表顯示不正確。
解決方案
1、修改pyhive相關代碼,pyhive v0.6.3 代碼位置,最新版本,代碼或有變動。
2、fork后進行代碼修改,完成后,pip安裝GitHub自己倉庫中fork的pyhive
git config --global url.“https://github.com”.insteadOf git://github.com
git config --global http.postBuffer 524288000
pip install git+git://github.com/howtoplay2008/PyHive.git
3、重啟superset
總結
以上是生活随笔為你收集整理的[Bug]Superset通过pyhive连接Spark SQL表名获取失败的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: java实现杨辉三角
- 下一篇: Linux 常用命令 tar 打包文件夹