《Hadoop大明白》【3】pyspark调用自定义jar

原创
2019/01/08 20:00
阅读数 182
from py4j.java_gateway import java_import

java_import(sc._gateway.jvm,"com.xx.hadoop.report.x")
func = sc._gateway.jvm.myclass()
sql = "select * from mydata"
print sql
func.myfunc(sql)
spark.stop()
sys.exit()

java封装成jar调用

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部