spark sql使用sequoiadb作为数据源

目前没有实现,理一下思路,有3中途径:

1:spark core可以使用sequoiadb最为数据源,那么是否spark sql可以直接操作sequoiadb.

2: spark sql支持Hive, sequoiadb可以和hive做对接,那么是否可以通过HIveContext 来实现。

3:spark 1.2以后支持了external datasource ,需要实现相关的接口来对接第三方数据源。

原文地址:https://www.cnblogs.com/gaoxing/p/4230428.html