SQLFlow数据流分析工具的job功能介绍

SQLFlow是一款专业的数据血缘关系分析工具,在大型数据仓库中,完整的数据血缘关系可以用来进行数据溯源、表和字段变更的影响分析、数据合规性的证明、数据质量的检查等。

一、SQLFlow 是怎样工作的

  1. 从数据库、版本控制系统、文件系统中获取 SQL 脚本。
  2. 解析 SQL 脚本,分析其中的各种数据库对象关系,建立数据血缘关系。
  3. 以各种形式呈现数据血缘关系,包括交互式 UI、CSV、JSON、GRAPHML 格式。

二、SQLFlow 的组成

  1. Backend, 后台由一系列 Java 程序组成。负责 SQL 的解析、数据血缘分析、可视化元素的布局、身份认证等。
  2. Frontend,前端由一系列 javascript、html 代码组成。负责 SQL 的递交、数据血缘关系的可视化展示。
  3. Grabit 工具,一个 Java 程序。负责从数据库、版本控制系统、文件系统中收集 SQL 脚本,递交给后台进行数据血缘分析。
  4. Restful API,一套完整的 API。让用户可以通过 Java、C#、Python、PHP 等编程语言与后台进行交互,完成数据血缘分析。

三、在线工具连接:https://sqlflow.gudusoft.com/?utm_source=cnblogs&utm_medium=blog&utm_campaign=my-nick-name#/

四、SQLFlow的job功能

1、job能做什么

SQLFlow的job功能是为客户提供的固定血缘追溯场景所设计的,比如你有多个固定的分析逻辑,需要在工作中反复使用,此时你只需要根据具体的分析需求进行设置job即可。该job产生的逻辑关系图属于静态的,不会虽仓库中对象结构变化而变化,这样可以更好的帮助您进行版本追溯及管理。

上图中,做数字标记的job作业,属性1是在工具右侧面板上显示job分析的逻辑关系图,属性2可以分享该job,属性3是删除该job。

2、如何创建job

 如下图所示:从工具job功能导航到job list页面,点击【upload】进行Create Job;

其中,sql source的可选来源有三种:upload file、from database、upload file+from database

这里以常用的from database方式做Create Job演示:

下图中,是Create Job需要填写的相关信息,其中*为必填项,有些数据库的database属性不是必填项,所以他不属于必填项。

dbvendor:需要选择的数据库种类;

job name:一个自定义的好记的job名称

hostname:IP或机器名

port:端口号

database:catalog name,即dbname。

usename:用户名

password:密码

【test connection】可以帮助您进行连接测试。

advanced的选项如下:

extractedDbsSchemas:所提取的特定schema

excludedDbsSchemas:包含的schema

extractedStoredProcedures:所提取的存储过程名称

extractedViews:所提取的视图名称

备注:高级选项都不是必填项!

 当您所有信息填写正确后,点击【OK】即可成功创建job。

谢谢!

原文地址:https://www.cnblogs.com/syforacle/p/SQLFlowJob.html