Skip to content
Projects
Groups
Snippets
Help
Loading...
Help
Contribute to GitLab
Sign in / Register
Toggle navigation
D
dlink
Project
Project
Details
Activity
Cycle Analytics
Repository
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
Issues
0
Issues
0
List
Board
Labels
Milestones
Merge Requests
0
Merge Requests
0
CI / CD
CI / CD
Pipelines
Jobs
Schedules
Charts
Wiki
Wiki
Snippets
Snippets
Members
Members
Collapse sidebar
Close sidebar
Activity
Graph
Charts
Create a new issue
Jobs
Commits
Issue Boards
Open sidebar
zhaowei
dlink
Commits
9fb5144c
Commit
9fb5144c
authored
Apr 04, 2022
by
zhu-mingye
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
Fix Document
parent
84373b29
Changes
25
Hide whitespace changes
Inline
Side-by-side
Showing
25 changed files
with
241 additions
and
233 deletions
+241
-233
README.en-US.md
README.en-US.md
+7
-12
README.zh-CN.md
README.zh-CN.md
+7
-12
_sidebar.md
docs/zh-CN/_sidebar.md
+3
-2
Hotkey.md
docs/zh-CN/administrator-guide/Hotkey.md
+26
-25
metadata.md
docs/zh-CN/administrator-guide/metadata.md
+17
-20
cluster_manage.md
...h-CN/administrator-guide/registerCenter/cluster_manage.md
+18
-18
datasource_manage.md
...N/administrator-guide/registerCenter/datasource_manage.md
+3
-3
document_manager.md
...CN/administrator-guide/registerCenter/document_manager.md
+1
-1
jar_manager.md
docs/zh-CN/administrator-guide/registerCenter/jar_manager.md
+5
-5
warning.md
docs/zh-CN/administrator-guide/registerCenter/warning.md
+21
-14
Flink_Setting.md
...zh-CN/administrator-guide/system_setting/Flink_Setting.md
+12
-11
user_management.md
...-CN/administrator-guide/system_setting/user_management.md
+23
-21
openapi.md
docs/zh-CN/api/openapi.md
+26
-26
architecture.md
docs/zh-CN/architecture.md
+1
-1
commit_code.md
docs/zh-CN/developer-guide/commit_code.md
+1
-1
dinky_overview.md
docs/zh-CN/dinky_overview.md
+25
-22
Flink_CDC_kafka_Multi_source_merger.md
docs/zh-CN/extend/Flink_CDC_kafka_Multi_source_merger.md
+7
-7
datasource.md
docs/zh-CN/extend/datasource.md
+2
-2
hive.md
docs/zh-CN/extend/hive.md
+11
-11
comminicate.md
docs/zh-CN/others/comminicate.md
+5
-1
plans.md
docs/zh-CN/others/plans.md
+6
-8
thanks.md
docs/zh-CN/others/thanks.md
+1
-1
yarnsubmit.md
docs/zh-CN/practice/yarnsubmit.md
+10
-8
download.md
docs/zh-CN/quick_start/download.md
+1
-1
dinky-0.6.1.md
docs/zh-CN/release_notes/dinky-0.6.1.md
+2
-0
No files found.
README.en-US.md
View file @
9fb5144c
...
...
@@ -92,17 +92,12 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 近期计划
-
多租户及命名空间
-
全局血缘与影响分析
-
统一元数据管理
-
Flink 元数据持久化
-
多版本 Flink-Client Server
-
整库千表同步
-
[
]
多租户及命名空间
-
[
]
全局血缘与影响分析
-
[
]
统一元数据管理
-
[
]
Flink 元数据持久化
-
[
]
多版本 Flink-Client Server
-
[
]
整库千表同步
## 参与贡献
...
...
@@ -151,4 +146,4 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 版权
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
\ No newline at end of file
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
README.zh-CN.md
View file @
9fb5144c
...
...
@@ -92,17 +92,12 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 近期计划
-
多租户及命名空间
-
全局血缘与影响分析
-
统一元数据管理
-
Flink 元数据持久化
-
多版本 Flink-Client Server
-
整库千表同步
-
[
]
多租户及命名空间
-
[
]
全局血缘与影响分析
-
[
]
统一元数据管理
-
[
]
Flink 元数据持久化
-
[
]
多版本 Flink-Client Server
-
[
]
整库千表同步
## 参与贡献
...
...
@@ -151,4 +146,4 @@ Dinky 基于 Apache Flink 实现 Dlink ,增强 Flink 的应用与体验,探
## 版权
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
\ No newline at end of file
请参考
[
LICENSE
](
https://github.com/DataLinkDC/dlink/blob/main/LICENSE
)
文件。
docs/zh-CN/_sidebar.md
View file @
9fb5144c
...
...
@@ -9,7 +9,7 @@
-
编译与部署
-
[
编译
](
/zh-CN/quick_start/build.md
)
-
[
部署
](
/zh-CN/quick_start/deploy.md
)
-
[
d
inky概览
](
/zh-CN/dinky_overview.md
)
-
[
D
inky概览
](
/zh-CN/dinky_overview.md
)
-
快速入门指南
-
FlinkSQL作业快速入门
-
其他数据源作业快速入门
...
...
@@ -85,4 +85,5 @@
-
[
常见问题
](
/zh-CN/FAQ.md
)
-
[
致谢
](
/zh-CN/others/thanks.md
)
-
[
交流与贡献
](
/zh-CN/others/comminicate.md
)
-
[
roadmap
](
/zh-CN/roadmap.md
)
-
[
RoadMap
](
/zh-CN/roadmap.md
)
-
[
近期计划
](
/zh-CN/others/plans.md
)
docs/zh-CN/administrator-guide/Hotkey.md
View file @
9fb5144c
**在数据开发编辑器内可使用以下快捷键**
| 功能描述 | 快捷键 | 备注 |
|---------| -------------------------- | ------ |
| 全屏开发 |
`F2`
| |
| 功能描述 | 快捷键 | 备注 |
| ---------------- | -------------------------- | ------ |
| 全屏开发 |
`F2`
| |
| 关闭弹框及全屏 |
`Esc`
| |
| 保存 |
`Ctrl + S`
| |
| 校验 |
`Alt + 2`
| |
| 美化 |
`Alt + 3`
| |
| 搜索 |
`Ctrl + F`
| |
| 替换 |
`Ctrl + H`
| |
| 撤销 |
`Ctrl + Z`
| |
| 重做 |
`Ctrl + Y`
| |
| 注释 |
`Ctrl + /`
| |
| 缩进 |
`选中 + Tab`
| |
| 取消缩进 |
`选中 + Shift + Tab`
| |
| 选中后续 |
`Shift + Alt + Right`
| |
| 格式化 |
`Shift + Alt + F`
| |
| 编辑多行 |
`Ctrl + Shift + Up/Down`
| |
| 复制一行 |
`Shift + Alt + Up/Down`
| |
| 删除一行 |
`Ctrl + Shift + K`
| |
| 匹配下一个 |
`Ctrl + F3`
| |
| 匹配上一个 |
`Ctrl + Shift + F3`
| |
| 保存
|
`Ctrl + S`
| |
| 校验
|
`Alt + 2`
| |
| 美化
|
`Alt + 3`
| |
| 搜索
|
`Ctrl + F`
| |
| 替换
|
`Ctrl + H`
| |
| 撤销
|
`Ctrl + Z`
| |
| 重做
|
`Ctrl + Y`
| |
| 注释
|
`Ctrl + /`
| |
| 缩进
|
`选中 + Tab`
| |
| 取消缩进
|
`选中 + Shift + Tab`
| |
| 选中后续
|
`Shift + Alt + Right`
| |
| 格式化
|
`Shift + Alt + F`
| |
| 编辑多行
|
`Ctrl + Shift + Up/Down`
| |
| 复制一行
|
`Shift + Alt + Up/Down`
| |
| 删除一行
|
`Ctrl + Shift + K`
| |
| 匹配下一个
|
`Ctrl + F3`
| |
| 匹配上一个
|
`Ctrl + Shift + F3`
| |
| 前往下一个高亮 |
`F7`
| |
| 前往上一个高亮 |
`Shift +F7`
| |
| 前面追加换行 |
`Ctrl + Shift + End`
| |
| 追加换行 |
`Ctrl + End`
| |
| 上下换位 |
`Alt + Up/Down`
| |
| 折叠/展开 |
`Ctrl + Shift + [/]`
| |
| 更多快捷键 |
`F1`
| |
| 前面追加换行
|
`Ctrl + Shift + End`
| |
| 追加换行
|
`Ctrl + End`
| |
| 上下换位
|
`Alt + Up/Down`
| |
| 折叠/展开
|
`Ctrl + Shift + [/]`
| |
| 更多快捷键
|
`F1`
| |
docs/zh-CN/administrator-guide/metadata.md
View file @
9fb5144c
当用户查看或者使用数据源中的
DDL或者DML,可通过元数据中心获取数据源中的相关DDL或者
DML。目前元数据中心包含:
当用户查看或者使用数据源中的
DDL 或者 DML ,可通过元数据中心获取数据源中的相关 DDL 或者
DML。目前元数据中心包含:
-
**表信息**
-
**字段信息**
-
**SQL生成**
-
**SQL
生成**
其中在SQL生成中又包括:
-
**FlinkDDL语句**
-
**SELECT语句**
-
**SQLDDL语句**
-
**FlinkDDL
语句**
-
**SELECT
语句**
-
**SQLDDL
语句**
首先进入
FlinkSQL Studio中的元数据
,选择已经配置好的数据源,会出现数据源对应的schema。
首先进入
**数据开发**
中的
**元数据**
,选择已经配置好的数据源,会出现数据源对应的schema。


出现以上 schema 后,查看 schema 下的表,
**右键单击 schema 下的表**
即可看到表信息,字段信息及 SQL 生成。

### 表信息

### 字段信息

### SQL生成




出现以上schema后,查看schema下的表,右键单击schema下的表即可看到表信息,字段信息及SQL生成。



如何配置数据源请参考
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
。
**如何配置数据源请参考**
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
。
docs/zh-CN/administrator-guide/registerCenter/cluster_manage.md
View file @
9fb5144c
当用户提交
FlinkSQL作业时,首先要保证安装了Flink集群。Flink
当前支持的集群模式包括:
当用户提交
FlinkSQL 作业时,首先要保证安装了 Flink 集群。Flink
当前支持的集群模式包括:
-
StandAlone集群
-
Yarn集群
-
Kubernetes集群
-
StandAlone
集群
-
Yarn
集群
-
Kubernetes
集群
对于以上的三种集群而言,Dinky为用户提供了两种集群管理方式,一种是集群实例管理,一种是集群配置管理。
对于以上的三种集群而言,Dinky
为用户提供了两种集群管理方式,一种是集群实例管理,一种是集群配置管理。
**需要说明的是:**
-
StandAlone集群适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Session
和Kubernetes Session
适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Perjob,Yarn Application
和Kubernetes Application
适用于异步提交
-
StandAlone
集群适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Session
和 Kubernetes Session
适用于既可以做为查询使用,又可以将作业异步提交到远程集群
-
Yarn Perjob,Yarn Application
和 Kubernetes Application
适用于异步提交
## 集群实例管理
集群实例管理适用于
StandAlone,Yarn Session和Kubernetes Session
这三种类型配置。
集群实例管理适用于
StandAlone,Yarn Session 和 Kubernetes Session
这三种类型配置。
### 集群配置
首先进入
注册中心的集群管理中的集群实例管理,新建一个集群实例,点击新建
,添加Flink集群,参数配置完成后,点击提交即可。
首先进入
**注册中心**
>
**集群管理**
>
**集群实例管理**
,新建一个
**集群实例**
,点击
**新建**
,添加Flink集群,参数配置完成后,点击提交即可。

...
...
@@ -32,11 +32,11 @@
-
**JobManager HA地址:**
JobManager的RestAPI地址,当有多个RestAPI地址时。采用英文逗号隔开
-
**注释:**
自定义
当集群实例配置完成后,点击
心跳
,会出现检测心跳
当集群实例配置完成后,点击
**心跳**
,会出现检测心跳

点击
回收
,会将过去的集群实例进行回收
点击
**回收**
,会将过去的集群实例进行回收

...
...
@@ -46,7 +46,7 @@
当集群配置完成后,用户可以对集群实例做编辑修改。
首先进入
注册中心集群实例管理,在列表中找到对应的集群实例,点击"编辑"后
,编辑集群
首先进入
**注册中心**
>
**集群实例管理**
,在列表中找到对应的集群实例,点击
**编辑**
,编辑集群

...
...
@@ -56,7 +56,7 @@
用户可以对所添加的集群实例进行删除。
首先进入
注册中心中的集群实例管理,在列表中找到对应的集群实例,点击"删除"
后,删除集群!
首先进入
入
**注册中心**
>
**集群实例管理**
,在列表中找到对应的集群实例,点击
**删除**
后,删除集群!

...
...
@@ -74,7 +74,7 @@
### 集群配置
首先进入
注册中心的集群管理中的集群配置管理,点击"新建"后,可以创建集群配置,参数配置完成后,点击"测试"及"完成"
即可。
首先进入
**注册中心**
>
**集群管理**
>
**集群配置管理**
,点击
**新建**
后,可以创建集群配置,参数配置完成后,点击
**测试**
及
**完成**
即可。

...
...
@@ -98,7 +98,7 @@
-
**注释:**
自定义
-
**是否启用:**
默认禁用,需要开启
参数配置完成后,点击
"测试"
,会显示测试连接成功。
参数配置完成后,点击
**测试**
,会显示测试连接成功。

...
...
@@ -108,7 +108,7 @@
当集群配置完成后,用户可以对集群配置做编辑修改。
首先进入
注册中心集群配置管理,在列表中找到对应的集群名称,点击"编辑"
后,维护集群配置
首先进入
**注册中心**
>
**集群配置管理**
,在列表中找到对应的集群名称,点击
**编辑**
后,维护集群配置

...
...
@@ -118,7 +118,7 @@
用户可以对所添加的集群配置进行删除。
首先进入
注册中心中的集群配置管理,,在列表中找到对应的集群,点击"删除"
后,删除集群
首先进入
**注册中心**
>
**集群配置管理**
,,在列表中找到对应的集群,点击
**删除**
后,删除集群

...
...
docs/zh-CN/administrator-guide/registerCenter/datasource_manage.md
View file @
9fb5144c
...
...
@@ -3,7 +3,7 @@

## 创建数据源
当用户使用
Dinky做为数据开发工具时,用户首先需要进入
<span
style=
''
>
注册中心数据源管理
</span>
,新建数据库连接
即可。
当用户使用
Dinky 做为数据开发工具时,用户首先需要进入
**注册中心**
>
**数据源管理**
,点击
**新建**
即可。

...
...
@@ -23,10 +23,10 @@
**Flink连接配置:**
避免私密信息泄露,同时复用连接配置,在FlinkSQL中可使用${名称}来加载连接配置,如${ods},说明:名称指的是英文唯一标识,即如图所示的名称。注意需要开启全局变量(原片段机制);
**Flink连接模板:**
Flink连接模板作用是为生成FlinkSQL DDL而扩展的功能。其中
${schemaName}动态获取数据库,${tableName}动态获取表名称
。更多参数请参考
[
Flink官网
](
https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/overview/
)
;
**Flink连接模板:**
Flink连接模板作用是为生成FlinkSQL DDL而扩展的功能。其中
**${schemaName}动态获取数据库**
,
**${tableName}动态获取表名称**
。更多参数请参考
[
Flink官网
](
https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/overview/
)
;
**注释:**
自定义;
**是否启用:**
默认禁用,需要开启;
当前数据库统一使用如上定义的参数名称配置数据源连接。当前支持的数据源可参考
[
扩展数据源
](
/zh-CN/extend/datasource.md
)
章节。
当前数据库统一使用如上定义的参数名称配置数据源连接。当前支持的数据源可参考
[
扩展数据源
](
/zh-CN/extend/datasource.md
)
章节。
docs/zh-CN/administrator-guide/registerCenter/document_manager.md
View file @
9fb5144c
## 文档管理
List
## 文档管理
列表

...
...
docs/zh-CN/administrator-guide/registerCenter/jar_manager.md
View file @
9fb5144c
当用户使用
jar包提交Flink应用时,可以在jar包管理
中对所需程序进行管理。
当用户使用
jar 包提交 Flink 应用时,可以在 j
**ar管理**
中对所需程序进行管理。
## Jar包配置
首先进入
注册中心的jar管理,点击“新建”,进入创建Jar配置
界面。
首先进入
**注册中心**
>
**jar管理**
,点击
**新建**
,进入
**创建Jar配置**
界面。

...
...
@@ -14,7 +14,7 @@
-
**Jar配置:**
-
默认:
**
User App
-
**文件路径:**
指定
HDFS
上的文件路径,即Flink提交的jar包程序
-
**文件路径:**
指定
HDFS
上的文件路径,即Flink提交的jar包程序
-
**启动类:**
指定可执行 Jar 的启动类,(可选)
-
**执行参数:**
指定可执行 Jar 的启动类入参,(可选)
-
**基本配置:**
...
...
@@ -31,7 +31,7 @@ Jar包配置完成后,就可以正常提交运行。
用户可以对所添加的可执行Jar包配置做编辑修改。
首先进入
注册中心的jar包管理中,点击编辑
,即可对可执行Jar配置进行修改。
首先进入
**注册中心**
>
**jar管理**
,点击
**编辑**
,即可对可执行Jar配置进行修改。

...
...
@@ -45,7 +45,7 @@ Jar包配置完成后,就可以正常提交运行。
用户可以对所添加的可执行Jar包配置做删除。
首先进入
注册中心的jar包管理中,点击删除
,即可对可执行Jar配置进行删除。
首先进入
**注册中心**
>
**jar管理**
,点击
**删除**
,即可对可执行Jar配置进行删除。

...
...
docs/zh-CN/administrator-guide/registerCenter/warning.md
View file @
9fb5144c
如何创建报警实例及报警组,在0.6版本以后,用户可以创建报警实例及报警组,监控
FlinkSQL
作业。一个报警组可以使用多个报警实例,用户就可以进一步收到报警通知。收到的报警通知如下:
如何创建报警实例及报警组,在0.6版本以后,用户可以创建报警实例及报警组,监控
FlinkSQL
作业。一个报警组可以使用多个报警实例,用户就可以进一步收到报警通知。收到的报警通知如下:
-
unknow
-
unknow
n
-
stop
-
cancel
-
finished
首先要进入
<span
style=
""
>
注册中心
</span>
,选择
<span>
报警管理
</span>
,然后选择左侧的报警实例管理,创建一个告警实例。然后选择对应的报警插件(当前支持钉钉及企业微信)
。然后选择报警组管理,创建一个报警组。
首先要进入
**注册中心**
>
**报警管理**
,然后选择左侧的报警实例管理,创建一个告警实例。然后选择对应的报警插件
。然后选择报警组管理,创建一个报警组。
目前Dlinky支持的报警插件有:
-
**[钉钉](#钉钉)方式告警 :**
WebHook
-
**[企业微信](#企业微信)方式告警 :**
包含
**应用**
**群聊**
-
**[飞书](#飞书)方式告警 :**
WebHook
-
**[邮箱](#邮箱)方式告警 :**
通过邮件发送报警通知
## 报警实例管理
新建一个报警实例,选择新建
### 告警实例列表

### 创建告警实例
**注册中心**
>
**报警管理**
,选择
**新建**

点击
<span>
钉钉或者企业微信
</span>
,创建报警实例配置。报警实例配置完成,就可以创建报警组。
点击
以上告警实例类型
,创建报警实例配置。报警实例配置完成,就可以创建报警组。
## 报警组管理
...
...
@@ -27,7 +34,7 @@
## 钉钉
如果用户使用钉钉进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
钉钉
</span>
报警实例。钉钉的配置如下:
如果用户使用钉钉进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**钉钉**
报警实例。

...
...
@@ -35,12 +42,12 @@
-
**名称:**
自定义;
-
**地址:**
Webhook,格式如下:https://oapi.dingtalk.com/robot/send?access_token=???????
-
**关键字:**
安全设置的自定义关键词,钉钉关键字和
dinky
中的关键字保持一致即可;
-
**关键字:**
安全设置的自定义关键词,钉钉关键字和
Dinky
中的关键字保持一致即可;
-
**密令:**
安全设置的加签;
-
**开启代理:**
默认否(一般默认)
-
**@所有人:**
默认禁用,需要开启;
-
**是否启用:**
默认禁用,需要开启;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**展示方式类型:**
支持
MarkDown
和文本;
**说明:**
自定义机器人发送消息时,在“被@人列表”里面的人员收到该消息时,会有@消息提醒。
...
...
@@ -48,7 +55,7 @@
## 企业微信
如果用户使用企业微信进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
企业微信
</span>
报警实例。
如果用户使用企业微信进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**企业微信**
报警实例。
### 微信企业应用配置
...
...
@@ -63,7 +70,7 @@
-
**发送消息:**
接口中定义的msg,如{"touser":"{toUser}","agentid":{agentId}","msgtype":"{showType}","{showType}":{"content":"{msg}"}}
-
**代理ID:**
询问企业微信管理员即可;
-
**发送方式:**
应用;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**展示方式类型:**
支持
MarkDown
和文本;
-
**是否启用:**
默认禁用,需要开启;
### 微信企业群聊配置
...
...
@@ -93,7 +100,7 @@
## 飞书
如果用户使用飞书进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
飞书
</span>
报警实例。
如果用户使用飞书进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**飞书**
报警实例。

...
...
@@ -102,7 +109,7 @@
-
**名称:**
自定义;
-
**发送方式:**
群聊;
-
**WebHook地址:**
Webhook地址,如https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx
-
**WebHook地址:**
Webhook
地址,如https://qyapi.weixin.qq.com/cgi-bin/webhook/send?key=xxxxxx
-
**关键字:**
作为发送信息的title 标记;
-
**@所有人:**
默认禁用,如果@所有人需要开启;
-
**被@用户:**
飞书的用户ID;
...
...
@@ -116,7 +123,7 @@
## 邮箱
如果用户使用邮箱进行报警,请
在报警实例中选择报警实例管理,选择新建
<span>
邮箱
</span>
报警实例。
如果用户使用邮箱进行报警,请
进入
**注册中心**
>
**报警管理**
>
**报警实例管理**
,点击
**新建**
选择
**邮箱**
报警实例。

...
...
docs/zh-CN/administrator-guide/system_setting/Flink_Setting.md
View file @
9fb5144c
当用户使用
**Application 模式**
以及
**RestAPI**
时,需要在
**Flink 设置**
页面进行相关修改。
当用户使用Application模式以及RestAPI时,需要在Flink设置页面进行相关修改
。
另外
**Application 模式**
支持
**Yarn**
和
**Kubernetes**
,启用
**RestAPI**
后,Flink 任务的 savepoint,停止等操作都将会通过 JobManager 的 RestAPI 进行
。
另外Application模式支持Yarn和Kubernetes,启用RestAPI后,Flink任务的savepoint,停止等操作都将会通过JobManager的RestAPI进行
。
首先进入
**系统设置**
中的
**Flink设置**
,对参数配置进行修改即可
。
首先进入系统设置中的Flink设置,对参数配置进行修改即可。


**参数配置说明:**
**参数配置说明:**
-
**提交FlinkSQL的Jar文件路径:**
此参数是为了引入Dinky中提交Application模式的jar包文件,需要上传到相应的HDFS路径,jar包在dinky解压根目录下的jar文件夹下;
-
**提交FlinkSQL的Jar的主类入参:**
默认为空,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**提交FlinkSQL的Jar的主类:**
默认com.dlink.app.MainApp,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**使用RestAPI:**
默认开启,开启后FlinkSQL停止等操作通过此参数进行;
-
**FlinkSQL语句分隔符:**
默认是分号,即";"。多个语句间可以用分号隔开;
\ No newline at end of file
-
**提交 FlinkSQL 的 Jar文件路径:**
此参数是为了引入 Dinky 中提交
**Application 模式**
的 jar包文件,
-
**服务器部署方式:**
需要上传到相应的HDFS路径,jar包在 Dinky 解压根目录下的jar文件夹下;eg: hdfs:///dlink/jar/dlink-app-${dlink-version}-jar-with-dependencies.jar
-
**本地调试方式:**
需要本地 install后 将其设置为eg: $idea_work_dir/dlink/dlink-app/target/dlink-app-${dlink-version}-jar-with-dependencies.jar
-
**提交 FlinkSQL 的 Jar 的主类入参:**
默认为空,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**提交 FlinkSQL 的 Jar 的主类:**
默认 com.dlink.app.MainApp,不需要修改,配合提交FlinkSQL的Jar文件路径使用;
-
**使用 RestAPI:**
默认开启,开启后 FlinkSQL 停止等操作通过此参数进行;
-
**FlinkSQL 语句分隔符:**
默认是分号,即";"。多个语句间可以用分号隔开; 此项支持自定义 eg:
**;\r\n**
\ No newline at end of file
docs/zh-CN/administrator-guide/system_setting/user_management.md
View file @
9fb5144c
系统设置中的用户管理功能,包含添加或删除用户、修改密码等。此用户管理中的用户仅限于登录
Dinky
界面。
系统设置中的用户管理功能,包含添加或删除用户、修改密码等。此用户管理中的用户仅限于登录
Dinky
界面。
**默认用户名/密码:**
admin/admin
## 用户管理

## 添加用户
当用户使用非admin用户登录时,可以添加一个新用户,通过新用户登录Dinky。
-
**普通用户**
创建好后,
**默认密码**
是
**123456**
,
-
如果需要修改密码,请查看
[
修改密码
](
#密码修改
)
。
首先要进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,新建
。
进入
**系统设置**
,选择
**用户管理**
,
**新建**
。


进入后,会出现用户创建界面

**参数配置:**
...
...
@@ -24,45 +27,44 @@
## 删除用户
但用户不使用某个创建的普通用户时,可以进行删除。首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的删除
即可。
但用户不使用某个创建的普通用户时,可以进行删除。首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的
**删除**
即可。




**说明:**
admin
用户在dinky
是最高权限用户,无法删除,只能修改密码
**说明:**
admin
用户在 Dinky
是最高权限用户,无法删除,只能修改密码
## 用户配置及编辑
用户配置或者编辑是为了用户修改用户的基本信息,首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的配置或者编辑。接下来就可以维护用户信息。

用户配置或者编辑是为了用户修改用户的基本信息,首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的
**配置**
或者
**编辑**
。接下来就可以维护用户信息。


## 密码修改
普通用户创建好后,默认密码是123456,admin用户密码是admin。为避免信息泄露,在生产环境建议用户修改密码。
-
普通用户创建好后,
**默认密码**
是
**123456**
,
-
**admin 用户**
密码是
**admin**
。为避免信息泄露,
**在生产环境建议用户修改密码**
。
首先进入
<span
style=
""
>
系统设置
</span>
,选择
<span>
用户管理
</span>
,点击对应用户的密码修改即可。
首先进入
**系统设置**
,选择
**用户管理**
,点击对应用户的密码修改即可。




当密码修改成功后,用户可以选择界面
右上角的退出登录,既可通过新密码登录
Dinky。
当密码修改成功后,用户可以选择界面
**右上角**
的
**退出登录**
,既可通过新密码登录
Dinky。




...
...
docs/zh-CN/api/openapi.md
View file @
9fb5144c
Dinky
平台提供OpenAPI能力,通过调用Dinky的OpenAPI可以使用Dinky的功能,实现应用和Dinky
的集成和交互。
Dinky
平台提供 OpenAPI 能力,通过调用 Dinky 的 OpenAPI 可以使用 Dinky 的功能,实现应用和 Dinky
的集成和交互。
### 背景
Dinky
的OpenAPI提供了10多种API功能。通过调用API,可以快速进行操作和系统集成对接等工作,提高数据开发效率,满足企业定制化需求。您还可以通过开放平台,轻松获取OpenAPI
的使用情况。
Dinky
的O penAPI 提供了 10 多种 API 功能。通过调用 API,可以快速进行操作和系统集成对接等工作,提高数据开发效率,满足企业定制化需求。您还可以通过开放平台,轻松获取 OpenAPI
的使用情况。
当前支持的
OpenAPI
包括如下:
当前支持的
OpenAPI
包括如下:
| 序号 | 执行模式 | 类型名称 | 作用 |
| :--: | :------------: | :----------------: | :------------------------------: |
| 1 | explainSql | cancel | 调用取消
FlinkSQL
作业 |
| 2 | explainSql | statement | 调用
statement
语句 |
| 3 | executeJar | yarn-application | 调用执行
yarn-a
pplication jar包 |
| 4 | executeSql | kubernetes-session | 调用执行作业在
k8ssession
上运行 |
| 5 | executeSql | local | 调用执行作业在
local
上运行 |
| 6 | executeSql | yarn-per-job | 调用执行作业在
yarn-per-job
上运行 |
| 7 | executeSql | standalone | 调用执行作业在
standalone
上运行 |
| 8 | executeSql | yarn-session | 调用执行作业在
yarn-session
上运行 |
| 1 | explainSql | cancel | 调用取消
FlinkSQL
作业 |
| 2 | explainSql | statement | 调用
statement
语句 |
| 3 | executeJar | yarn-application | 调用执行
Yarn-A
pplication jar包 |
| 4 | executeSql | kubernetes-session | 调用执行作业在
K8ssession
上运行 |
| 5 | executeSql | local | 调用执行作业在
Local
上运行 |
| 6 | executeSql | yarn-per-job | 调用执行作业在
Yarn-per-job
上运行 |
| 7 | executeSql | standalone | 调用执行作业在
Standalone
上运行 |
| 8 | executeSql | yarn-session | 调用执行作业在
Yarn-session
上运行 |
| 9 | getJobData | | |
| 10 | getJobPlan | statement | 调用获取执行计划 |
| 11 | getStreamGraph | statement | 调用获取
Flink DAG
图 |
| 12 | savepoint | | 调用手动保存
c
heckpoints |
| 13 | savepointTask | | 调用并触发
s
avepoint |
| 11 | getStreamGraph | statement | 调用获取
Flink DAG
图 |
| 12 | savepoint | | 调用手动保存
C
heckpoints |
| 13 | savepointTask | | 调用并触发
S
avepoint |
| 14 | submitTask | | 作业调度 |
### 示例
**explainSql**
explainSql
包括FlinkSQL作业取消和statement
语句执行
explainSql
包括 FlinkSQL 作业取消和 statement
语句执行
FlinkSQL
作业
cancel:
FlinkSQL
作业
cancel:
**explainSql**
explainSql
包括F
cancel
explainSql
包括
cancel
```
http://127.0.0.1:8888/openapi/explainSql
...
...
@@ -55,7 +55,7 @@ http://127.0.0.1:8888/openapi/explainSql
}
```
statement语句执行:
statement
语句执行:
```
http://127.0.0.1:8888/openapi/explainSql
...
...
@@ -80,7 +80,7 @@ statement语句执行:
**executeJar**
yarn-application jar
包调用并提交
Yarn-application jar
包调用并提交
```
http://127.0.0.1:8888/openapi/executeJar
...
...
@@ -114,9 +114,9 @@ yarn-application jar包调用并提交
**executeSql**
executeSql
提交执行作业包括local,kubernetes-session,yarn-per-job,standalone,y
arn-session
executeSql
提交执行作业包括 Local,Kubernetes-session,Yarn-per-job,Standalone,Y
arn-session
l
ocal:
L
ocal:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -145,7 +145,7 @@ local:
}
```
k
ubernetes-session:
K
ubernetes-session:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -175,7 +175,7 @@ kubernetes-session:
}
```
y
arn-per-job:
Y
arn-per-job:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -214,7 +214,7 @@ http://127.0.0.1:8888/openapi/executeSql
}
```
y
arn-session:
Y
arn-session:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -244,7 +244,7 @@ yarn-session:
}
```
s
tandalone:
S
tandalone:
```
http://127.0.0.1:8888/openapi/executeSql
...
...
@@ -366,4 +366,4 @@ http://127.0.0.1:8888/openapi/savepointTask
http://127.0.0.1:8888/openapi/submitTask?id=1
```
OpenAPI包括元数据、数据开发、数据集成、运维中心、数据质量、数据服务等。其中数据开发已经开发完成,其他根据版本发布会逐步实现。如果您在数据开发过程中需要使用Dinky OpenAPI,使用方式请参见示例。
\ No newline at end of file
OpenAPI 包括元数据、数据开发、数据集成、运维中心、数据质量、数据服务等。其中数据开发已经开发完成,其他根据版本发布会逐步实现。如果您在数据开发过程中需要使用 Dinky OpenAPI,使用方式请参见示例。
\ No newline at end of file
docs/zh-CN/architecture.md
View file @
9fb5144c


docs/zh-CN/developer-guide/commit_code.md
View file @
9fb5144c
# 提交代码
*
首先从远端仓库
*https://github.com/DataLinkDC/dlink.git*
fork一份代码到自己的仓库中
*
首先从远端仓库
*https://github.com/DataLinkDC/dlink.git*
fork
一份代码到自己的仓库中
*
远端仓库中目前有三个分支:
...
...
docs/zh-CN/dinky_overview.md
View file @
9fb5144c
## 概述
Dinky
做为FlinkSQL的实时计算平台目前可以被部署在本地。充分利用了Flink在SQL上计算的能力,为您提供极致的Dinky
使用体验。
Dinky
做为 FlinkSQL 的实时计算平台目前可以被部署在本地。充分利用了 Flink 在 SQL 上计算的能力,为您提供极致的 Dinky
使用体验。
-
**开源:**
产品提供多个的
Flink版本,与开源Flink
接口完全兼容,满足您的平滑迁移业务的需求。
-
**开源:**
产品提供多个的
Flink 版本,与开源 Flink
接口完全兼容,满足您的平滑迁移业务的需求。
-
**免费:**
平台各组件免费使用,您只需部署
Dinky,Flink及相关上下游存储系统即可使用Dinky
产品。
-
**易用:**
提供开箱即用的作业开发平台,以及
Metric
采集、展示、监控和报警的能力。满足分钟级别搭建平台的需求,节省时间。
-
**免费:**
平台各组件免费使用,您只需部署
Dinky,Flink 及相关上下游存储系统即可使用 Dinky
产品。
-
**易用:**
提供开箱即用的作业开发平台,以及
Metric
采集、展示、监控和报警的能力。满足分钟级别搭建平台的需求,节省时间。
[
Apache Flink
](
https://github.com/apache/flink
)
是
Apache
社区的先进开源项目,主攻流计算领域,具备高吞吐,低延时的特点,已经成为了目前流式处理领域的热门引擎。主要应用功能包括流批一体化及湖仓一体化的建设。
[
Apache Flink
](
https://github.com/apache/flink
)
是
Apache
社区的先进开源项目,主攻流计算领域,具备高吞吐,低延时的特点,已经成为了目前流式处理领域的热门引擎。主要应用功能包括流批一体化及湖仓一体化的建设。
Dinky做为实时数据中台,当前也支持各种数据源连接。
...
...
@@ -15,7 +15,7 @@ Dinky做为实时数据中台,当前也支持各种数据源连接。
### FlinkSQL上下游系统
Flink
SQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11、Flink1.12、Flink1.13和Flink1.14
四个版本,对应的版本支持所有开源的上下游存储详见具体Connector信息,请参见Flink开源社区:
Flink
SQL 支持丰富的上下游存储,实时计算平台支持支持 Flink 1.11、Flink 1.12、Flink 1.13 和 Flink 1.14
四个版本,对应的版本支持所有开源的上下游存储详见具体Connector信息,请参见Flink开源社区:
-
[
Flink1.11
](
https://nightlies.apache.org/flink/flink-docs-release-1.11/dev/table/connectors/
)
...
...
@@ -23,13 +23,13 @@ FlinkSQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11
-
[
Flink1.13
](
https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/connectors/table/overview/
)
-
[
Flink1.14
](
https://nightlies.apache.org/flink/flink-docs-release-1.14/docs/connectors/table/overview/
)
另外非
Flink官网支持的上下游系统详见
github:
另外非
Flink 官网支持的上下游系统详见
github:
-
[
Flink-CDC
](
https://github.com/ververica/flink-cdc-connectors/releases/
)
-
[
Hudi
](
https://github.com/apache/hudi/releases
)
-
[
Iceberg
](
https://github.com/apache/iceberg/releases
)
-
[
Doris:
](
https://github.com/apache/incubator-doris-flink-connector/tags
)
目前只支持sink
-
[
Doris:
](
https://github.com/apache/incubator-doris-flink-connector/tags
)
目前只支持
sink
-
[
Starrocks
](
https://github.com/StarRocks/flink-connector-starrocks/releases
)
-
[
ClickHouse
](
)
-
[
Pulsar
](
https://github.com/streamnative/pulsar-flink/releases
)
...
...
@@ -40,37 +40,40 @@ FlinkSQL支持丰富的上下游存储,实时计算平台支持支持Flink1.11
## 管理控制台介绍
Dinky
实时数据中台数据开发模块包括数据开发、运维中心、注册中心和系统设置三
大模块。
Dinky
实时数据中台数据开发模块包括
**数据开发**
、
**运维中心**
、
**注册中心**
和
**系统设置**
四
大模块。
1.
在浏览器输入
Dinky
地址;
1.
在浏览器输入
Dinky
地址;
2.
点击登录进入
Dinky
管理界面控制台;
2.
点击登录进入
Dinky
管理界面控制台;
**点击系统设置**
系统设置包括用户管理和Flink设置

### 数据开发
数据开发包括作业管理、作业配置和运维管理等

**点击注册中心**
注册中心包括集群管理、Jar管理、数据源管理、报警管理和文档管理

### 运维中心

**点击运维中心**

### 注册中心
注册中心包括集群管理、Jar管理、数据源管理、报警管理和文档管理

**点击数据开发**
数据开发包括作业管理、作业配置和运维管理等

### 系统设置
系统设置包括用户管理和Flink设置

docs/zh-CN/extend/Flink_CDC_kafka_Multi_source_merger.md
View file @
9fb5144c
# Flink CDC
和kafka
进行多源合并和下游同步更新
# Flink CDC
和 Kafka
进行多源合并和下游同步更新
...
...
@@ -13,7 +13,7 @@
本文主要是针对 Flink SQL 使用 Flink CDC 无法实现多库多表的多源合并问题,以及多源合并后如何对下游 Kafka 同步更新的问题,因为目前 Flink SQL 也只能进行单表 Flink CDC 的作业操作,这会导致数据库 CDC 的连接数过多。
但是 Flink CDC 的
dataStream API 是可以进行多库多表的同步操作的,本文希望利用 Flink CDC 的 dataStream API 进行多源合并后导入一个总线 Kafka,下游只需连接总线 k
afka 就可以实现 Flink SQL 的多源合并问题,资源复用。
但是 Flink CDC 的
DataStream API 是可以进行多库多表的同步操作的,本文希望利用 Flink CDC 的 DataStream API 进行多源合并后导入一个总线 Kafka,下游只需连接总线 K
afka 就可以实现 Flink SQL 的多源合并问题,资源复用。
# 环境
...
...
@@ -37,9 +37,9 @@ ConnectRecord{topic='mysql_binlog_source.gmall.spu_info', kafkaPartition=null, k
可以看到,这种格式的 JSON,传给下游有很大的问题,要实现多源合并和同步更新,我们要解决以下两个问题。
**①总线
Kafka传来的json,无法识别源库和源表来进行具体的表创建操作,因为不是固定的json格式,建表WHIT
配置里也无法指定具体的库和表。**
**①总线
Kafka 传来的 Json,无法识别源库和源表来进行具体的表创建操作,因为不是固定的 Json 格式,建表 with
配置里也无法指定具体的库和表。**
**②总线
Kafka传来的json如何进行CRUD等事件对Kafka流的同步操作,特别是Delete,下游kafka如何感知来更新
ChangeLog。**
**②总线
Kafka 传来的 Json 如何进行 CRUD 等事件对 Kafka 流的同步操作,特别是 Delete,下游 kafka 如何感知来更新
ChangeLog。**
# 查看文档
...
...
@@ -58,7 +58,7 @@ ConnectRecord{topic='mysql_binlog_source.gmall.spu_info', kafkaPartition=null, k
那这里就已经解决了问题②。
剩下问题①,如何解决传来的多库多表进行指定表和库的识别,毕竟建表语句没有进行
where
的设置参数。
剩下问题①,如何解决传来的多库多表进行指定表和库的识别,毕竟建表语句没有进行
where
的设置参数。
再往下翻文档:
...
...
@@ -94,9 +94,9 @@ select * from Kafka_Table where origin_database='gmall' and origin_table = 'spu_
那这样问题②就解决了。
那我们现在就要做两个事情:
**①写一个Flink CDC
的dataStream项目进行多库多表同步,传给总线
Kafka。**
**①写一个Flink CDC
的 DataStream 项目进行多库多表同步,传给总线
Kafka。**
**②自定义总线
Kafka的json
格式。**
**②自定义总线
Kafka 的 json
格式。**
# 新建Flink CDC的dataStream项目
...
...
docs/zh-CN/extend/datasource.md
View file @
9fb5144c
Dinky
数据源遵循SPI,可随意扩展所需要的数据源。数据源扩展可在dlink-metadata
模块中进行可插拔式扩展。现已经支持的数据源包括如下:
Dinky
数据源遵循 SPI,可随意扩展所需要的数据源。数据源扩展可在 dlink-metadata
模块中进行可插拔式扩展。现已经支持的数据源包括如下:
-
MySQL
-
Oracle
...
...
@@ -11,4 +11,4 @@
使用以上数据源,请查阅注册中心
[
数据源管理
](
/zh-CN/administrator-guide/registerCenter/datasource_manage.md
)
,配置数据源连接
**说明:**
Dinky不在对Starorcks进行额外扩展,Doris和Starorcks底层并无差别,原则上只是功能区分。经社区测试验证,可采用Doris扩展连接Starrocks。
\ No newline at end of file
**说明:**
Dinky 不在对 Starorcks 进行额外扩展,Doris 和 Starorcks 底层并无差别,原则上只是功能区分。经社区测试验证,可采用 Doris 扩展连接 Starrocks。
\ No newline at end of file
docs/zh-CN/extend/hive.md
View file @
9fb5144c
## 前言
最近有很多小伙伴问,
dlink
如何连接 Hive 进行数据开发?
最近有很多小伙伴问,
Dlinky
如何连接 Hive 进行数据开发?
关于
dlink
连接 Hive 的步骤同 Flink 的
`sql-client `
,只不过它没有默认加载的配置文件。下文将详细讲述对 Hive 操作的全过程。
关于
Dlinky
连接 Hive 的步骤同 Flink 的
`sql-client `
,只不过它没有默认加载的配置文件。下文将详细讲述对 Hive 操作的全过程。
## 准备工作
...
...
@@ -10,9 +10,9 @@
我们先来梳理下本教程的各个组件版本:
|
组件
| 版本 |
|
:----:
| :----: |
| Dlink
| 0.3.2 |
|
组件
| 版本 |
|
:------:
| :----: |
| Dlink
y
| 0.3.2 |
| Flink | 1.12.4 |
| Hadoop | 2.7.7 |
| Hive | 2.3.6 |
...
...
@@ -20,11 +20,11 @@
再来梳理下本教程的各个插件版本:
|
所属组件
| 插件 | 版本 |
|
:-----------:
| :------------------------: | :-------------------: |
| Dlink | dlink-client | 1.12 |
| Dlink & Flink | flink-sql-connector-hive | 2.3.6_2.11-1.12.3 |
| Dlink & Flink | flink-shaded-hadoop-3-uber | 3.1.1.7.2.8.0-224-9.0 |
|
所属组件
| 插件 | 版本 |
|
:--------------:
| :------------------------: | :-------------------: |
| Dlink
y
| dlink-client | 1.12 |
| Dlink
y
& Flink | flink-sql-connector-hive | 2.3.6_2.11-1.12.3 |
| Dlink
y
& Flink | flink-shaded-hadoop-3-uber | 3.1.1.7.2.8.0-224-9.0 |
## 部署扩展
...
...
@@ -45,7 +45,7 @@ USE CATALOG myhive;
select
*
from
htest
```
在 Dlink 编辑器中输入以上 sql ,创建 Hive Catalog,并查询一张表。
在 Dlink
y
编辑器中输入以上 sql ,创建 Hive Catalog,并查询一张表。
其中,
`hive-conf-dir`
需要指定
`hive-site.xml`
的路径,其他同 Flink 官方解释。
...
...
docs/zh-CN/others/comminicate.md
View file @
9fb5144c
...
...
@@ -6,4 +6,8 @@ QQ社区群:**543709668**,申请备注 “ Dinky ”,不写不批
微信社区群(推荐):添加微信号 wenmo_ai 邀请进群,申请备注 “ Dinky + 企业名 + 职位”,不写不批
公众号(最新消息获取建议关注):
[
DataLink数据中台
](
https://mmbiz.qpic.cn/mmbiz_jpg/dyicwnSlTFTp6w4PuJruFaLV6uShCJDkzqwtnbQJrQ90yKDuuIC8tyMU5DK69XZibibx7EPPBRQ3ic81se5UQYs21g/0?wx_fmt=jpeg
)
\ No newline at end of file
**公众号(最新消息获取建议关注):**
-
**微信搜索公众号:**
`DataLink数据中台`
-
**扫码关注公众号:**
扫下图二维码,关注公众号

\ No newline at end of file
docs/zh-CN/others/plans.md
View file @
9fb5144c
1.
任务生命周期管理
*
[
]
多租户及命名空间
2.
作业监控及运维
3.
流作业自动恢复
4.
作业日志查看
5.
钉钉报警和推送
\ No newline at end of file
*
[
]
统一元数据管理
*
[
]
全局血缘与影响分析
*
[
]
Flink 元数据持久化
*
[
]
多版本 Flink-Client Server
*
[
]
整库千表同步
docs/zh-CN/others/thanks.md
View file @
9fb5144c
...
...
@@ -12,4 +12,4 @@
此外,感谢
[
JetBrains
](
https://www.jetbrains.com/?from=dlink
)
提供的免费开源 License 赞助
[

](https://www.jetbrains.com/?from=dlink)
\ No newline at end of file
[

](https://www.jetbrains.com/?from=dlink)
\ No newline at end of file
docs/zh-CN/practice/yarnsubmit.md
View file @
9fb5144c
...
...
@@ -3,7 +3,9 @@
### 注册 Session 集群


### 创建 Session 集群
进入集群中心进行远程集群的注册。点击新建按钮配置远程集群的参数。图中示例配置了一个 Flink on Yarn 的高可用集群,其中 JobManager HA 地址需要填写集群中所有可能被作为 JobManager 的 RestAPI 地址,多个地址间使用英文逗号分隔。表单提交时可能需要较长时间的等待,因为 dlink 正在努力的计算当前活跃的 JobManager 地址。
...
...
@@ -15,7 +17,7 @@
### 执行 Hello World
万物都具有 Hello World 的第一步,当然
dlink
也是具有的。我们选取了基于 datagen 的流查询作为第一行 Flink Sql。具体如下:
万物都具有 Hello World 的第一步,当然
Dlinky
也是具有的。我们选取了基于 datagen 的流查询作为第一行 Flink Sql。具体如下:
```
sql
CREATE
TABLE
Orders
(
...
...
@@ -32,15 +34,15 @@ select order_number,price,order_time from Orders
该例子使用到了 datagen,需要在 dlink 的 plugins 目录下添加 flink-table.jar。
点击
Flink Sql Studio
进入开发页面:
点击
**数据开发**
进入开发页面:


在中央的编辑器中编辑 Flink Sql。
右边作业配置:
1.
执行模式:选中
y
arn-session;
1.
执行模式:选中
Y
arn-session;
2.
Flink 集群:选中上文注册的测试集群;
3.
SavePoint 策略:选中禁用;
4.
按需进行其他配置。
...
...
@@ -54,13 +56,13 @@ select order_number,price,order_time from Orders
### 预览数据


切换到历史选项卡点击刷新可以查看提交进度。切换到结果选项卡,等待片刻点击获取最新数据即可预览 SELECT。
### 停止任务


切换到进程选项卡,选则对应的集群实例,查询当前任务,可执行停止操作。
...
...
@@ -70,7 +72,7 @@ select order_number,price,order_time from Orders
进入集群中心——集群配置,注册配置。


1.
Hadoop 配置文件路径:指定配置文件路径(末尾无/),需要包含以下文件:core-site.xml,hdfs-site.xml,yarn-site.xml;
2.
Flink 配置 lib 路径:指定 lib 的 hdfs 路径(末尾无/),需要包含 Flink 运行时的所有依赖,即 flink 的 lib 目录下的所有 jar;
...
...
docs/zh-CN/quick_start/download.md
View file @
9fb5144c
...
...
@@ -2,7 +2,7 @@
### 发行说明
d
inky 版本的
[
发行说明
](
/zh-CN/release_notes/dinky-0.6.1.md
)
D
inky 版本的
[
发行说明
](
/zh-CN/release_notes/dinky-0.6.1.md
)
### 当前稳定版本 0.6.1
...
...
docs/zh-CN/release_notes/dinky-0.6.1.md
View file @
9fb5144c
...
...
@@ -9,6 +9,8 @@ Dinky 0.6.1 是一个 Bug 修复版本。
-
新增 savepointTask 的 Open API
-
新增 WeChat WebHook 报警方式
-
新增 数据开发全屏的退出按钮
-
新增 飞书 WebHook 报警方式
-
新增 邮箱 报警方式
## 修复和优化
...
...
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment