跳到主要内容
版本: 1.0

快速体验

体验环境

注意
  1. 体验环境仅供学习和体验,不保证稳定性和可用性。如你在访问时提示 503 Service Unavailable,请耐心等待, 体验环境会增加访问并发限制等策略。请理解!!
  2. 体验环境每天会定时重置,除了一些默认数据外其他所有数据和配置会被清空。
  3. 体验环境服务不可用时间段为工作日每天的 23:00 - 次日的 09:00。周六日全时段服务不可用,如遇其他时间段服务不可用,请联系社区人员,我们会尽快处理。
  4. 体验环境不支持所有的功能,如需要体验完整功能,请自行搭建环境。
  5. 请不要在体验环境中存储重要数据,以免造成数据丢失,数据泄露。
  6. 请不要在体验环境中进行大规模并发测试,以免影响其他用户体验。
  7. 请不要在体验环境中进行一些删除等高危操作,以免影响其他用户体验。

访问地址: http://demo.dinky.org.cn:32451/#/

普通账户

注意: 普通账户仅用于测试,不具备完整的权限。无法进行认证中心相关操作。

用户名:demo
密码:dinky123456

授权账户

注意: 授权账户只有认证中心相关权限,无法进行其他操作。

用户名:auth
密码:dinky123456

Docker 快速开始

注意

Dinky v1.0.0 的 Docker 镜像正在开发中,敬请期待。以下步骤目前由于镜像未发布,无法使用。请耐心等待。如您对 Docker 镜像有兴趣,欢迎加入我们的开发群,一起参与开发。

如果您是第一次接触 Dinky,我们推荐您使用 Docker 快速体验 Dinky 的功能。

环境准备

需要 Docker 1.13.1+

启动 dinky-standalone-server 镜像

启动该镜像提供 Dinky 实时计算平台。

docker run -p 8888:8888 -p 8081:8081 --name dinky dinkydocker/dinky-standalone-server:1.0.0-flink16

参数解释:

docker需要开放容器内 8888 ,8081 端口到宿主机,8888为后端服务端口,8081为前端服务端口

默认使用h2作为数据库,开箱即用,您不需要额外附加数据库。仅限于快速体验,生产环境请使用MySQL或Postgres,具体请参考Docker部署章节

Docker启动成功后,在浏览器里输入地址http://ip:8081,看到以下界面,说明Dinky启动成功。 login

默认登录账号:admin

默认登录密码:admin

创建你的第一个Flink任务

Dinky支持多种任务开发,本章节会指导你如何使用Local模式快速创建一个FlinkSQL任务。

创建作业

登录Dinky后,进入数据开发页面,点击目录,右键新建作业,选择FlinkSQL作业类型,填写作业名称,点击确定

右侧作业配置页面,执行模式选择Local模式,并行度选择1

输入以下Flink语句:

CREATE TABLE Orders (
order_number BIGINT,
price DECIMAL(32,2),
buyer ROW<first_name STRING, last_name STRING>,
order_time TIMESTAMP(3)
) WITH (
'connector' = 'datagen',
'rows-per-second' = '1',
'number-of-rows' = '50'
);
select order_number,price,first_name,last_name,order_time from Orders

预览查询结果

点击右上角 预览按钮,会启动local集群并执行任务,下方控制台会实时显示运行日志,提交成功后会切换到结果选项卡,点击 获取最新数据 ,即可查看 Select 语句的执行结果。

说明

预览功能只支持select语句查询结果(目前不支持Application与Prejob预览功能),如果您是正常的带有insert的FlinkSql作业,请点击执行按钮

任务提交

预览功能仅适用于debug,方便开发时查看数据,对于线上作业,我们需要使用执行按钮提交任务到集群。

修改FlinkSql语句

--创建源表datagen_source
CREATE TABLE datagen_source(
id BIGINT,
name STRING
) WITH (
'connector' = 'datagen'
);
--创建结果表blackhole_sink
CREATE TABLE blackhole_sink(
id BIGINT,
name STRING
) WITH (
'connector' = 'blackhole'
);
--将源表数据插入到结果表
INSERT INTO blackhole_sink
SELECT
id ,
name
from datagen_source;

点击提交按钮,即可提交任务到集群

作业运维

任务提交成功后,我们可以进入运维中心页面。 找到我们的作业,点击详情按钮,即可查看作业的运行状态,日志,监控等信息。

写在最后

至此,您已经了解了基础DInky使用流程,但Dinky的能力远不止于此,您可以继续阅读其他文档,了解更多Dinky的功能,尽享Dinky为你带来的丝滑开发体验