Flink Weekly | 每周社区动态更新 - 20200107

本文为 Flink Weekly 的第三期,由 Tang Yun 整理,主要内容包括:Flink 1.10.0 的发布进展,将 blink planner 设置为 SQL client 默认 planner 的讨论,以及如何支持 SQL client gateway 的 FLIP。html

做者:唐云(茶干)java

你们好,2020 年转眼就来了,先恭喜你们新年快乐,Flink 社区也会在新的一年中继续陪伴你们,一块儿将 Flink 作大作好。apache

本文为 Flink Weekly 的第三期,由 Tang Yun 整理,主要内容包括:Flink 1.10.0 的发布进展,将 blink planner 设置为 SQL client 默认 planner 的讨论,以及如何支持 SQL client gateway 的 FLIP。函数

Flink 开发进展

[Release] Yu 分享了目前 Flink-1.10 发布的喜人进展,release-1.10 分支刚被拉出来时有 46 个 blocker,11 个 critical 级别的 issue,目前已经降低到只有 12 个 blocker 级别的 issue,一个 RC 版本有望于近期发布,能够访问下面的连接一睹为快:测试

http://apache-flink-mailing-l...ui

[Build] 在社区邮件达成一致后,目前 Flink 已经移除了厂商提供的仓库支持:spa

http://apache-flink-mailing-l...线程

https://issues.apache.org/jir...xml

[SQL] Forward Xu 发起了 FLIP-90(在 Flink SQL 中支持 SQL 2016-2017 JSON 函数)的投票,考虑到讨论时没有收到负面意见,该投票有望较快经过。htm

http://apache-flink-mailing-l...

http://apache-flink-mailing-l...

[SQL] Jark 发起了在 Table API&SQL 中将"Time-windowed Join"重命名为"Interval Join" 的投票:

http://apache-flink-mailing-l...

[SQL] Jark 发起了将 Blink planner 在 release 1.10 中设置为 SQL Client 默认 planner 的讨论。目前 Table API 仍然使用 Flink planner,可是也规划在 release 1.11 中将 Blink planner 设置为默认 planner。理论上来讲 Blink planner 是 Flink planner 的超集,固然不排除一些边角功能没有覆盖到,若是你有任何相关发现,欢迎在下面的邮件中回复:

http://apache-flink-mailing-l...

[SQL] Godfreyhe 发起了支持 SQL client gateway(FLIP-91)的讨论。FLIP-91 的目标是在 FLIP-24 的基础上使得 SQL Client 支持 REST/JDBC 接口,提升 Flink SQL 的易用性。

http://apache-flink-mailing-l...

须要注意的一些缺陷

  • [FLINK-15477] [1.9.1] 有用户反馈没法建立 BatchTableEnvironment。

https://issues.apache.org/jir...

  • [FLINK-15467] [1.9.1] task cancel 阶段没有等待 source 线程发送彻底数据。

https://issues.apache.org/jir...

  • [FLINK-15466] 1.8.3 FlinkAggregateExpandDistinctAggregatesRule 会在执行带有过滤的 distinct aggs 时建立错误的 SQL plan。

https://issues.apache.org/jir...

  • [FLINK-15463] [1.9.1] 使用 table SQL API 链接 phoenix 时,会遇到 ClassNotFoundException 异常。

https://issues.apache.org/jir...

中文邮件问题答疑汇总

  • IDEA 默认选择 java 11 profile,致使 IDEA 在 JDK8 下没法编译 Flink。已经得到了相关解决方法:

http://apache-flink.147419.n8...

  • Flink 内存配置相关的问题解答:

http://apache-flink.147419.n8...

  • 如何获取一条数据记录的处理时间:

http://apache-flink.147419.n8...

  • StreamTableEnvironment.registerDatastream() 开放用户自定义的 schemaDescriptionh 和 DeserializationSchema:

http://apache-flink.147419.n8...

2 分钟快速订阅 Flink 中文邮件列表

Apache Flink 中文邮件列表订阅流程:

  1. 发送任意邮件到 user-zh-subscribe@flink.apache.org
  2. 收到官方确认邮件
  3. 回复该邮件 confirm 便可订阅

订阅成功后将收到 Flink 官方的中文邮件列表的消息,您能够向 user-zh@flink.apache.org 发邮件提问也能够帮助别人解答问题,动动手测试一下!
eb2e01446559af416a93e7e0664a6526.jpg
Tips:

Flink Weekly 周报计划每周更新一期,内容涵盖邮件列表中用户问题的解答、社区开发和提议的进展、社区新闻以及其余活动、博客文章等,欢迎持续关注~

做者介绍:

唐云(茶干),南京大学硕士,2017 年加入阿里巴巴实时计算事业部,专一 Flink 核心引擎开发,入职以来长期从事 Flink state & Checkpoint 相关研发,目前也积极参与 Flink on K8s 相关软件化输出开发和社区开发推广工做。

相关文章
相关标签/搜索