人工智能是未来十年最重要的技术革命与驱动力,在各行各业产生着日益重要的作用,它与大数据的发展相辅相成,不仅推动人类社会迈入更智慧的世界,也为数据的应用带来无可估量的价值。
11 月 28 - 30 日,Flink Forward Asia 2019 人工智能专场将聚焦于 Flink 在机器学习上的新技术与新应用,内容包含:
- Flink 机器学习进度几何?
- 如何将 Flink 与 TensorFlow 等框架相结合?
- 有哪些 Flink 在机器学习上的生产实践应用?
为你呈现 Flink 机器学习的具体应用实践与最新技术落地案例。
Deep Learning On Apache Flink
陈龙 | Tencent Engineer
本次演讲将介绍一个新的 Flink 项目 dlonflink。它能够使 Flink 具备运行分布式训练和实时更新模型服务的能力,用户不仅可以使用 Scala 开发,而且可以基于 Python,只需修改几行代码即可在 Flink 上运行 TensorFlow,同时也支持 PyToch 和 MXNet。我们将详细介绍 Java 和 Python 之间数据交换相关的设计以及框架管理的实现。
在 Flink 上使用 Analytics-Zoo 进行大数据分析与深度学习模型推理的架构与实践
史栋杰 | 英特尔资深软件架构师
英特尔资深软件架构师。多年从事企业级计算、风控、大数据分析、云计算容器编排、数据分析与人工智能领域的研发,英特尔开源框架 BigDL 与 Analytics-Zoo 的贡献者之一。主要分享内容如下:
- Analytics-Zoo 简介:基于 Apache Spark、Tensorflow、Keras 和 BigDL 的大数据分析+AI 平台。
- 将大数据上的深度学习应用部署到生产环境,Flink 流处理场景的支持及使用 OpenVINO 加速。
- 一种基于消息订阅和 Flink 流处理的 Cluster Serving 架构。
Apache Flink + TensorFlow,携程实时智能异常检测平台实践
潘国庆 | 携程大数据研发经理
随着近几年的发展,实时计算的技术日趋成熟,实时计算的场景也越来越繁多,Flink 也渐渐成为实时计算引擎的首选之一,从简单的实时 ETL 到复杂的 CEP 场景 Flink 都能够很好的驾驭。
本次分享主要介绍携程如何基于 Flink 与 Tensorflow 构建携程实时智能异常检测平台,用于解决规则告警系统准确率低、时效性低、规则配置复杂与耗费人力等诸多问题,实现业务指标毫秒级延迟与智能化检测,依托 Flink 实现了强大的容错机制。
基于 Apache Flink 的机器学习算法平台实践与开源
杨旭 | 阿里巴巴资深算法专家
阿里巴巴计算平台事业部正在与 Flink 社区合作,开源自研的机器学习算法库,基于该算法库,用户可以更方便地构建高性能的 Flink 机器学习作业。我们希望通过开源来促进 Flink 社区在机器学习领域的发展。同时也欢迎更多开发者与我们携手共进,建立更强大、更完整的 Flink 算法库。
本次分享主要围绕团队基于 Flink 研发高性能机器学习算法库过程中的技术积累与收获,以及开源的进展。
Apache Flink AI Ecosystem Effort
陈戊超 | 阿里巴巴技术专家
高赟 | 阿里巴巴技术专家
Flink 是一个分布式计算引擎,支持批流一体的数据处理。在实际生产中的人工智能使用场景中,Flink 在包括特征工程,在线学习,在线预测等方面都有一些独特优势,为了更好的支持人工智能的使用场景,社区以及各个生态厂商都做了一些工作,本演讲将几点介绍近期 Flink 在人工智能生态系统中的工作进展。
- Flink ML Pipline: 定义了在 Flink 上运行机器学习工作流程的 API 包括特征工程,模型训练,模型预测等。
- Alink:是基于 Flink的机器学习算法库。
- Flink ML Workflow:以 Flink 为基础,结合深度学习框架 TensorFlow / PyTorch 为用户提供了串联整个机器学习工作链路中各个阶段的 API,并且同时支持批和流的运行模式。
- Streaming-based mini-batch iteration architecture:Flink 在流运行模式下支持迭代的新架构设计。
点击下方链接可了解更多 Flink Forward Asia 2019 大会议程,最后一周,对大会心动的同学抓紧时间购票啦~
https://developer.aliyun.com/special/ffa2019-conference?spm=a2c6h.13239638.0.0.21f27955Rm9hx4
本文作者:巴蜀真人
本文为云栖社区原创内容,未经允许不得转载。