zoukankan      html  css  js  c++  java
  • 关于k8s这项大动作,预示着边缘计算迎来“开源”发展的新周期……

    在文章《最近在边缘计算领域,发生了一件足以载入物联网史册的大事…》我曾经提到Kubernetes(简称K8s)将从超大规模云计算环境,被带入到物联网边缘计算场景中。

    事情有了新进展,从本周开始,在物联网的边缘计算场景中,K8s有了更加实用的工具。华为宣布将公有云上的智能边缘计算服务IEF部分开源,贡献了边缘计算管理框架KubeEdge,帮助各行各业加速向云原生迁移。

    或许你对K8s还不熟悉,这里做个简单回顾。可以说2017是K8s的胜利之年,它赢得了云计算的战争。如果一家公有云现在还没有提供K8s服务,那么基本可以认为它落后于时代。在私有云领域,K8s也已几乎成为标配。

    为什么K8s会成为主流?容器技术和K8s是云原生概念的核心和基础。云计算诞生已有超过10年,但云计算时代的应用到底该是什么样子,一直没人能说清楚,也没人能确定云计算的基础架构将会如何发展。在K8s出现之前,没人设想过会有一个被所有云计算供应商同时支持的分布式应用平台,直到容器技术出现之后,人们才意识到终于离目标又进了一步。

    K8s的胜利到底意味着什么?意味着,有史以来第一次,无论使用哪一种云平台,研发人员都可以拥有完全相同的计算环境。过去,很多用户常常担心被阿里、亚马逊、微软等云计算提供商“绑定”。但自从有了K8s之后,分布式应用与云平台实现了“解耦”,工程师们不再担心如何把应用从一个平台移植到另一个平台,因为K8s在各种云平台环境中均可运行。

    目前大量的物联网平台已经增加了对K8s的支持,但在边缘计算场景中,K8s还没有取得太多进展。

    我们都知道,物联网中绝大多数的数据,需要在网络边缘侧分析、处理与储存。边缘侧需要克服的难题不少,不仅边缘侧资源受限,而且解决方案的碎片化和同质化可能是首当其冲需要解决的问题。10家供应商针对相同的应用可能会有10种不同的解决方案,不仅浪费资源重复建设,而且缺乏通用性。

    最新开源的KubeEdge可以在ARM/MIPS架构512M内存的边缘硬件中运行,支持专用网络的部署,满足边缘计算的离线运行需求,使得边缘侧无需与云端通讯,便可对某些紧急情况做出快速响应。KubeEdge的出现有可能促进IT与OT的进一步解耦。

    KubeEdge的开源仅仅是开始,更多的边缘计算开源工具正在路上。暂且放下KubeEdge带来的那些技术创新,本文想先来谈谈“开源”对物联网发展的影响:

    为什么越来越多的物联网企业纷纷投资开源?

    开源工具将为物联网带来哪些变化?

    边缘连续体是否会成为2019年的发展趋势?

    为什么花费“巨资”开源?

    边缘计算如今已经明确划分为两大阵营,一个是从CT通信技术起步的Akraino阵营,另一个是从IT信息技术起步的K8s阵营。

    Akraino是一套开源软件堆栈,整合了多个知名的开源项目。Akraino立足于AT&T在边缘计算系统和应用程序中完成的基础工作,将创造低延迟、运营商级技术,以满足延迟和可靠性需求。该项目主要的初始发起者和参与者以运营商和硬件厂商为主,随后发展到更多企业类型,包括ARM、AT&T、戴尔EMC、爱立信、英特尔、诺基亚、高通等。

    K8s诞生于谷歌,随后谷歌选择将其开源。2015年Google与Linux基金会共同发起成立了CNCF云原生计算基金会,希望与更多合作伙伴共同把控K8s的未来。社区成员包含全球6大公有云提供商和许多领先的私有云厂商,比如谷歌、微软、IBM、阿里、腾讯、华为等知名公司。

    其他的开源组织或工具纷纷增加对两者的支持,代表性的包括EdgeX Foundry的工业物联网中间件,以及Eclipse基金会发布的多个IoT项目。

    在物联网领域,技术路径的选择尤为关键。不仅要分析开源产品本身的易用性,还应分析开源工具背后主要支持者的实力,以及发布开源工具的动机。

    开发各种工具和软件的价格不菲,为什么大公司在为研发投入巨资之后,选择将其开源?美国知名科技博主Joel曾经分析过开源工具背后的经济学。

    市场上的每个产品都存在替代品和互补品。比如鸡肉是牛肉的替代品,如果牛肉价格贵了,鸡肉的销量就会增加。剃刀和刀片是互补品,如果剃刀的价格便宜,刀片的销量就会增加。相似的道理,计算机硬件是操作系统的互补品,如果硬件的价格便宜,操作系统的销量就会增加。


    也就是说,当一个产品的互补品降价的时候,该产品的需求就会增加。因此很多大公司会围绕自己的产品制定长期战略,其中一个产品的战略目标就是使它的互补品的价格尽可能降低,这样可以大量的激发该产品的销量。

    经济学原理本身有些抽象,我们举两个实际的例子加以说明。

    IBM在设计PC的时候,在技术参考手册中,专门为部件接口撰写了详细的公开文档。为什么?这样PC周边硬件的制造商就能轻松的加入PC配件市场。PC的互补品是各种配件,包括内存卡、硬驱、打印机等,配件的生态越丰富、价格越便宜,用户对IBM PC的采购需求越多。

    之后IBM遇到了棋高一着的微软,微软研发的Windows操作系统,其互补品恰恰是PC。怎么从IBM身上占到便宜?微软没有给IBM提供排他性授权,而是将Windows同时授权给上百个贴牌厂商。这些厂商合法的克隆IBM PC,很快PC不断降价,同时性能不断增长,相应地,对微软操作系统的需求自然就增加了。

    知道了开源工具的经济学原理之后,我们再看两大边缘计算阵营的情形,开源工具的发布者必然有促进自身发展的诉求。边缘侧开源工具越好用,使用开源工具进行开发的物联网企业自然更多,边缘生态和应用就会更加繁荣,因此自然带动芯片、服务器、通信流量,或者是云计算市场的增长。在现在的业务越来越趋向边云协同的环境下,华为开源KubeEdge的动机是将边缘侧的开发成本降到最低,以此带动对云上各个服务的需求量提升。

    了解了两个边缘计算开源阵营各自的动机之后,我们再来分析一下两者的利弊。一家企业的思路和基因,往往会极大的影响相应开源工具的发展,所以我们重点分析两大阵营的核心创建者。

    AT&T具有百年历史,深植明显的CT基因,习惯了通信行业的发展节奏,了解如何在计算资源极为有限的情况下开发实用工具。因为受到行业本身发展周期的限制,迭代的速度赶不上互联网产业,在产品的横向与纵向的可扩展性和兼容性上往往也都比较保守,不够Fashion。

    谷歌有纯IT基因和互联网思维,相比性能优化,它更重视迭代速度。这与互联网的生存环境极为相关,摩尔定律意味着软件开发者不应该过于考虑性能和内存的使用情况,因为不久之后硬件性能自然会赶上来。曾经花费大量精力优化代码、降低功耗、节省时间的开发人员发现,这些努力大多都被浪费了,从长远来看,忽视性能、面向未来、功能酷炫的程序最终生存了下来。

    在边缘计算这种资源和功耗都极为有限的领域,纯粹CT思维的风险使得超前布局的意识不足,有可能赶不上市场环境的变化速度;纯粹互联网思维的风险是如果不学会读懂业务的底层逻辑,将性能优化至于最高优先级,肯定会遇到啃不动的“硬骨头”。

    “开源”改变的是商业模式
    凡事都有利弊。如果你不选择使用开源工具,有可能落后于整个物联网时代。如果你选择使用开源工具,就得想到当你享受免费的同时,你就不再是顾客,而是产品本身。这句话可能有点像绕口令,不过事实的确如此。

    开始我们塑造工具,而后工具塑造我们。如今我们正在经历一次螺旋式的演进过程,不仅涉及技术,而且涉及商业模式。

    从60年代的IBM的大型商务机Mainframe开始,采用集中式计算,优点是用户不需要考虑任何硬件、软件的功能配置,缺点是没有可伸缩性。随后,螺旋式演进的过程进行了反转,与集中式计算反向的分布式计算萌芽,从PC、笔记本、功能手机,再到智能手机,分布式计算的优点是每个节点都有计算功能,缺点是每个用户都需要管理自己的硬件和软件。

    再后来出现了云计算,把大量的数据处理交给“云”去做。可以说,云计算实际是螺旋回到了集中式计算,它免去了用户对服务器的大量管理和配置工作。那么现在,这个螺旋是不是又将摆回到分布式计算?答案是肯定的,就是当下大热的边缘计算。

    在这个过程中个,很少有人关注到商业模式也发生了几次螺旋式翻转。大型机时代,IBM不是单纯销售硬件,而是连同软件、服务和运营一起提供,软硬件和服务实现深度绑定。随着科技的发展,产业链产生了进一步分工,以甲骨文和微软为代表的企业开始只卖软件License,不强行搭配服务,不再靠收服务费生存,硬件、软件和服务的销售实现了解耦。

    如今随着物联网软硬件方案朝向轻量级发展,软硬件与服务的绑定再次发生,不少企业开始从License到订阅型业务模式过渡,按照连接数和流量收费,较深参与到物联网方案的后期运营。

    因此我在最近的文章中,多次提到万物运营商这种物联网时代的新角色。当一个物联网企业不再是仅仅追求将产品卖给用户,而是在原有基础上不断提供各类附加服务,不断产生新的服务内容和收入方式时,就具备了成为“万物运营商”的基本条件。

    有效的利用各种开源工具,可以加快物联网企业的方案实施和部署,更重要的是让物联网企业快速满足业务需求的变化,将更多精力投入到真正的万物运营中去。

    除了利用开源工具本身,开源背后的经济学也值得加以利用。不仅互联网和IT企业,一些OT企业也是开源经济学的玩家。

    这方面也举两个例子。博世在之前的文章曾经提到过,它重度参与了多个EclipseIoT开源项目,发布开源的物联网平台。博世一方面借助开源汇聚的行业优势迎击竞争对手,一方面促进实体设备和硬件销售。

    德国倍福是一家工业电脑、现场总线模块和驱动产品的厂商,它通过成立EtherCAT技术协会,策略性的在某些层面开放了EtherCAT这种工业以太网技术,降低了其它企业的使用门槛,围绕EtherCAT构建的丰富生态,提升了倍福产品的市场占有率。目前EtherCAT技术协会已有4500家会员企业,其中1/3来自亚洲,成为EtherCAT发展最快的地区。

    2019边缘计算走向何方?
    各个公司在边缘计算领域的重点布局,极大的推动了边缘侧分布式计算的发展,尤其是随着云边端协同的推进,2019年很有可能产生真正意义上的边缘连续体Edge Compute Continuum。

    边缘连续体Edge Compute Continuum并不是指单个设备,而是由云、边、端构成的完整体系。云端和边缘不是相互竞争与替代的关系,它们都是边缘连续体的一部分。由于把握计算的走向对物联网企业来说尤为重要,边缘连续体可以被认为是普适计算在物联网的应用实践。计算正在被嵌入世界的每一个角落和每一台设备,所有行业都在被数字化技术所改变。

    在文章《边缘计算是云计算的终结者?No,云计算巨头们正在推动边云协同!》中,我曾经分析过云边端协同这一趋势。因为物联网最终的呈现形态,类似于生物界的章鱼,也就是地球上智力的第二种起源。

    章鱼拥有巨量的神经元,与人类不同,这些神经元以分布式的形态呈现。神经元的60%分布在八条腿(边缘)上,脑部(云端)仅有40%。看起来用“腿”来思考并解决问题的章鱼,在捕猎时各条“腿”从来不会缠绕打结,这得益于它们类似于分布式计算的“多个小脑(边缘)”和“一个大脑(云端)”协同工作。

    作为物联网的最终用户,根本不需要感觉到解决方案背后,计算“神经元”的复杂分布,只需要将其视为“边缘连续体”。随着各种开源工具的应用、各种物联网产品的不断完善,不同类型的边缘设备可以采用更加简便的部署、编排和调度,以更加紧密的方式彼此协同工作,后期的方案迭代也更加容易和透明。

    2019边缘计算的故事仍将继续,这次的脚本不再是信息时代故事的延续,而是一次重写。PC和手机时代的安迪-比尔定律不复存在,不会再有新的“比尔·盖茨”不断发布新的软件,把硬件提升带来的好处几乎全部用尽,推动人们不断的更新硬件。如果边缘芯片仍旧按照摩尔定律的速度发展,就意味着芯片厂商要想方设法尽量将销量逐年翻番,才能弥补产品变得越来越廉价所带来的销售额下滑。对于边缘计算的用户来说,一部设备几乎只做一件事情,没有持续换新和软件迭代的诉求。

    因此从市场需求和商业发展这两个角度来看,边缘芯片的更新速度不再需要追赶摩尔定律的节奏,更多的设备只针对专用场景,相比性能的提升,用户更加看重能耗和成本。在边缘计算时代是否会有类似摩尔定律那样,新的伟大“定律”产生,让我们拭目以待。

  • 相关阅读:
    Building a flexiable renderer
    Indirect Illumination in mental ray
    我的心情
    Cellular Automata
    Subsurface Scattering in mental ray
    Shader Types in mental ray
    BSP Traversal
    我的渲染器终于达到了MR的速度
    How to handle displacement and motion blur
    说明
  • 原文地址:https://www.cnblogs.com/huaweiyuncce/p/10071897.html
Copyright © 2011-2022 走看看