Thursday, April 5, 2018

Apps迈向边缘计算

如果你的公司是制作应用软件的,那你现在的绝大多数产品肯定都能在云端运行,比如在亚马逊的AWS或谷歌的云端硬盘上。你恐怕都已经很难想象没有云端的应用软件是怎样的啦。云计算可以根据用户终端的数据量和数据处理资源来自动缩放调整计算量,不过,现在的技术潮流又開始改变方向了,新的技术架构不在云端,而是真正分布式的终端计算。

云计算有什么问题呢?就拿自动驾驶车辆来说,一部典型的自驾车从它的摄像头、激光雷达传感器、加速计量表、和车上计算机收集数据,速度是每秒100兆,这些数据必须立即处理,才能够保证车辆继续前进。数据量如此大,等候数据传到云端,再把计算结果传回来,目前的这一代的网络是不敷用的。数据处理需要在传感器附近进行,越近越好--在网络的边缘,在车上—称为边缘计算。

我们大多数人到目前恐怕还没有建造或乘坐过自驾车,但我们很可能已经接触到日常的边缘计算技术。比如,将近4000万美国家庭安装了智能扬声器,听见Alexa或Hey Google就开始回答你的问题。最近在年轻人中很流行的图片分享应用软件Snapchat,根据一家市场调查机构,每天得到30亿的面孔数据,到2018年底,全球20%的智能手机将具備硬件加速的機器學習能力。

看到边缘计算的潛力了嗎?这些应用软件和元器件是在两兩大趋势下发展起来的:机器的深度学习算法帮助计算机看见、听见、明白,而终端甚至移动器件上的图像处理器和张量处理器等等专用处理器来有效利用這些算法。

神经网络和深度学习早就有了。第一个人工神经网络是1950年代建造的,失败了好几次。然而这一次,大量有标记的培训数据,和强大的计算能力,使得培训这些神经网络成为可行。尽管人工智能的研究飞速进展,但计算机视觉这类技术刚刚开始成熟。开发公司可以自由选用各种标准模式结构,各种公共数据集,各种工具来培训,你不需要一个博士学位资格就能够开始做了。现在的技术已经相当普及化了。

硬件也逐渐跟上來了,速度更快了。像神经网络这样的机器学习算法其实只是矩阵乘法中的一个长序列,像图像处理器、张量处理器这类的专用处理器,已经为数学运算做到了最优化,比传统的中央处理器快了10到100倍,用的能量却比较少。当集成芯片厂商推出移动就绪的机器学习加速器时,每个电子器件很快就会有能力,运行最新的人工智能型号了。

边缘=新机会:大数据、数据科学、机器学习、深度学习,在过去10年中已慢慢进入各种产品和公司。大多数时候你看不见,因为是在云端。数据库和大量源源不断进来的数据分析结果都存贮在云端,终端用户借着应用程序接口和数据库访问这些结果,这个架构不会变动。然而,边缘计算给我们新的机会去使用机器学习模式的预测能力,更快地提供结果。

现在,算法成为数据的一部分,信息处理是实时的,传感器一经捕捉到信息,运算结果就立即有了。在这个没有延迟的环境中,用户的体验可能是全新的,你的手机屏幕可能成为一个增强现实世界(AR)的入口。你可以把产品作个人化应用,而私人信息并没有离开你的手机--这些应用程序与你的环境密切融合,先行回答你可能会问的问题。

如果做得好,人对人工智能和边缘计算的体验会像变魔术一样。不过,建造这样的功能是特别复杂的,高科技专家用机器学习的模式在云端培训,不同于为智能手机或物联网这样的边缘部件建造应用程序。神经网络可以代替数以千计的程序代码。传统的程序有时在运行时会意外地失败,必须再进行不同的测试。用这些程序来作边缘计算,其性能可以用增加计算能力,或增加对附近的云端存储的专用优化访问来提高,只不过,云端的编程语言和手机上运行的应用软件的语言是不同的。

然而现在这种情况正在改变,硬件和工具改善得很快。苹果和谷歌已把移动部件的机器学习框架搭建起来了,分别称为Core ML和 TensorFlow Lite,为开发商提供开发试用的工具,并正在添加更多的输出功能和更好的互通性。

也许你现在可以开始思考如何改进你手机上的应用程序了,利用机器学习和边缘计算技术。因为现在已经不需要一个人工智能的博士学位了,只要学会怎样使用苹果或谷歌开发出来的小工具就可以了。

我们SVTC的人工智能专家吴韧博士是最早提出边缘计算和终端人工智能的科学家,科技发展的实际被他说中了。本文内容大多译自TechChrunch的文章Why 2018 Will Be the Year Apps Go to the Edge。作者Jameson Toole的公司Fritz.ai专门提供边缘计算开发应用的平台。

No comments:

Post a Comment