TinyML - 适合小型IoT设备的压缩机器学习

在小型设备运行Machine Learning,一般面临着三大挑战 - 
算法

功耗(power consumption)微信

延时(latency)网络

精度(Accuracy)
机器学习

人们一般比较了解Machine Learning,由于它与神经网络相关(pertain to neural networks),那么TinyMNL又是什么呢?
ide


Surging Interest in TinyML
学习

TinyML指的是运行在很是小的微处理器上的,消耗极小功耗(一般是mW级别甚至更低),提供最大化成果的(maximized results)的机器学习技术。ui

随着IoT设备的扩散激增(proliferation),一些巨型公司如Renesas和ARM投入TinyML的研发,如Renesas发布其TinyML平台, Qeexo AutoML, 无需任何代码和专业的ML能力就可使用。
.net

其余公司集中力量(zeroed in)与其余公司创建伙伴关系以便扩大其TinyML的应用(exaggerate the utility of TinyML)。Eta Compute最近与Edge Impulse最近宣布合做,结合Eta Compute的Neural Sensor Processor - ECM3532和Edge Impulse的TinyML平台,将加速机器学习在低功耗IoT产品的Time-to-market。设计


另外一个快速了解和评估(assess)TinyML进展的方式是每一年一度的TinyuML Summit(https://www.tinyml.org/summit),会议期间的内容会阐明(illustrate)在最小水平(smallest level)运行机器学习的主要概念和进展。rest


Reflections on the TinyML Summit

今年的TinyML Summit从硬件(Dedicated integrated circuits),系统,算法,软件和应用多方展现了TinyML的诸多进展。

如下为与设计相关的几项关键内容 - 

Model Compression


典型的可运行机器学习的设备好比说智能手机,一般具有高达8GB的RAM,对比一些微控制器(Microcontrollers)仅有大概100KB到1MB的RAM,所以对模型压缩成为了必要(necessitate model compression)。


概念是缩小(shrink)预训练的大模型到小模型的同时不要损失精度,能够经过裁剪(pruning)和深度压缩(deep compression)实现。



Deep Reinforcement Learning

如何在DNN网络中实线DRL(deep reinforcement learning)。


DNN for Aleays-on AI for Battery-Powered Devices

Syntiant展现其NDP100 NDP(neural decision processor)。

以下为视频链接 - 



本文分享自微信公众号 - VoiceVista语音智能(AIndustrialRock)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索