订阅趣无尽微信公众号

深度学习模型太大?这家公司直接跑在了树莓派上

深度学习当前面临的一大热点问题是很多深度学习的模型太大而不方便在移动设备和嵌入式设备上使用。现在常见的模型比如图像分类模型基本都在500兆以上,自然语言处理的一些模型例如语言模型很多都在1G以上,机器翻译的模型也都是500兆以上。

而一个手机或者潜入式设备要加载一个500兆以上的模型基本不太现实,因此当前深度学习面临的一大挑战就是如何把大模型变成小模型。因为移动设备不仅仅是内存或者存储空间的限制,更多是因为能耗的限制,不允许我们用太大的模型。

2017年2月2日,位于美国西雅图的 AI 创业公司 XNOR.AI 宣布获得来自Madrona Venture Group和艾伦人工智能研究所(Allen Institute for Artificial Intelligence)等机构的260万美元的种子融资。XNOR.AI 利用二值化神经网络等技术对深度学习网络进行压缩,致力于开发有效地在移动端或嵌入式设备上运行的深度学习算法。

值得注意的是,微软联合创始人Paul Allen个人也参与了XNOR.AI的种子轮投资。跑的比香港记者还快的探长对XNOR.AI联合创始人兼CTO Mohammad Rastegari 进行了专访,与他探讨了深度学习的前沿问题。

二值化神经网络,就是所有的权值不用浮点数表达了,就是一个二进制的数,要么是+1要么是-1,用二进制的方式来表达,这样原来一个32 bit权值现在只需要一个bit来表达,从而大大降低这个模型的尺寸。

2016 年 3 月,Mohammad Rastegari 等人在ECCV论文(XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks)中首次提出了 XNOR-Net 的概念。

这篇论文旨在利用二值化操作寻找到最优的简化网络,并分别介绍了两种有效的网络:Binary-Weight-Networks 和 XNOR-Networks。Binary-Weight-Networks 是对 CNN 中所有的权重做近似二值化,可以节省 32 倍的存储空间。而且,由于权重被二值化,卷积过程只剩加减算法,不再包括乘法运算,可以提高约两倍的运算速度,这促使 CNN 可以在不牺牲准确率的情况下在小存储设备上使用,包括便携式设备。

XNOR-Networks 算法则是对 CNN 中所有的权重和输入同时做近似二值化,如果卷积运算中的所有操作数都是二进制的,那么两个二进制向量的点乘就可以等同于同或运算和位运算。而这些操作天然就被CPU等通用计算设备支持,所以二值化神经网络能够跑在普通的CPU和更便宜的ARM芯片甚至是树莓派等设备上。

此外,如上图所示,在节省了几十倍空间和几十倍速度提升的情况下,Binary-Weight-Network和XNOR-Network的准确率精度下降并不显著。

强悍的团队

XNOR.AI团队CEO Ali Farhadi是华盛顿大学计算机系教授,同时也是艾伦人工智能研究所的计算机视觉方向的负责人,他在计算机视觉领域积累深厚,同时是非常惊艳的实时物体检测框架YONO的主要贡献者,“YOLO”系统在2016年CVPR会议上的现场展示一度惊艳全场。

(YOLO的在CVPR 2016的现场演示 )

XNOR.AI的CTO Mohammad Rastegari是艾伦人工智能研究所研究科学家,也在计算机视觉领域有接近十年的研究经历。

(xnor.ai CTO Mohammad Rastegari)

XNOR.AI团队首次让二值神经网络在ImageNet上面完了实验,在自主搭建的轻型神经网络框架 DarkNet 中实现了在 CPU 上 58 倍速度的提升,这意味着很多深度学习算法可以在嵌入式设备上实时的运行。

XNOR.AI团队还把 “YOLO”系统 的二值化版本在 iPhone 上面做到了实时探测,也成为实时检测的一大亮点。

事实上,团队还曾将 XNOR-Net 部署在价值 5 美元的 Raspberry Pi Zero 上,通过连接一个摄像头实现了实时视频分析,他们官方视频里展示出的实时检测分析效果十分引人注意,强烈的震撼了小探的小心脏。

如果在类似于 Raspberry Pi Zero 这样的移动设备上都能做到实时物体检测,这项技术在其他领域中也潜藏着巨大的商业价值。

XNOR.AI的愿景是普适人工智能

由于他们的二值化神经网络,除了带来的数十倍的内存减少和计算提升,二值化操作天然就被CPU等通用计算设备支持,所以二值化神经网络能够在普通的CPU和更便宜的ARM芯片甚至是树莓派等设备,Mohammad还表示他们也在微软的Hololens上实现了他们的算法。

在采访中,Mohammad说道,他们的深度学习技术能够用在计算能力和内存都有限的设备上,XNOR.AI针对的市场是普适计算的场景,他们希望未来所有的智能设备都可以运行他们的深度学习算法。

而CEO Ali Farhadi曾说:“可以设想,未来每个街道拐角,价值5美元的摄像头,都能识别看到的景象,了解正在发生的事情;而我的手表也能真正听懂和处理指令。”

(在手机上实时物体检测)

Mohammad表示物体的实时检测是一个非常难的问题,他们用视频演示了他们的强悍能力,目前不少实时检测都通过将视频流传到云端来做检测,但这一方面带来了延迟问题,另一方面则是带来了隐私问题,但利用他们的算法,实时的物体检测在本地就能完成。

Mohammad也表示这不代表他们只会局限在计算机视觉领域,目前他们能够对主流的深度学习网络比如RNN和CNN进行二值化操作。除了视觉领域,还有自然语言处理都有望实时化操作。

作为成立才一个月的公司,Mohammad还在探索自己的商业模式,但已经有大量厂商和他们联系了,XNOR.AI的愿景是普适人工智能,“AI on every device everywhere”。

转自硅谷密探。

本文来自:树莓派实验室
链接地址:http://shumeipai.nxez.com/2017/03/18/xnor-ai-on-raspberry-pi.html

1 Response

  1. zhixuanli 2017年8月4日 / 20:23

    实在是太厉害了!

    不知道有没有相应的APP可以体验一下!

发表评论

电子邮件地址不会被公开。 必填项已用*标注