最新新闻
起亚电动SUV EV9升级,动力与软件得到全面提升 上汽大众新款SUV途岳正式上市,售价15.86-21.66万元 福特领衔投资45亿美元,将在印尼建立镍加工厂 主机厂召开座谈会,探讨国六B切换情况 特斯拉在墨西哥大举投资,助力其成为电动汽车大国 特斯拉推出版Giga啤酒,啤迷大喜过望 西安特斯拉中心车间揭秘,让你近距离了解制造 宝马、特斯拉等豪掷重金,墨西哥将成电动车大国 本田雅阁e:HEV亮相:能否成为雅阁救世主? 特斯拉中国首次败诉,需退一赔三 AI伦理员工大量裁减引发业界担忧,微软、谷歌等科技巨头被指责 AI过于强大,人类面临危险?马斯克、图灵奖得主呼吁暂停GPT-4模型后续研发 微软早期阶段将广告植入GPT-4版必应搜索 故意毁灭证据:美法庭对谷歌Play商店垄断诉讼开出罚单 元宇宙仍是未来,但实现需要时间——Meta重申在计算领域的地位 AI老板发出警告:无法解释的推理能力可能导致人类灭亡 监管机构开始对特斯拉Model X的问题展开调查 追溯OpenAI的历史,揭示其与马斯克的众多纷争 GitHub裁员,印度团队成最大受害者 微软与OpenAI强力结盟,共同致力于网络安全领域 AI视频素材来源不明,百度文心一言创作者面临版权风暴 OpenAI神秘CTO只有35岁,是ChatGPT之母 马斯克脑机接口公司开始寻找合作伙伴 推进人体试验 芝麻信用黑灰产生意:购买会员、薅羊毛可轻松提升信用分 比尔盖茨遭马斯克批评 AI 理解有限 AI越来越智能,你的工作还能保住吗?现实不容忽视 微软研究惊艳科学界:GPT-4能力接近人类,AI朝“天网”迈进? 推特泄露部分源代码,GitHub受命删除,安全问题引人担忧 谁在制造泰国游客流失的恐慌?真相揭秘 为何马斯克和OpenAI撕破脸了?马斯克为何实际控制被拒?
您的位置:首页 >互动 >

研究人员发表了一个修剪算法 使人工智能应用程序运行得更快

2021-11-05 18:03:40   来源:
导读 随着越来越多的人工智能应用转移到智能手机上,深度学习模型越来越小,以允许应用运行得更快并节省电池电量。现在,麻省理工学院的研究人员

随着越来越多的人工智能应用转移到智能手机上,深度学习模型越来越小,以允许应用运行得更快并节省电池电量。现在,麻省理工学院的研究人员有了一种新的更好的压缩模型的方法。

很简单,他们在上个月的一条推文中发布了它:训练模型,修剪它最弱的连接,以快速的早期训练速率重新训练它,然后重复它,直到模型达到您想要的大小。

研究人员公布了一种修剪算法,以使人工智能应用程序运行得更快

“就是这样,”亚历克斯伦达博士说。麻省理工学院的学生。修剪模型的标准操作非常复杂。"

伦达在本月远程举行的国际学习大会(ICLR)上讨论了这项技术。Renda是麻省理工学院电气工程和计算机科学系(EECS)的学生,Michael Carbin是电气工程和计算机科学的助理教授——都是计算机科学和人工科学实验室的成员,他与博士生Jonathan Frankle共同撰写了这项工作。

去年,在ICLR,Frankle和Carbin赢得了大奖彩票假设论文,以寻求更好的压缩技术。他们表明,如果在训练的早期阶段找到了正确的子网,深度神经网络只能执行十分之一的连接。随着训练更大深度学习模型的计算能力和能量需求的指数级增长,这一启示一直延续至今。这种增长的成本包括全球变暖碳排放的增加,以及不属于大型科技公司的研究人员对稀缺计算资源的竞争导致的创新潜力的下降。每天的用户也会受到影响。大型AI机型会消耗手机的带宽和电池电量。

彩票假说引发了一系列后续论文,主要是理论上的。然而,在同事的建议下,Frankler决定看看它可能修剪哪些课程,其中搜索算法修剪了搜索树中评估的节点数量。这一领域已经存在了几十年,但在ImageNet竞赛中神经网络在图像分类上取得突破性成功后又重新出现。随着模型变得越来越大,研究人员添加了多层人工神经元来提高性能,而其他人则提出了减少它们的技术。

现在是麻省理工学院助理教授的宋涵就是一个先驱。在一系列有影响的论文的基础上,韩提出了一种剪枝算法,他称之为AMC或AutoML,用于模型压缩,这仍然是行业标准。在韩的技术下,冗余的神经元和连接被自动删除,模型被重新训练以恢复其初始精度。

作为对韩工作的回应,Frankle最近在一篇未发表的论文中建议,通过将较小的修剪模型反转到其初始参数或权重,并以更快的初始速率重新训练较小的模型,可以进一步改善结果。

在目前的ICLR研究中,研究人员意识到该模型可以简单地回归到其早期训练速度,而无需修改任何参数。在任何修剪方案中,模型越小,精度越低。然而,当研究人员将这种新方法与韩的AMC或Frankle的重绕方法进行比较时,无论模型有多小,其效果都更好。

目前还不清楚为什么修剪技术能如此有效。研究人员表示,他们将把这个问题留给其他人来回答。研究人员表示,对于那些想尝试的人来说,这种算法和其他修剪方法一样容易实现,而且不需要时间来调整。

“这是‘Book’中的剪枝算法,”Frankle说。“很明显,很普遍,也很简单。”

对韩来说,从一开始,重点就从压缩AI模型转向引导AI设计小而高效的模型。他的最新方法“为每个人做”也在ICLR首次亮相。关于新的学习率方法,他说:“我很高兴看到新的修剪和再培训技术不断发展,使更多的人能够使用高性能的AI应用。”

免责声明:本文由用户上传,如有侵权请联系删除!