8000 Compressing Neural Networks with the Hashing Trick · Issue #8 · egolearner/paper-note · GitHub
[go: up one dir, main page]
More Web Proxy on the site http://driver.im/
Skip to content
Compressing Neural Networks with the Hashing Trick #8
Open
@egolearner

Description

@egolearner

2015 ICML
https://arxiv.org/pdf/1504.04788.pdf
这篇论文是 #7 的应用。

1. 介绍

之前的论文指出神经网络的权重存在惊人的大量冗余。
HashedNets的做法为,使用hash函数将网络连接随机分配到桶中,分配到ith桶的连接共享相同的权重wi

4. HashedNets

随机权重共享

对于神经网络的层,定义内存上限Kl: Kl ≪ (nl + 1) × nl+1。之前的做法为减少节点数nl和nl+1,或者量化。论文的思路是随机权重共享,使用一个hash函数将虚拟权重表V(i,j)映射到真实权重向量wl的下 56D1 。
image

特征哈希 v.s. 权重共享

论文证明特征哈希与权重共享是等同的,因此可以用 #7 中sign factor来减少hashing冲突导致的偏差。除了hashing-trick的稀疏性外,论文还用ReLU作为激活函数,一方面有很好的泛化性能,另一方面会导致稀疏性。另外,HashedNets和模型架构正交,其他架构也可以使用。

训练

7. 结论

image

通过将权重的数量虚拟扩展8倍,测试误差降低了50%,从3%到1.61%。论文认为不是正则化的原因,而是权重共享可能真的增强了神经网络的表达能力。

Metadata

Metadata

Assignees

No one assigned

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions

      0