深度学习的并行问题

1. weight sharing



  • 通过指向同一内存地址来共享参数;因此可以极大地降低参数的规模;
  • CNNs/RNNs 的核心构成;
原文地址:https://www.cnblogs.com/mtcnn/p/9422420.html