深度学习杂七杂八

深度学习杂七杂八

国内外优秀的计算机视觉团队汇总

转自极市平台https://bbs.cvmart.net/articles/481/outstanding-Computer-Vision-Team

国内高校研究团队

北京
清华大学:龙明盛,黄高,艾海舟,张长水(Big eyes laboratory 大眼睛实验室),丁贵广(Multimedia Intelligence Group)。
北京大学:林宙辰查红彬施柏鑫曾刚 (zeng@pku.edu.cn),刘家瑛穆亚东
中科院:跨媒体计算研究组
中科院计算所:高文(VIPL 视觉信息处理与学习研究组),陈熙霖山世光
中科院自动化所:谭铁牛(智能感知与计算研究中心),李子青(生物识别与安全技术研究中心)模式识别重点实验室
中科院信工所:王蕊
中科院深圳先进院:乔宇
北京交通大学:信息科学研究所
北京航空航天大学:王蕴红(智能识别与图像处理实验室),黄迪李甲刘祥龙,刘偲(CoLab可乐实验室),陆峰(感知交互增强智能 研究室

哈尔滨
哈尔滨工业大学:左旺孟

大连
大连理工大学:卢湖川

天津
南开大学: 程明明(南开大学媒体计算实验室) ,杨巨峰(计算机视觉实验室
天津大学:计算机视觉实验室

西安
西安交通大学:孟德宇韩九强

南京
南京大学:吴建鑫王利民,曹汛(CITE),马展(VISION LAB),岳涛
南京理工大学:智能媒体分析实验室杨健
南京信息工程大学:刘青山

上海
上海交通大学:卢策吾,严骏驰(SJTU-ThinkLab 上海交通大学思维工场实验室),张拳石,计算机视觉实验室
复旦大学:薛向阳,姜育刚
上海科技大学:高盛华( SVIP LAB )

杭州
浙江大学:蔡登何晓飞,宋明黎( VIPA 视觉智能与模式分析组 ),朱建科李玺章国锋周晓巍廖子承

合肥
中国科学技术大学:周文罡张天柱查正军

武汉
华中科技大学:白翔王兴刚
武汉大学:杜博(地学智能感知与机器学习研究组),姚剑( CVRS Lab 计算机视觉与遥感实验室

厦门
厦门大学:纪荣嵘(媒体分析与计算实验室

广州
中山大学: 郑伟诗林倞梁小丹

深圳

南方科技大学:张建国于仕琪郑锋
香港中文大学(深圳):韩晓光

香港
香港城市大学:视频检索小组
香港中文大学:多媒体实验室

国外高校研究团队

美国
加州大学伯克利分校:机器视觉小组
加州大学洛杉矶分校 :VCLA研究小组
加州大学河滨分校:视频计算小组
加州大学圣塔芭芭拉分校:视觉研究实验室
加州大学圣地亚哥分校:视觉与机器人研究实验室机器视觉实验室
加州大学尔湾分校:机器视觉实验室
加州大学圣克鲁兹分校:认知科学实验室
加州理工学院:计算视觉实验室
南加州大学:机器视觉小组
德雷塞尔大学:生物医学计算小组
卡耐基梅隆大学:机器人学院
麻省理工学院:计算机科学与人工智能实验室机器视觉实验室生物与机器学习实验室媒体实验室认知科学实验室
佐治亚理工学院:机器人技术与智能机器实验室计算感知实验室
佛罗里达大学:计算机视觉实验室
科罗拉多州立大学:机器视觉实验室
哥伦比亚大学:机器视觉实验室
康奈尔大学:计算机视觉小组机器人实验室
佐治亚大学:视觉与并行计算实验室
伊利诺伊大学芝加哥分校:机器人实验室
马里兰大学:自动化研究中心
麻省大学:机器视觉实验室
密歇根大学安娜堡分校:人工智能实验室
内华达大学雷诺分校:机器视觉实验室
俄勒冈州立大学:医学工程医学图像研究组
宾夕法尼亚大学:机器人自动化感知实验室医学图像处理小组
宾州州立大学:视觉感知,动作和认知实验室
普渡大学机器人视觉实验室视频和图像处理实验室
斯坦福大学:视觉与图像科学实验室视觉实验室
德克萨斯大学奥斯汀分校:图像和视频工程实验室
犹他大学:计算科学与图像学院
威斯康星大学:机器视觉小组
波士顿大学:图像与视频计算小组

感慨一下,整理信息的时候,愈发觉得美国太强了,世界名校这么多!

加拿大
多伦多大学:机器视觉小组
不列颠哥伦比亚大学:人工智能实验室

巴西
巴西圣保罗大学:视觉控制实验室

英国
伦敦玛丽女王大学:机器视觉小组
剑桥大学:视觉与机器人研究小组
伦敦大学学院:视觉和图像研究小组
邓迪大学:机器视觉与图像处理小组
约克大学:视觉图像与机器人实验室视觉研究中心
雷丁大学:计算视觉小组
普利茅斯大学:机器人与智能系统小组
西英格兰大学:机器视觉中心
曼切斯特大学:图像科学实验室
牛津大学:视觉集合团队
伦敦帝国学院:视觉研究小组

爱尔兰
都柏林城市大学:视觉系统小组

德国
达姆施塔特工业大学:机器视觉研究小组
莱布尼茨大学:信息处理所
柏林工业大学:机器视觉与遥感小组
亚琛工业大学:语言与模式识别实验室

瑞士
苏黎世联邦理工学院:机器视觉实验室

荷兰
阿姆斯特丹大学:智能系统实验室
乌得勒支大学:图像科学学院

瑞典
林雪平大学:机器视觉实验室
瑞典皇家理工学院:机器视觉与行动感知实验室

奥地利
格拉茨技术大学:计算机图形与视觉实验室

西班牙
马德里理工大学:机器视觉小组

意大利
帕维亚大学:视觉与多媒体实验室
维罗纳大学:视觉与图像处理实验室

澳大利亚
阿德莱德大学:视觉技术实验室

以色列
以色列魏茨曼科技大学:机器视觉实验室

企业研究团队
微软亚洲研究院:计算机视觉研究组
微软剑桥研究院:ML与CV研究组
微软:交互式视觉媒体研究组
IBM研究院
谷歌研究院
三菱电子研究实验室
Adobe研究院
迪士尼研究院
Facebook:FAIR 人工智能实验室
旷视研究院
商汤科技研究院
腾讯:AI Lab
字节跳动:人工智能实验室
360人工智能研究院

调参经验: 关于deep learning(rnn、cnn)

作者:时间旅客

https://www.zhihu.com/question/41631631/answer/1129785528

  1. 不管什么模型,先在一个较小的训练集上train和test,看看它能不能过拟合。如果不能过拟合,可能是学习率太大,或者代码写错了。先调小学习率试一下,如果还不行就去检查代码,先看dataloader输出的数据对不对,再看模型每一步的size是否符合自己期待。

  2. 看train/eval的loss曲线,正常的情况应该是train loss呈log状一直下降最后趋于稳定,eval loss开始时一直下降到某一个epoch之后开始趋于稳定或开始上升,这时候可以用early stopping保存eval loss最低的那个模型。如果loss曲线非常不正常,很有可能是数据处理出了问题,比如label对应错了,回去检查代码。

  3. 不要一开始就用大数据集,先在一个大概2w训练集,2k测试集的小数据集上调参。

  4. 尽量不要自己从头搭架子(新手和半新手)。找一个已经明确没有bug能跑通的其它任务的架子,在它的基础上修改。否则debug过程非常艰难,因为有时候是版本迭代产生的问题,修改起来很麻烦。

  5. 优化器优先用adam,学习率设1e-3或1e-4,再试Radam(LiyuanLucasLiu/RAdam)。不推荐sgdm,因为很慢。

  6. 参数初始化,用he或xavier。

    Xavier初始法论文:http://jmlr.org/proceedings/papers/v9/glorot10a/glorot10a.pdf

    He初始化论文:https://arxiv.org/abs/1502.01852

    • uniform均匀分布初始化:
      w = np.random.uniform(low=-scale, high=scale, size=[n_in,n_out])

      • Xavier初始法,适用于普通激活函数(tanh,sigmoid):scale = np.sqrt(3/n)
      • He初始化,适用于ReLU:scale = np.sqrt(6/n)
    • normal高斯分布初始化:
      w = np.random.randn(n_in,n_out) * stdev # stdev为高斯分布的标准差,均值设为0

      • Xavier初始法,适用于普通激活函数 (tanh,sigmoid):stdev = np.sqrt(n)
      • He初始化,适用于ReLU:stdev = np.sqrt(2/n)
  7. 激活函数用relu一般就够了,也可以试试leaky relu。

  8. batchnorm和dropout可以试,放的位置很重要。优先尝试放在最后输出层之前,以及embedding层之后。RNN可以试layer_norm。有些任务上加了这些层可能会有负作用。

  9. batchsize设置小一点通常会有一些提升,某些任务batchsize设成1有奇效。

  10. weight decay可以试一下,我一般用1e-4。

  11. 有CNN的地方就用shortcut。CNN层数加到某一个值之后对结果影响就不大了,这个值作为参数可以调一下。

  12. 看论文时候不要全信,能复现的尽量复现一下,许多论文都会做低baseline,但实际使用时很多baseline效果很不错。

  13. 对于大多数任务,数据比模型重要。面对新任务时先分析数据,再根据数据设计模型,并决定各个参数。例如nlp有些任务中的padding长度,通常需要达到数据集的90%以上,可用pandas的describe函数进行分析。

  14. 激活函数选择:

    常用的激活函数有relu、leaky-relu、sigmoid、tanh等。对于输出层,多分类任务选用softmax输出,二分类任务选用sigmoid输出,回归任务选用线性输出。而对于中间隐层,则优先选择relu激活函数。

原文地址:https://www.cnblogs.com/lwp-nicol/p/15308996.html