如何看待人工智能的泡沫

前言:

人工智能无疑是近些年来最火的词汇之一。不仅仅各大互联网巨头纷纷成立的研究院,布局人工智能,众多的新创企业也在靠着人工智能的创意应用获得风投。俗话说,物极必反,人工智能现在如日中天,总有给人一种不真实的感觉。那么,今后几年,人工智能真的能够快速发展,取代互联网时代吗,还是像之前的两次浪潮一样,到头来只是泡沫?

关注公众号CV技术指南,及时获取更多计算机视觉技术总结文章。

在公众号曾经发的一篇文章《我们真的需要模型压缩吗》中提到了这样一个观点:“通常我们都是训练一个超量的模型,在部署时进行模型压缩。那我们能不能训练一个刚好适量的模型呢?”

同样,我们可以思考一个问题,人工智能行业能否不必鼓吹过度,适当宣传呢?

接下来,总结一下《我们真的需要模型压缩吗》里的两个核心观点。

1.我们无法根据数据集的大小来准确地知道一个模型使用多少参数量合适。

2.即便使用适当数量的参数,这意味着不能有太多的冗余参数,几乎所有参数都要发挥重要的作用,因此我们很难将它训练好。

根据这两个观点,我们也能思考一下:

1.我们能否知道人工智能的应用前景有多大?从而准确知道应该投入多少资金,投入多少人力物力,以至于人工智能能取得最大发展或理想发展呢?

2.即便投入了合适的资金,人力物力,我们怎么确保投入的这些资金、人力物力能产出该有的价值呢?

相信没人能给出答案。

因此,我们需要超量的资金,超量的人力物力来投入,于是泡沫就产生了。

这是因为在过量的资金,人力物力中,只有部分能产出价值,推动行业发展,而另一部分则相当于一个模型中的冗余参数,发挥着很小的作用。但我们又没办法在事前就知道哪些方面的投资、哪些人力物力的投入会变成“冗余参数”。

肯定有不少人的资金是打水漂,有不少的人无法为行业作出贡献,产出价值,从而被行业淘汰,有不少的人工智能相关的企业倒闭等。

这样的损失是社会能承担得起的,也是必须承担的。就像我们要训练一个很好的模型,我们必须承担那部分冗余参数所占用的内存和算力。

因此,从这个角度来看,一定程度上的泡沫是必须的。

让我们从另一个角度来思考一个问题,假如一少部分人研发了某种技术,这个技术只有这少部分人懂。然而,它能做多少方面的应用,发挥多大的作用,可能这一部分人也只知道一点点,无法全面概括。那如何让这个技术得到充分的发展?

自然就是找投资,创建企业,做宣传。

众所周知,技术人员是没这个资金的,有资金的是像马云这样不了解技术的人。要获得资金,就需要得到他们的认可,因此,适当地鼓吹这个技术有多么多么牛逼也是必要的。

在一顿鼓吹后,资金有了,企业有了,这个技术开始落地应用了。

在这个过程中,技术人员的鼓吹可能还有个度,比较委婉,媒体这种不懂技术的鼓吹可就没那么拘谨了。但媒体的鼓吹会吸引更多的投资人的关注,更多的投资人参与进来,更多高校参与技术的研发,相关人才的培养,甚至可能得到国家的重视,开始研究相关的法律,制定相关的政策,成立相关的监管部门等。

经过这么一系列的操作,这个行业就具备了大力发展的潜力了,越多的人了解熟悉这个技术,在各个行业也会与之结合,从而实现广泛地应用。

但与此同时,泡沫也形成了。

因此,从这个角度来看,泡沫也是有必要的,它会吸引投资人的关注,吸引社会和高校的重视,从而促进行业的大力发展,也能挖掘出它的潜力,与别的行业结合。

本文来源于公众号 CV技术指南 的论文分享系列。

欢迎关注公众号 CV技术指南 ,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读。

在公众号中回复关键字 “技术总结” 可获取以下文章的汇总pdf。

其它文章

使用Dice loss实现清晰的边界检测

PVT--无卷积密集预测的多功能backbone

CVPR2021 | 开放世界的目标检测

Siamese network总结

视觉目标检测和识别之过去,现在及可能

在做算法工程师的道路上,你掌握了什么概念或技术使你感觉自我提升突飞猛进?

计算机视觉专业术语总结(一)构建计算机视觉的知识体系

欠拟合与过拟合技术总结

归一化方法总结

论文创新的常见思路总结

CV方向的高效阅读英文文献方法总结

计算机视觉中的小样本学习综述   

知识蒸馏的简要概述   

优化OpenCV视频的读取速度

NMS总结   

损失函数技术总结

注意力机制技术总结   

特征金字塔技术总结   

池化技术总结

数据增强方法总结   

CNN结构演变总结(一)经典模型

CNN结构演变总结(二)轻量化模型 

CNN结构演变总结(三)设计原则

如何看待计算机视觉未来的走向   

CNN可视化技术总结(一)特征图可视化

CNN可视化技术总结(二)卷积核可视化

CNN可视化技术总结(三)类可视化

CNN可视化技术总结(四)可视化工具与项目

原文地址:https://www.cnblogs.com/wxkang/p/14985333.html