(),
会议的主持人面带笑容,宣布孟繁岐隆重登场。
孟繁岐沉迷分成的计算,正在畅想美好的未来,完没有感觉到时间竟然过得如此之快。
连忙关掉谷歌的财报,缓步登台。
看着台下满满一教室的AI领域学者们,都翘首以盼,用十分期待的目光看着自己,孟繁岐发觉自己远没有想象的那么紧张。
“大家好,这个报告的主题主要是应用于图像领域的深度残差学习。我知道大家可能主要是为它在图像识别领域取得的成绩而来的。”
说到这里,孟繁岐顿了一秒,台下响起了会心的笑声。
“不过在这样的场合,我个人并不希望花费太多的时间在具体的细节上面,相关的论文和代码在最近一段时间会陆续地开源,对细节感兴趣的朋友可以自己去探索。”
与谷歌签下合同之后,孟繁岐手头的所有论文也就没有继续压在手里的必要了。
借着发布会和这次国际会议的热度,他准备直接部公之于众。
当然,这部分内容现在需要先经过谷歌的首肯和内部审阅才可以发布出去,以免它们可能导致谷歌的利益有损失。
不过由于这部分技术内容大都是图像算法领域的,目前还没有涉及到谷歌的关键利益。
若是等几周后,孟繁岐将对谷歌推荐和广告算法的一系列策略做出来之后,想要公布这部分技术,谷歌是万万不可能会答应的。
不涉及核心利益的情况下,谷歌在这些技术方面一向还是非常大方的,在经过杰夫和辛顿的审阅之后,孟繁岐已经准备先后把之前攒下的部分工作公布出去。
在大会开始之前,以Dreaet为首的部分论文已经可以在arxiv上直接阅读到。
刚才其他队伍在上面介绍自己做法的时候,其实也有很多人像孟繁岐看财报一样,在偷偷阅读Dreaet的论文。
“虽然赛事的主题是图像的识别分类,但如此多学者聚集在一起的机会确实不多,我希望同时把其他方面的一些内容一起在这里展示一下。”
视觉顶会有三个,分别是本次孟繁岐参加的国际计算机视觉大会,ICCV。
还有欧洲计算机视觉会议,ECCV,一个偏欧洲一点的会议。
这两个都是两年一办,所以一年也只有两次这样国际顶级的会议机会。
唯一一个每年都举办的,是CVPR,国际计算机视觉和模式识别大会。
但它的举办地点基本上都在美国,签证方面经常会有一些问题。
本次的机会比较难得,当然要多宣传一下自己的工作。
“基于Dreaet的残差思想,不仅在图像的识别分类上取得了巨大的突破,我同时也衍生出了它的一些变体,比如生成式网络,检测网络,还有分割网络。”
识别分类有竞赛结果,生成式网络的论文已经放出,而检测的网络随着白度的发布会,大家也已经了解它的威力。
至于分割网络,则是这两天随着Dreaet的论文一起放出的U-工作。至此,可以说视觉类几大任务的基础范式已经被孟繁岐奠基。
今后不论是识别分类,分割检测,还是迁移生成,都很难绕得开这些轻便又好用的办法了。
“可以看到,这种思想席卷视觉领域之后,使得目前主要的研究方向都有了颠覆性的突破。”
孟繁岐将这几篇论文的主要试验结论摆在了幻灯片的第二页,就是要先以结果震撼众人。
“显然,这些算法在诸多领域都与第二名拉开了巨大的差距,而相当一部分的功劳应当属于残差思想对网络深度的革命。”
“在10年11年,我们仍在使用人工设计的SIFT,HOG还有SVM,12年,阿里克斯的八层Alex取得了巨大的突破。”
“而今年,残差思想引发的深度革命,使得训练150+层的神经网络成为可能。”
“深度神经网络是很多任务场景,尤其是视觉任务场景的基础引擎和骨干,这也是为什么它能够迅速影响几个主流的任务。”
“从结构上看,Dreaet并没有什么特别的,比起之前每一层都单独设计的网络,我其实故意希望它变得简单,重复。”
孟繁岐身后的幻灯片展示了一个极其细长的图案,这就是一百多层深的Dreaet结构图。
放大展示它的基本设计,众人发现,它的单层设计非常简洁朴素,只采用了最常规的算子操作。
长长的结构图滚动了起来,观众们都发现,原来每一层并没有任何区别,只是单纯在重复。
由于一百多层的滚动需要太久,在这个严肃的场合显得有些喜感,场内发出了一阵阵笑声。
“那么这里就引出了一个问题,那就是是否单纯地把网络做大作深,就总是可以取得更好的结果呢?”
孟繁岐的这个问题,直到2023年也没有一个理论上的答复,但很显然,巨大的模型还在持续地创造一个个奇迹。
不管是绘画,对话,还是图像操作,都还远没有到达极限。
“我非常希望自己能够清楚地从理论上告诉大家这个答案,但由于能力有限,我也只能给出自己的猜测,那就是Yes。”
“我相信,只要更多更好的GPU,更多更好的数据,以及更大大模型和更好的优化办法,我们就可以持续地创造奇迹。”
“而之前的网络在深度上遇到的阻碍,我认为并不是网络的能力问题,而是我们没有找到合适的办法去优化好它。”
让网络多重复几次,这是很多人都试过的事情,很显然,得到的结果是比原本要差的。
这在传统方法中,不是什么奇怪的现象,很多人都将这个现象解释为维度灾难或者过拟合,没有进行足够深度的探索。
“稍加思索,这显然是一个反直觉的现象,对于更深的网络,我们完可以将小版本网络的所有参数复制进来,而多出来的部分只要什么事情都不做,这个模型就至少不会更差。”
“但事实上,却并非如此,我相信很多人都观察到了这样的普遍现象,那就是更深的模型反而变差了不少。”