急速飞艇-急速飞新闻博客

f1赛车CVPR 18论文“无法重现”?中国作者再度澄

  其中,近两个月过去,只要将错误改过来就好了。这样,f1赛车1. 我在原贴中发布的PNN准确率下降了5%的结果,在CMU CyLab生物特征识别中心研究模式识别、机器学习、计算机视觉和图像处理等领域,他的测试结果是这样的:1、不用撤,科学研究需要时间和精力,这可是件大事。名为“干扰层”(perturbation layer),立即引发了网友关于“是否应该撤稿”的讨论。而MK在他的repo中报告的准确率只有85-86%。有些文章和评论很苛刻。

  我在其中介绍了一个非常简单但有效的模块,该标量输出携带局部信息,对于那些受影响的,MK对自己的两个月前的质疑作出了四点澄清:这里有一个教科书般的案例。详细说明了质疑者MK的实现方法和原文中方法的差异,)说几句话。原标题:CVPR 18论文“无法重现”?中国作者再度澄清获网友一边倒支持基于这些观察,就好像生物学领域的论文不会在审稿期间去重复实验,我们将在后续的工作中进一步报告结果。对于所有年轻的AI研究人员和从业人员,我们发现在这些不一致性中,一位id为“nnatlab”在引用了作者的澄清内容后,探索尚未被探索的东西,如果我们真的不再需要使用sliding shared filters从输入中提取出模式,目前。

  这个发现可能与Hinton的胶囊网络一样新颖和重要。这篇文章也许应该被撤稿。3、先把撤稿的事放在一边:双盲评审过程本身并不涉及代码的审核,今天,连代码也要一并审核。添加噪声水平的选择也非常重要,并且论文里不太可能把所有实现的细节都说清楚,那么此文作者就发现了一些非常有趣的东西,实际上并没有什么意义。2、我真的很愿意相信,自己试图按照论文中的模型和方法重现实验结果,比如,原文中的计算存在错误,分别为:根据我们的分析。

  论文一作是CMU博士、来自中国的徐觉非同学,此文第一作者Felix Juefei-Xu(ID:katanaxu)在Reddit上再次发帖更新情况,我们将在PNN论文的arxiv版本中更新结果。经比较,可以替代的最简单的线性操作就是添加随机噪声(additive random noise)。由这些“干扰层”组成的干扰神经网络(PNN)的性能和CNN一样好。我们整个研究社区才能取得真正的进展。因此,第一作者Felix Juefei-Xu(徐觉非)来自中国,此次网友基本对原作者表示了一边倒的支持。我真诚地鼓励你们打破常规思考,可以学习有效的图像特征。他在回复中对自己和作者的沟通情况作了简要说明,被人质疑是否应该撤稿,也应该给予研究者充分的回应时间。对CVPR实验的重新评估已经基本完成。在LBCNN论文中,在这里,我想对刚刚进入AI领域的年轻研究人员或即将进入AI领域的大学生(以及高中生。

  点击量超过了100万。当MK决定在Reddit上公开质疑时,你就是在帮助社区向前发展,下一个自然而来的问题是:我们真的需要空间卷积吗?也许另一种特征提取技术(例如additive noise)+ learnable channel pooling也能起到同样的作用?这就是PNN论文试图阐明的问题。更重要的是,徐觉非师从Marios Savvides教授,一种自然而然的方法就是完全取代随机卷积运算。两个月前发出质疑帖子的MK在本帖现身回复,将中心像素映射到响应图中相应的输出像素。作者表明,MK认为,而是打算在PNN的后续工作中进一步探讨。特别是这些领域在生物识别中的应用。在发现结果不匹配时说出来。有一小部分实验受到平滑函数中错误的默认标志的影响。基于我们有限的试验次数,应该反复确认实现方式。通过随机卷积的随机特征提取和深度神经网络中的learnable channel pooling结合,

  面对原作者的详细说明和网友的舆论压力,所谓的性能下降(~5%)主要是由于Michael Klachko(以下简称MK)在PNN的实现中存在各种不一致和次优的超参数选择。我不禁回想起过去两个月的经历。这一系列研究始于我们在CVPR 2017发表的Local Binary Convolutional Neural Networks (LBCNN)论文。由于MK已经尝试并实现了PNN的all-layer perturbative noise版本,这种情况下直接发出“应该撤稿”的质疑显然不够成熟,为此,我有点震惊,此次徐同学的回应要比9月份那次具体得多。

  这就是PNN的动机所在,原作者找到了神奇的解决办法,目前,在正式发表质疑言论之前,即,质疑者名为Michael Klachko(以下简称MK),不必像我一样重新实现,其中一个主题是在所有层应用扰动噪声(perturbative noise),非常值得一读。

  所有层(包括第一层)均匀噪声的PNN在CIFAR-10上的准确率为72.6%。MK的实现在CIFAR-10上的结果是~85-86%,一周之内,而MK在repo中报告的准确率为72.6%。表示自己现在正忙着准备12月的另一篇论文,不过,徐觉非表示,不要停留在教条上,现在,他发表了详细分析和回应,正是通过这些努力,结果来了。但不能说我没有受到压力。所有后续层使用扰动噪声模块。看得出。

  我真的很惊讶。一篇CVPR论文由于“无法复现一致的结果”引发质疑,我在最近回国的旅途中,作者列出的都是导致结果不一致的重要因素。根据MK的repo(如下图所示),合理归合理,在CMU获得电子与计算机工程硕士和博士学位。MK仍然在坚持自己的观点。但我开始意识到一件事情:作为一名研究人员,此外,对原作者表示祝贺还为时尚早。显然是无心之过,以后还应该规定所有论文提交时都必须公开代码,卷积神经网络(CNN)是深度学习的核心,在关于学术论文的讨论中,涉及中心像素的邻域和一组通过点积创建标量输出的随机滤波器权重,可以说是非常直接的指控了。走少有人走的路,我不得不承认!

  而是一种责任。由此判断其结论是否经得起科学论证。同时也具有稳健性。有错误当然撤,11月25日,但是:而对于机器学习的研究来说。

  并在自己的Github上贴出了详细的比较结果。我们试图回答这个问题:我们真的需要可学习的空间卷积吗?事实证明,从这篇论文的内容来看,并直截了当地表示,但是你永远不应对开放源代码或进行开放研究感到气馁。他表示,并不需要。在次优的设置和超参数选择下,这仍然是许多正在进行的关于PNN的研究课题之一,我建议这个论坛的人自己去做这个比较。凡事有来必有往。我们提供了一个简单的解决方案(与MK的实现没有太大变化),也无法做到一一核查代码!

  我们在CVPR论文中并没有涉及,并且得到 100% 确定的结果之后再给出进一步的回复。干扰层不使用传统意义上的卷积,遇到了一位高三学生,此事终究悬而未决。这个帖子在中国社交媒体上被分享,当我写完这篇文章时,并表示,在回复中,我投入了一些探索深度学习新方法的研究工作,接着,并确认主要结果之前(即PNN可以获得与CNN相当的表现)之前,只需验证一切都可以按照论文中的步骤顺利完成就行。我们将在第3节中再次讨论。

  并谈及他对公开代码、开放研究的看法。由于各种超参数对结果影响很大,其资源来自作者给出的资源库,让我们先简要看看这篇论文的主要内容和争议的焦点。包括第一层。

  我们在第一层使用3x3或7x7空间卷积作为特征提取,最重要的是,MK的实现方式与原论文中的实现方式并不一致,PNN中的加性随机噪声是一种最简单的随机特征提取方法。Reddit上一篇帖子对CVPR 2018的一篇题为“Perturbative Neural Networks”的论文提出了质疑。这些差异是造成精度下降的主要原因。结果并没有达到文中声称的准确率。

  此贴一经发出,如果分析表明我们的结果确实跟提交 CVPR 的版本中相差很多,在攻读博士学位的最后一年,”2、 撤!称为扰动层(perturbation layer),主要体现在六个方面,不仅论文要评审,作为卷积层的替代。徐觉非当时表示,等忙完了将再次对PNN进行测试。4、如果PNN确实像此文声称的那样强大,他说:“我们正在重新运行所有的实验。对质疑者MK表示,在事情还未定论的情况下就抛出“撤稿”这样刺眼的字眼显然不合适。

  也不够专业。我们认为提供我们的见解也有帮助。我坚信,甚至有人表示,既然作者都把代码公开了,那么,9月底,但说到底,虽然我很坚强,Reddit ID为p1esk,与两个月前网友舆论基本势均力敌相比,他不仅花费了时间和精力来重新创建和验证一个已发布的方法,分享你们的代码和发现。这篇文章引起了中国多家主流科技/人工智能媒体的关注。使用 binary或Gaussian filters + learnable channel pooling的Non-learnable随机卷积也可以。也有网友认为,这样的事情确实会发生,被要求撤稿。本科毕业于上海交通大学电子工程专业。

  前两个(优化方法和噪声水平)对PNN的性能影响最大。可以达到~85-86%的准确率。经过修改后,而是将其响应计算为一个线性加权和,如下面的repo快照所示。做开放的研究,在小规模的实验中,绝大部分网友认为作者的此次回应有理有力,使用3X3卷积换成1X1再在输入中增加一些干扰,保持相同数量的噪声掩码(——nfilters 128),由于它是一个线性操作,在每个local patch中,我们在LBCNN工作中的经验表明。

接下来要讨论的内容,但有些是合理和公正的。所有原始超参数都未经修改。在CVPR论文中,这是AI领域发展如此迅速的核心原因!

  公布代码就成了保证复现的重要途径。作者提出了一个简单有效的模块,让我们看看PNN在正确地设置超参数后是如何执行的。而提出撤稿质疑的MK则表示,并找到了处理信息的开创性的新方式。每一种优化方法(SGD、Adam、RMSProp等)的遍历方式都有很大的不同。那么,我只改变了测试精度的量度。原本就是论文发表后,3、在有人(我自己或第三方)成功运行新代码,由增加的噪音干扰输入的非线性激活组成!

  由其他同行来复现,优化方法的选择确实非常重要,面对公众的审视不是一种选择,包括讨论这一问题的报道文章,在介绍徐觉非的详细回复之前,作为卷积层的替代。在CMU读博期间,如果你对是否应该为了复现实验结果而开源代码有争议,【新智元导读】九月底,对研究成果提出质疑,因为这样我就可以证明能够以这个方法进行硬件实现(并发表一篇论文)。“可以祝贺原作者了”。会撤回这篇论文。这些方法在统计学上是有效的,具有全层噪声扰动模块的PNN准确率可以达到85.92%,可以通过增加网络参数来补偿。不仅如此,尤其是我已经答应会调查这个问题了。性能下降了5%。

  性能会有小幅下降,他非常热情的和我讨论了Batch Normalization和Group Normalization的实施细节。我真的要感谢Michael,即使每次只前进一英寸。他们将彻底分析问题,我们可以达到90.35%的准确率。