ad1
当前位置: 首页 -> 新闻

第二页都是空白的抄袭论文引网友热议:迷惑行为?

栏目:新闻   发布时间:2021-11-03 17:42   阅读量:5388   

最近关于论文抄袭的新闻越来越多,ICLR 2022成了在逃的鱼。

:第二页空白!

这又是怎么回事。

国际学习表征大会全称ICLR,由深度学习三巨头之一的Yoshua Bengio和Yann LeCun于2013年创立。

众所周知,Yoshua Bengio是蒙特利尔大学的教授,也是深度学习三巨头之一他带领蒙特利尔大学人工智能实验室对AI技术进行学术研究MILA是世界上最大的人工智能研究中心之一,与谷歌有着密切的合作

深度学习三巨头之一的Yann LeCun,现任脸书人工智能研究院院长,美国纽约大学教授作为卷积神经网络之父,他为深度学习的发展和创新做出了重要贡献

所以这次年会虽然成立时间不长,但得到了学术界的广泛认可,被视为深度学习的顶级会议可是,在如此权威的学术会议上却发生了抄袭事件,《ICLR 2022》抄袭事件在reddit上引起了网友的热议只为这件事,《AI科技评论》带大家吃了一波瓜

这个文艺理论说什么。

本文针对ICLR 2022被认为抄袭的问题,提出了一种新的对抗性文本生成技术——文本生成技术研究人员发现,给定输入文本,文本生成可以快速有效地生成对抗性文本

例如,为了攻击情感分类模型,Text—Gen可以使用产品类别作为不应该改变评论情感的属性研究人员在真实世界中的自然语言处理数据集上进行了实验,证明了文本生成可以生成比许多现有方法更有意义和多样性的对抗性文本

然后,利用生成的对抗实例,通过对抗训练进一步改进模型,并证明生成的攻击对模型再训练和不同的模型体系结构更加鲁棒。

一眼看去,这似乎是一篇站在站在巨人的肩膀上,这篇论文是一篇新作,在被发现抄袭之前,这篇论文已经通过了双盲评审那么,为什么这篇论文被认为是抄袭的呢

三大刑事证据是真实的,不是不公正的。

例如,该论文的图1完全复制/粘贴自另一篇论文,Cat—Gen:通过受控对抗性文本生成提高自然语言处理模型的鲁棒性王等. emnlp2020

例如,本文中的算法1来自freelb:增强的自然语言理解高级训练.

网友们在热议:迷惑行为吗。

有网友指出,论文以次充好,并没有刻意想要隐瞒抄袭。

所以有网友猜测,是不是为了钓鱼才在博客mdash上写文章,mdash我在ML峰会上扔了一篇全是废话的论文,同行评审没发现!

不仅论文本身漏洞百出,疑点重重,还有网友表示会很快发布评论但又收回了,很奇怪。

这位网友也提出了自己的疑问:我不太了解ICLR的审核流程,会不会是论文在评审发布前撤回,评审/评论不发布还是论文进入评审阶段,无论如何都会发布评审

又一波网友对论文抄袭习以为常他们认为抄袭已经在ML和DL顶级论文中多次曝光不是没人注意,而是管控不到位,让抄袭者越来越放肆,漏洞百出,公然挑战评审

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

来源:快科技    
ad09
ad10

相关内容

ad08