预备调查清单
待核查内容1:Zhou et al.(2021)在 arXiv 提出 Mixup 数据增强方法
行动计划
Search
Mixup data augmentation original paper author year我需要更深入地了解Mixup数据增强方法的原始提出者和时间。让我搜索更具体的信息。
Search
mixup: Beyond Empirical Risk Minimization Zhang et al. 2017我需要进一步确认Mixup数据增强方法的原始论文信息,特别是作者和发表年份。
Search
mixup: Beyond Empirical Risk Minimization Zhang Cisse Dauphin Lopez-Paz 2017 ICLR我需要查看原始论文的发表会议和年份,让我访问arXiv上的原始论文。
这篇网页内容展示了一篇题为"mixup: Beyond Empirical Risk Minimization"的学术论文信息。该论文由Hongyi Zhang、Moustapha Cisse、Yann N. Dauphin和David Lopez-Paz共同撰写,最初于2017年10月25日提交至arXiv,后于2018年4月27日进行了修订。论文提出了一种名为"mixup"的简单学习原则,旨在解决大型深度神经网络中存在的记忆化和对抗样本敏感性等问题。mixup的核心思想是在样本对及其标签的凸组合上训练神经网络,从而使网络在训练样本之间倾向于简单的线性行为。作者在ImageNet-2012、CIFAR-10、CIFAR-100、Google commands和UCI数据集上进行的实验表明,mixup改善了最先进神经网络架构的泛化能力,同时减少了对损坏标签的记忆,增强了对抗样本的鲁棒性,并稳定了生成对抗网络的训练过程。该论文被接收于ICLR会议,第二版相比第一版修复了代码库URL,增加了消融研究,并添加了mixup与dropout等技术的结合实验。
根据网页内容,我可以提取以下与问题相关的信息:
论文作者:Hongyi Zhang、Moustapha Cisse、Yann N. Dauphin和David Lopez-Paz。网页中清晰列出了这四位作者的名字,每个名字都有相应的搜索链接。
发表会议:论文发表在ICLR会议上。这一信息可以从"Comments"部分看出,其中提到"ICLR camera ready version",表明该论文是ICLR会议的最终接收版本。ICLR全称为International Conference on Learning Representations,是机器学习领域的重要会议之一。
发表年份:根据提交和修订信息,论文最初于2017年10月25日提交(v1),并于2018年4月27日进行了修订(v2)。考虑到ICLR通常在每年的春季举行,且论文的最终版本(camera ready version)在2018年4月完成,可以推断该论文正式发表于2018年的ICLR会议。
这些信息直接回答了所提出的三个问题:作者是谁,发表在哪个会议,以及发表年份是什么时候。
网页中没有与问题相关的图片内容。
已核查结论清单
已核查内容1:Mixup 数据增强方法的原始提出者、年份及发布平台
待补充核查清单
待核查内容1:“Zhou et al.(2021)在 arXiv 提出 Mixup 数据增强方法”
行动计划
Search
Zhou et al. 2021 arXiv Mixup data augmentation我需要查找更具体的信息,看看是否存在Zhou等人在2021年发表的关于Mixup数据增强方法的论文。
Search
Zhou et al. 2021 arXiv Mixup data augmentation original paper我需要更具体地搜索关于Zhou et al. 2021年在arXiv上发表的关于Mixup的论文。
Search
Zhou et al. 2021 arXiv Mixup, sourced from arxiv.org我需要更具体地搜索Zhou等人在2021年发表的关于Mixup的论文,特别是查看是否有他们首次提出Mixup方法的论文。
Search
Zhou et al. 2021 Mixup data augmentation original paper first propose已核查结论清单
已核查内容1:Mixup 数据增强方法的原始提出者、年份及发布平台
已核查内容2:“Zhou et al.(2021)在 arXiv 提出 Mixup 数据增强方法”的准确性
待补充核查清单
(当前所有待核查内容均已完成,无需补充核查清单。)
行动计划
本次核查共涉及1条内容,经证据核实,该内容完全不准确。
核查发现,Mixup数据增强方法并非由"Zhou et al.(2021)在arXiv提出",而是由Zhang等人于2017年在arXiv首次发表,并于2018年在ICLR会议正式发表。该陈述在作者归属、发表年份和贡献性质上均存在明显错误,不应在学术研究或引用中使用。
建议用户在引用Mixup方法时,应正确引用原始论文:Zhang, H., Cisse, M., Dauphin, Y. N., & Lopez-Paz, D. (2018). mixup: Beyond empirical risk minimization. International Conference on Learning Representations (ICLR).
原文陈述 | 可靠性分析 | 证据 |
---|---|---|
"Zhou et al.(2021)在 arXiv 提出 Mixup 数据增强方法" | 完全不准确。Mixup数据增强方法最初由Hongyi Zhang, Moustapha Cisse, Yann N. Dauphin和David Lopez-Paz提出,而非Zhou等人。该方法的预印本于2017年10月首次发布在arXiv上,并于2018年在ICLR会议正式发表,而非2021年。因此,该陈述在作者归属、发表时间和贡献性质上均存在事实错误。 | 1. "Title: mixup: Beyond Empirical Risk Minimization. Authors: Hongyi Zhang, Moustapha Cisse, Yann N. Dauphin, David Lopez-Paz. ... Submitted on 25 Oct 2017 (v1), last revised 27 Apr 2018 (this version, v2). Comments: ICLR camera ready version." https://arxiv.org/abs/1710.09412(2017年10月25日) 2. "Published as a conference paper at ICLR 2018 mixup: BEYOND EMPIRICAL RISK MINIMIZATION. Hongyi Zhang. MIT. Moustapha Cisse, Yann N. Dauphin, David Lopez-Paz∗." https://openreview.net/pdf?id=r1Ddp1-Rb(发布于ICLR 2018) 3. "Hongyi Zhang, Moustapha Cissé, Yann N. Dauphin, David Lopez-Paz: mixup: Beyond Empirical Risk Minimization. ICLR (Poster) 2018" https://dblp.org/rec/conf/iclr/ZhangCDL18(DBLP收录时间:2019年07月25日) |