曾经狂扫11项记录的谷歌NLP模型BERT,近日遭到了网友的质疑:该模型在一些基准测试中的成功仅仅是因为利用了数据集中的虚假统计线索,如若不然,还没有随机的结果好。这项研究已经在Reddit得到了广泛的讨论。——引用自《新智元》
真的不想那么标题党,前天刚在reddit上看到这个帖子,就知道马上要被公众号标题党霸占了头条,果然大家很喜欢看这种神坛跌落的故事,大概看了一下论文,其实确实说出了NLP用的这些DL模型的一些现状。去年用这个模型跑各种数据集的时候,也觉得很多东西不能理解,但是不得不承认,Bert的表现确实很好。
Reddit链接
BERT's success in some benchmarks tests may be simply due to the exploitation of spurious statistical cues in the dataset. Without them it is no better then random.
https://www.reddit.com/r/MachineLearning/comments/cfxpxy/berts_success_in_some_benchmarks_tests_may_be/
其实这类模型就是don't properly "understand" and only exploit (bad) statistical cues。——reddit