一切苦痛 皆为过往
当我们科研遇到困难时,请大胆寻求Transformer的帮助吧!
Transformer用一种苍老的声音问询:
你有什么?
你要什么?
你怎么给我这些东西?
一个翻译任务,我有英文,我需要中文,我以embedding形式给。
一个目标检测任务,我有图片,我要检测结果,我以特别的token形式给。
--2021年6月
突然翻到了这篇没发出来的博客,当时我对于Transformer处理问题的通用性感兴趣,觉得它非常有潜力,将来肯定可以围绕通用性来发展,其实也就是现在说的多模态大模型。
不过也仅仅是一种感觉而已,距离将感觉转化为实实在在的代码,模型、算法、应用,距离这些有非常大的距离。
首先是对于Transformer的理解程度不够,各个层作用,各种参数只是了解个大概,对于深度学习理论以及最先进训练理论、代码掌握的不够精通,学习的主观能动性较差。这些原因导致想法仅仅是想法,没有变成实体。
现在chatGPT让人惊讶,大模型让人感觉通用人工智能就要来了,是否应该发奋图强的学习呢,将想法转化为实体呢?