大多数的研究是在某个LLM基础上fine Tune,
工作主要集中在制备训练集。
微调的框架听说也很成熟
实际Training 需要写代码和配置不超过100行。
这个行业变得这么简单吗?
版主: hci
大多数的研究是在某个LLM基础上fine Tune,
工作主要集中在制备训练集。
微调的框架听说也很成熟
实际Training 需要写代码和配置不超过100行。
这个行业变得这么简单吗?
Fine tune需要的资源少啊。有资源的机构做pre-training,然后关心各种downstream tasks的就把这个foundation model跟自己的领域数据搞一起fine tuning,能比之前的SOTA好就赢了。学术界发文章,业界就claim我们组用AI做出什么成绩了。