0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
想到德国,有西门子,大众,***埃孚,博世,大陆,宝马,奔驰...
赞藏比马上 1 :3 了,求多点点赞 我在NAS上使用的应用...
买啊,结婚前我说我要买相机,老婆不答应,我就自己买了一个二手...
就单纯看计算机领域,特别是人工智能-大语言模型LLM这个细分...
底下的评论把我看笑了。 在我看来底下评论一半以上就是蔡浩宇...
一个39岁的腾讯老哥,和我描述了他去年在从腾讯失业后,将近一...
10年刚从上海回怀化老家,在小姨夫的汽车修理厂短暂帮忙,有一...
这是玲珑一号的底封头 这是三门4号机组的底封头 这是...
藏-ICP备53301571号-1|网站地图藏-ICP备53301571号-1|网站地图 地址: 备案号: