0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
我这里有一个。 后端基于:go,go-kratos,wir...
2025-06-22阅读全文 >>苹果官方其实卖这个配件,但是目前只提供给Mac Pro。 ...
2025-06-22阅读全文 >>大家都知道360借条吧?一直挂的是360的品牌,在360集团...
2025-06-22阅读全文 >>我两个都用,有一天忽然想到一个问题,就苹果电脑的体量,愿意做...
2025-06-22阅读全文 >>综合各个角度来看,2023-2027这几年会是我国的国力巅峰...
2025-06-22阅读全文 >>