乾元BigBangTransformer


BigBangTransformer[乾元]是基于GPTDecoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-1...

异常 · 违规 · 被墙 · 相关
译:站点近期访问异常,违规删除,内容失效访问相关分类


1. 乾元BigBangTransformer是什么?

BigBangTransformer[乾元]是基于GPTDecoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13……为主的网站。


打开:乾元BigBangTransformer官网
点击图片>>进入乾元BigBangTransformer官网

2. 乾元BigBangTransformer的最新网址是多少?

官网地址:https://bbt.ssymmetry.com/model.html


3. 关于乾元BigBangTransformer,乾元BigBangTransformer有什么技巧或玩法?

BigBangTransformer[乾元]是基于GPTDecoder-only架构的大规模预训练模型。继2022年开源BBT-1-0.2B模型之后,我们正式开源最新系列的BBT模型:BBT-1-1B,BBT-2-12B-Text,BBT-2.5-13B-Text。预训练语料库覆盖14个高质量数据源,覆盖书籍、百科、论文、小说、新闻、政策文件、中文博客、社交媒体等多个数据源种类。BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文2000亿tokens进行预训练。
模型开源后所有开发者可以:
1.可以直接调用大模型进行对话
2.在我们训练的基础上使用自由语料库继续训练
3.对大模型进行微调训练以满足各种下游任务

乾元BigBangTransformer同类网站还有:SiteSMO思默问答、Avanty、亚马逊云科技(AIGC扶持计划)、微软AI学习课、TripAdvisor Summary、Artifact News这些都是属于AI自然语言处理模型的网站


4. 和乾元BigBangTransformer标签相关的网站有哪些?

乾元BigBangTransformer的logo图标:

乾元BigBangTransformer官网_收录时间:2023年11月15日 pm7:33

目前已经有(1931)人浏览过 [乾元BigBangTransformer] 这个网站,广受网友们的一致好评。


网站推荐

暂无评论

暂无评论...