乾元BigBangTransformer – 强大的预训练语言模型

1周前发布 57 0 0

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

收录时间:
2025-03-06
乾元BigBangTransformer – 强大的预训练语言模型乾元BigBangTransformer – 强大的预训练语言模型
乾元BigBangTransformer – 强大的预训练语言模型
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

数据统计

相关导航

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...