乾元BigBangTransformer – 强大的预训练语言模型 BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。 0570 AI行业模型# AI行业大模型GPT架构# 多语言支持# 多领域应用