乾元BigBangTransformer – 强大的预训练语言模型 BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。 0570 AI行业模型# AI行业大模型GPT架构# 多语言支持# 多领域应用
K2官网 – 一个地球科学的开源大预言模型 地球科学的开源大预言模型,首先在收集和清理过的地球科学文献(包括地球科学开放存取论文和维基百科页面)上对 LLaMA 进行进一步预训练,然后使用知识密集型指令调整数据(GeoSignal)进行微调。 0120 AI行业模型# AI行业大模型代码共享# 地球科学# 基准测试