乾元BigBangTransformer – 强大的预训练语言模型 BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
达尔文大模型官网 – 专为生物领域设计 通过先进的数据处理和模型分析技术,为生物学研究和产业发展提供了强有力的支持。同时,其附带的数字人SaaS平台进一步扩展了AI技术在内容生产和品牌营销中的应用,使得达尔文大模型成为一个多功能、高效率的AI解决方案。