OpenBMB

8个月前发布 1,506 0 0

可商业化使用的中英文双语基础模型

收录时间:
2024-07-24
OpenBMBOpenBMB
OpenBMB
可商业化使用的中英文双语基础模型

数据统计

相关导航

DeepSeek-V2:深度求索发布的第二代开源MoE模型

DeepSeek-V2:深度求索发布的第二代开源MoE模型

DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,DeepSeek-V2 在中文综合能力与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队,英文综合能力英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B,特别擅长数学、编程和逻辑推理任务。它在多个大型模型排行榜上名列前茅,支持长达128K的上下文长度,并提供开放源代码。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...