盘古大模型官网 – Al for Industries大模型重塑干行百业

7个月前发布 1,197 0 0
盘古大模型官网 – Al for Industries大模型重塑干行百业盘古大模型官网 – Al for Industries大模型重塑干行百业
盘古大模型官网 – Al for Industries大模型重塑干行百业
各组织、企业、个人的专家助手

数据统计

相关导航

DeepSeek-V2:深度求索发布的第二代开源MoE模型

DeepSeek-V2:深度求索发布的第二代开源MoE模型

DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,DeepSeek-V2 在中文综合能力与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队,英文综合能力英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B,特别擅长数学、编程和逻辑推理任务。它在多个大型模型排行榜上名列前茅,支持长达128K的上下文长度,并提供开放源代码。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...