焦点

阿里巴巴发布通义千问7B模型 开源免费可商用 支持8K上下文长度 – 蓝点网

字号+ 作者:首尾相应网 来源:休闲 2026-03-26 11:06:31 我要评论(0)

今天阿里巴巴宣布旗下大型语言模型产品通义千问 7B 参数模型已经开源,该模型为完全开源、免费、可商用。这个模型包括两个子模型,一个是通用型的 Qwen-7B 模型,另一个是对话模型 Qweb-7B-C

今天阿里巴巴宣布旗下大型语言模型产品通义千问 7B 参数模型已经开源,阿里该模型为完全开源、巴巴免费、发布费可商用。通义这个模型包括两个子模型,千问一个是型开下文通用型的 Qwen-7B 模型,另一个是源免对话模型 Qweb-7B-Chat,两个模型均为开源免费可商用。商用K上

这两个模型目前已经在阿里达摩院的支持魔搭社区和国外知名 AI 模型社区 Hugging Face 上线,有兴趣的长度用户可以下载模型进行测试。

阿里巴巴发布通义千问7B模型 开源免费可商用 支持8K上下文长度

魔搭社区:https://modelscope.cn/models/qwen/Qwen-7B/summary

Hugging Face:https://huggingface.co/Qwen/Qwen-7B

Github:https://github.com/QwenLM/Qwen-7B

以下是蓝点阿里云对 Qwen-7B 模型的自述:

通义千问 – 7B(Qwen-7B) 是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型。Qwen-7B 是阿里基于 Transformer 的大语言模型,在超大规模的巴巴预训练数据上进行训练得到。预训练数据类型多样,发布费覆盖广泛,通义包括大量网络文本、专业书籍、代码等。同时,在 Qwen-7B 的基础上,我们使用对齐机制打造了基于大语言模型的 AI 助手 Qwen-7B-Chat。Qwen-7B 系列模型的特点包括:

大规模高质量预训练数据:我们使用了超过 2.2 万亿 token 的自建大规模预训练数据集进行语言模型的预训练。数据集包括文本和代码等多种数据类型,覆盖通用领域和专业领域。

优秀的模型性能:相比同规模的开源模型,Qwen-7B 在多个评测数据集上具有显著优势,甚至超出 12-13B 等更大规模的模型。评测评估的能力范围包括自然语言理解与生成、数学运算解题、代码生成等。

更好地支持多语言:基于更大词表的分词器在分词上更高效,同时它对其他语言表现更加友好。用户可以在 Qwen-7B 的基础上更方便地训练特定语言的 7B 语言模型。

8K 的上下文长度:Qwen-7B 及 Qwen-7B-Chat 均能支持 8K 的上下文长度,允许用户输入更长的 prompt。

支持插件调用:Qwen-7B-Chat 针对插件调用相关的对齐数据做了特定优化,当前模型能有效调用插件以及升级为 Agent。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 《奇异人生2》将分五章节推出 最新游戏视频预览

    《奇异人生2》将分五章节推出 最新游戏视频预览

    2026-03-26 10:01

  • 占股17%代价1650亿!腾讯回应出售好团齐数股权

    占股17%代价1650亿!腾讯回应出售好团齐数股权

    2026-03-26 08:58

  • 《阳阳师》X伸臣氏联动 青止灯化身伸臣氏玩好吸唤民

    《阳阳师》X伸臣氏联动 青止灯化身伸臣氏玩好吸唤民

    2026-03-26 08:31

  • 万代北梦宫红色新LOGO将于4月1日启用 万千兴趣背将去

    万代北梦宫红色新LOGO将于4月1日启用 万千兴趣背将去

    2026-03-26 08:27

网友点评