互联网 频道

六大权威榜单开源冠军!通义代码模型开源2天下载量破25万

  11月15日消息,阿里云两天前开源的通义代码模型Qwen2.5-Coder,在Big Code Models、SAFIM、EvalPlus、BigCodeBench、Aider、TabbyML等六大权威榜单上取得了开源最佳成绩,最强开源代码大模型再次得到印证。据了解,Qwen2.5-Coder受全球开发者热捧,开源仅仅2天,模型下载量即突破25万,登上Hugging Face趋势榜榜首及Github趋势榜单。

  Qwen2.5-Coder共开源6个主流模型尺寸,包含0.5B、1.5B、3B、7B、14B、32B等版本,每个尺寸都开源了Base和Instruct模型,所有版本模型都取得了同尺寸下的业界最佳性能效果。

  在全面考察模型的代码生成能力的EvalPlus榜单上,Qwen2.5-Coder-32B-Instruct模型拿下开源第一名;在评估复杂编程任务能力的BigCodeBench排行榜上,32B-Instruct模型刷新开源模型最佳成绩;在考察代码修复能力的Aider大模型榜单中,32B-Instruct模型揽获开源冠军。

  Qwen2.5-Coder-32B-Instruct拿下EvalPlus榜单上开源第一名

  在全球主流AI大模型开源社区Hugging Face的Big Code Models Leaderboard榜上,通义开源代码模型在前五名里占据三席,32B-Instruct模型排名第一,32B-Base模型排名第二;32B-Base模型还拿下语法感知填空(SAFIM)排行榜总榜冠军,其代码修复及补全能力被认为是开源闭源所有模型的最佳。此外,在考察20B规模以下模型的TabbyML榜单中,Qwen2.5-Coder-14B取得了所有模型的第一。

  Hugging Face的Big Code Models Leaderboard总榜冠军,Top5里通义占据3席

  甫一发布,Qwen2.5-Coder就引爆了全球开源社区,32B-Instrcut模型直接登顶Hugging Face社区趋势榜单冠军,并登上Github趋势榜单,GitHub Star数直线飙升接近2000。据不完全统计,开源仅两日,Qwen2.5-Coder系列模型在魔搭社区ModelScope、HuggingFace、Ollama等平台下载量突破25万次,创造了专业模型开源的全球新纪录。

  Qwen2.5-Coder-32B-Instrcut模型登顶Hugging Face社区趋势榜单

  开源社区开发者们对Qwen2.5-Coder全系列开源赞不绝口,他们在各大平台上踊跃分享一手体验和感受,称赞32B-Instruct“神级表现”,“效果比GPT-4o、Claude Sonnet甚至o1都好!”,夸奖Qwen2.5-Coder是“带开发的神兵利器”、“改变了AI编程的游戏规则”。

  开发者评论截图

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
0
相关文章