登录社区云,与社区用户共同成长
邀请您加入社区
前段时间,我们发布了 Qwen-Image 的 Image-to-LoRA 模型(https://modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L),它可以直接将图片数据转化为 LoRA 模型,从而生成相似的图像。 在发布这个模型之后,我们一直在思考能否将这样的能力赋予图像编辑模型。很遗憾,我们没能训练出图像编辑模型的 Image-to-L
2025年6月,通义千问Qwen团队开源了面向文本的Qwen3-Embedding和Qwen3-ReRanker 模型系列,在多语言文本检索、聚类和分类等多项下游任务中取得了业界领先的性能,被社区开发者广泛使用。 1月8日,Qwen团队再推出家族最新成员:Qwen3-VL-Embedding 和 Qwen3-VL-Reranker模型系列。基于其最近开源的Qwen3-VL模型构建,专为多模态信息检
当仿真环境的真实性逼近物理世界,当场景构建的效率以“自然对话”和“分钟”来衡量,具身智能的研发范式将发生根本性改变。智元机器人在CES国际消费电子展首日正式发布首个大语言模型驱动的开源仿真平台——Genie Sim 3.0。基于NVIDIA Isaac Sim , Genie Sim 3.0 融合三维重建与视觉生成,打造数字孪生级的高保真环境;首创大语言模型驱动,让万级场景的生成只需几分钟;同步开
在当前大模型动辄数十亿、数百亿参数的“军备竞赛”中,轻量级模型常被视为“能力有限”的代名词。然而,腾讯 Youtu 团队最新开源的 Youtu-LLM(1.96B)却打破了这一偏见:它在参数不到 2B 的前提下,不仅在通用能力上媲美 4B 级别模型,更在智能体(Agentic)任务中大幅超越同规模甚至更大模型,首次系统验证了轻量模型也能拥有强大的“原生智能体能力”。它不依赖 “蒸馏”(模仿大尺寸模
大家一定非常熟悉这个场景:每当一个新的模型发布时,总会有一张张华丽的雷达图或条形图来展示其强大的性能。 这些图表中,我们经常都能看到那些耳熟能详的评测基准名字: MMLU:涵盖几十个学科,代表“通识教育”水平;AIME25:数学竞赛题,代表“数学推理”能力;LiveCodeBench:Python 代码生成,代表“编程能力”。 这些榜单就像是模型的“高考成绩单”,它们当然重要,因为它们确立了模
2026第一天,由九坤投资创始团队成立的至知创新研究院(IQuest Research)开源了其最新工作 IQuest-Coder-V1 系列代码大模型,包含从 7B 到 40B 参数规模的模型,并提供标准版和 Loop 版本,并覆盖不同使用场景: 每个参数规模都提供Base、Instruct和Thinking三个版本40B版本额外提供Loop变体,专为高效部署优化所有模型均支持128K上下文长度
元象正式开源聚焦泛娱乐场景的底座大模型 XVERSE-Ent,包含中、英文双版本。模型深度适配泛娱乐(Entertainment)核心领域,覆盖社交互动、游戏叙事、文化创作(含小说、剧本)等关键场景,支持轻量化部署与垂直场景深度落地,填补了泛娱乐领域专属开源大模型的空白。 XVERSE-Ent 在通用大模型能力基础上,依托元象 AI 泛娱乐产品服务全球千万级用户的实践经验,经稀缺的垂直领域数据深
今天,腾讯混元正式开源翻译模型1.5版本,共包含两个模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支持33个语种互译以及5种民汉/方言,除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。 目前两个模型均已在腾讯混元官网上线,在Github、Huggingface、ModelScope等开源社区也可直接下载使用。 官网 h
12 月 18 日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型 XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP 最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用场景下能干活并且会干活,推动国内具身智能行业迈向“全自主、更好用”的新阶段。 聚焦让人形机器人“能干活、会干活”的核心诉求,北京人形打造了通用
今天,MiniMax正式开源了其M2模型的升级版本MiniMax-M2.1,此次迭代聚焦于提升模型在真实世界复杂任务中的实用性,尤其针对多语言编程与办公场景进行了重点优化。 模型: https://www.modelscope.cn/models/MiniMax/MiniMax-M2.1 GitHub: https://github.com/MiniMax-AI/MiniMax-M2.1 Mi