模型优势
极致的产品效果,打造多元的业务落地场景
发布于2024年7月的书生·浦语2.5具备1M词元(Token)超长文本窗口及开源模型中领先的推理能力,并支持自主规划和在线信息整合,成为助力复杂问题高效解决的得力AI助手。
推理能力卓越
在数学推理方面取得了同量级模型最优精度。
百万长文处理
在百万字长输入中几乎完美地实现长文“大海捞针”;在 LongBench 等长文任务表现领先开源模型。
上百网页信息自主整合
支持从上百个网页搜集有效信息进行分析推理;更强和更具有泛化性的指令理解、工具筛选与结果反思等能力。
发布于2024年7月的书生·万象2.0支持图像、视频、文字、语音、三维点云等模态处理,具备强大的真实世界感知能力,并通过首创的渐进式对齐训练策略,实现了“更少成本、更优性能”。
适用场景全面
从千亿参数大模型到端侧小模型全覆盖;通专融合,支持多种模态。
综合实力强劲
综合性能媲美国际闭源商业模型的开源多模态大模型;在文档及通用视觉问答基准测试中表现超越当前顶尖商业闭源模型。
低成本,高性能
开源开放,首创渐进式训练策略,仅需20%的传统算力资源即可达到同等效果;最小模型适配单张消费级显卡。
大模型开 源 工 具 链 体 系
标准化的开源工具链算法库,覆盖了从模型预训练到评测的全链条流程
万卷-CC
从 CommonCrawl 提取的 1T Tokens 高质量英文网络文本数据集,在多个验证集和下游任务上展现了其对模型任务性能和安全性上的显著提升
数据集
InternEvo
轻量级大模型预训练框架,旨在训练时能摆脱安装大量的库和处理复杂的依赖关系
预训练
Xtuner
覆盖主流算法(SFT、PPO、DPO等)并支持多种并行策略的轻量化微调工具
微调
LMDeploy
高效友好的 LLM 轻量化部署工具箱,兼具高效的推理、可靠的量化、便捷的服务及卓越的兼容性
部署
OpenCompass
面向大语言模型、多模态大模型等各类模型的一站式评测体系,全面、客观、中立、可复现的大模型评测工具与榜单
评测
MindSearch
开源 AI 搜索引擎框架,采用多智能体框架模拟人类思维,提高信息搜集的准确性和完整性
应用
垂类模型
成功的大模型应用落地经验,持续提升业务落地效果
InternLM2-Math
拥有极致数学专项表现的大语言模型
InternLM2-Math是专门针对约1000亿高质量数学问题经过定向训练后的数学领域专项大型语言模型。具备使用 Lean 语言处理、解答、证明、校验以及增强数学问题的能力,同时,它还能作为奖励模型辅助其他大型语言模型在数学专业能力上的进一步提升
InternLM-XComposer2.5
开创性的多模态模型,能够灵活处理、生成自由形式的图文交错文章
InternLM-XComposer2.5是一款基于InternLM2.5-7B的先进视觉语言大模型(VLLM)。它能够根据大纲、详细文本要求和参考图片灵活生成含图文章,并精准处理各种视觉语言问答任务
InternLM2-WQX
在中国最权威的高难度综合性测试-高考中有极致表现的语言模型和视觉语言模型
由于高考涵盖各类学科和题型,并且因其"绝密性"被视为中国最具权威的考试,因此常被用作评估大模型智能水平的标杆。InternLM2-WQX 和InternLM2-WOX-VL 在高考评测集GAOKAO-Eval上表现出色,其综合能力与 GPT-4o 相当,超越了许多国内外开源大模型,展现了卓越的性能
书生·济世-CFGPT2
专注于金融领域打造的中文金融大模型
基于 InternLM2 基座模型,结合万亿级 Tokens 的金融垂直领域数据,经过深度预训练和有监督微调,并融合检索增强、事实检测、合规检查与风险监测功能,在多个权威金融任务评测表现卓越的同时有效监测与管控金融风险