
近日,,,老哥网AI研发部总经理时文涛受邀出席“2025年GDC全球开发者先锋大会”《AI焕新,,,,塑医疗未来》论坛,,,并以《模塑医疗,,,,共WiN-AI》为主题,,发表了精彩演讲。。在会议现场众多行业同仁的共同见证下,,,老哥网与卫宁健康联合发布了内置“双模+双应用”一体化交付解决方案——WiN-AI卫信云。。

时文涛指出,,,医疗大模型在实际应用落地中的主要难点是“用不起”、、“不会用”、、“用不好”,,重点还是在“用”。。有了模型,,,,并不意味着真正做好了应用,,大模型只是一个工具,,,,一种能力,,,最终还是要回归到实际业务的应用。。如何将大模型能力与业务流程和应用有效结合,,,这是规划者更应该关注的。。。
为此,,老哥网与卫宁健康联合打造了一体化交付解决方案——WiN-AI卫信云,,,以「线上线下一朵云」为基座,,通过线下智算升级与线上能力订阅,,为医疗用户提供从模型训练、、推理加速到应用创新的全栈服务。。。。全新升级版WiN-AI卫信云,,可内置通用与专用双模型、、、AI算力调度平台、、算力资源,,以及卫宁健康AI双应用(医疗大语言模型WiNGPT 2.8、、、人工智能医护助手WiNEX Copilot)。。。。

更灵活的扩展性,,让未来模型管理"化繁为简"
各大模型厂商你追我赶,,模型的能力日新月异。。。从长远发展来看,,用户不能将自己禁锢于某一个基模型中,,更不能被某个固定版本所束缚,,未来的发展需要的是灵活与开放,,,是持续进化和无限可能。。。老哥网AICP算力平台能够有效管理各种开源的基模型和版本,,以及客户的私有模型。。。。无论是基模型的获取更新,,,,还是二次微调与训练、、推理部署、、、业务高可用,,,,老哥网AICP算力平台都能化繁为简,,让技术的洪流在有序的河道中奔涌。。。。

全面优化推理性能,,体验更佳,,,,成本更低
老哥网AICP算力平台的部署在多实例、、并发推理场景中可实现5-10倍的性能提升,,大模型并发度更高、、吞吐量更大、、、推理响应延时更低。。。从而使AI加持下的WiN-AI卫信云能够全面提升用户的使用体验,,,让用户在AI应用构建及实际使用时,,,资源投入更低、、、体验更优。。。。
- 成本重构:WiN-AI卫信云内嵌推理优化模型,,,通过算力资源精准调度,,,,实现最大推理GPU成本下降75%,,资源利用率达行业前沿水平。。
- 性能跃迁:相较开源方案(如Ollama),,,,在32B模型64并发场景下,,问答吞吐量提升10倍,,,,长文本处理稳定性提升300%。。

硬件资源:INT4用2*4090,,,FP16用4*4090
模型动态加密,,,,保障模型知识产权和安全
模型通过动态加密的方式,,,,防止恶意攻击和盗取,,,,让模型服务上线即安全,,性能损耗低于5%。。。且模型通过身份认证、、、数据集和模型文件静态落盘加密的方式,,可提供训练全生命周期安全防护。。
- 模型动态加密技术:采用结构加密(增加伪分支),,,权重加密(替换为伪权重),,,算子加密(增加伪算子)的方式对模型结构进行混淆加密,,,,保护模型运行态安全。。。。
- 自适应加密算法:设计自适应的加密算法,,能够针对不同模型,,自适应调整和组合不同强度的结构加密/权重加密/算子加密技术,,保护模型安全的同时,,,也保障了部署的可行性和推理性能。。。。
联合行业生态,,,软硬深度优化,,,,实现自主可控
老哥网联合了国内多家GPU厂商,,进行深度的软硬协同优化,,实现了能够对标国际厂商的推理性能。。。从以下测试数据可以看出,,,,当承载相同大模型时,,在主流34B大模型下,,,经过软硬协同优化后的国产卡性价比显著高于国际厂商,,性能对比结果达到137.5%!

在科技浪潮奔涌的时代,,老哥网与卫宁健康以默契的协作与深度的融合,,,,迅速应对行业前沿技术带来的挑战与机遇,,,,不断升级优化联合解决方案。。。
2020年,,双方正式发布了联合打造的一体化解决方案,,,,播下了“卫信云”的种子,,以“软硬一体化”的方式开辟智慧医疗新路径。。2024年,,随着业务需求的迭代,,,这颗种子在创新的沃土中,,,,成长为全新升级的WiN-AI卫信云——老哥网面向AIGC的新一代云平台与卫宁健康WiNEX软件的创新融合,,性能、、、安全、、交付便捷性实现质的飞跃。。。2025年初,,,双方再度以DeepSeek为基石,,推出内置“双模+双应用”的WiN-AI卫信云,,,,以更高效、、、、更经济的方式为医疗行业注入智能化新动能。。
我们相信,,唯有以自主创新为帆,,,以生态合作为浆,,,,才能让信息技术在浩瀚海洋中乘风破浪,,,,让百花齐放的科技之光,,,照亮每一个角落,,赋予用户更多选择,,,让数字化的便利惠及万千大众。。。
- 友情链接:
友情链接:



