我们在做什么
芯格致力于创建高效能、可扩展、易于使用的 AIOS 人工智能操作系统, 提升客户 AI 应用能力,让客户集中精力使用 AI 进行业务创新。
核心产品
面向客户自建 AI 服务平台需求, 芯格提供 AI 编译器 Coco、 AI 推理框架 CoInf、AI 服务框架 Cober、AI 数据检索引擎等多样化产品组合, 助力客户建立简单、弹性、可靠、开放的现代化 AI 服务基础设施; 覆盖了从传统 AI 视觉业务到 AIGC 大语言模型业务, 从数据中心到边缘的各类场景,推动成本降低、效率提升, 并支持 AI 赋能的业务创新与智能化转型。
客户故事
芯格服务于 AI 能力可以覆盖的各个行业领域,包含:金融、制造、生物医疗以及科学研究等等。 基于专业产品与服务, 芯格帮助客户降低 AI 赋能业务的算力投入成本, 为客户解决 AI 服务部署与运维的复杂问题, 让客户可以专注于 AI 于业务的创新应用, 创造健康、持续、稳定的价值增长。
我们是谁
芯格的团队成员来自高校、AI独角兽、垂类行业企业等不同领域, 因追求卓越、热爱创新而相聚,致力于解决计算机系统层面的关键问题。
核心理念
我们相信,让应用 AI 更简单,将使更多人受益于其强大的潜力。 我们深知 AI 技术的训练研究、测试迭代、部署应用等各阶段都有复杂的问题与挑战, 因此我们专注于研发为 AI 落地服务的高效系统, 降低使用 AI 的算力需求与技术门槛,使其更易于部署应用。
共同价值观
打造高效稳固的 AI 服务基础设施,需要勇于挑战且不浮躁的心。
- 注重实践: 从实践中发现问题,回到实践中检验成果。
- 为人正直: 言行一致,践行自己的价值观。
- 开放心态: 乐于分享,积极学习,勇于拥抱变化。
- 长期主义: 以长期目标为导向,稳步前进。
- 坦诚友好: 友善清晰地沟通交流,健康顺畅地推进工作。
我们的历程
芯格始于挑战困难, 通过在计算机系统领域的持续创新,助力发展。
里程碑
2022/03: 芯格团队成立。 2022/08: 参考 IREE 的 MLIR AI 编译框架,CoCo v1.0。 2022/10: AI 推理框架,CoInf v1.0。 2022/11: 支持 k8s 的 AI 服务部署框架,Cober v1.0。 2022/12: Cober 支持计算机视觉 AI 服务。 2023/03: 第一次使用 Coco 转换 LLaMA 7B 至 CPU x86 AVX-512 平台;4 p-cores 推理性能达到 96 ms / token。 2023/07: Cober 支持 LLaMA 33B 服务;对于单张 A100 40GB,20 访问并发下,达到每位客户平均 126 ms / token 。 ……
路线规划
- 发布社区版本 AI 服务套件。
- 向个人与小型团队开放芯格云注册通道,无需申请。
- 开启 AI 部署技术博客与讨论社区。
- 逐步开启开源 CoCo 编译策略。
……