Back to Blog
BlogMarch 13, 2026

Tiiny AI Pocket Lab:全球最小的 120B AI 超级计算机刚在 Kickstarter 上筹集了 137 万美元

Tiiny AI Pocket Lab:全球最小的 120B AI 超级计算机刚在 Kickstarter 上筹集了 137 万美元

关键要点

  • 吉尼斯世界纪录保持者:经认证可本地运行 100B+ 参数 LLM 的最小迷你 PC,现在支持完全离线运行高达 1200 亿个参数
  • 硬件突破:12 核 ARMv9.2 CPU、提供 ≈190 TOPS 的定制 dNPU、80GB LPDDR5X RAM 和 1TB PCIe 4.0 NVMe SSD,采用 14.2 × 8 × 2.53 厘米、300 克的口袋大小外形。
  • Kickstarter 势头:于 2026 年 3 月 11 日推出;在几天内从 996 名支持者那里筹集了 137 万美元(超级早鸟价为 1,399 美元,剩余 225 台)。
  • 零云 AI:兼容 OpenAI API、银行级加密、长期记忆,并通过 TiinySDK 进行一键部署——无需订阅或数据泄露。
  • 现实世界的优势:以约 20+ token/秒的速度提供博士级推理,同时仅消耗 65W 的典型功率。

重新定义边缘 AI 的发布

总部位于美国的深科技创业公司 Tiiny AI 于 2025 年 12 月推出了 Pocket Lab,并在 CES 2026 上进行了展示。该设备立即获得了吉尼斯世界纪录认证,成为能够进行本地 100B+ 参数推理的最小迷你 PC。

在 2026 年 3 月 11 日 Kickstarter 发布仅两天后,认缴额在五小时内突破了 100 万美元。截至 3 月 13 日,该活动已筹集 1,373,689 美元(获得 13,737% 的资金),计划于 2026 年 8 月交付。这种快速的牵引力表明对真正私密、便携的前沿智能的强劲需求。

技术规格:边缘工程

Pocket Lab 通过激进的软硬件协同设计,将服务器级功能融入充电宝大小的底盘中:

核心规格

  • 处理器:12 核 ARMv9.2 CPU
  • AI 加速器:定制异构 SoC + dNPU (~190 TOPS)
  • 内存:80GB LPDDR5X(高带宽、低功耗)
  • 存储:1TB PCIe 4.0 NVMe SSD
  • 功耗:30W TDP / 65W 典型系统功耗
  • 尺寸和重量:14.2 × 8 × 2.53 厘米 / ~300 克

分析表明,80GB 统一内存是关键的赋能因素。一个采用 4 位量化的 120B 模型仅权重就需要大约 60GB,从而为 KV 缓存和多步推理留出了空间,而无需交换到 SSD。

120B 本地推理实际上是如何工作的

标准 GPU 因内存带宽和功耗墙而难以处理 120B 模型。Tiiny AI 通过两项专有优化解决了这个问题:

  • PowerInfer:仅动态激活稀疏神经元子集(通常每个 token <10%),从而大幅减少计算和内存访问。
  • TurboSparse:跨 CPU/NPU 内核的高级量化和异构调度,以实现最大效率。

基准测试表明,在 70B–120B 模型(Llama、Qwen、DeepSeek、Mistral、Phi 系列)上,在具有完整上下文窗口的情况下,持续推理速度超过 20 token/秒——这种性能以前需要机架式服务器或云 API。

性能 vs. 云和竞争硬件

类别Tiiny AI Pocket Lab云 API (例如, GPT-4o)高端笔记本电脑 (M4 Max)传统迷你 PC GPU
模型大小高达 120B 本地无限制 (云)~70B 本地70B,配备独立 GPU
隐私100% 在设备上零 (数据已发送)
成本$0 持续 token$0.015–$0.075/1K tokens一次性一次性 + 功耗
便携性口袋 (300g)需要互联网2kg+ 笔记本电脑桌面绑定
功耗65W 典型数据中心规模100W+200W+
延迟<100ms 本地300–800ms

黄金 10B–100B 参数范围覆盖了 80%+ 的现实世界任务(编码、分析、代理)。Pocket Lab 将此扩展到 120B,且无需妥协。

为什么离线 AI 现在很重要

集中的云模型将敏感数据暴露给泄露和供应商锁定。Pocket Lab 提供银行级加密和具有长期记忆的私密“第二大脑”——非常适合法律、医疗、金融和企业工作流程。

开发人员获得 OpenAI API 兼容性以及用于定制代理的 TiinySDK。没有 token 费用意味着无限使用,极大地降低了创业公司和研究人员的门槛。

高级技巧和优化策略

  • 模型转换:使用即将于 2026 年 7 月推出的转换工具导入任何 Hugging Face 开源 LLM(已进行 4 位/8 位优化)。
  • 一键代理:通过 TiinySDK 部署多步推理代理;与本地 RAG 结合用于企业知识库。
  • 电源管理:与 65W USB-C PD 电池组配对,供全天外场使用——非常适合旅行或远程站点。
  • 集成:通过 USB4/Thunderbolt 作为现有笔记本电脑的 AI 加速器即插即用,用于混合工作流程。

社区反馈建议从 70B 模型开始以实现最快推理,然后再扩展到 120B。

潜在陷阱及如何避免

  • 初始加载时间:120B 模型在首次使用时需要几分钟才能加载到 RAM 中——通过保持常用模型驻留来减轻这种情况。
  • 热限制:虽然 30W TDP 保持其凉爽,但在炎热环境中长时间放入口袋可能会导致降频;在桌面操作时使用随附的支架。
  • 模型生态系统:仅限于开源(没有专有的封闭模型);围绕 Llama/Qwen 生态系统进行规划。
  • 发货和可用性:早鸟层级售罄很快——截至 2026 年 3 月 13 日,剩余 225 台超级早鸟台。

结论

Tiiny AI Pocket Lab 代表了从依赖云的 AI 到真正个人超级计算的关键转变。通过将 120B 参数的智能融入具有零持续成本和完全隐私的口袋中,它为全球的开发人员、专业人士和创作者民主化了前沿功能。

Kickstarter 活动将持续到 2026 年 4 月 10 日,请在有限的奖励消失之前以早鸟价锁定您的设备。这就是最终将尖端 AI 放在其所属位置——您的手中,而不是云中的硬件。

在 Kickstarter 上支持 Tiiny AI Pocket Lab