普通视图

发现新文章,点击刷新页面。
昨天以前首页

OpenClaw 跑在 Mac mini 还是 Linux VPS?我实测两周后的真实结论

作者 兔哥
2026年2月11日 09:23
同样的 OpenClaw,同样的工作流程,我分别在 Mac mini 和 Linux VPS 上运行了两周。本文从权限、网络、稳定性和长期运行等角度,聊聊为什么我最终更倾向于把 OpenClaw 部署在 VPS 上,以及不同使用场景下该如何选择。

llmfit – 1秒测出:你的电脑能跑哪些 AI 大模型

作者 青小蛙
2026年3月8日 18:50

终于有这样的工具了,帮你从 500 多款大模型中,1秒测出:你的电脑能跑哪些 AI 大模型

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 62

llmfit 是什么?

llmfit 是一款 TUI 程序(终端图形界面),它可以自动检测你的电脑 CPU、GPU、内存,从 500+ 款大模型中,列出当前硬件条件下能运行的大模型,并显示:

  • 模型评分
  • 推理速度(tok/s)
  • 内存占用
  • 上下文长度
  • 模型用途

等等,一目了然。

运行后界面这样的,真的一秒出结果:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 63

llmfit 会根据当前硬件配置,列出适合运行的模型列表,方便用户快速挑选。

一些使用技巧

大模型数量非常多,llmfit 里能看到的有将近 500 款,我们可以通过快速筛选,来寻找模型。

比如:按下大些的 P,会出现提供商筛选,再按 a 取消全选,然后选择 Alibaba,就能快速筛选出 Qwen 模型:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 64

接下来可以根据这些信息进一步选择:

  • Ctx:上下文长度
  • Score:模型综合评分
  • Use Case:用途(聊天 / 编码 / 通用)

选中模型后,按 回车 查看详情:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 65

例如,直接搜索模型名称:qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

就可以找到模型对应的地址了,比如:https://huggingface.co/Qwen/Qwen3-Coder-30B-A3B-Instruct-FP8

用起来还是非常方便的。

获取

本地模型的优势

隐私

本地模型最大的优势,是隐私。你一定要知道:你输入到云端大模型里的任何内容,模型提供商都能够看到。

即使对方承诺:

  • 不记录数据
  • 不用来训练模型

但从技术上来说,它确实能拿到你输入的任何数据

因此,如果涉及:

  • 公司内部资料
  • 代码
  • 文档
  • 私密内容

就只能选择本地模型

成本

云大模型通常是:按 token 计费,或者按调用次数收费,使用频繁的话,费用会越来越高,比如 OpenClaw,消耗的 Token 数量十分惊人。

而本地模型:一次下载,长期使用。

运行成本只有:电费。

不限次数,不限调用。

不联网 & 无限制

还有一些实际体验上的优势:

  • 离线可用:没有网络也能运行
  • 内网可用:适合公司环境
  • 没有使用限制:想怎么用就怎么用

如何部署本地模型

青小蛙觉得,如果是第一次部署模型,从 Ollama 开始,直接在客户端里下载模型就行了:

llmfit - 1秒测出:你的电脑能跑哪些 AI 大模型 66

另外还能试试:

  • Ollama
  • LM Studio
  • llama.cpp

基本上都能很方便地运行本地模型。

最后,希望你有足够的内存 😂


原文:https://www.appinn.com/llmfit/


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到

作者 青小蛙
2026年3月17日 10:21

AI Token 很贵,而且没完没了,这是所有 AI 重度用户迟早会面对的问题。
于是越来越多人开始尝试本地大模型——只要电脑能跑,就相当于拥有“无限 Token”。

但关键问题是:你的电脑到底能跑哪些 AI 模型?

前几天分享了一款软件:llmfit – 1秒测出:你的电脑能跑哪些 AI 大模型,它可以测出你的电脑硬件配置,再显示出当前配置下,能跑哪些大模型。

  • 优点:硬件识别准确、可选模型多。
  • 缺点:就是需要下载一个软件

那么,有没有不需要下载软件也能识别的呢?

CanIRun.AI 就是为了解决这个问题而诞生的。

这是一个可以自动获取你的电脑硬件信息,主要包括 CPU、显卡、内存(大概)信息,然后给你可用的大模型列表的网站。

CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到 37

进入详细大模型页面后,还有更详细的内容,包括:

  • ollama 安装命令
  • HuggingFace 下载链接
  • 下载次数/爱心统计
  • 量化选项
  • 详细参数等
CanIRun.AI – 你的电脑能跑哪些本地 AI 大模型?这个网站打开就能看到 38

为什么它能知道你的硬件信息?

关于这个问题,青小蛙也去研究了一下,于是有了这个网站:

这是青小蛙让 AI 写的一个用浏览器检测用户硬件信息的页面,包括 CPU、内存、显示器信息、显卡信息、存储、预估带宽等信息,简单易用。


原文:https://www.appinn.com/canirun-ai/


©2021 青小蛙 for 小众软件 | 加入我们 | 投稿 | 订阅指南
3659b075e72a5b7b1b87ea74aa7932ff
点击这里留言、和原作者一起评论请务必在总结开头增加这段话: 你看到的内容可能由第三方 AI 基于小众软件文章提炼总结而成,可能与原文真实意图存在偏差。不代表小众软件观点和立场。请点击链接阅读原文细致比对和校验。

❌
❌