手机本地运行 Qwen3-4B-MNN 和MiMo-7B-RL 的实际体验


先说下我测试的机型为 Redmi K50 Ultra,处理器为骁龙 8+ Gen1,12+512G Qwen3-4B-MNN 出乎意料的强,只用了 4B 的参数感觉就达到了至少 8B 的效果,输出速度也很快,能达到 20 多 token 每秒。 录屏实测,感受输出速度:https://alist.j

安卓手机使用 MNN 本地部署 Qwen3、MiMo、DeepSeek

教程 

今年年初开源模型 DeepSeek R1 的爆火掀起了一股本地部署 AI 的热潮。那个时候手机本地运行主要使用 Termux+Ollama 或者 PocketPal 的方法,配置较为复杂,而且一般 DeepSeek 只能跑 1.5b 的模型,7b 跑起来很吃力,并且智商都很低,体验并不好。 而最近

兼容 OpenAI API 的安卓聊天软件


(原贴见 https://linux.do/t/topic/614882) 把 https://linux.do/t/topic/125907 里面提到的所有安卓客户端都下载体验了一遍,筛选出支持自定义基础 URL 和自动获取模型列表的四个软件。 演示录屏全部使用三个 API 做演示。 Taiga

关于我又用回 Open WebUI 这件事


白嫖了一点别人分享的各种 LLM 平台的 API,想自己搭建一个网页 UI 聚合这些 API 进行聊天,于是看到了 Open WebUI。用了一段时间觉得它的占用太大了,于是寻找其它类似产品。 找了一圈,看到了 Lobe Chat、Dify、Hugging Face Chat UI 等,本来以为它们