手机管家:AI 对话模型能在手机本地运行了?这可能有点考验手机内存 据媒体报道, MLC 团队推出了一个没有服务器支持的 AI 对话模型WebLLM (MLC LLM)手机管家。这个模型是通过在网页上调用 WebGPU API 即使用你的本机 GPU 提供算力支持,一... 平心在线 2023-05-21 89 #手机 #模型 #考验 #对话 #内存