MNN/project/android/apps/MnnLlmApp/README_CN.md

4.6 KiB
Raw Permalink Blame History

MNN 大模型 Android App

App 已经重命名为 "MNN Chat" 并且主页被移动到 这里

简介

这是我们的全功能多模态语言模型LLM安卓应用。

Icon Icon Icon Icon

功能亮点

  • 多模态支持: 提供多种任务功能,包括文本生成文本、图像生成文本、音频转文本及文本生成图像(基于扩散模型)。

  • CPU推理优化 在安卓平台上MNN-LLM展现了卓越的CPU性能预填充速度相较于llama.cpp提高了8.6倍相较于fastllm提升了20.5倍解码速度分别快了2.3倍和8.9倍。下图为 llama.cpp 与 MNN-LLM 与 llama.cpp 的比较。

  • 广泛的模型兼容性: 支持多种领先的模型提供商包括Qwen、Gemma、Llama涵盖TinyLlama与MobileLLM、Baichuan、Yi、DeepSeek、InternLM、Phi、ReaderLM和Smolm。

  • 本地运行: 完全在设备本地运行,确保数据隐私,无需将信息上传至外部服务器。

使用说明

您可以通过 Releases 下载应用,或者 自行构建(#开发)。

  • 安装应用后,您可以浏览所有支持的模型,下载所需模型,并直接在应用内与模型交互。
  • 此外,您可以通过侧边栏访问聊天历史,轻松查看和管理之前的对话记录。

!!!warning!!! 此版本目前仅在 OnePlus 13 和 小米 14 Ultra 上进行了测试。由于大型语言模型LLM对设备性能要求较高许多低配置设备可能会遇到以下问题推理速度缓慢、应用不稳定甚至无法运行。对于其他设备的稳定性无法保证。如果您在使用过程中遇到问题请随时提交问题以获取帮助。

Releases

Version 0.2.2

  • 点击这里 下载
  • 支持 mmap 增加启动速度
  • 增加 版本更新检查

Version 0.2.1

  • 点击这里下载
  • 支持 modelscope 下载,
  • 优化deepseek 多轮会话能力以及展示 ui
  • 支持 反馈 issue 时候增加调试信息

Version 0.2.0

  • 点击这里下载
  • 针对 DeepSeek R1 1.5B 进行了优化
  • 新增支持 Markdown 格式
  • 修复了一些已知问题

Version 0.1

  • 点击这里下载
  • 这是我们的首个公开发布版本,您可以:
    • 搜索我们支持的所有模型,在应用中下载并与其聊天;
    • 生成扩散模型:
      • stable-diffusion-v1-5
    • 音频模型:
      • qwen2-audio-7b
    • 视觉模型:
      • qwen-vl-chat
      • qwen2-vl-2b
      • qwen2-vl-7b

关于 MNN-LLM

MNN-LLM 是一个多功能的推理框架,旨在优化和加速大语言模型在移动设备和本地 PC 上的部署。通过模型量化、混合存储和硬件特定优化等创新措施,解决高内存消耗和计算成本等挑战。在 CPU 基准测试中MNN-LLM 表现优异,其预填充速度比 llama.cpp 快 8.6 倍,比 fastllm 快 20.5 倍,同时解码速度分别快 2.3 倍和 8.9 倍。在基于 GPU 的评估中,由于 MLC-LLM 的对称量化技术优势MNN-LLM 的性能在使用 Qwen2-7B 进行较短提示时略有下降。MNN-LLM 的预填充速度比 llama.cpp 快 25.3 倍,解码速度快 7.1 倍,相较于 MLC-LLM 也分别提高 2.8 倍和 1.7 倍。如需更详细的信息,请参考论文:MNN-LLM: A Generic Inference Engine for Fast Large LanguageModel Deployment on Mobile Devices

致谢

该项目基于以下开源项目: