# MACE
**Repository Path**: merryfish/MACE
## Basic Information
- **Project Name**: MACE
- **Description**: Mobile AI Compute Engine (MACE) 是一个专为移动端异构计算平台优化的神经网络计算框架
- **Primary Language**: Unknown
- **License**: Apache-2.0
- **Default Branch**: master
- **Homepage**: None
- **GVP Project**: No
## Statistics
- **Stars**: 0
- **Forks**: 6
- **Created**: 2018-06-28
- **Last Updated**: 2020-12-19
## Categories & Tags
**Categories**: Uncategorized
**Tags**: None
## README
[](LICENSE)
[](https://gitlab.com/llhe/mace/pipelines)
[](https://readthedocs.org/projects/mace/badge/?version=latest)
[文档](https://mace.readthedocs.io) |
[FAQ](https://mace.readthedocs.io/en/latest/faq.html) |
[发布记录](RELEASE.md) |
[路线图](ROADMAP.md) |
[MACE Model Zoo](https://github.com/XiaoMi/mace-models) |
[Demo](mace/examples/android) |
[English](README.md)
**Mobile AI Compute Engine (MACE)** 是一个专为移动端异构计算平台优化的神经网络计算框架。
主要从以下的角度做了专门的优化:
* 性能
* 代码经过NEON指令,OpenCL以及Hexagon HVX专门优化,并且采用
[Winograd算法](https://arxiv.org/abs/1509.09308)来进行卷积操作的加速。
此外,还对启动速度进行了专门的优化。
* 功耗
* 支持芯片的功耗管理,例如ARM的big.LITTLE调度,以及高通Adreno GPU功耗选项。
* 系统响应
* 支持自动拆解长时间的OpenCL计算任务,来保证UI渲染任务能够做到较好的抢占调度,
从而保证系统UI的相应和用户体验。
* 内存占用
* 通过运用内存依赖分析技术,以及内存复用,减少内存的占用。另外,保持尽量少的外部
依赖,保证代码尺寸精简。
* 模型加密与保护
* 模型保护是重要设计目标之一。支持将模型转换成C++代码,以及关键常量字符混淆,增加逆向的难度。
* 硬件支持范围
* 支持高通,联发科,以及松果等系列芯片的CPU,GPU与DSP(目前仅支持Hexagon)计算加速。
同时支持在具有POSIX接口的系统的CPU上运行。
## 开始使用
* [简介](https://mace.readthedocs.io/en/latest/getting_started/introduction.html)
* [创建模型部署文件](https://mace.readthedocs.io/en/latest/getting_started/create_a_model_deployment.html)
* [如何构建](https://mace.readthedocs.io/en/latest/getting_started/how_to_build.html)
## 性能评测
[MACE Model Zoo](https://github.com/XiaoMi/mace-models)
包含若干常用模型,并且会对一组手机进行每日构建。最新的性能评测结果可以从项目的持续集成页面获取。
## 交流与反馈
* 欢迎通过Github Issues提交问题报告与建议
* 邮件列表: [mace-users@googlegroups.com](mailto:mace-users@googlegroups.com)
* QQ群: 756046893
## License
[Apache License 2.0](LICENSE).