<h2>简介</h2> <p>ncnn 是一个为手机端极致优化的高性能神经网络前向计算框架。ncnn 从设计之初深刻考虑手机端的部署和使用。无第三方依赖,跨平台,手机端 cpu 的速度快于目前所有已知的开源框架。基于 ncnn,开发者能够将深度学习算法轻松移植到手机端高效执行,开发出人工智能 APP,将 AI 带到你的指尖。ncnn 目前已在腾讯多款应用中使用,如 QQ,Qzone,微信,天天P图等。</p> <p style="text-align: center;"><img alt="" src="https://simg.open-open.com/show/b19d69fa5e119d724a0478684f28f1b0.jpg" /></p> <h3>功能概述</h3> <ul> <li>支持卷积神经网络,支持多输入和多分支结构,可计算部分分支</li> <li>无任何第三方库依赖,不依赖 BLAS/NNPACK 等计算框架</li> <li>纯 C++ 实现,跨平台,支持 android ios 等</li> <li>ARM NEON 汇编级良心优化,计算速度极快</li> <li>精细的内存管理和数据结构设计,内存占用极低</li> <li>支持多核并行计算加速,ARM big.LITTLE cpu 调度优化</li> <li>整体库体积小于 500K,并可轻松精简到小于 300K</li> <li>可扩展的模型设计,支持 8bit 量化和半精度浮点存储,可导入 caffe 模型</li> <li>支持直接内存零拷贝引用加载网络模型</li> <li>可注册自定义层实现并扩展</li> <li>恩,很强就是了,不怕被塞卷 QvQ</li> </ul> <h3><a href="/misc/goto?guid=4959009932401763040">项目首页</a></h3> <h3> </h3>