我也要做算法,一文学会如何在Ubuntu上编译深度学习框架Caffe
ccwgpt 2024-09-29 09:56 22 浏览 0 评论
最近几年,得益于计算机计算能力的飞速提升,互联网的高速发展和应用产生海量的数据,依赖计算能力和大数据的深度学习发展迅速,以人脸识别、语音识别为代表的人工智能行业非常火热,几乎每一家科技公司都会提出 AI 的概念。
深度学习发展的相当迅速,以至于这个行业的人才紧缺,根据近几年的行业薪水统计,人工智能相关的人才薪资总体遥遥领先于其他行业,可见一斑。
再先进的科技总归要落地于企业级的应用才会真的火热,早期若要将深度学习算法应用到实践中,少不了编写程序,遗憾的是,精通算法的人才不一定也精通编程,一套优秀的算法可能会因为水平稍次的程序效率大打折扣,这也不利于研究人员集中精力研究算法,也不利于人们交流彼此的算法(没有统一的标准)。
为此,各种深度学习框架逐步出现。本文不打算讨论各种深度学习框架的特点和区别,鉴于我接触的很多项目都需要 Caffe 支持,所以。。。
若要学习 Caffe,首要任务当然是安装它。下面将在 Ubuntu 16.04 X86_64 系统中安装 Caffe。
Caffe 的安装
首先需要安装一批 caffe 的依赖库,这些依赖库一般都可以通过 apt 命令安装,依次输入以下命令:
$ sudo apt update $ sudo apt install git $ sudo apt install libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler $ sudo apt install --no-install-recommends libboost-all-dev $ sudo apt install libatlas-base-dev $ sudo apt install python-dev $ sudo apt install libgflags-dev libgoogle-glog-dev liblmdb-dev
安装完依赖库后,使用 git 命令从 GitHub 下载 Caffe 源代码后:
$ git clone https://github.com/bvlc/caffe.git
在编译之前,需要配置 makefile,这个配置项可以直接在官方提供的模版基础上修改:
$ cp Makefile.config.example Makefile.config $ vim Makefile.config
如果所使用机器没有 GPU,则可以编译只有 CPU 版本的,方法就是修改 Makefile.config 中的 CPU_ONLY 选项,将其解注释(删除前面的'#')。输入以下命令即可编译:
$ make -j
-j 选项可以自动使用所有可利用 CPU 编译。也可以在其后手动指定使用的 CPU 个数。
编译 Caffe 可能会遇到的问题
在编译过程中,我遇到了下面这样的错误:
fatal error: hdf5.h: No such file or directory compilation terminated
这是因为 Makefile 找不到 hdf5.h 头文件,可是依赖库明明已经通过 apt 命令安装了,所以这里需要手动指定。打开 Makefile.config 文件,搜索 INCLUDE_DIRS,在其后添加我们安装的 hdf5 头文件所在目录,我的是 /usr/include/hdf5/serial:
然后再打开 Makefile,搜索LIBRARIES,对两个依赖库添加后缀_serial(这是由前面安装的 hdf5 决定的):
再次输入 make 命令,发现上述问题解决了。但是又遇到了下面这样的错误:
.build_release/lib/libcaffe.so: undefined reference to cv::imread(cv::String const&, int)
这是因为我前面通过 apt 命令安装的 OpenCV 是 3.3.1 版本的,所以需要在 Makefile.config 中指定使用的是 OpenCV 3:
再次输入 make 命令,发现 Caffe 编译完成了。
Caffe 的依赖库
在编译 Caffe 之前,安装了不少依赖库,这些依赖库都是干什么用的呢?
Snappy
Caffe 主要使用 Snappy 处理一些压缩和解压缩工作,Snappy 比 Zlib 快,但是压缩率没有 Zlib 高,文件相对要大 20%~100%。
LMDB 和 LEVELDB
这两个库可以非常快速的将原始数据(raw图片,或者raw二进制数据)以 Key-Value 的形式快速映射到内存,在 Caffe 中起到数据管理的作用。
HDF5
HDF5 是一种能够高效存储和分发的新型数据格式,能够在不同类型的机器上传输并且解析,Caffe 主要使用它存储不同类型的图像和数码数据的文件。
ProtoBuffer
ProtoBuffer 是 Google 开发的一种可以实现内存与非易失存储介质(如硬盘)交换的协议接口,Caffe 大量使用了该协议接口作为权值和模型参数的载体。
所谓的“协议”,其实就是为了统一标准。因为 Caffe 会产生大量的参数权值,如何存储和使用它的方法五花八门,而每个人都有自己的使用习惯,有人喜欢 txt 文件的易修改,有人喜欢 bin 文件的高效读写。
如果不能统一标准,就会对开发组的协作产生阻碍,因此 ProtoBuffer 就被使用了,它甚至还能跨语言(C++/Java/Python)传递相同的数据结构,让开发组的协作更有效率。
输入以下命令:
$ vim models/bvlc_reference_caffenet/train_val.prototxt
该文件记录了模型训练所需的一些参数,使用 Caffe 训练时会首先读取该文件。而将数据从该磁盘文件读取到内存的过程就是有 ProtoBuffer 完成的。
#include "caffe.pb.h" #include "google/protobuf/io/coded_stream.h" #include "google/protobuf/io/zero_copy_stream_impl.h" #include "google/protobuf/text_format.h" caffe::SolverParameter param; int fd = open(filename, O_RDONLY); google::protobuf::io::FileInputStream *input = new google::protobuf::io::FileInputStream(fd); google::protobuf::TextFormat::Parse(input, ?m);
只需要上述几行简单的代码,就可以将 filename 中的内容解析到 param 中。例如,输出 device_id 的代码可以这样写:
cout<<"Device id: "<<param.device_id()<<endl;
关于 Caffe 中的 ProtoBuffer 的更多细节,可以参考 caffe.proto 中的 SolverParameter 协议、caffe.pb.h、caffe.pb.cc。
GLOG
GLOG 是 Google 开发的用于记录程序日志的库,能够设置不同的日志级别,便于区分查看。开发者通过日志可以查看 Caffe 训练过程中的输出并依此调参控制收敛,还可以通过它定位问题,跟踪源码等。
BLAS
Caffe 中有大量的矩阵和向量运算,这一过程使用了 BLAS 中的相应方法,比较常用的有 Intel MKL,ATLAS,OpenBLAS 等。打开编译时的配置文件 Makefile.config,即可看到相应的设置:
小结
本节主要介绍了如何在 Ubuntu 16.04 系统中编译深度学习框架 Caffe,并给出了可能出错的原因和解决方法。最后还逐一讨论了 Caffe 各个依赖库的作用,稍后几节将讨论如何使用 Caffe 框架自己训练智能模型,并使用自己训练的模型做出一些智能行为。
欢迎在评论区一起讨论,质疑。文章都是手打原创,每天最浅显的介绍C语言、linux等嵌入式开发,喜欢我的文章就关注一波吧,可以看到最新更新和之前的文章哦。
未经许可,禁止转载。
相关推荐
- 想快速上手Python网络爬虫?这份实战指南你不能错过!
-
以下是关于Python网络爬虫实战的详细指南,涵盖基础知识、常用工具、实战案例及注意事项:一、爬虫基础概念1.什么是网络爬虫?o通过自动化程序从网页上抓取并提取数据的工具。o核心步骤:请求网...
- python爬虫怎么副业接单
-
其实这个问题也挺重要的,花了时间花了经历去学了python爬虫,本想靠着这个技能去补贴家用或者挣点零花钱,但是发现有时候的单子是自己力所不能及的,有的东西真的是不会,又或者不知从何下手。那么这篇文章主...
- 用Python写了一个图像文字识别OCR工具
-
人生苦短,快学Python!在之前的文章里,我们多次尝试用Python实现文本OCR识别!今天我们要搞一个升级版:直接写一个图像文字识别OCR工具!引言最近在技术交流群里聊到一个关于图像文字识别的...
- taskPyro:为 Python 任务与爬虫插上自动化翅膀的开源利器
-
在数据驱动的时代,无论是数据采集、ETL流程,还是定期的系统维护脚本,高效、可靠的任务调度成为了许多开发者和运维人员的刚需。特别是对于Python开发者而言,如何优雅地管理和调度日益增多的爬虫任...
- 网络爬虫:Python动态网页爬虫2种技术方式及示例
-
作者:糖甜甜甜https://mp.weixin.qq.com/s/5Dwh5cbfjpDfm_FRcpw1Ug这一讲,我将会为大家讲解稍微复杂一点的爬虫,即动态网页的爬虫。动态网页技术介绍动态网页爬...
- 30个小时搞定Python网络爬虫(全套详细版)
-
【课程介绍】适用人群1、零基础对Python网络爬虫感兴趣的学员2、想从事Python网络爬虫工程师相关工作的学员3、想学习Python网络爬虫作为技术储备的学员课程目标1、本课程的目标是将大家培养成...
- python爬虫常用工具库总结
-
说起爬虫,大家可能第一时间想到的是python,今天就简单为大家介绍下pyhton常用的一些库。请求库:实现基础Http操作urllib:python内置基本库,实现了一系列用于操作url的功能。...
- 玛森:Python爬虫书籍推荐
-
Python爬虫书籍推荐什么?玛森科技徐老师介绍,网络爬虫现在很火,不管业内人士或业外人士,大家对爬虫或多或少都有一些了解,网络爬虫通俗的讲,就是通过程序去互联网上面爬取想要的内容,并且爬取的过程...
- 如何入门python爬虫?
-
1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...
- 爬虫修炼手册,Python爬虫学习入门Scrapy
-
爬虫就如同江湖中的神秘侠客,应运而生,成为了我们获取数据的得力助手。爬虫,正式名称是网络爬虫(WebCrawler),也被叫做网页蜘蛛、网络机器人,它是一段神奇的计算机代码,能够自动在互联网的信息...
- 如何入门 Python 爬虫?
-
1.很多人一上来就要爬虫,其实没有弄明白要用爬虫做什么,最后学完了却用不上。大多数人其实是不需要去学习爬虫的,因为工作所在的公司里有自己的数据库,里面就有数据来帮助你完成业务分析。什么时候要用到爬虫呢...
- 有了这4张思维导图,带你Python(爬虫)轻松入门
-
刚接触Python爬虫,该怎么学更有效?指南君给大家带来了这四张思维导图。非常适合刚开始学Python爬虫的同学用于回顾知识点、巩固学习情况等。话不多说,快来学习Python爬虫入门的最强干货吧!P...
- python爬虫教程之爬取当当网 Top 500 本五星好评书籍
-
我们使用requests和re来写一个爬虫作为一个爱看书的你(说的跟真的似的)怎么能发现好书呢?所以我们爬取当当网的前500本好五星评书籍怎么样?ok接下来就是学习python的正确姿...
- 超实用!Python 在爬虫和自动化领域的 8 类工具与技术大盘点
-
Python在爬虫和自动化领域拥有丰富的工具库和框架,以下是一些常用工具和技术的分类整理,帮助你高效实现数据抓取和自动化任务:1.基础HTTP请求库oRequestso简洁的HTTP库...
- 学习Python的第四天之网络爬虫
-
30岁程序员学习Python的第四天之网络爬虫的Scrapy库Scrapy库的基本信息Scrapy库的安装在windows系统中通过管理员权限打开cmd。运行pipinstallscrapy即可安...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- MVC框架 (46)
- spring框架 (46)
- 框架图 (58)
- bootstrap框架 (43)
- flask框架 (53)
- quartz框架 (51)
- abp框架 (47)
- jpa框架 (47)
- laravel框架 (46)
- express框架 (43)
- springmvc框架 (49)
- 分布式事务框架 (65)
- scrapy框架 (56)
- shiro框架 (61)
- 定时任务框架 (56)
- grpc框架 (55)
- ppt框架 (48)
- 内联框架 (52)
- winform框架 (46)
- gui框架 (44)
- cad怎么画框架 (58)
- ps怎么画框架 (47)
- ssm框架实现登录注册 (49)
- oracle字符串长度 (48)
- oracle提交事务 (47)