图像处理的演示。
参考链接
- LENA.JS,by Davidson Fellipe.
当观察场景的是一个固定的相机,背景几乎保持不变。在这种情况下,感兴趣的元素是在场景中运动的物体。我们将这些运动的物体称为前景,为了提取出这些前景物体,我们需要对背景建模,然后将当前帧的模型与背景模型进行比较,以检测前景物体。
运动前景对象的有效检测对于对象跟踪、目标分类、行为理解等后期处理至关重要。区分前景对象,关键的一个问题是:确定一个非常合适的背景。背景从象素的角度来理解,每一个象素就是有可能是前景点,也有可能是背景点,那么我们就要防止背景中误进入原属于前景点的对象,目前有几种常用的方法,但分别有利弊。
具体请参考OpenCV视频篇——背景/前景提取。
背景就是上一帧图像。每一帧与上一帧进行差分运算。
优点:速度较快,稳定性较好。
缺点:可能出现物体的“空洞现象”,空洞是由于某一大型运动物体,它的两帧之间存在象素十分接近的重合部分,所以导致这部分被差分剪去了。
双目测距实际操作分4个步骤:相机标定——双目校正——双目匹配——计算深度信息。
为提供静态资源web服务,安装好nginx后,进入nginx安装目录的conf目录下,修改nginx.conf文件,配置如下:
1 | server { |
对 TensorFlow Raspbian package 进行交叉编译 (cross-compiling)。 交叉编译使用的平台与部署平台不同。 相较于在 Raspberry Pi 使用有限的 RAM 和相对较慢的处理器,我们更加建议在 Linux ,macOS 或 Windows 等功能更强大的主机上构建TensorFlow。
为了简化依赖关系管理,构建脚本使用 Docker 来创建虚拟 Linux 开发环境进行编译。通过执行以下操作来验证您的 Docker 是否安装成功: docker run –rm hello-world。
具体安装过程请参考如何在 Ubuntu 20.04 上安装和使用 Docker。
以 koa-demos 项目为例,介绍怎么写 Dockerfile 文件,实现让用户在 Docker 容器里面运行 Koa 框架。
1 | git clone https://github.com/ruanyf/koa-demos.git |
首先,在项目的根目录下,新建一个文本文件.dockerignore,写入下面的内容。
1 | .git |
上面代码表示,这三个路径要排除,不要打包进入 image 文件。如果你没有路径要排除,这个文件可以不新建。
然后,在项目的根目录下,新建一个文本文件 Dockerfile,写入下面的内容。
1 | FROM node:8.4 |
有了 Dockerfile 文件以后,就可以使用docker image build命令创建 image 文件了。
1 | $ docker image build -t koa-demo . |
如果运行成功,就可以看到新生成的 image 文件koa-demo了。
1 | docker image ls |
docker container run命令会从 image 文件生成容器。
1 | $ docker container run -p 8000:3000 -it koa-demo /bin/bash |
使用 Git 克隆 TensorFlow:
1 | git clone https://github.com/tensorflow/tensorflow.git |
默认为 master 分支。您还可以签出要构建的 release 分支:
1 | git checkout branch_name # r1.9, r1.10, etc. |
交叉编译 TensorFlow 源代码,从而构建一个基于 ARM 指令的 Python pip 包。构建脚本启动 Docker 容器以进行编译。
使用如下命令获得所需Docker映像:
1 | git clone https://github.com/lhelontra/tensorflow-on-arm.git |
使用如下命令:
1 | docker run -it -v /tmp/tensorflow_pkg/:/tmp/tensorflow_pkg/ --env TF_PYTHON_VERSION=3.8 tf-arm ./build_tensorflow.sh configs/<conf-name> # rpi.conf, rk3399.conf ... |
使用如下命令交叉编译tensorflow:
1 | # Docker容器内设置全局代理 |
本文记录在树莓派3B+上配置tensorflow运行环境的过程。
请参考树莓派操作系统镜像烧录方法指南。
或者使用官方的系统映像烧录工具Raspberry Pi Imager, 烧录最新的树莓派操作系统。注意,烧录前配置使用ssh密码登录,并配置连接好wifi。建议不要使用最新的树莓派操作系统,而是选择legacy,debian10。
启动系统后使用如下命令连接系统:
1 | # ssh登录系统 |
1 | python3 -m venv tf2_api_env |
TensorFlow Model Garden。TensorFlow 模型花园是一个存储库,为 TensorFlow 用户提供了许多不同的最先进 (SOTA) 模型和建模解决方案的实现。我们旨在展示建模的最佳实践,以便 TensorFlow 用户可以充分利用 TensorFlow 进行研究和产品开发。
1 | git clone https://github.com/tensorflow/models |
配置目标检测API目录,以便python能找到object detect api。使用pth文件,将object detect模块的路径添加到python模块的搜索路径中。在python安装目录的Lib\site-packages下创建tensorflow.pth文件,在其中添加Object Detection API文件路径:
1 | # 创建tensorflow.pth文件,输入如下内容 |
安装Protobuf的过程具体参考TensorFlow2.x目标检测API安装配置步骤详细教程 Object Detection API with TensorFlow2.x 。
1 | cd models/research/ |
可选。请参考修改树莓派3B+的软件源-Raspbian(stretch)。
可选。使用命令sudo leafpad /etc/dhcpcd.conf,修改dhcp配置文件,配置使用静态ip。
1 | interface wlan0 |
可选。请参考解决树莓派磁盘没有占满整个sd卡的方法。
可选。
1 | sudo apt-get install proxychains |
可选,重点是安装python3.7。在linux操作系统中:
1 | wget https://raw.githubusercontent.com/pyenv/pyenv-installer/master/bin/pyenv-installer |
使用命令leafpad .bashrc打开.bashrc文件,在其末尾输入如下内容:
1 | export PYENV_ROOT="$HOME/.pyenv" |
安装python 3.7.3:
1 | sudo apt-get install -y make build-essential libssl-dev zlib1g-dev libbz2-dev \ |
可选。使用如下命令在树莓派上安装docker:
1 | curl -fsSL https://get.docker.com -o get-docker.sh |
使用如下命令下载含tensorflow环境的docker映像:
1 | docker pull armswdev/tensorflow-arm-neoverse:r22.05-tf-2.8.0-eigen |
使用如下命令启动docker容器:
1 | # 注意-v等所有选项必须在image之前 |
具体使用过程请参考TensorFlow Serving with Docker 。
可选。
1 | # 创建虚拟环境 |
1 | # 进入虚拟环境 |
给树莓派3B安装好系统后,接下来就是访问树莓派了。主要有三种方法:
请参考树莓派学习之USB转串口
如果存在树莓派连接好wifi后无法上网的问题,请参考树莓派 3B+/4B 连接“手机热点“或“WiFi“ 后无法上网(必解)
请参考树莓派使用网线直连电脑的方法。
最近想研究一下红外图像的对象检测算法,于是先拿TensorFlow对象检测API学习一下。
准备工作主要有:
1 | pyenv install 3.9.6 |
在windows系统中,使用如下命令:
1 | # 使用venv |
在Linux系统中,使用如下命令:
1 | # 使用pyenv |
1 | # 进入虚拟环境 |
1 | # 如果没有独立GPU |
如果机器上有nvidia的显卡,则安装tensorflow的gpu版本,具体步骤如下:
第一步,安装tensorflow-gpu。
1 | # 如果有独立GPU |
第二步,安装CUDA与cuDNN。
第三步,测试tensorflow能否识别使用nvidia gpu。
1 | import tensorflow as tf |
1 | # tensorflow环境测试 |
TensorFlow Model Garden。TensorFlow 模型花园是一个存储库,为 TensorFlow 用户提供了许多不同的最先进 (SOTA) 模型和建模解决方案的实现。我们旨在展示建模的最佳实践,以便 TensorFlow 用户可以充分利用 TensorFlow 进行研究和产品开发。
1 | git clone https://github.com/tensorflow/models |
存在两种安装TensorFlow Models中的Object Detection 模块的方法,如下所示:
1 | # 创建tensorflow.pth文件,输入如下内容 |
1 | # From within TensorFlow/models/research/ |
安装Protobuf的过程具体参考TensorFlow2.x目标检测API安装配置步骤详细教程 Object Detection API with TensorFlow2.x 。
1 | cd models/research/ |
1 | # 测试tf object detect api |
数据集是进行深度学习的前提和基础。
我们创建了一个包含 37 个类别的宠物数据集,每个类别大约有 200 张图像。这些图像在比例、姿势和照明方面有很大的变化。所有图像都有相关的品种、头部 ROI 和像素级三元图分割的地面实况注释。
具体下载地址请参考Oxford-IIIT 宠物数据集。
MS COCO的全称是Microsoft Common Objects in Context,起源于微软于2014年出资标注的Microsoft COCO数据集,与ImageNet竞赛一样,被视为是计算机视觉领域最受关注和最权威的比赛之一。
COCO数据集是一个大型的、丰富的物体检测,分割和字幕数据集。这个数据集以scene understanding为目标,主要从复杂的日常场景中截取,图像中的目标通过精确的segmentation进行位置的标定。图像包括91类目标,328,000影像和2,500,000个label。目前为止有语义分割的最大数据集,提供的类别有80 类,有超过33 万张图片,其中20 万张有标注,整个数据集中个体的数目超过150 万个。
请参考COCO数据集使用。
完整的COCO数据集有十几个G大小,我们没有必要全部下载下来,只需要下载自己感兴趣的类别图像即可。这时就需要使用COCOAPI。
COCO API 协助加载、解析和可视化 COCO 中的注释。API 支持多种注释格式(请参见数据格式页面)。
1 | git clone https://github.com/cocodataset/cocoapi.git |
进入COCOAPI的PythonAPI文件夹,输入如下命令:
1 | python setup.py build_ext install |
安装错误解决方法请参考错误:cl: 命令行 error D8021 :无效的数值参数“/Wno-cpp”。
LabelImg 是一个图形图像标注工具。它是用 Python 编写的,并使用 Qt 作为其图形界面。
注释以 PASCAL VOC 格式保存为 XML 文件,这是ImageNet使用的格式。此外,它还支持 YOLO 和 CreateML 格式。
可以从LabelImg的官方存储库labelImg中下载最新的LabelImg工具。
可使用python脚本,请参考partition_dataset.py。
TensorFlow 需要一个标签映射,即将每个使用的标签映射到一个整数值。此标签图用于训练和检测过程。
下面我们展示一个示例标签映射(例如label_map.pbtxt),假设我们的数据集包含 2 个标签,dogs并且cats:
1 | item { |
标签地图文件有扩展.pbtxt名,应该放在training_demo/annotations文件夹内。
TFRecord 是Google官方推荐的一种数据格式,是Google专门为TensorFlow设计的一种数据格式。通过将训练数据或测试数据打包成TFRecord文件,就可以配合TF中相关的DataLoader / Transformer等API实现数据的加载和处理,便于高效地训练和评估模型。
实际上,TFRecord是一种二进制文件,其能更好的利用内存,其内部包含了多个tf.train.Example, 而Example是protocol buffer(protobuf) 数据标准的实现,在一个Example消息体中包含了一系列的tf.train.feature属性,而 每一个feature 是一个key-value的键值对,其中,key 是string类型,而value 的取值有三种:
从此处TensorFlow 2 Detection Model Zoo选择预训练模型下载。此处下载SSD ResNet50 V1 FPN 640x640 模型。
修改模型文件夹下的pipeline.config文件,用于训练自己的模型。以SSD ResNet50 V1 FPN 640x640模型的pipeline.config文件为例,具体些修改内容如下:
1 | model { |
将TensorFlow/models/research/object_detection/model_main_tf2.py文件粘贴到training_demo文件夹。该文件是训练和评估新模型的入口文件。
使用如下命令开始训练新模型:
1 | cd J:\tensorflow\workspace\training_demo |
注意:此处参数–model_dir是模型输出目录,除了存在pipeline.config外,应该是空的。*否则将发生错误Pretrained Models number of classes doesnt match own dataset number of classes : Cannot assign to variable。
使用如下命令评估训练好的模型:
1 | cd J:\tensorflow\workspace\training_demo |
使用如下命令监控模型训练进度:
1 | cd J:\tensorflow\workspace\training_demo |
上面的命令将启动一个新的 TensorBoard 服务器,它(默认)监听你机器的 6006 端口。完成此操作后,转到您的浏览器并http://localhost:6006/在地址栏中输入,然后您应该会看到一个仪表板(如果您的模型刚刚开始训练,可能会显示较少)。
训练工作完成后,使用如下步骤导出模型:
(1)复制TensorFlow/models/research/object_detection/exporter_main_v2.py脚本并将其直接粘贴到您的training_demo文件夹中。
(2)运行如下命令:
1 | cd J:\tensorflow\workspace\training_demo |
对于一个目标检测模型的好坏,总的来说可以从以下三个方面来评估:
具体内容请参考目标检测模型的评价指标(Acc, Precision, Recall, AP, mAP, RoI)。
目标检测任务是找出图像或视频中人们感兴趣的物体,并同时检测出它们的位置和大小。不同于图像分类任务,目标检测不仅要解决分类问题,还要解决定位问题,是属于Multi-Task的问题。
作为计算机视觉的基本问题之一,目标检测构成了许多其它视觉任务的基础,例如实例分割,图像标注和目标跟踪等等;从检测应用的角度看:行人检测、面部检测、文本检测、交通标注与红绿灯检测,遥感目标检测统称为目标检测的五大应用。
最近家里电信宽带免费设计到千兆了,可是一测试,网速还是百兆,问题出在哪呢?感紧学习一下,解决这个问题。
家里网络是电信光猫加荣耀路由pro2,通过网络测速,发现荣耀路由pro2与光猫之间网速只有百兆。刚开始以为是荣耀路由pro2与光猫之间使用五类线的原因,后面才发现不是这个原因。真正的原因是电信光猫过于老旧,其网口是百兆口。看来只能换新的拥有千兆网口的光猫了。
换光猫步骤如下: