继程序员奶爸用树莓派自制AI婴儿监视器后,网友实现远程监控

人工智能应用1年前 (2023)发布 aixure
75 0 0
导读:近日,国外一位刚刚荣升奶爸的技术博主 Fabio Manganiello 为了更好地照看孩子,利用树莓派与 Tensorflow 自制了一个智能婴儿监视系统。 该系统不仅能在孩子啼哭时自动发出通知,还能够分析哭声推断出孩子的需求。 Fabio 首先给这个智能婴儿监视器定义了一些…

近日,国外一位刚刚荣升奶爸的技术博主 Fabio Manganiello 为了更好地照看孩子,利用树莓派与 Tensorflow 自制了一个智能婴儿监视系统。

该系统不仅能在孩子啼哭时自动发出通知,还能够分析哭声推断出孩子的需求。

Fabio 首先给这个“智能婴儿监视器”定义了一些需要的功能:

基于低成本的树莓派(RaspberryPI)与 USB 麦克风

该设备不是一个单纯的对讲机。当孩子开始/停止哭泣时,它可以检测到孩子的哭声并发出通知(理想情况下是通过手机),或者跟踪仪表板上的数据点,或者运行相应的任务。

该设备能够在扬声器,智能手机,电脑等设备上传输音频。

系统不受源和扬声器之间距离的影响,无需在整个房子里将扬声器移来移去。

配备一个摄像头,可以利用摄像头对孩子实时监控,当他一开始哭,就可以抓拍到图片或婴儿床的短视频,以检查有什么不对劲。

根据以上需求,Fabio 选用 RaspberryPi Zero 与 PiCamera 组合自制了一个监控设备:

简要步骤是通过 SD 卡给树莓派装上 Linux 操作系统,运行 Tensorflow 模型,采集婴儿啼哭的音频样本。有了足够的音频样本后,就能生成数据集并训练模型,然后利用模型对婴儿的啼哭进行行为预测。最后在手机上通过 VLC 应用程序或利用 RPi Camera Viewer 应用程序就能观看视频。

树莓派如何与Python实现远程监控?

依赖库树莓派(服务器端)安装系统

安装好官方的raspbian系统后,最好先更新一下(不是必须的):

sudo apt-get update

sudo apt-get upgrade

安装opencv

通常安装opencv有两种方式:使用apt-get直接从软件源获取编译好的opencv,或是自己从官网下载源码编译后安装。我个人比较喜欢后者,通常在自己的电脑上都会自己取编译想要用的版本。

但是在树莓派上编译着实比较麻烦,各种依赖库的问题,如果不想折腾的话建议还是使用前者的方法。

sudo apt-get install libopencv-dev

sudo apt-get install python-opencv

安装PIL

PIL(python image lipary)是十分好用的一个可用于python的图像处理库,后面要用到它进行图像的压缩。

sudo apt-get install python-imaging

其他

如果还碰到其他的库没有的情况,请自行使用pip安装。

客户端

我的客户端就是自己的笔记本,环境都是很早就配好的,因为经常用到opencv、numpy等库。考虑到有些人的电脑可能没有安装好,所以还是简要介绍一下。自己配开发环境是最基本的技能了。

numpy

太常用了,不过安装是不要用pip来,可能会报错,我通常是使用如下指令来安装:

sudo apt-get install python-numpy

PIL指令同树莓派。sudo apt-get install python-imaging

opencv

可以直接apt-get安装,不过不能指定版本;我个人喜欢用opencv3.0以上的,所以是从源码安装的。相关安装教程请问度娘,花些时间就能搞定。

其他

如果在后面运行程序时碰到了某些库没有,可以考虑用pip安装或是向前面一样使用sudo apt-get install python-(库的名字)。

如何在树莓派上使用usb摄像头

1.首先更新firmware

2.插上usb摄像头,输入ls /dev, 查看dev中是否存在一个video0这个设备,如果有了说明系统识别了,如果不认,重复第一步确保firmware最新,还不行就换摄像头吧。

3.安装mplayer,输入

sudo apt-get install mplayer

4.输入命令播放摄像头视频

sudo mplayer tv://

程序实现使用python在本地读取摄像头并实时显示

在进入正题之前,我们要先实现在本地读取摄像头,测试正常通过后再放到服务器上测试。

创建一个python脚本,名字为:local_camera.py,代码如下:

#coding=utf-8

import cv2

# 打开摄像头

capture = cv2.VideoCapture(0)

while True:

# 从摄像头读取一帧图像;如果读取失败,ret为False,如果成功,ret为true;frame存储了那一帧的数据。

ret, frame = capture.read()

# print(ret)

# 显示图像

cv2.imshow("camera", frame)

if cv2.waitKey(10) == 27:

peak

cv2.destroyAllWindows()

capture.release()

程序很简单,不多说了,运行通过后,再往下一步走。

数据源端

创建一个python脚本,名字为:src_camera,py,代码如下:

import cv2

import time

import socket

import Image

import StringIO

# 获取摄像头

cap = cv2.VideoCapture(0)

# 调整采集图像大小为640*480

cap.set(cv2.cv.CV_CAP_PROP_FRAME_WIDTH, 640)

cap.set(cv2.cv.CV_CAP_PROP_FRAME_HEIGHT, 480)

# 这里的HOST对应树莓派的IP地址(自己输入ifconfig查),端口号自己随便定一个即可,但注意后面的程序中要保持统一

HOST, PORT = '192.168.0.113', 9999

# 连接服务器

sock =socket.socket(socket.AF_INET, socket.SOCK_STREAM)

sock.connect((HOST, PORT))

while True:

# 获取一帧图像

ret, img = cap.read()

# 如果ret为false,表示没有获取到图像,退出循环

if ret is False:

print("can not get this frame")

continue

# 将opencv下的图像转换为PIL支持的格式

pi = Image.fromarray(cv2.cvtColor(img, cv2.COLOR_BGR2RGB))

buf = StringIO.StringIO()# 缓存对象

pi.save(buf, format='JPEG')# 将PIL下的图像压缩成jpeg格式,存入buf中

jpeg = buf.getvalue()# 从buf中读出jpeg格式的图像

buf.close()

transfer = jpeg.replace('\n', '\-n')# 替换\n为\-n,因为后面传输时,终止的地方会加上\n,可以便于区分

print len(transfer), transfer[-1]

sock.sendall(transfer + "\n")# 通过socket传到服务器

# time.sleep(0.2)

sock.close()

这部分代码实现的功能是:在树莓派端读取摄像头,使用socket包连接到服务器,并将从摄像头读取的数据发送到服务器上。

注释都在程序中。程序中我们使用socket包来将数据传到服务器,为了减少数据量,所以我们还需要对原始图像进行压缩。而压缩则是通过PIL将图像压缩成jpeg格式,而PIL支持的图像格式与opencv不同,所以在程序中还对其进行了转换。

服务器端

创建一个python脚本,名字为:server_camera,py,代码如下:

import socket

import time

sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

sock.bind(("192.168.0.113", 9999))# 注意bind的这里,IP地址和端口号都要与前面的程序中一样

sock.listen(2)# 监听端口

# 等待数据源端连接

src, src_addr = sock.accept()

print "Source Connected by", src_addr

# 等待目标端连接

dst, dst_addr = sock.accept()

print "Destination Connected by", dst_addr

while True:

msg = src.recv(1024 *1024)

if not msg:

peak

try:

dst.sendall(msg)

except Exception as ex:

dst, dst_addr = sock.accept()

print "Destination Connected Again by", dst_addr

except KeyboardInterrupt:

print "Interrupted"

peak

src.close()

dst.close()

sock.close()

目标端(客户端)

创建一个python脚本,名字为:dst_camera,py,代码如下:

import cv2

import socket

import time

import Image

import StringIO

import numpy as np

# 注意IP地址和端口号与前面的程序中的保持一致

HOST, PORT = "192.168.0.113", 9999

# 连接到服务器

sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

sock.connect((HOST, PORT))

f = sock.makefile()

cv2.namedWindow("camera")

while True:

# 从服务器读取数据,一行的结尾是'\n',注意我们前面已经将每一帧数据的'\n'替换成'\-n',而结尾就是'\n'

msg = f.readline()

if not msg:

peak

print len(msg), msg[-2]

# 将'\-n'换回来成'\n'

jpeg = msg.replace("\-n", "\n")

buf = StringIO.StringIO(jpeg[0:-1])# 缓存数据

buf.seek(0)

pi = Image.open(buf)# 使用PIL读取jpeg图像数据

# img = np.zeros((640, 480, 3), np.uint8)

img = cv2.cvtColor(np.asarray(pi), cv2.COLOR_RGB2BGR)# 从PIL的图像转成opencv支持的图像

buf.close()

cv2.imshow("camera", img)# 实时显示

if cv2.waitKey(10) == 27:

peak

sock.close()

cv2.destroyAllWindows()

目标端,也可以说是客户端,这是真正的我们可以看到实际输出的部分了。从服务器读出数据然后显示即可。

运行结果

接下来看下运行结果了。

先运行服务器端的程序,输入python server_camera.py;

然后运行数据源端的程序,输入python src_camera.py;

最后在自己的客户端上运行程序,输入python dst_camera.py;

如果你想要控制帧率,可以在src_camera.py中更改time.sleep(0.2)这句代码的参数,来控制延时时间。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...