天空之眼(Sky In the Eye) ,不只是斯内普教授的遗作,也是一组研究人员为自己的新论文,选定的题目。
这项研究里,无人机并不是要轰炸恐怖分子,而是用于实时监测公共场所可能出现的暴力行为。
团队选择的无人机是Parrot AR,并不是太厉害的装备。
不过,这暂时不重要,因为无人机只要搭载摄像头和无线网络就好。
影像数据实时传输出来,隐蔽在大后方的计算设备就可以分析无人机所在环境里,是不是存在不安定的躯体了。
你胳膊的朝向很危险
AI要检测的暴力动作,一共有5种:扼杀、拳打、踢踹、枪击,以及刺伤。
自志愿者们假装互相伤害的视频,会告诉AI这些动作都是什么样子。
系统先用FPN (特征金字塔网络) 来检测,视频里出现的所有人类。标出头、上肢、下肢三个部分的14个重要位点,画出人体的骨架。
然后,SHDL网络可以分析四肢朝向等数据,判断那些人是不是在使用暴力。
你们人多,AI怕了
当视频里只有一个人姿势暴力,AI识别暴力行为的准确率高达94%,令人鼓舞。
然而,随着画面中暴力人数的增加,准确率开始节节败退。
当同框的不安定个体增加到10个,准确率只剩79%。
研究人员说,这可能是因为人多的时候,FPN无法准确找出所有人,或是SHDL的姿势判断难度更大了。
不过,论文并没有提到“谎报军情”的数据,并不知道有没有正常的亲昵行为被误认成了暴力。
群演可能太浮夸
研究使用的AVI数据集(Aerial Violent Individual Dataset) ,包含2,000幅加了注释的图像,一共有5124个人类参与到了假装暴力的活动中。
这些图像的拍摄条件各不相同,无人机所在的位置、光照情况以及模糊程度等等皆有变化。
△有点模糊的,阳光灿烂的日子
即便是这样,志愿者动作夸张(但不会碰到对方) 的借位表演,还是和现实有些差距的。
喧嚣的世界里,拍摄的图像可能更模糊,出现在画面里的人可能更多,行为也更复杂,就像研究结果显示的那样——系统更容易出现误判。
于是,研究人员打算让无人机带AI实战一圈。
过不了多久,在印度理工学院的瓦朗加尔校区,Technozion和Spring Spree两场熙熙攘攘的大型活动上,就能看到几个小哥哥测试无人机的身影。
还好挖鼻孔不是很暴力
即便技术还没有做好落地的准备,许多研究团队已经在监测动作的路上走了许久。
Facebook开发的DensePose系统,也是用来估计人体姿势,还晋级了今年CVPR的Oral环节。
毕竟,这是一个很容易获得无人机和无线网络的年代,监控系统里也有了更多等待挖掘的宝藏。
然而,人类还是不免担心,当自动化监控的大网张开,一举一动都无所遁形,丧失了自在的生活空间。
如果有一天,就算在空旷的大街上,也不能放心地挖鼻孔了,可能真的会有点心累吧。
2025-04-28 13:44
2025-04-27 11:13
2025-04-27 11:01
2025-04-24 10:38
2025-04-24 10:30
2025-04-24 10:27
2025-04-23 10:17
2025-04-22 13:08
2025-04-22 13:07
2025-04-21 11:03