导航:首页 > 源码编译 > 姿态估计算法

姿态估计算法

发布时间:2022-04-23 08:03:19

‘壹’ 帮忙推荐一款国内比较好的动捕设备,感谢!

Nokov动作捕捉系统在无人机领域的应用就很好的,你可以根据不同的任务要求、安全要求、飞行时间和其他战略战术等综合因素,实时捕捉无人机的空间位置、六自由度、四元数、欧拉角、位姿,姿态数据将数据进行实时分析处理,作为无人机动作轨迹估计参数,将数据实时发送给飞控(控制)系统,建立精确的反馈机制。产品,从外观,到硬件、软件和算法的全部核心技术,均有自主知识产权为支撑,技术含量高,关注一下这款产品的公众号上面介绍的很详细哦~

‘贰’ 人体姿态估计研究相关问题

身体基本姿态一般来说是队列动作的基础。整个队列的风貌及整齐度就是有个人的身体姿态来决定的。如果每个成员的身体姿态良好,那么整支队伍的风貌自然也是好的了。不过,好的身体姿态是可以练出来的。例如驼背。可以试着贴墙十至二十分钟。这样一段时间,身体的姿态自然会得到矫正。这个问题没有对与错。只是人体的自身条件而已。

‘叁’ 制作舞蹈机器人都需要学什么.而机器人架构是什么,又该如何制作机器

看你是要做仿人机器人还是轮式或者爬行式机器人。

轮式和爬行式机器人是非常简单的,你只需要了解基本的机器人学知识和常用的动力元件就可以。架构简单点说就是你的机器人整体器件布局以及动力元件的力学传递方式,在制作前最好可以使用一些仿真软件做一些模拟。机器人学的知识可以读一下蔡自兴教授的《机器人技术》。这个有中学的底子我估计就能胜任。实际上这种舞蹈机器人就是一种稍复杂点的玩具,不用想的太高深,只需要一片简单的例如AVR单片机这种运算器件加上一些舵机就完事了,和做四驱车没有本质区别,只要规划好关节自由度,并且学会可以用运算芯片控制舵机进行力学传动就可以。

仿人机器人的话就麻烦大的多,其中最核心的技术就是平衡性问题。目前往往采用的是ZMP判据,难就难在你必须寻求一种算法,使得机器人在作出某个动作的时候可以运算出其他关节的运动来满足平衡条件。因为完成通过一个关节来调整姿态的算法就可以完成一篇硕士论文,所以这个不是三言两语能说清楚的,如果真要做仿人机器人的话你补充一下答案我再给你推荐一些资料。我恰好也是在做这个项目。

‘肆’ 天问一号火星环绕器揭开面纱,具体什么样子

天问一号探测器由环绕器和着陆巡视器组成。这其中,“太空多面手”环绕器“一器分饰多角”,具备三大功能:飞行器、通信器和探测器。天问一号环绕器首先作为飞行器,将着陆巡视器送至火星着陆轨道。待成功释放着陆巡视器后,环绕器作为通信器,为着陆巡视器建立与地球之间的中继通信链路。通信工作结束后,环绕器作为探测器对火星进行科学探测。

“光学导航敏感器就好比天问一号火星探测器自动驾驶过程中的‘眼睛’。”郑循江说。据他介绍,在飞近火星的过程中,探测器靠这双“眼睛”实时观测火星的距离和方向,让飞控团队可以更直观地确认飞行轨道和姿态,计算图像中火星的几何中心和视半径,天问一号也就可以通过最优估计算法,来自主获取实时的位置和速度信息。

郑循江说,7年来,在2500多个日日夜夜的攻关期间,研制团队不是在做试验,就是在去做试验的路上。正是有了广泛的试验数据加持,团队完成了设计方案的多轮优化,最终完成了最恶劣条件下的全部功能及性能的验证。

“这是我国首次在行星际转移飞行过程中应用光学自主导航技术。”郑循江说,国内并无先前的工程经验可参考,研制团队一点点摸索,设计了大大小小百余个试验项目,最终使中国成为世界上第二个掌握并在轨验证了火星光学自主导航技术的国家。

‘伍’ 新版本一甜相机生发屋再哪

在特效里面。
一甜相机由快手官方在2018年8月推出,主打高甜日韩系滤镜和元气萌力贴纸,让用户通过自然轻量的美颜特效,轻松拍出日韩大片质感的照片、视频和Vlog。 一甜的美颜拍摄技术使用了快手在业内领先的人脸关键点识别、3D人脸重建、AR相机姿态估计、视频美学评估等核心技术,并且结合了AI智能分析匹配、算法推动。一甜相机要传递的不是高级美,而是每一个人都很美的理念,让美没有距离感 。

‘陆’ 一甜相机怎么去除马赛克

摘要 一甜相机怎么去马赛克?

‘柒’ 机器人是如何走出迷宫的

首先,我们要了解,机器人领域的视觉(Machine Vision)跟计算机领域(Computer Vision)的视觉有一些不同:机器视觉的目的是给机器人提供操作物体的信息。所以,机器视觉的研究大概有这几块:

物体识别(Object Recognition):在图像中检测到物体类型等,这跟 CV 的研究有很大一部分交叉;

位姿估计(Pose Estimation):计算出物体在摄像机坐标系下的位置和姿态,对于机器人而言,需要抓取东西,不仅要知道这是什么,也需要知道它具体在哪里;

相机标定(Camera Calibration):因为上面做的只是计算了物体在相机坐标系下的坐标,我们还需要确定相机跟机器人的相对位置和姿态,这样才可以将物体位姿转换到机器人位姿。

当然,我这里主要是讲物体定位领域的机器视觉;SLAM 等其他领域的就先不讲了。 算法肯定也是有的。

由于视觉是机器人感知的一块很重要内容,所以研究也非常多了,我就我了解的一些,按照由简入繁的顺序介绍吧:

1. 相机标定
这其实属于比较成熟的领域。由于我们所有物体识别都只是计算物体在相机坐标系下的位姿,但是,机器人操作物体需要知道物体在机器人坐标系下的位姿。所以,我们先需要对相机的位姿进行标定。内参标定就不说了,参照张正友的论文,或者各种标定工具箱;外参标定的话,根据相机安装位置,有两种方式:

Eye to Hand:相机与机器人极坐标系固连,不随机械臂运动而运动
Eye in Hand:相机固连在机械臂上,随机械臂运动而运动 两种方式的求解思路都类似,首先是眼在手外(Eye to Hand)

只需在机械臂末端固定一个棋盘格,在相机视野内运动几个姿态。由于相机可以计算出棋盘格相对于相机坐标系的位姿 、机器人运动学正解可以计算出机器人底座到末端抓手之间的位姿变化 、而末端爪手与棋盘格的位姿相对固定不变。
而对于眼在手上(Eye in Hand)的情况,也类似,在地上随便放一个棋盘格(与机器人基座固连),然后让机械臂带着相机走几个位姿,然后也可以形成一个 的坐标环。

2 平面物体检测
这是目前工业流水线上最常见的场景。目前来看,这一领域对视觉的要求是:快速、精确、稳定。所以,一般是采用最简单的边缘提取+边缘匹配/形状匹配的方法;而且,为了提高稳定性、一般会通过主要打光源、采用反差大的背景等手段,减少系统变量。
目前,很多智能相机(如 cognex)都直接内嵌了这些功能;而且,物体一般都是放置在一个平面上,相机只需计算物体的 三自由度位姿即可。另外,这种应用场景一般都是用于处理一种特定工件,相当于只有位姿估计,而没有物体识别。 当然,工业上追求稳定性无可厚非,但是随着生产自动化的要求越来越高,以及服务类机器人的兴起。对更复杂物体的完整位姿 估计也就成了机器视觉的研究热点。

3. 有纹理的物体
机器人视觉领域是最早开始研究有纹理的物体的,如饮料瓶、零食盒等表面带有丰富纹理的都属于这一类。当然,这些物体也还是可以用类似边缘提取+模板匹配的方法。但是,实际机器人操作过程中,环境会更加复杂:光照条件不确定(光照)、物体距离相机距离不确定(尺度)、相机看物体的角度不确定(旋转、仿射)、甚至是被其他物体遮挡(遮挡)。
幸好有一位叫做 Lowe 的大神,提出了一个叫做 SIFT (Scale-invariant feature transform)的超强局部特征点:Lowe, David G. "Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2 (2004): 91-110.具体原理可以看上面这篇被引用 4万+ 的论文或各种博客,简单地说,这个方法提取的特征点只跟物体表面的某部分纹理有关,与光照变化、尺度变化、仿射变换、整个物体无关。因此,利用 SIFT 特征点,可以直接在相机图像中寻找到与数据库中相同的特征点,这样,就可以确定相机中的物体是什么东西(物体识别)。
对于不会变形的物体,特征点在物体坐标系下的位置是固定的。所以,我们在获取若干点对之后,就可以直接求解出相机中物体与数据库中物体之间的单应性矩阵。如果我们用深度相机(如Kinect)或者双目视觉方法,确定出每个特征点的 3D 位置。那么,直接求解这个 PnP 问题,就可以计算出物体在当前相机坐标系下的位姿。

4. 无纹理的物体
好了,有问题的物体容易解决,那么生活中或者工业里还有很多物体是没有纹理的
我们最容易想到的就是:是否有一种特征点,可以描述物体形状,同时具有跟 SIFT 相似的不变性?不幸的是,据我了解,目前没有这种特征点。所以,之前一大类方法还是采用基于模板匹配的办法,但是,对匹配的特征进行了专门选择(不只是边缘等简单特征)。

这里,我介绍一个我们实验室之前使用和重现过的算法 LineMod:Hinterstoisser, Stefan, et al. "Multimodal templates for real-time detection of texture-less objects in heavily cluttered scenes." Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011.
简单而言,这篇论文同时利用了彩色图像的图像梯度和深度图像的表面法向作为特征,与数据库中的模板进行匹配。由于数据库中的模板是从一个物体的多个视角拍摄后生成的,所以这样匹配得到的物体位姿只能算是初步估计,并不精确。但是,只要有了这个初步估计的物体位姿,我们就可以直接采用 ICP 算法(Iterative closest point)匹配物体模型与 3D 点云,从而得到物体在相机坐标系下的精确位姿。
当然,这个算法在具体实施过程中还是有很多细节的:如何建立模板、颜色梯度的表示等。另外,这种方法无法应对物体被遮挡的情况。(当然,通过降低匹配阈值,可以应对部分遮挡,但是会造成误识别)。针对部分遮挡的情况,我们实验室的张博士去年对 LineMod 进行了改进,但由于论文尚未发表,所以就先不过多涉及了。

5. 深度学习
由于深度学习在计算机视觉领域得到了非常好的效果,我们做机器人的自然也会尝试把 DL 用到机器人的物体识别中。
首先,对于物体识别,这个就可以照搬 DL 的研究成果了,各种 CNN 拿过来用就好了。有没有将深度学习融入机器人领域的尝试?有哪些难点? - 知乎 这个回答中,我提到 2016 年的‘亚马逊抓取大赛’中,很多队伍都采用了 DL 作为物体识别算法。 然而, 在这个比赛中,虽然很多人采用 DL 进行物体识别,但在物体位姿估计方面都还是使用比较简单、或者传统的算法。似乎并未广泛采用 DL。 如@周博磊所说,一般是采用 semantic segmentation network 在彩色图像上进行物体分割,之后,将分割出的部分点云与物体 3D 模型进行 ICP 匹配。
当然,直接用神经网络做位姿估计的工作也是有的,如这篇:Doumanoglou, Andreas, et al. "Recovering 6d object pose and predicting next-best-view in the crowd." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.
它的方法大概是这样:对于一个物体,取很多小块 RGB-D 数据(只关心一个patch,用局部特征可以应对遮挡);每小块有一个坐标(相对于物体坐标系);然后,首先用一个自编码器对数据进行降维;之后,用将降维后的特征用于训练Hough Forest。

6. 与任务/运动规划结合
这部分也是比较有意思的研究内容,由于机器视觉的目的是给机器人操作物体提供信息,所以,并不限于相机中的物体识别与定位,往往需要跟机器人的其他模块相结合。
我们让机器人从冰箱中拿一瓶‘雪碧’,但是这个 ‘雪碧’ 被‘美年达’挡住了。我们人类的做法是这样的:先把 ‘美年达’ 移开,再去取 ‘雪碧’ 。所以,对于机器人来说,它需要先通过视觉确定雪碧在‘美年达’后面,同时,还需要确定‘美年达’这个东西是可以移开的,而不是冰箱门之类固定不可拿开的物体。 当然,将视觉跟机器人结合后,会引出其他很多好玩的新东西。由于不是我自己的研究方向,所以也就不再班门弄斧了。

更详细的图文解析可以到机器人家上去看,我这边就不贴出来了,希望对你有用

‘捌’ 华为p40pro桌面图标怎么变小

设置图标大小步骤如下:
打开设置>点击显示 > 显示模式,根据需要,选择大、中或者小模式,点击应用,然后重启提示,点击确定。
显示模式可以调整界面的图标和文字的大小,大图标更易查找,小图标可以显示更多内容。
可以按以下方法设置:两根手指在桌面合拢或长按桌面空白处,点击右下角设置>桌面布局,根据个人喜好调整桌面布局。第一个数字是横向图标个数,乘号后面那是是纵向图标个数

‘玖’ 身体姿态检测可以应用于健身行业吗

身体姿态检测当然可以应用于健身行业
可以带来理想效果
人体姿态估计(Human Pose Estimation)是计算机视觉领域中的一个重要研究方向,被广泛应用于人体活动分析、人机交互以及视频监视等方面。人体姿态估计是指通过计算机算法在图像或视频中定位人体关键点(如肩、肘、腕、髋膝、膝、踝等)。本文主要介绍近几年深度学习兴起后的人体姿态估计方法发展历程。

二、人体姿态估计有什么用?

(1)利用人体姿态进行摔倒检测或用于增强安保和监控;

(2)用于健身、体育和舞蹈等教学;

(3)训练机器人,让机器人“学会”移动自己的关节;

(4)电影特效制作或交互游戏中追踪人体的运动。通过追踪人体姿态的变化,实现虚拟人物与现实人物动作的融合与同步。

三、人体姿态估计算法评估指标

(1)OKS(Object Keypoint Similarity)

OKS是COCO姿态估计挑战赛提出的评估指标,COCO Leaderboard 显示Challenge18最高mAP最高为0.764。基于对象关键点相似度的mAP:

其中,di表示预测的关键点与ground truth之间的欧式距离;vi是ground truth的可见性标志;s是目标尺度,等于该人在ground truth中的面积的平方根;ki控制衰减的每个关键点常量。

(2)PCK(Probability of Correct Keypoint)

MPII数据集的评估指标采用的是[email protected],目前MPII数据集PCKh最高为92.5。预测的关节点与其对应的真实关节点之间的归一化距离小于设定阈值,则认为关节点被正确预测,PCK即通过这种方法正确预测的关节点比例。

[email protected]表示以躯干直径作为参考,如果归一化后的距离大于阈值0.2,则认为预测正确。

[email protected]表示以头部长度作为参考,如果归一化后的距离大于阈值0.5,则认为预测正确。

(3)PCP(Percentage of Correct Parts)

如果两个关节点的位置和真实肢体关键的距离达到至多一半时的真实肢体长度,则认为关节点被正确预测,PCP即通过这种方法正确预测的关节点比例。

四、人体姿态估计算法发展历程

2013年,Toshev等人将DeepPose引入人体姿态估计领域,人体姿态估计的研究开始从传统方法转向深度学习,下面将按时间顺序总结6篇个人认为具有标志性的工作。

(1)DeepPose(2014,Google)

Alexander Toshev和Christian Szegedy提出的DeepPose最早将CNN(卷积神经网络)应用于人体关节点检测。DeepPose将人体姿态估计转换为关节点回归问题,并提出了将CNN应用于人体关节点回归的方法:使用整幅图像输入到7层CNN来做关节点回归,更进一步,使用级联的CNN检测器来增加关节点定位的精确度。

阅读全文

与姿态估计算法相关的资料

热点内容
安卓手机最好用什么软件 浏览:350
编译原理lr分析讲解 浏览:141
单纯程序员哭了 浏览:336
男生设计app哪个好 浏览:765
梯形图是编译还是解释执行 浏览:473
录屏好用的app哪个好用 浏览:637
一念逍遥新服务器怎么看 浏览:92
移动app的信用充话费在哪里 浏览:502
单片机接传感器 浏览:74
免费pdf工具 浏览:382
pdf加密一机一码 浏览:602
怎么把百度云资源压缩 浏览:456
不会数学英语如何编程 浏览:88
如何能知道网站服务器地址 浏览:648
程序员月薪5万难吗 浏览:138
如何评价程序员 浏览:803
云虚机和服务器的区别 浏览:403
广西柳州压缩机厂 浏览:639
arm开发编译器 浏览:833
51单片机的核心 浏览:746