目录
上篇 Kalman滤波方法[BR]第1章 绪论[BR]1.1 引言[BR]1.2 机器人手眼协调[BR]1.2.1 手眼协调技术的历史发展[BR]1.2.2 手眼协调系统结构[BR]1.3 无标定手眼协调及其控制方法[BR]1.3.1 问题的提出[BR]1.3.2 传统的无标定方法[BR]1.4 本篇的主要工作[BR]第2章 基于图像雅可比矩阵的无标定手眼协调[BR]2.1 图像雅可比矩阵模型[BR]2.2 图像雅可比矩阵的例子[BR]2.3 应用图像雅可比矩阵建立视觉反馈控制[BR]2.4 基于图像雅可比矩阵的手眼协调系统的性能分析[BR]2.5 无标定环境下雅可比矩阵的辨识方法[BR]第3章 基于Kalman滤波的雅可比矩阵在线辨识[BR]3.1 图像雅可比矩阵的动态辨识[BR]3.2 Kalman滤波估计算法概述[BR]3.3 图像雅可比矩阵的在线Kalman滤波辨识[BR]第4章 眼固定+眼在手上的无标定二维运动跟踪[BR]4.1 系统与任务描述[BR]4.2 全局视觉的无标定手眼协调控制[BR]4.2.1 固定摄像机观察二维运动的图像雅可比矩阵[BR]4.2.2 固定眼图像雅可比矩阵的在线Kalman估计[BR]4.2.3 固定眼的视觉反馈控制[BR]4.3 眼在手上无标定视觉伺服[BR]4.3.1 手上摄像机的图像雅可比矩阵[BR]4.3.2 眼在手上图像雅可比矩阵的估计[BR]4.3.3 眼在手上的视觉反馈控制率[BR]4.4 两种反馈控制率的切换[BR]4.5 二维运动跟踪仿真[BR]第5章 固定双目无标定三维运动跟踪[BR]5.1 双目视觉的图像雅可比矩阵[BR]5.2 图像雅可比矩阵的在线Kalman.Bucv估计[BR]5.3 基于图像雅可比矩阵的反馈控制率[BR]5.4 三维运动跟踪仿真[BR]第6章 机器人手眼协调实验系统[BR]6.1 系统整体结构[BR]6.2 机器人本体[BR]6.2.1 机器人本体控制器[BR]6.2.2 机器人端控制程序[BR]6.3 机器人视觉子系统[BR]6.3.1 系统构成[BR]6.3.2 图像卡程序开发[BR]6.3.3 彩色图像处理[BR]6.3.4 图像预处理[BR]6.3.5 图像特征与目标识别[BR]6.4 通信子系统[BR]6.4.1 子系统结构与功能[BR]6.4.2 系统通信协议设计[BR]6.4.3 模块的具体实现[BR]第7章 无标定手眼协调运动跟踪实验[BR]7.1 眼固定+眼在手上无标定二维运动跟踪实验[BR]7.2 无标定三维运动跟踪实验[BR]本篇小结[BR]参考文献[BR]中篇 神经网络方法[BR]第8章 绪论[BR]8.1 视觉伺服系统分类[BR]8.2 视觉处理[BR]8.2.1 图像特征[BR]8.2.2 视觉估计[BR]8.2.3 图像雅可比矩阵[BR]8.3 视觉控制器[BR]8.4 无标定手眼协调[BR]8.5 本篇主要工作[BR]第9章 基于神经网络的图像雅可比矩阵估计方法[BR]9.1 图像雅可比矩阵方法原理[BR]9.2 神经网络方法原理[BR]9.3 图像雅可比矩阵分析[BR]9.4 改进的图像雅可比矩阵方法[BR]9.5 仿真结果[BR]第10章 眼固定机器人平面视觉跟踪[BR]10.1 平面视觉跟踪问题描述[BR]10.2 视觉映射模型[BR]10.3 控制策略[BR]10.3.1 实时运动规划[BR]10.3.2 神经网络映射器[BR]10.3.3 仿真结果[BR]10.4 基于在线自学习的视觉跟踪[BR]10.4.1 小脑模型神经网络[BR]10.4.2 仿真结果[BR]第11章 眼固定机器人三维视党跟踪[BR]11.1 基于立体视觉的3D视觉跟踪[BR]11.1.1 问题描述[BR]11.1.2 基于融合方程的视觉跟踪方法[BR]11.1.3 视觉映射模型[BR]11.1.4 控制策略[BR]11.1.5 仿真结果[BR]11.2 基于单摄像机的三维视觉跟踪[BR]11.2.1 问题描述[BR]11.2.2 视觉映射模型[BR]11.2.3 控制策略[BR]11.2.4 仿真结果[BR]第12章 眼在手上机器人平动视觉跟踪[BR]12.1 眼在手上无标定方法的现状[BR]12.2 机器人平面视觉跟踪[BR]12.2.1 问题描述[BR]12.2.2 眼在手上机器人视觉跟踪问题分析[BR]12.2.3 视觉映射关系模型[BR]12.2.4 控制策略[BR]12.2.5 仿真结果[BR]12.2.6 视觉定位问题[BR]12.3 基于立体视觉的3一DOF无标定视觉跟踪[BR]12.3.1 视觉映射关系模型[BR]12.3.2 控制策略[BR]12.3.3 仿真结果[BR]第13章 眼在手上机器人全自由度视觉跟踪[BR]13.1 全自由度视觉跟踪问题描述[BR]13.2 全自由度视觉跟踪问题分析[BR]13.3 视觉映射关系模型[BR]13.4 控制策略[BR]13.5 模糊神经网络[BR]13.5.1 模糊系统与神经网络的比较[BR]13.5.2 一种新的模糊神经网络[BR]13.6 仿真结果[BR]第14章 视觉跟踪系统的性能分析与改进[BR]14.1 动态视觉控制与运动视觉控制[BR]14.2 眼固定构型[BR]14.2.1 系统离散域模型[BR]14.2.2 跟踪误差分析[BR]14.2.3 控制系统稳定性[BR]14.2.4 速度前馈控制器[BR]14.3 眼在手上构型平面视觉跟踪[BR]14.3.1 系统离散域模型[BR]14.3.2 跟踪误差分析[BR]14.3.3 控制系统稳定性[BR]14.3.4 加速度前馈控制器[BR]14.4 眼固定构型与眼在手上构型的比较[BR]第15章 实验研究[BR]15.1 系统结构[BR]15.1.1 机器人及其控制器[BR]15.1.2 CCD摄像机[BR]15.1.3 图像采集卡[BR]15.2 实验设计[BR]15.3 实验步骤[BR]15.4 实验结果[BR]本篇小结[BR]参考文献[BR]下篇 扩张状态观测器方法[BR]第16章 绪论[BR]16.1 引言[BR]16.2 本篇主要工作[BR]第17章 基于扩张状态观测的控制器理论及参数调整[BR]17.1 扩张状态观测器[BR]17.2 传统PID控制器结构分析[BR]17.3 自抗扰控制器[BR]17.3.1 非线性跟踪微分器[BR]17.3.2 非线性状态误差反馈控制律(NLSEF)[BR]17.3.3 自抗扰控制器(ADRC)实现形式[BR]17.3.4 自抗扰控制器适用对象[BR]17.4 自抗扰控制器的参数调整[BR]第18章 手眼协调系统建模及ADRC控制器设计[BR]18.1 系统建模[BR]18.1.1 摄像机模型[BR]18.1.2 摄像机参数[BR]18.2 系统模型[BR]18.3 控制器设计[BR]第19章 系统仿真研究[BR]19.1 全局固定摄像头无标定二维运动跟踪[BR]19.2 眼固定与眼在手上相结合的无标定二维运动跟踪[BR]19.3 固定双目无标定三维运动跟踪[BR]第20章 手眼协调控制器的稳定性分析[BR]20.1 全局固定单眼构型情况下控制器形式[BR]20.2 一阶跟踪微分器的收敛性分析[BR]20.3 二阶扩张状态观测器的收敛性分析[BR]20.4 整个控制器的收敛性能分析[BR]第21章 无标定机器人手眼协调实验研究[BR]21.1 机器人手眼协调实验系统描述[BR]21.1.1 机器人子系统[BR]21.1.2 机器人视觉子系统[BR]21.2 单眼固定无标定二维运动跟踪试验[BR]21.3 眼固定与眼在手上相结合的无标定二维手眼协调实验[BR]21.4 无标定三维手眼协调实验[BR]第22章 自抗扰控制器和雅可比矩阵在线辨识联合控制的手眼协调研究[BR]22.1 控制思想描述[BR]22.2 控制器设计[BR]22.3 仿真研究[BR]22.4 二维跟踪实验[BR]本篇小结[BR]参考文献