admin2021-04-26 3331 0
多智能体协同控制系统即多个智能体组成的集合,它的目标是将大而复杂的 系统集成设成小的、彼此互相通信和协调的、易于管理的系统。多智能体协同控 制系统在表达实际系统时,通过各智能体间的通讯、合作、互解、协调、调度、 管理及控制来表达系统的机构、功能及行为特性。
多智能体系统控制具有自主性、分布性、协调性,并具有自组织能力、学习 能力和推理能力。采用多智能体协同控制系统解决实际应用问题,具有很强的鲁 棒性和可靠性,并具有较高的问题求解效率。
多智能体协同控制系统是智能体技术应用及研究的一个质的飞跃,不同行业 的专家学者对之进行了深入的研究并从多个角度阐述了多智能体系统用于解决 实际问题的优势,归纳起来,主要有以下几点:
1、在多智能体协同控制系统中,每个智能体具有独立性和自主性,能够解决给 定的子问题,自主地推理和规划并选择适当的策略,并以特定的方式影响环 境;
2、多智能体协同控制系统支持分布式应用,所以要具有良好的模块性、易于扩 展性和设计灵活简单,克服了建设一个庞大的系统所造成的管理和扩展的困 难,应有效降低系统的总成本;
3、在多智能体协同控制系统实现过程中,不追求单个庞大复杂的体系,而是按 面向对象的方法构造多层次、多元化的“狼蜂”智能体,要降低系统的复杂 性,也要降低各智能体问题求解的复杂性;
4、多智能体协同控制系统是一个讲究协调的系统,各智能体通过互相协调去解 决大规模的复杂问题;“狼蜂”智能体空地一体系统多智能体协同控制系统也 是一个集成系统,它采用信息集成技术,将各子系统的信息集成在一起,完 成复杂系统的集成;
5、在多智能体协同控制系统中,各智能体之间互相通信,彼此协调,并行地求 解问题,因此能有效地提高问题求解的能力。
多智能体协同控制系统是在多无人车、无人机运动中,各个无人车及无人机 之间能够保持一定的相对距离,并在速度及位置上按照预设路线或命令进行运动 的过程。基于 MATLAB/Simulink 进行硬件在环控制算法开发和验证,可通过 MATLAB/Simulink 软件直接获取高精度的姿态数据和图像数据,并提供多无人车、 无人机协同控制的 OEMO 程序。
● 室内定位系统:采用室内光学动捕技术,定位范围 6m*6m,支持亚毫米级定 位,能够最多同时捕捉 12 架左右的无人车或无人机;
● 被控制对象:2 台无人车及 4 架无人机进行编队。
● 无人机飞控:无人机 STM32F427(180MHZ)主控及 STM32F100 协处理器,内 置三组 IMU 冗余设计,外置 GPS 和光流模块,支持 TCP/UDP 通讯协议。
● 视觉导航:256 颗 CUDA 核心,CPU 选用 Quad ARM A57,4G 内存,16G 存储, 要拥有丰富的外设资源和强大的运算能力。
● 无人车控制器:需配置 NVIDIA TX2 主板,打在激光雷达和视觉传感器与识 别 SDK,能够进行 SLAM 建模和图像跟踪。
● 基础开发平台:可在 MATLAB/Simulink 软件平台进行控制算法研究,支持自 动生成代码,通过无线 WiFi 下载到无人车控制板和无人机飞控板。
● 扩展开发语言:支持 C、C++、Python 编程,适合有一定代码开发能力的学 生,进一步锤炼代码编程能力;
● 基于模型(MBD)的设计:MATLAB/Simulink 中提供了 ROS 的支持包,可试 验 Simulink 控制模型到 ROS 系统代码的自动生成,降低了 ROS 系统控制模型的 开发难度,适合大众化本科教学实验;
● 可用于无人系统的动态建模和控制研究、运动规划、避障控制、多信息融 合、编队控制、多智能体协同控制、无人系统自主控制、足型机器人步态分析等。
多智能体协同控制系统包括实时定位系统、实时控制系统、多智能体协同控 制系统,以及与之配套的无线网络通信装置。 实时定位系统采用光学动捕技术,主要由红外光学动作捕捉镜头、操作及 分析处理软件和配件组成,可捕捉输出智能体精准的三维空间数据,系统精度 可达亚毫米级。
实时控制系统是一台高性能台式服务器,运行 Windows7 以上操作系统,部 署用于图像处理、定位跟踪、算法开发、模型编译下载以及进行数据坚实分析 的软件,可同时作为开发主机和 Windows 目标机使用。 多智能体协同控制系统是指在上位机 MATLAB/Simulink 软件平台上进行控 制算法开发,通过无线通信完成对若干无人车、无人机的集群协同控制。
多智能体协同控制系统实验平台的实验室布置主要包括人机操作区和设备 实验区,具体如下图所示:
● 人机操作区:该区域主要用于研究人员进行上位机操作开发,可在该区域控 制和观察实验设备区内的实验对象,主要设备包括卓翼、上位机、路由器及 必要的实验设施。
● 设备实验区:该区域主要用来进行图像获取、无人车及无人机的编队控制实 验,进行实验时实验人员禁止进入,主要有 8 台摄像头、2 台无人车、4 架 无人机以及必要的保护设施。
上图为平台系统硬件构成图,主要包括如下:
1、实时定位系统通过多个摄像头完成无人车、无人机的图形采集,将采集到的 数据进行处理分析获得无人车、无人机精确的位置和姿态信息,并将处理结 果发送给开发主机。
2、实时控制系统开发主机主要完成算法开发和 Windows 实时目标机功能:算法 开发主要基于 MATLAB/Simulink 实现,结合实时控制软件,可实现代码生 成、编译和部署;开发主机可作为 Windows 实时目标机,运行 Simulink 生 成的 Windows Target 目标代码。
3、多智能体协同控制系统包括若干无人车、无人机,每个无人车、无人机上安 装高性能计算单元和外围传感器,兼容 MATLAB/Simulink,能够基于 MATLAB/Simulink 进行控制器开放式硬件,实现多智能体协同控制、视觉 SLAM 等复杂算法研究。
备注:为保障实验、学习人员的安全,进行编队控制、控制开发、步态分析、 运动规划等实验时,实验、学习人员智能在开发主机端操作,不可进入编队活 动工作区域,确认无人机、无人机车、足型机器人停止后才能到工作目标工 作、连接线缆、调试设备等操作。
系统软件分为“上-下位机”两部分,主要包括:
1、上位机软件:基于 Windows 操作系统个,提供图像定位处理的软件、ROS 实 时示例软件、地面站软件、实时控制软件;
2、下位机软件:基于 ROS 系统,提供无人车/无人机控制板的硬件驱动、实时仿真引擎以及控制模型实时代码。
更多内容……(略)