可左右滑动选省市

智能船体检测系统及方法发明专利

更新时间:2024-10-01
智能船体检测系统及方法发明专利 专利申请类型:发明专利;
地区:辽宁-大连;
源自:大连高价值专利检索信息库;

专利名称:智能船体检测系统及方法

专利类型:发明专利

专利申请号:CN202110586296.X

专利申请(专利权)人:大连海事大学
权利人地址:辽宁省大连市高新园区凌海路1号

专利发明(设计)人:徐敏义,王廷宇,郑嘉熙,王新宇,徐鹏,刘建华,龚宗玉

专利摘要:本发明提供了一种智能船体检测系统及方法,涉及船体检测技术领域,该智能船体检测系统包括:用于进行水下船体智能检测,并生成可视化船体三维检测报告的下位机;用于读取并显示下位机生成的可视化船体三维检测报告的上位机;所述下位机的主体为水下机器人,水下机器人中内置有多个计算模块,主要包括:控制模块,用于实现下位机自身姿态运动控制;图像识别模块,用于对水下船体的特定区域进行图像识别;视觉SLAM模块,用于对水下船体进行三维建模。本发明提供了一种船体检测的自主智能解决方案,相比现有技术中采用人工分析的方案,缩短了检测时间,提高了检测效率。

主权利要求:
1.一种智能船体检测系统,其特征在于,所述智能船体检测系统包括:
用于进行水下船体智能检测,并生成可视化船体三维检测报告的下位机;
用于读取并显示下位机生成的可视化船体三维检测报告的上位机;所述上位机中设置有第一无线网络模块,下位机中设置有第二无线网络模块,上位机和下位机之间通过第一无线网络模块和第二无线网络模块进行无线网络通信,完成可视化船体三维检测报告的传输;
所述下位机的主体为水下机器人,所述水下机器人上搭载有双目摄像头、陀螺仪、加速度计以及水深传感器;所述水下机器人中内置有多个计算模块,主要包括:控制模块,用于实现下位机自身姿态运动控制;
图像识别模块,用于对水下船体的特定区域进行图像识别;所述图像识别模块的识别算法使用优化后的开源Yolov4框架;所述优化包括:在Yolov4网络的输入端,添加对比度自适应直方图均衡化算法;在训练时,利用数据增广方法扩充数据集,同时将同一张图片进行分尺度训练Yolov4网络;
视觉SLAM模块,用于对水下船体进行三维建模;所述视觉SLAM模块分为三个节点,第一节点作为驱动节点,采集摄像头传感器的数据;第二节点做姿态估计,提供世界坐标系转向相机坐标系的矩阵;第三节点作为建图节点,收集第一节点和第二节点的建图节点接收图像数据和位姿数据,进行点云的拼接;
应用所述智能船体检测系统进行智能船体检测的方法;包括:
S1、将水下机器人放入水中;
水下机器人下水时就会进行视频的拍摄,图像识别模块识别到特定区域时会开启录像模式;若连续五秒没有检测到特定区域,结束录像模式,将视频进行存储;
S2、水下机器人在控制模块的控制下对船体进行环绕检测,检测同时运行图像识别模块和视觉SLAM模块,对水下船体表面进行特定区域识别和船体三维模型构建;
图像识别模块运用深度学习网络对特定区域和船表可能会附着的海洋生物识别,并截取这些特定的区域视频并存储;在运用深度学习网络时,首先获取水下船体的图像数据集,对图像中特定区域和附着的海洋生物进行人工标注,然后利用人工标注的图像数据集对深度学习网络进行训练,之后利用训练好的深度学习网络进行识别;
水下机器人围绕船体进行环绕检测时,双目摄像头运行SLAM算法,得到船表各特征点,通过这些特征点,得到船表各区域的相对位置,并建模还原水下船体模型;
S3、融合特定区域相对坐标和船体三维模型数据,将特定区域坐标标注在三维模型中,包括:视觉SLAM模块,首先使用读入采集的图像构建图像金字塔,以应对不同影像间的特征尺度变化,然后利用八叉树分割算法对图像进行拆分并进行特征提取,得到FAST角点,再基于灰度质心法计算FAST角点方向,结合前面计算的角点方向计算得到ORB特征;
视觉SLAM模块运行的同时,识别模块运行YOLOv4识别算法,得到特定目标区域的识别框,将识别框的四角点同样标记为特征点,并做特殊标记;
调用ORB‑SLAM2建图算法,获取关键帧,基于特征点创建新地图点并进行地图点融合,将所有地图点进行存储、拼接建图,构建连续稀疏点云图;
S4、水下机器人运行自主报告生成脚本,使用既定的排列框架,不同类别图片对应不同的文档页号,通过对识别图像的结果进行检索,将检索到的图片展示到各特定区域中,生成水下船体检测报告;自主报告生成脚本采用python编写;
S5、取出完成检测任务的水下机器人,使用上位机无线读取生成的可视化船体三维检测报告;
S6、上位机将读取的可视化船体三维检测报告报告上传到云端数据库,为每艘船建立特有的船表数据库。 说明书 : 智能船体检测系统及方法技术领域[0001] 本发明涉及船体检测技术领域,特别是涉及智能船体检测系统及方法。背景技术[0002] 舰船在航行中承受着海水的冲击与腐蚀,也可能使船体和附件金属体容易产生不同程度的腐蚀、裂纹等损伤现象,使船舶的安全性大大降低。通过水下损伤部位的检测与评估,准确地掌握舰船水下附件或部件的技术状态,实现由“定时维修”向“视情维修”转变,可大大提高船舶航行的安全性。[0003] 目前,船体检测大多采用人工有缆检测的方式,多采用水下机器人进行水下拍摄,实时传回上位机,由人工对数据进行分析。如专利申请号为201811499595.4,发明名称为《一种水下船体检测机器人及其工作方法》的专利中,进行船体检测时,将水下机器人置入水中,通过上位机控制水下机器人移动,同时控制双目摄像头模块和结构光扫描仪打开进行图像采集;将采用的图像转换成光信号通过光纤传输到上位机上;上位机处理图像实时构建三维模型,上位机通过构建的三维模型对船体底部以及船体裂缝检查。[0004] 然而,上述方法需要进行大量数据传输,还需要经人工分析,具有耗时长,效率低的缺点,无法迅速得到直观的可视化检测报告。发明内容[0005] 有鉴于此,本发明提供了智能船体检测系统及方法,以实现设备自主智能船体检测,缩短检测时间,提高检测效率。[0006] 为此,本发明提供了以下技术方案:[0007] 本发明提供了一种智能船体检测系统,所述智能船体检测系统包括:[0008] 用于进行水下船体智能检测,并生成可视化船体三维检测报告的下位机;[0009] 用于读取并显示下位机生成的可视化船体三维检测报告的上位机;[0010] 所述下位机的主体为水下机器人,水下机器人中内置有多个计算模块,主要包括:[0011] 控制模块,用于实现下位机自身姿态运动控制;[0012] 图像识别模块,用于对水下船体的特定区域进行图像识别;[0013] 视觉SLAM模块,用于对水下船体进行三维建模。[0014] 进一步地,所述水下机器人上搭载有双目摄像头、陀螺仪、加速度计以及水深传感器。[0015] 进一步地,所述图像识别模块的识别算法使用优化后的开源Yolov4框架;[0016] 所述优化包括:在Yolov4网络的输入端,添加对比度自适应直方图均衡化算法;在训练时,利用数据增广方法扩充数据集,同时将同一张图片进行分尺度训练Yolov4网络。[0017] 进一步地,所述视觉SLAM模块分为三个节点,第一节点作为驱动节点,采集摄像头传感器的数据;第二节点做姿态估计,提供世界坐标系转向相机坐标系的矩阵;第三节点作为建图节点,收集第一节点和第二节点的建图节点接收图像数据和位姿数据,进行点云的拼接。[0018] 进一步地,上位机中设置有第一无线网络模块,下位机中设置有第二无线网络模块,上位机和下位机之间通过第一无线网络模块和第二无线网络模块进行无线网络通信,完成可视化船体三维检测报告的传输。[0019] 本发明还提供了一种智能船体检测方法,所述方法应用于上述智能船体检测系统,所述方法包括:[0020] 水下机器人在控制模块的控制下对船体进行环绕检测,进行视频的拍摄;[0021] 运行图像识别模块和视觉SLAM模块,分别对水下船体表面进行特定区域识别和船体三维模型构建;[0022] 融合特定区域相对坐标和船体三维模型数据,将特定区域坐标标注在三维模型中;[0023] 水下机器人运行自主报告生成脚本,使用既定的排列框架,不同类别图片对应不同的文档页号,通过对识别图像的结果进行检索,将检索到的图片展示到各特定区域中,生成可视化船体三维检测报告;[0024] 使用上位机无线读取生成的可视化船体三维检测报告。[0025] 进一步地,所述方法还包括:[0026] 上位机将读取的可视化船体三维检测报告报告上传到云端数据库,将摄像头拍摄的视频,按检测到的特定区域进行分类收集,为每艘船建立特有的水下船表图像数据库。[0027] 进一步地,融合特定区域相对坐标和船体三维模型数据,将特定区域坐标标注在三维模型中,包括:[0028] 视觉SLAM模块,首先使用读入采集的图像构建图像金字塔,以应对不同影像间的特征尺度变化,然后利用八叉树分割算法对图像进行拆分并进行特征提取,得到FAST角点,再基于灰度质心法计算FAST角点方向,结合前面计算的角点方向计算得到ORB特征;[0029] 视觉SLAM模块运行的同时,识别模块运行YOLOv4识别算法,得到特定目标区域的识别框,将识别框的四角点同样标记为特征点,并做特殊标记;[0030] 调用ORB‑SLAM2建图算法,获取关键帧,基于特征点创建新地图点并进行地图点融合,将所有地图点进行存储、拼接建图,构建连续稀疏点云图。[0031] 进一步地,进行视频的拍摄时,若连续五秒没有检测到特定区域,结束录像模式,将视频进行存储。[0032] 进一步地,自主报告生成脚本采用python编写。[0033] 本发明的优点和积极效果:本发明提供了一种自主智能解决方案,从机器下水到从水中取出,所有水下检测过程都不需要人为参与,技术人员只需要使用上位机从检测结束的机器人中,下载拍摄的视频和生成的报告即可,相比现有技术中采用人工分析的方案,缩短了检测时间,提高了检测效率。附图说明[0034] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。[0035] 图1为本发明实施例中一种智能船体检测系统的结构框图;[0036] 图2为本发明实施例中视觉SLAM模块的结构框图;[0037] 图3为本发明实施例中一种智能船体检测方法的流程图。具体实施方式[0038] 为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。[0039] 需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。[0040] 参见图1,其示出了本发明实施例中的一种智能船体检测系统的结构框图,该智能船体检测系统包括上位机100和下位机200,上位机100可以为个人计算机(PC),也可以为手持终端等,用于读取并显示下位机200生成的可视化船体三维检测报告。下位机200用于进行水下船体智能检测,同时构建船表图像数据库,并生成可视化船体三维检测报告。下位机200的主体为水下机器人1,水下机器人1上搭载有双目摄像头2、陀螺仪3、加速度计4以及水深传感器5。同时,水下机器人1中内置有多个计算模块,用于完成船体检测中涉及的各种数据处理及运算。主要包括:[0041] 控制模块101,用于实现下位机自身姿态运动控制;[0042] 图像识别模块102,用于对水下船体图像识别;[0043] 图像识别模块102的识别算法使用优化后的开源Yolov4框架;Yolo网络包括四层结构:输入端,基准层,Neck网络和Head输出端。输入端对图像进行预处理操作,即将输入图像缩放到网络的输入大小,并进行归一化等操作,基准层使用CSPDarknet53作为基准网络并使用Mish激活函数,Neck网络利用自顶向下的FPN特征金字塔来提升网络的特征提取能力,Head输出端针对不同的检测类别数,完成目标检测结果的输出。[0044] 优选地,本发明实施例中,在输入端,添加对比度自适应直方图均衡化算法,用于克服水下图像的降质问题,同时在训练时,利用数据增广方法扩充数据集,同时将同一张图片进行分尺度训练Yolov4网络,以克服海底图像样本集有限的限制。改变了传统水下图像增强与目标检测分开进行的现状,使网络增强部分更有利于海洋生物识别准确度的提高。[0045] 此外,为了提升特征提取能力,本发明实施例中还在Yolov4神经网络的第一层卷积层中加入了降噪自动编码机。[0046] 视觉SLAM(SimultaneousLocalizationAndMapping,同步定位与地图构建)模块103,用于对水下船体进行三维建模;[0047] 如图2所示,视觉SLAM模块分为三个节点,第一个节点作为驱动节点,采集摄像头传感器的数据。第二个节点利用ORB‑SLAM2(ORB‑SLAM是一个基于特征点的实时单目SLAM系统,在大规模的、小规模的、室内室外的环境都可以运行。该系统对剧烈运动也很鲁棒,支持宽基线的闭环检测和重定位,包括全自动初始化。该系统包含了所有SLAM系统共有的模块:跟踪(Tracking)、建图(Mapping)、重定位(Relocalization)、闭环检测(Loopclosing)。由于ORB‑SLAM系统是基于特征点的SLAM系统,故其能够实时计算出相机的轨线,并生成场景的稀疏三维重建结果。ORB‑SLAM2在ORB‑SLAM的基础上,还支持标定后的双目相机和RGB‑D相机。)做姿态估计,提供Tcw(世界坐标系转向相机坐标系的矩阵,即fromworldtocamera)。第三个节点作为建图节点,收集第一和第二节点的建图节点接收图像数据和位姿数据,进行点云的拼接。[0048] 智能船体检测分为两个阶段,第一阶段是船体检测以及生成可视化检测报告阶段,该阶段完全由下位机实现;第二阶段是船体检测完成之后的阶段,下位机完成船体检测以及生成可视化船体三维检测报告之后,与上位机进行有线或无线连接的数据传输,将下位机自主生成的报告传回上位机。优选地,本发明实施例中上位机100中设置有第一无线网络模块300,下位机200中设置有第二无线网络模块400,上位机100和下位机200之间通过第一无线网络模块300和第二无线网络模块400进行无线网络通信,完成可视化船体三维检测报告的传输。[0049] 本发明实施例中,完全由下位机进行船体检测并生成可视化船体三维检测报告,所有水下检测过程都不需要人为参与,技术人员只需要使用上位机从检测结束的机器人中,下载拍摄的视频和生成的报告即可,相比现有技术中采用人工分析的方案,缩短了检测时间,提高了检测效率。[0050] 参见图3,其示出了本发明实施例中一种智能船体检测方法的流程图,该方法应用于上述智能船体检测系统,在需要检测时将水下机器人放在入水中,水下机器人在控制模块101的控制下(如按既定的轨迹)绕船体进行环绕式检测,在环绕过程中将摄像头拍摄到的视频数据,分别送入图像识别模块102和视觉SLAM模块103中,图像识别模块102对船表污染程度进行识别和评分,同时应用视觉SLAM模块103对水下船体进行三维建模,汇总视频分析数据和三维数据,得到可视化船体三维检测报告。[0051] 具体地,该方法包括:[0052] S1、将水下机器人放入水中;[0053] 水下机器人下水时就会进行视频的拍摄,图像识别模块识别到特定区域时会开启录像模式(只是将实时拍摄的视频进行存储操作,不影响其他功能),若连续五秒没有检测到特定区域,结束录像模式,将视频进行存储。优选地,以mp4的视频格式存储在机器人携带的硬盘里。[0054] S2、水下机器人在控制模块101的控制下对船体进行环绕检测,检测同时运行图像识别模块102和视觉SLAM模块103,对水下船体表面进行特定区域识别和船体三维模型构建;[0055] 图像识别模块102运用深度学习网络对特定区域(如:排污口、海底门、舵面锌块、焊缝等)和船表可能会附着的海洋生物(如:藤壶、贝类、海虹等)识别,并截取这些特定的区域视频并存储。[0056] 在运用深度学习网络时,首先获取水下船体的图像数据集,对图像中特定区域和附着的海洋生物进行人工标注,然后利用人工标注的图像数据集对深度学习网络进行训练,之后利用训练好的深度学习网络进行识别。[0057] 水下机器人围绕船体进行环绕检测时,双目摄像头运行SLAM算法,得到船表各特征点(类似于点云),通过这些特征点,得到船表各区域的相对位置,并建模还原水下船体模型(类似于雷达建模)。[0058] S3、融合特定区域相对坐标和船体三维模型数据,将特定区域坐标标注在三维模型中;[0059] 步骤S3具体包括:[0060] S301、视觉SLAM模块,首先使用读入采集的图像构建图像金字塔,以应对不同影像间的特征尺度变化,然后利用OctTree算法(八叉树分割算法)对图像进行拆分并进行特征提取,得到FAST角点,再基于灰度质心法计算FAST角点方向,结合前面计算的角点方向计算得到ORB特征;[0061] FAST(FeaturesfromAcceleratedSegmentTest)角点定义为:若某像素与其周围邻域内足够多的像素点相差较大,则该像素可能是角点。[0062] ORB(OrientedFASTandRotatedBRIEF)是一种快速特征点提取和描述的算法。ORB特征是将FAST特征点的检测方法与BRIEF特征描述子结合起来,并在它们原来的基础上做了改进与优化主要解决了BRIEF描述子不具备旋转不变性的问题。[0063] BRIEF(BinaryRobustIndependentElementaryFeatures)是一种对已检测到的特征点进行表示和描述的特征描述方法,BRIEF是一种二进制编码的特征描述子,既降低了存储空间的需求,提升了特征描述子生成的速度,也减少了特征匹配时所需的时间。[0064] S302、视觉SLAM模块运行的同时,识别模块运行YOLOv4识别算法,得到特定目标区域的识别框,将识别框的四角点同样标记为特征点,并做特殊标记;[0065] S303、调用ORB‑SLAM2建图算法,获取关键帧,基于特征点创建新地图点并进行地图点融合,将所有地图点进行存储、拼接建图,构建连续稀疏点云图。[0066] S4、水下机器人运行自主报告生成脚本,使用既定的排列框架,不同类别图片对应不同的文档页号,通过对识别图像的结果进行检索,将检索到的图片展示到各特定区域中,生成水下船体检测报告;[0067] 优选地,自主报告生成脚本可以采用python编写。文档可以是ppt格式,也可以是word格式。[0068] 汇总三维模型和截取的特定区域视频,载入预先设置好的程序模板,生成包含各特定区域视频的可视化船体三维检测报告。[0069] 水下机器人进行自主视频分析和视觉三维建模,使用人工智能对水下船体情况进行评估打分,并得到可视化报告,不仅节省了分析时间,还得到了更清晰易懂的视觉效果。[0070] S5、取出完成检测任务的水下机器人,使用上位机无线读取生成的可视化船体三维检测报告。[0071] S6、上位机将读取的可视化船体三维检测报告报告上传到云端数据库,为每艘船建立特有的船表数据库。[0072] 最后,将摄像头拍摄的视频,按检测到的特定区域进行分类收集,制作成一个水下船表图像数据库。收集的水下船体图像数据库,不仅可以用来提升模型的精度,还可以开源在互联网上,帮助其他相关团队的模型训练。[0073] 本发明实施例中,完全由下位机进行船体检测并生成可视化船体三维检测报告,所有水下检测过程都不需要人为参与,技术人员只需要使用上位机从检测结束的机器人中,下载拍摄的视频和生成的报告即可。如表1所示,相比现有技术中采用人工分析的方案,缩短了检测时间,提高了检测效率。[0074] 表1[0075][0076] 在本发明所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。[0077] 所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。[0078] 另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。[0079] 所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read‑OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。[0080] 最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

专利地区:辽宁

专利申请日期:2021-05-27

专利公开日期:2024-07-26

专利公告号:CN113222961B


以上信息来自国家知识产权局,如信息有误请联系我方更正!
电话咨询
读内容
搜本页
回顶部