機器人智能視覺感知與深度學(xué)習(xí)應(yīng)用
定 價:89 元
叢書名:人工智能技術(shù)叢書
- 作者:梁橋康秦海項韶
- 出版時間:2023/7/1
- ISBN:9787111728726
- 出 版 社:機械工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
主要內(nèi)容包括基于深度學(xué)習(xí)的智能視覺感知技術(shù)概述、相機標定、視覺目標檢測、視覺目標分割、視覺目標跟蹤、行人重識別、人體姿態(tài)估計、智能噴碼檢測、智能表格識別、移動機器人視覺感知系統(tǒng)、智能人機交互等。全書擬從理論到實際應(yīng)用,從算法分析到編程實現(xiàn)等多角度全方位介紹深度學(xué)習(xí)技術(shù)在智能視覺感知方面的研究,并深度結(jié)合了當(dāng)前國內(nèi)外最新研究熱點,為業(yè)內(nèi)人士從事相關(guān)研究與應(yīng)用工作提供重要參考。
本書基于機器人視覺感知與控制技術(shù)國家工程研究中心多年的研究積累,從原理方法、算法開發(fā)、模型搭建、實驗驗證和對比分析等方面概述了機器人視覺感知系統(tǒng)和深度學(xué)習(xí)技術(shù)。
前 言
智能人機協(xié)作機器人能自主適應(yīng)復(fù)雜動態(tài)環(huán)境,并通過與作業(yè)環(huán)境/人/協(xié)作機器人自然交互,在共同工作空間通過近距離互動完成更加復(fù)雜的作業(yè)任務(wù),因此受到了廣泛的重視。根據(jù)BlueWeave公司的市場分析報告,2021年全球協(xié)作機器人市場達到7.6億美元,到2028年,全球協(xié)作機器人市場增長到39.9億美元。如何高效可靠地獲取和理解機器人與作業(yè)環(huán)境信息并有效交互是智能機器人實現(xiàn)合理的人機交互和智能操控的迫切需求。
機器人感知和智能是制約機器人技術(shù)發(fā)展與應(yīng)用的核心瓶頸,未知環(huán)境中的智能操作與自主作業(yè)很大程度上依靠對環(huán)境的認識程度。雖然近年來作為機器人重要手段的視覺感知獲得了快速的發(fā)展,但機器人的整體感知水平和智能化程度還有待進一步提升。此外,人工智能的迅速發(fā)展正深刻地改變著機器人視覺等信號的處理方式,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出:人工智能是引領(lǐng)未來的戰(zhàn)略性技術(shù),世界主要發(fā)達國家把發(fā)展人工智能作為提升國家競爭力、維護國家安全的重大戰(zhàn)略。圖像及視頻等視覺處理技術(shù)作為人工智能下的一大技術(shù)領(lǐng)域,不僅可用于復(fù)雜、危險場景下的視覺感知獲取,近年來還被廣泛應(yīng)用于防控預(yù)警、搶險救災(zāi)和軍事領(lǐng)域,得到了世界各國的廣泛重視。
本書旨在深入介紹基于深度學(xué)習(xí)的機器人智能視覺感知技術(shù),為廣大工程技術(shù)人員學(xué)習(xí)視覺感知方面的應(yīng)用和最新理論方法奠定基礎(chǔ),同時也可作為高年級本科生、研究生或博士生的參考書。本書主要內(nèi)容包括機器人智能視覺感知系統(tǒng)概述、深度學(xué)習(xí)技術(shù)概述、自然場景下文本檢測與識別、視覺目標檢測、多目標跟蹤、圖像語義分割等。全書從方法到實際應(yīng)用,從算法分析到模型搭建等多角度介紹深度學(xué)習(xí)技術(shù)在智能視覺感知方面的研究,并深度結(jié)合了當(dāng)前國內(nèi)外最新研究熱點,為業(yè)內(nèi)人士從事相關(guān)研究與應(yīng)用工作提供重要參考。
本書基于團隊多項機器人感知與控制技術(shù)相關(guān)的國家級項目(2021YFC1910402,NSFC. 62073129、NSFC.U21A20490、NSFC.61673163、湖南省自然科學(xué)基金–杰出青年基金項目2022JJ10020國家重點研發(fā)計劃)、湖南省科技計劃項目(2020GK2025)、深圳科技計劃項目 (2021Szvup035)的研究成果,聚焦機器人視覺感知前沿和國家戰(zhàn)略需求,從應(yīng)用背景、需求分析、原理方法、算法開發(fā)、模型搭建、實驗驗證、對比分析等方面展開論述。全書共分為7章:第1章概述了機器人視覺感知系統(tǒng)的發(fā)展和挑戰(zhàn);第2章對機器人智能視覺感知系統(tǒng)的組成、主要實現(xiàn)步驟和典型應(yīng)用進行了闡述;第3章對機器人視覺感知系統(tǒng)廣泛應(yīng)用的深度學(xué)習(xí)技術(shù)進行了概述;第4章簡述了自然場景下基于圖像分割的文本檢測和基于序列的場景文本識別技術(shù);第5章闡述了視覺目標檢測技術(shù),重點描述了基于R-FCN的目標檢測和基于Mask RCNN的目標檢測方法;第6章簡述了多目標跟蹤技術(shù),重點闡述了基于序列特征的多目標跟蹤方法和基于上下文圖模型的多目標跟蹤方法;第7章簡述了圖像分割方法,重點描述了基于自適應(yīng)特征選擇網(wǎng)絡(luò)的遙感影像語義分割方法和基于SU-SWA的區(qū)域分割方法。
在本書的核心內(nèi)容準備過程中,團隊的梁橋康、譚艾琳、郭東妮負責(zé)了機器人視覺感知系統(tǒng)和深度學(xué)習(xí)技術(shù)概述的相關(guān)內(nèi)容;朱為、葛俏、彭建忠負責(zé)了噴碼識別系統(tǒng)的相關(guān)內(nèi)容;項韶、金晶負責(zé)了自然場景下文本檢測與識別的相關(guān)內(nèi)容;梅麗、伍萬能負責(zé)了視覺目標檢測的相關(guān)內(nèi)容;譚旭、伍萬能負責(zé)了多目標跟蹤的相關(guān)內(nèi)容;項韶、梁橋康負責(zé)了機器人視覺感知系統(tǒng)的典型應(yīng)用的相關(guān)內(nèi)容;南洋、湯鵬、項韶、秦海負責(zé)了圖像語義分割的相關(guān)內(nèi)容;梁橋康、鄒坤霖、鄧淞允、謝冰冰等為對比實驗和網(wǎng)絡(luò)框架等做出了貢獻;梁橋康、秦海負責(zé)統(tǒng)稿。
本書適合機器人視覺感知技術(shù)的初學(xué)者或愛好者閱讀,也非常適合機器人感知、深度學(xué)習(xí)、人工智能等相關(guān)從業(yè)者參考。希望讀者在閱讀完本書后能根據(jù)實際的應(yīng)用場景需求搭建對應(yīng)的智能機器人視覺感知系統(tǒng),為提升我國機器人核心感知技術(shù)創(chuàng)新水平貢獻自己的力量。
本書受到國家自然科學(xué)基金項目(NSFC.62073129、NSFC.U21A20490)、國家重點研發(fā)計劃(2021YFC1910402)和湖南省自然科學(xué)基金–杰出青年基金項目(2022JJ10020)的資助,特此感謝。最后特別感謝機械工業(yè)出版社編輯們對本書出版的大力支持。
作者
湖南大學(xué)機器人視覺感知與控制技術(shù)國家工程研究中心
2023年1月
目 錄
推薦序
前言
第1章 緒論 1
1.1 機器人視覺感知系統(tǒng) 2
1.2 機器人視覺感知發(fā)展趨勢 2
1.3 機器人視覺感知研究挑戰(zhàn) 3
1.4 噴碼識別系統(tǒng)應(yīng)用實踐 8
1.4.1 噴碼檢測方法概述 9
1.4.2 噴碼識別系統(tǒng)需求分析 11
1.4.3 噴碼識別系統(tǒng)硬件選型 12
1.4.4 基于輕量級Ghost-YOLO
模型的噴碼識別 16
1.5 本章小結(jié) 30
第2章 機器人智能視覺感知系統(tǒng)
概述 31
2.1 機器人智能視覺感知系統(tǒng)組成 31
2.2 機器人智能視覺感知的主要
流程 37
2.3 機器人智能視覺感知的典型
應(yīng)用 39
2.3.1 面向農(nóng)業(yè)機器人的視覺感知概述 40
2.3.2 基于多模型融合的應(yīng)用
實踐 41
2.4 本章小結(jié) 49
第3章 深度學(xué)習(xí)技術(shù)概述 50
3.1 全連接神經(jīng)網(wǎng)絡(luò) 50
3.1.1 反向傳播原理 52
3.1.2 全連接神經(jīng)網(wǎng)絡(luò)的缺點 53
3.2 卷積神經(jīng)網(wǎng)絡(luò)及其應(yīng)用 53
3.2.1 神經(jīng)網(wǎng)絡(luò)的基本運算 54
3.2.2 神經(jīng)網(wǎng)絡(luò)的常用函數(shù) 58
3.2.3 模型融合 64
3.2.4 循環(huán)神經(jīng)網(wǎng)絡(luò) 66
3.2.5 集成學(xué)習(xí)理論基礎(chǔ) 69
3.3 基于深度學(xué)習(xí)的視覺目標檢測 70
3.3.1 兩階段算法 71
3.3.2 一階段算法 71
3.4 基于深度學(xué)習(xí)的視覺目標跟蹤 73
3.4.1 單目標跟蹤 73
3.4.2 多目標跟蹤 74
3.5 本章小結(jié) 75
第4章 自然場景下文本檢測與
識別 76
4.1 概述 76
4.2 基于圖像分割的場景文本檢測 81
4.2.1 特征提取網(wǎng)絡(luò) 82
4.2.2 文本區(qū)域掩碼標簽的
生成 83
4.2.3 場景文本區(qū)域的檢測 84
4.2.4 文本區(qū)域的后處理算法 85
4.2.5 文本檢測應(yīng)用實踐 87
4.3 基于序列的場景文本識別 92
4.3.1 場景文本特征序列的
提取 93
4.3.2 特征序列上下文信息
提取 95
4.3.3 轉(zhuǎn)錄層文本識別 98
4.3.4 文本識別網(wǎng)絡(luò) 100
4.3.5 模型訓(xùn)練 101
4.3.6 文本識別應(yīng)用實踐 102
4.4 基于輕量級模型的噴碼文本識別
系統(tǒng) 106
4.4.1 字符區(qū)域提取 107
4.4.2 字符文本處理 108
4.4.3 字符文本識別 109
4.4.4 字符文本識別應(yīng)用實踐 115
4.4.5 基于嵌入式系統(tǒng)的算法
設(shè)計與實現(xiàn) 121
4.4.6 系統(tǒng)運行測試 124
4.5 本章小結(jié) 125
第5章 視覺目標檢測 126
5.1 目標檢測系統(tǒng)概述 126
5.2 目標檢測的相關(guān)概念 129
5.3 目標檢測模型分類 133
5.4 數(shù)據(jù)獲取與處理 135
5.4.1 數(shù)據(jù)預(yù)處理 136
5.4.2 數(shù)據(jù)標注 138
5.5 基于R-FCN的目標檢測 140
5.5.1 R-FCN基本原理介紹 140
5.5.2 R-FCN算法的改進 146
5.5.3 目標檢測應(yīng)用實踐 150
5.6 基于Mask R-CNN的目標檢測 153
5.6.1 Mask R-CNN算法基本
原理 154
5.6.2 改進Mask R-CNN模型 157
5.6.3 Mask R-CNN應(yīng)用實踐 162
5.6.4 籃球以及球員檢測系統(tǒng)
軟件設(shè)計 164
5.7 本章小結(jié) 167
第6章 多目標跟蹤 168
6.1 目標跟蹤概述 168
6.1.1 單目標跟蹤 168
6.1.2 多目標跟蹤 171
6.1.3 多相機多目標跟蹤 175
6.2 多目標跟蹤系統(tǒng)構(gòu)成 176
6.3 基于序列特征的多目標跟蹤
方法 177
6.4 基于上下文圖模型的單相機多目標
跟蹤 184
6.4.1 圖卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)
知識 186
6.4.2 基于上下文圖模型的單相機多球員跟蹤 187
6.4.3 多目標跟蹤應(yīng)用實踐 193
6.5 本章小結(jié) 199
第7章 圖像語義分割 200
7.1 圖像語義分割概述 200
7.1.1 圖像分割算法的定義 200
7.1.2 傳統(tǒng)的圖像分割算法 200
7.1.3 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像
語義分割算法 204
7.2 基于自適應(yīng)特征選擇網(wǎng)絡(luò)的遙感
影像語義分割 208
7.2.1 基于自適應(yīng)特征選擇
網(wǎng)絡(luò)的遙感影像語義分割
算法 208
7.2.2 基于自適應(yīng)特征選擇網(wǎng)絡(luò)的遙感影像分割應(yīng)用實踐 211
7.3 基于SU-SWA的區(qū)域分割 215
7.3.1 基于SU-SWA的區(qū)域分割
任務(wù)分析 215
7.3.2 基于SU-SWA的區(qū)域分割
方法 215
7.3.3 基于SU-SWA的區(qū)域分割
應(yīng)用實踐 219
7.4 本章小結(jié) 229
參考文獻 230