【溫馨提示】====【1】設計包含CAD圖紙 和 DOC文檔,均可以在線預覽,所見即所得,,dwg后綴的文件為CAD圖,超高清,可編輯,無任何水印,,充值下載得到【資源目錄】里展示的所有文件======【2】若題目上備注三維,則表示文件里包含三維源文件,由于三維組成零件數(shù)量較多,為保證預覽的簡潔性,店家將三維文件夾進行了打包。三維預覽圖,均為店主電腦打開軟件進行截圖的,保證能夠打開,下載后解壓即可。======【3】特價促銷,,拼團購買,,均有不同程度的打折優(yōu)惠,,詳情可咨詢QQ:1304139763 或者 414951605======【4】 題目最后的備注【YC系列】為店主整理分類的代號,與課題內(nèi)容無關(guān),請忽視
1 研究目的意義
1.1 研究目的
隨著農(nóng)業(yè)生產(chǎn)的快速發(fā)展,農(nóng)業(yè)生產(chǎn)技術(shù)急需發(fā)展,各種人工的生產(chǎn)已經(jīng)不能滿足需要。除草機器人的研究,這其中機器人機械臂的運動學分析和圖像識別又是比較關(guān)鍵的技術(shù),以及除草方法的不斷改進更使效率大大提高。相信隨著我國對對農(nóng)業(yè)機器人的高度重視,我國在農(nóng)業(yè)除草機器人的研究領(lǐng)域會取得重大的突破。我國的農(nóng)業(yè)生產(chǎn)能力家大大提高。
1.2 研究意義
農(nóng)田雜草直接與莊稼爭奪營養(yǎng)、水分和陽光,影響作物生長,減少作物產(chǎn)量。人工除草勞動強度大,效率低,使用除草劑,可有效抑制雜草,但污染環(huán)境。開發(fā)高效地去除雜草、降低以致消除生態(tài)污染的自動化除草機器人十分必要,從長遠來看,將具有很高的經(jīng)濟效益。
力圖使得農(nóng)田除草工作主要由機器人來完成,高效、自動,減少人們的煩瑣勞動;有選擇地、精確地施用除草劑,避免傷及作物;與傳統(tǒng)的噴霧施藥方法相比,大幅減少除草劑的用量,保護了環(huán)境。
農(nóng)業(yè)機器人的發(fā)展,特別是除草機器人的發(fā)展是我們國家農(nóng)業(yè)高效產(chǎn)業(yè)化走向更多的土地,從各種角度將我們都有很大的動力和空間把我國的農(nóng)業(yè)發(fā)展的更加現(xiàn)代化,除草機器人,將會更加科學。
2 研究的現(xiàn)狀、基本內(nèi)容及方案
2.1 研究現(xiàn)狀
2.1.1 國外研究現(xiàn)狀
目前農(nóng)業(yè)機器人的研究主要涉及機器人田間的自主導航和作業(yè)目標的識別、定位、作業(yè)機構(gòu)設計兩方面。對于前者,研究的重點在于信息獲取以及作業(yè)規(guī)劃與自治控制方面,或可粗略地稱為行走系列機器人,如:田間耕耘、農(nóng)田信息采集機器人等。后者則著重于模式分類以及操作結(jié)構(gòu)設計與控制等,或稱機械手系列機器人,如:果蔬采摘、品質(zhì)測定、水果分揀、蔬菜嫁接機器人等。兩者相輔相成,互相滲透,根據(jù)農(nóng)作活動的差異,各有側(cè)重。
美國伊利諾依大學農(nóng)業(yè)與生物工程系研究了應用機器視覺系統(tǒng)采集和計算雜草分布特性,進行施用量決策并控制噴頭工作的智能噴霧機。該系統(tǒng)能在3.7米×0.43米范圍內(nèi)分辨出作物、雜草和土壤,并在O.24秒內(nèi)做出噴霧決策。這樣噴霧機能以14千米/小時的速度行進,目標分辨準確率為91%。
澳大利亞科研人員研發(fā)出一種智能化農(nóng)田施藥機械,它在田間移動時,能借助專門的電子傳感器來區(qū)分莊稼和雜草,一旦發(fā)現(xiàn)雜草便噴灑除草劑。這種只針對雜草的噴灑方式使除草劑的花費只有常規(guī)噴灑的l/lO,甚至更低,不僅節(jié)約了生產(chǎn)成本,還減少了對環(huán)境的污染。
2.1.2 國內(nèi)研究現(xiàn)狀
除草機器人可以代替人類進行除草活動,減輕農(nóng)民的勞動強度,也可以減少農(nóng)業(yè)從業(yè)人口數(shù)量,提高農(nóng)業(yè)設備的自動化和智能化。國外較早開展了除草機器人研究;在國內(nèi),南京林業(yè)大學陳勇等率先提出了基于直接施藥方法的除草機器人,設計了由主體、機械臂、輪子和攝像頭組成的自動施藥除草機器人。通過機器視覺檢測出雜草,利用機械臂進行“直接施藥方法’’除草,大大減少了化學除草劑使用量,從而有效地減少了環(huán)境污染。
東北林業(yè)大學研制了林木球果采集機器人。很好地解決了目前在林區(qū)主要依靠人工上樹,強度大、安全性差、生產(chǎn)率低,對母樹損傷較大的問題。
中國農(nóng)業(yè)大學開展了蔬菜自動嫁接技術(shù)研究,實現(xiàn)了幼苗的精確定位、快速抓取、良好切削,解決了蔬菜幼苗柔嫩、易損和生長不一致等難題。機器人采用獨特嫁接方法,自動完成嫁接作業(yè),速度達600棵/小時,成功率95%以上。
2.2 基本內(nèi)容
(1)利用solidwork建模和機械臂優(yōu)化設計,確定了機械臂的工作形式,制作了與機器人本體相適應的四關(guān)節(jié)機械臂。
(2)完成苗間鋤草機器人的模型并進行初步模擬實驗,使機器人可以沿著幼苗前進并基本去除其間的雜草,達成設計目的。
2.3 研究方案
(1)確定苗間鋤草機器人總體的初步設計方案。
(2)制定機械臂的初步模型。
(3)確定機器人各部分的零件選擇。
(4)基于solidwork 的三維建模,以及模型的生成。
(5)除草機器人的模擬實驗和分析
3 預期結(jié)果和創(chuàng)新點
本課題設計、制作了除草機械臂,初步研究了末端執(zhí)行器控制系統(tǒng)。除草機器人在室內(nèi)進行了大量的除草和導航試驗,試驗表明機器人能可靠地自主行走并準確地定位雜草。
具體完成了以下幾個方面的工作:
(1)進行了除草機械臂的優(yōu)化設計、實物制作并著重分析其運動學問題,使機械臂可以可以大體上完成苗間雜草的去除。
(2)初步實現(xiàn)了除草機器人鋤草部分單片機控制系統(tǒng),制作了控制系統(tǒng)。
(3)進行了大量機器人控制調(diào)試與試驗,證實了機械臂和機器人運行的正確性和有效性,達到了預期的結(jié)果,取得了初步的成功。
目前,國際上除草機器人的研制處于初級階段,國內(nèi)尚沒有這方面的報道,本文初次研究了基于圖像識別的導航技術(shù)與雜草識別技術(shù)相結(jié)合的除草機器人,并制作了除草機器人樣機;另外,本研究提出了在切割過程中涂抹農(nóng)藥的施藥除草新技術(shù)。
本課題的研究有下列創(chuàng)新:
(1)開展了直接物理方法的除草機器人深入研究,制作了除草機器人樣機,開發(fā)了有效的控制軟件,并完成了軟硬件的聯(lián)合調(diào)試,試驗取得了成功。
(2)設計了適合完成田間除草功能的多關(guān)節(jié)機械臂,并實現(xiàn)了基本的除草控制,試驗成功。
5 參考文獻
1.?陳勇,侯學貴,胡娜.?除草機器人機械臂的逆向求解與控制郭偉斌[J].農(nóng)業(yè)工程學報,2009(4):?108-112?
2.?陳勇,鄭加強,?郭偉斌.?除草機器人機械臂運動分析與控制[J].?農(nóng)業(yè)機械學報,2007,38(8):?105-108?
3.?侯學貴,陳勇,郭偉.?除草機器人田間機器視覺導航[J].?農(nóng)業(yè)機械學報,2008,39(3):106-108?
4.?陳勇,田磊,鄭加強.?基于直接施藥方法的除草機器人[J].?農(nóng)業(yè)機械學報,2005,36(10):?91-93?
5.?李東升?張蓮潔.?國內(nèi)外除草技術(shù)研究現(xiàn)狀[J].?森林工程,2002,18(1):17-18?
6.?彭滿升,張振偉,孫國志.?小麥出口:河南與澳大利亞差距何在[J].?農(nóng)村·農(nóng)業(yè)·農(nóng)民,2004?(7):202-205?
7,胡懷中,?李嘉,?胡軍.一種機器人觸視覺圖像配準方法的研究?[J].小型微型計算機系統(tǒng),2005,25(6);1057-1060?
8,?楊晶東,楊敬輝,洪炳镕.移動機器人視覺圖像特征提取與匹配算法[J].?計算機應用研究,2009(9);3526-3529,3533?
9,楊杰,?張銘鈞,?尚云超.一種移動機器人視覺圖像特征提取及分割方法[J].機器人,2008,30(4);311-317?
0,董會英,岳宏.基于雙閾值的移動機器人視覺圖像分割?[J].河北工業(yè)大學學報,?2008,37(3);16-20?
11,Dur,?Erdogan.Optical?flow-based?obstacle?detection?and?avoidance?behaviors?for?mobile?robots?used?in?unmaned?planetary?exploration[J].RAST?2009?-?Proceedings?of?4th?International?Conference?on?Recent?Advances?Space?Technologies,2009(4);638-647.?
12,Hayashi,?Kinoshita,?Tomoyuki2.Development?of?an?indoor?navigation?system?for?a?monocular-vision-based?autonomous?mobile?robot[J].Artificial?Life?and?Robotics?,2009,14(3);324-328.