最近,歐姆龍公司宣布公司據(jù)說已經(jīng)為緊湊型視覺傳感器開發(fā)了業(yè)界最快的3D視覺傳感技術(shù),可以在三維空間中識別目標(biāo)物體的位置和方向。通過將這一技術(shù)與機器人相結(jié)合,傳統(tǒng)的勞動密集型過程可以實現(xiàn)自動化,從而可以快速準(zhǔn)確地組裝大宗零件。基于該技術(shù)的緊湊型3D視覺傳感器計劃于2020年實現(xiàn)商業(yè)化。
近年來,隨著用工荒的加劇和人工成本的增加,裝配、檢驗、運輸?shù)淖詣踊瘎菰诒匦校@些過程很大程度上依賴于人的經(jīng)驗和感受。然而,為了在裝配過程中自動選擇由人類完成的大型零件,機器人需要配備“眼睛”,這就需要能夠立即識別零件位置和方向的高速3D視覺傳感技術(shù)。因此,由3D測量的兩部分技術(shù)生成的3D形狀圖像和識別目標(biāo)物體的位置和方向的3D識別都需要更快的速度。
為了滿足這種需求,歐姆龍開發(fā)了3D視覺傳感技術(shù)。這項新技術(shù)實現(xiàn)了高速和高精度的3D物體識別,并提供了一個緊湊和輕便的視覺傳感器,可以安裝在機器人手上。雖然使用相移法的傳統(tǒng)3D測量技術(shù)進行測量需要時間,但由于需要捕捉10個或更多圖像,歐姆龍開發(fā)了一種3D測量技術(shù),可以使用專有模式照明在一次拍攝中生成目標(biāo)對象的3D圖像。
此外,歐姆龍還將其在圖像處理領(lǐng)域積累的高速2D搜索技術(shù)延伸到3D領(lǐng)域,并針對3D識別技術(shù)開發(fā)了高速目標(biāo)位置和方向識別算法。這些技術(shù)允許在大約0.5秒內(nèi)高速部分識別流體成分。同時,安裝在緊湊型機器人上的相機也是可能的,因為歐姆龍的專有模式照明將相機的尺寸和重量減少到了500克左右。
3D視覺傳感器的視點可以根據(jù)組件設(shè)置移動,從而允許在不同位置和方向靈活拾取組件。結(jié)合3D視覺傳感器的機器人可以從多個零件容器中選擇散裝零件。拍攝零件圖像并識別其位置和方向大約需要0.5秒。(作者:安格爾)