甘肅研發(fā)AI智能圖像處理

來源: 發(fā)布時間:2024-07-19

我們教一個小孩識物的時候,比如“蘋果”,首先要讓他反復(fù)的看到“蘋果”,他便能認(rèn)識“蘋果”;他可能會認(rèn)錯,把“梨”認(rèn)成“蘋果”,這個時候應(yīng)該幫他指出來。小孩看到的“蘋果”越多,辨識的能力就越強(qiáng)。基于深度神經(jīng)網(wǎng)絡(luò)的人工智能,讓機(jī)器具備理解的能力,基本過程就像教一個小孩認(rèn)蘋果一樣。首先要有大量的數(shù)據(jù),比如“蘋果”的圖片;同時,要增加大量機(jī)器會認(rèn)錯的“負(fù)樣本”,比如“梨”的圖片;然后經(jīng)過一個深度神經(jīng)網(wǎng)絡(luò),反復(fù)學(xué)習(xí),然后獲得一個有效的識別模型。對于快消商品的識別,我們不僅要認(rèn)出一個瓶子包裝,還要認(rèn)出是一瓶酸奶還是啤酒;不僅要認(rèn)出酸奶,還要認(rèn)出是哪個品牌的酸奶,甚至是哪個口味和規(guī)格。要讓機(jī)器能夠準(zhǔn)確識別成千上萬的快消商品SKU,是一項(xiàng)極其龐大而復(fù)雜的AI工程。機(jī)器人是AI發(fā)展后的一個重要載體。甘肅研發(fā)AI智能圖像處理

AI智能

橋梁助航標(biāo)志的正常顯示有助于引導(dǎo)船舶正常航行,防止出現(xiàn)撞上大橋等事故的發(fā)生。因此需要定期定時對水上標(biāo)志進(jìn)行檢查,尤其是夜間。由于傳統(tǒng)的人工巡檢模式存在局限性和檢查盲區(qū),巡查范圍不夠細(xì)致、作業(yè)效率低下、執(zhí)法人員存在人身安全隱患等問題,逐漸被逐步淘汰,取而代之的是無人機(jī)搭載吊艙后實(shí)行遠(yuǎn)程定期巡檢。無人機(jī)搭載慧視光電開發(fā)的慧視VIZ-YWT201微型雙光吊艙集成了可見光攝像機(jī)、紅外熱像儀等傳感器,能夠?qū)崿F(xiàn)晝夜成像,內(nèi)置成都慧視自研全國產(chǎn)化RV1126圖像跟蹤板,搭載自研AI跟蹤算法,重量280g,能夠?qū)蛄荷现綐?biāo)志進(jìn)行位置、顏色、結(jié)構(gòu)的晝夜觀察識別,輔助上報(bào)目標(biāo)的圖像及坐標(biāo)信息。重慶應(yīng)急救援AI智能安全帽識別人工智能和機(jī)器學(xué)習(xí)技術(shù),還可以幫助提高建筑工地的安全性并降低風(fēng)險(xiǎn)。

甘肅研發(fā)AI智能圖像處理,AI智能

無人機(jī)主導(dǎo)下的低空經(jīng)濟(jì)在物流運(yùn)輸、應(yīng)急救援、智能巡檢、農(nóng)林植保等領(lǐng)域有著突出應(yīng)用,而在輔助無人機(jī)進(jìn)行運(yùn)轉(zhuǎn)的設(shè)備中,吊艙很重要。無人機(jī)吊艙中集各類傳感器于一體,能夠在無人機(jī)執(zhí)行任務(wù)時,實(shí)時識別畫面中的物體,幫助操控者進(jìn)行信息收集,做出判斷。而為了讓無人機(jī)進(jìn)一步智能化,慧視光電通過在吊艙中植入高性能的圖像處理板,來實(shí)現(xiàn)AI和無人機(jī)的有機(jī)結(jié)合。這就是慧視VIZ-GT05V三軸雙可見光慣性穩(wěn)定吊艙,它搭載一顆千萬級可見光CMOS傳感器和一顆星光級可見光CMOS傳感器,具備大小兩個視場角,能夠?qū)崟r輸出1080P的高清可見光視頻,可實(shí)現(xiàn)夜間微弱光線下的目標(biāo)觀測。

要解決小目標(biāo)難以追蹤的這個難題,慧視光電的算法工程師給出了小目標(biāo)識別算法的方案,通過加強(qiáng)目標(biāo)特征、數(shù)據(jù)增廣、放大輸入圖像、使用高分辨率的特征、設(shè)計(jì)合適的標(biāo)簽分配方法,以讓小目標(biāo)有更多的正樣本、利用小目標(biāo)所處的環(huán)境信息或者其他容易檢測的物體之間的關(guān)系來輔助小目標(biāo)的檢測。此外,利用自研的深度學(xué)習(xí)算法開發(fā)平臺,通過不斷的深度學(xué)習(xí),能夠讓AI更加精細(xì)的識別目標(biāo)。這個方法在瑞芯微RK3588、RV1126、RK3399pro等系列圖像跟蹤板上得到了較好地驗(yàn)證。因此,將這個算法用在無人機(jī)高空識別領(lǐng)域,完全能夠彌補(bǔ)傳統(tǒng)算法的不足,達(dá)到更加穩(wěn)定鎖定跟蹤的目的。毫秒級的AI圖像標(biāo)注工具SpeedDP。

甘肅研發(fā)AI智能圖像處理,AI智能

YOLO(You Only Look Once)是一種目標(biāo)檢測算法,它使用深度神經(jīng)網(wǎng)絡(luò)模型,特別是卷積神經(jīng)網(wǎng)絡(luò),來實(shí)時檢測和分類對象。該算法開始被提出是在2016年的論文《You Only Look Once:統(tǒng)一的實(shí)時目標(biāo)檢測》中。自發(fā)布以來,由于其高準(zhǔn)確性和速度,YOLO已成為目標(biāo)檢測和分類任務(wù)中很受歡迎的算法之一。它在各種目標(biāo)檢測基準(zhǔn)測試中實(shí)現(xiàn)了高性能。就在2023年5月初,YOLO-NAS模型被引入到機(jī)器學(xué)習(xí)領(lǐng)域,它擁有更高的精度和速度,超越了其他模型如YOLOv7和YOLOv8。我國今年也把“人工智能+”寫入了工作報(bào)告。湖北邊海防AI智能供應(yīng)商

SpeedDP是深度學(xué)習(xí)領(lǐng)域的產(chǎn)品。甘肅研發(fā)AI智能圖像處理

IDEA研究院團(tuán)隊(duì)推出了GroundingDINO  1.5,它能夠?qū)崿F(xiàn)端側(cè)實(shí)時識別。在圖像和文本的語義理解上表現(xiàn)出色,能夠快速、準(zhǔn)確地根據(jù)語言提示檢測和識別圖像中的目標(biāo)對象。作為當(dāng)前性能比較好的開集檢測模型,GroundingDINO  1.5Pro可以幫助構(gòu)建海量的具有物體級別語義信息的多模態(tài)數(shù)據(jù),從而有效地助力多模態(tài)大模型的訓(xùn)練。它可以將長文本描述中的短語與圖像中的具體對象或場景精確匹配,以增強(qiáng)AI對視覺內(nèi)容和文本之間關(guān)系的理解。目前,成都慧視利用AI圖像處理板和YOLO算法來實(shí)現(xiàn)對物體的實(shí)時監(jiān)測,其中,開發(fā)的Viztra-HE030圖像處理板采用了瑞芯微全新一代高性能芯片RK3588,擁有四大四小八核處理器,算力水平能夠達(dá)到6.0TOPS,在我司定制多種視頻接口后,可實(shí)時對目標(biāo)進(jìn)行識別或者人為的的鎖定,同時可以根據(jù)輸出目標(biāo)的靶量信息,對目標(biāo)進(jìn)行實(shí)時跟蹤。甘肅研發(fā)AI智能圖像處理