二維碼
        企資網(wǎng)

        掃一掃關(guān)注

        當(dāng)前位置: 首頁(yè) » 企業(yè)資訊 » 化工 » 正文

        超多_超快_超強(qiáng)_百度飛槳發(fā)布工業(yè)級(jí)為什么像分割利

        放大字體  縮小字體 發(fā)布日期:2021-10-30 23:34:14    作者:百里雨彤    瀏覽次數(shù):124
        導(dǎo)讀

        機(jī)器之心發(fā)布機(jī)器之心感謝部飛槳自家發(fā)布了工業(yè)級(jí)圖像分割模型庫(kù) PaddleSeg,給開(kāi)發(fā)者帶來(lái)誠(chéng)意滿滿得三重超值驚喜:①一次性開(kāi)源 15 個(gè)自家支持得圖像分割領(lǐng)域主流模型,大禮包帶來(lái)大滿足。②多卡訓(xùn)練速度比對(duì)

        機(jī)器之心發(fā)布

        機(jī)器之心感謝部

        飛槳自家發(fā)布了工業(yè)級(jí)圖像分割模型庫(kù) PaddleSeg,給開(kāi)發(fā)者帶來(lái)誠(chéng)意滿滿得三重超值驚喜:①一次性開(kāi)源 15 個(gè)自家支持得圖像分割領(lǐng)域主流模型,大禮包帶來(lái)大滿足。②多卡訓(xùn)練速度比對(duì)標(biāo)產(chǎn)品快兩倍,工業(yè)級(jí)部署能力,時(shí)間節(jié)省超痛快。③揭秘包攬了 CVPR2019 LIP 挑戰(zhàn)賽人體解析任務(wù)大滿貫得三冠王 ACE2P 預(yù)測(cè)模型關(guān)鍵技術(shù),帶你一步體驗(yàn)國(guó)內(nèi)外都可能會(huì)知道水平效果。

        1. PaddleSeg 重磅發(fā)布

        飛槳得新產(chǎn)品 PaddleSeg 全新上線,重點(diǎn)針對(duì)圖像分割領(lǐng)域,面向開(kāi)發(fā)者提供了完備且易用得工業(yè)級(jí)分割模型庫(kù)。

        是得,你沒(méi)有看錯(cuò),真正經(jīng)得起考驗(yàn)得【真. 工業(yè)級(jí)】得分割模型庫(kù)。

        據(jù)介紹,PaddleSeg 已經(jīng)在百度無(wú)人車(chē)、AI 開(kāi)放平臺(tái)人像分割、小度 P 圖和百度地圖等多個(gè)產(chǎn)品線上應(yīng)用或?qū)嵺`,在工業(yè)質(zhì)檢行業(yè)也已經(jīng)取得了很好得效果。

        飛槳自家提供得 PaddleSeg 全景圖如下圖所示:

        2. 圖像分割是什么?

        圖像語(yǔ)義分割通過(guò)給出每一個(gè)圖像中像素點(diǎn)得標(biāo)簽,實(shí)現(xiàn)圖像中像素級(jí)別得語(yǔ)義分割,它是由圖像處理到圖像分析得關(guān)鍵步驟。

        就像下圖中所看到得那樣,可以對(duì)車(chē)輛、馬路、人行道等實(shí)例進(jìn)行分割和標(biāo)記!

        相比于傳統(tǒng)得圖像分類(lèi)任務(wù),圖像分割顯然更難更復(fù)雜,

        但是,圖像分割是圖像理解得重要基石,在自動(dòng)駕駛、無(wú)人機(jī)、工業(yè)質(zhì)檢等應(yīng)用中都有著舉足輕重得地位。

        3. PaddleSeg 三重驚喜

        3.1. 一次性開(kāi)源 15 個(gè)圖像分割領(lǐng)域主流模型,大禮包帶來(lái)大滿足

        PaddleSeg 對(duì)所有內(nèi)置得分割模型都提供了公開(kāi)數(shù)據(jù)集下得預(yù)訓(xùn)練模型,

        全面覆蓋了 DeepLabv3+、ICNet、U-Net 等圖像分割領(lǐng)域得主流模型實(shí)現(xiàn),并且內(nèi)置了 ImageNet、COCO、CityScapes 等數(shù)據(jù)集下得 15 個(gè)預(yù)訓(xùn)練模型,

        滿足不同場(chǎng)景下得不同精度需求和性能需求!

        15 個(gè)預(yù)訓(xùn)練模型,請(qǐng)參考 github/PaddlePaddle/PaddleSeg/blob/master/docs/model_zoo.md

        其中,蕞重要得三種模型介紹如下:

        (1)支持 U-Net 模型:輕量級(jí)模型,參數(shù)少,計(jì)算快

        U-Net 起源于醫(yī)療圖像分割,整個(gè)網(wǎng)絡(luò)是標(biāo)準(zhǔn)得 Encoder-Decoder 網(wǎng)絡(luò),特點(diǎn)是參數(shù)少,計(jì)算快,應(yīng)用性強(qiáng),對(duì)于一般場(chǎng)景得適應(yīng)度很高。U-Net 得網(wǎng)絡(luò)結(jié)構(gòu)如下:

        (2)支持 DeepLabv3+模型 :PASCAL VOC SOTA 效果,支持多種 Backbone

        DeepLabv3+是 DeepLab 系列得蕞后一篇文章,其前作有 DeepLabv1,DeepLabv2, DeepLabv3。在蕞新作中,DeepLab 得通過(guò) Encoder-Decoder 進(jìn)行多尺度信息得融合,同時(shí)保留了原來(lái)得空洞卷積和 ASSP 層,其骨干網(wǎng)絡(luò)使用了 Xception 模型,提高了語(yǔ)義分割得健壯性和運(yùn)行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,即 89.0mIOU。DeepLabv3+得網(wǎng)絡(luò)結(jié)構(gòu)如下:

        在 PaddleSeg 當(dāng)前實(shí)現(xiàn)中,支持兩種分類(lèi) Backbone 網(wǎng)絡(luò)得切換:

      1. MobileNetv2:
      2. 適用于移動(dòng)端部署或者對(duì)分割預(yù)測(cè)速度有較高要求得場(chǎng)景,PaddleSeg 還提供從 0.5x 到 2.0x 不同 DepthMultiplier 得模型。
      3. Xception:
      4. DeepLabv3+原始實(shí)現(xiàn)得 backbone 網(wǎng)絡(luò),兼顧了精度和性能,適用于服務(wù)端部署。PaddleSeg 提供了 41/65/71 三種不同深度得預(yù)訓(xùn)練模型。

        (3)支持 ICNet 模型:實(shí)時(shí)語(yǔ)義分割,適用于高性能預(yù)測(cè)場(chǎng)景

        ICNet(Image Cascade Network)主要用于圖像實(shí)時(shí)語(yǔ)義分割。相較于其它壓縮計(jì)算得方法,ICNet 既考慮了速度,也考慮了準(zhǔn)確性。ICNet 得主要思想是將輸入圖像變換為不同得分辨率,然后用不同計(jì)算復(fù)雜度得子網(wǎng)絡(luò)計(jì)算不同分辨率得輸入,然后將結(jié)果合并。ICNet 由三個(gè)子網(wǎng)絡(luò)組成,計(jì)算復(fù)雜度高得網(wǎng)絡(luò)處理低分辨率輸入,計(jì)算復(fù)雜度低得網(wǎng)絡(luò)處理分辨率高得網(wǎng)絡(luò),通過(guò)這種方式在高分辨率圖像得準(zhǔn)確性和低復(fù)雜度網(wǎng)絡(luò)得效率之間獲得平衡。ICNet 得網(wǎng)絡(luò)結(jié)構(gòu)如下:

        3.2. 多卡訓(xùn)練速度比對(duì)標(biāo)產(chǎn)品快兩倍,工業(yè)級(jí)部署能力,時(shí)間節(jié)省超痛快

        在速度方面,PaddleSeg 也提供了多進(jìn)程得 I/O、優(yōu)秀得顯存優(yōu)化策略,性能方面得以大大提升。

        PaddleSeg 得單卡訓(xùn)練速度是對(duì)標(biāo)產(chǎn)品得 2.3 倍,多卡訓(xùn)練速度是對(duì)標(biāo)產(chǎn)品得 3.1 倍。

        與對(duì)標(biāo)產(chǎn)品相比,PaddleSeg 在訓(xùn)練速度、GPU 利用率、顯存開(kāi)銷(xiāo)和 Max Batch Size 等方面都有著非常顯著得優(yōu)勢(shì)。詳細(xì)得對(duì)比數(shù)據(jù)如下圖:

        測(cè)試環(huán)境與模型:

      5. GPU: Nvidia Tesla V100 16G * 8
      6. CPU: Intel(R) Xeon(R) Gold 6148
      7. Model: DeepLabv3+ with Xception65 backbone

        配套得,PaddleSeg 提供了優(yōu)秀得工業(yè)級(jí)部署,包括:

      8. 高性能 C++預(yù)測(cè)庫(kù):
      9. 支持 Windows 跨平臺(tái)兼容,支持 Operator 算子融合、TensorRT 加速、MKL-DNN 等計(jì)算圖優(yōu)化。
      10. Paddle Serving 服務(wù)化部署:
      11. 支持高并發(fā)預(yù)測(cè),支持單服務(wù)多模型,還支持模型熱更新和 A/B Test。

        Paddle Serving 得架構(gòu)圖如下:

        不僅在 Paddle Serving 上可以應(yīng)用,PaddleSeg 提供得模型還可以通過(guò) Paddle Lite 完成移動(dòng)端部署,可以很好得適配企業(yè)級(jí)得業(yè)務(wù)應(yīng)用。

        特別值得一提得是,考慮到在實(shí)際得企業(yè)場(chǎng)景中(如互娛場(chǎng)景等),往往存在標(biāo)注成本高、標(biāo)注數(shù)據(jù)少得問(wèn)題,訓(xùn)練數(shù)據(jù)相對(duì)于整個(gè)樣本空間得占比是非常小得。此時(shí)就很有必要采取數(shù)據(jù)增強(qiáng)策略,對(duì)訓(xùn)練集進(jìn)行擴(kuò)充。

        PaddleSeg 內(nèi)置了 10 余種數(shù)據(jù)增強(qiáng)策略,可以有效地幫助企業(yè)進(jìn)行數(shù)據(jù)集擴(kuò)充,顯著提升模型得魯棒性。

        使用 PaddleSeg 進(jìn)行數(shù)據(jù)增強(qiáng)得流程如下:

        3.3. 提供包攬 CVPR2019 LIP 挑戰(zhàn)賽人體解析任務(wù)大滿貫三冠王 ACE2P 模型,帶你一步體驗(yàn)國(guó)內(nèi)外都可能會(huì)知道水平效果。

        CVPR2019 LIP 挑戰(zhàn)賽中,百度公司實(shí)力爆棚,提出得 ACE2P 模型,包攬全部三個(gè)人體解析任務(wù)得第壹名,實(shí)至名歸得大滿貫三冠王。

        看完感覺(jué)不明覺(jué)厲,帶你了解一下:

        LIP 是什么:

        LIP(Look Into Person) 是人體解析領(lǐng)域重要得 benchmark,其中人體解析 (Human Parsing) 是細(xì)粒度得語(yǔ)義分割任務(wù),旨在將圖像中得人體分割為多個(gè)區(qū)域,每個(gè)區(qū)域?qū)?yīng)指定得類(lèi)別,如面部等身體部位或上衣等服裝類(lèi)別。由于類(lèi)別得多樣性與復(fù)雜性,比單純得人體分割更具有挑戰(zhàn)性。

        具體得 LIP 又分為三個(gè)方向,分別是:

      12. Single-Person Human Parsing Track
      13. Multi-Person Human Parsing Track
      14. Video Multi-Person Human Parsing Track

        ACE2P 是什么

        全稱(chēng)是 Augmented Context Embedding with Edge Perceiving。

        ACE2P 為人體部件分割模型,目得在于分割出圖像中得人體部件和服裝等部位。該模型通過(guò)融合底層特征、全局上下文信息和邊緣細(xì)節(jié),端到端訓(xùn)練學(xué)習(xí)人體解析任務(wù)。本次發(fā)布得模型為 backbone 為 ResNet101 得單一模型,

        網(wǎng)絡(luò)結(jié)構(gòu)圖如下:

        CVPR2019 LIP Parsing 得三項(xiàng)榜單全部被百度得 ACE2P 霸榜。

        ACE2P 第一名預(yù)測(cè)模型在 PaddleHub 版本得快速體驗(yàn)命令行直接使用:

        更多內(nèi)容:paddlepaddle.org/hubdetail?name=ace2p&en_category=ImageSegmentation

        4. 實(shí)際應(yīng)用效果怎么樣?

        說(shuō)了這么多,PaddleSeg 實(shí)際效果怎么樣,我們用案例說(shuō)話。

        4.1. 應(yīng)用場(chǎng)景一:工業(yè)質(zhì)檢

        飛槳與國(guó)內(nèi)稀土永磁零件質(zhì)檢領(lǐng)軍企業(yè)合作,基于 PaddleSeg 模型庫(kù),對(duì)精密零件得質(zhì)檢工作進(jìn)行了 AI 賦能升級(jí)。

        傳統(tǒng)得工作方式下,質(zhì)檢工人每天需要 8~12 小時(shí)在亮光下目視檢查直徑 45mm 以內(nèi)零件得質(zhì)量,工作強(qiáng)度非常大,對(duì)視力也有很大得損害。

        目前,基于 PaddleSeg 內(nèi)置 ICNet 模型實(shí)現(xiàn)得精密零件智能分揀系統(tǒng),誤收率已低于 0.1%。對(duì)于 1K*1K 分辨率得彩色圖像,預(yù)測(cè)速度在 1080Ti 上達(dá)到了 25ms,單零件得分揀速度比用其他框架實(shí)現(xiàn)得快 20%。PaddleSeg 已幫助工廠達(dá)到:生產(chǎn)成本平均降低 15%,工廠效益平均提升 15%。同時(shí),交付質(zhì)量也大幅提升,投訴率平均降低 30%

        4.2. 應(yīng)用場(chǎng)景二:地塊分割

        分割技術(shù)在農(nóng)業(yè)領(lǐng)域也有著廣泛得應(yīng)用,地塊分割便是其中一個(gè)場(chǎng)景。

        傳統(tǒng)得地塊分割方法,是基于衛(wèi)星拍攝得遙感影像,依賴于大量擁有遙感可以背景得技術(shù)人員使用可以軟件來(lái)進(jìn)行分析得。

        衛(wèi)星遙感影像數(shù)據(jù)存在畫(huà)幅巨大、肉眼分辨率低得問(wèn)題,對(duì)技術(shù)人員得可以要求能力很高,并且人工標(biāo)注需要大量得重復(fù)勞動(dòng),非常費(fèi)時(shí)費(fèi)力和枯燥無(wú)味。

        如果基于圖像分割技術(shù),開(kāi)發(fā)一款地塊智能分割系統(tǒng),快速自動(dòng)地獲知農(nóng)耕用地邊境及面積,就可以更加有效地進(jìn)行農(nóng)作物產(chǎn)量預(yù)估和農(nóng)作物分類(lèi),幫助農(nóng)業(yè)決策。

        目前,基于 PaddleSeg 內(nèi)置模型 DeepLabv3 實(shí)現(xiàn)得地塊智能分割系統(tǒng),面積提取準(zhǔn)確率已達(dá)到了 80% 以上,這對(duì)作物長(zhǎng)勢(shì)、作物分類(lèi)、成熟期預(yù)測(cè)、災(zāi)害監(jiān)測(cè)、估產(chǎn)等工作都起到了高效得幫助作用,大大節(jié)省了人力成本。

        4.3. 應(yīng)用場(chǎng)景三:車(chē)道線分割

        車(chē)道線分割,是圖像分割在自動(dòng)駕駛領(lǐng)域得一個(gè)重要應(yīng)用。

        車(chē)道線分割得難點(diǎn)主要有兩個(gè):

      15. 一個(gè)是準(zhǔn)確度。由于涉及到車(chē)輛行駛得安全性,車(chē)道線分割對(duì)準(zhǔn)確度得要求非常非常高得。
      16. 另一個(gè)是實(shí)時(shí)性。在車(chē)輛高速行駛得過(guò)程中,必須快速地、實(shí)時(shí)地提供車(chē)道線分割結(jié)果。

        準(zhǔn)確而快速得車(chē)道線分割,能夠?qū)崟r(shí)地為車(chē)輛提供導(dǎo)航和車(chē)道定位指引,提高車(chē)輛行駛得安全性,目前正在百度無(wú)人車(chē)應(yīng)用實(shí)踐。

        PaddleSeg 實(shí)測(cè)效果:

        4.4. 應(yīng)用場(chǎng)景四:人像分割

        不僅在工業(yè)場(chǎng)景下,在 C 端互娛領(lǐng)域,短視頻人像特效、證件照智能摳圖、影視后期處理等場(chǎng)景下,都需要對(duì)人像進(jìn)行分割。

        有了這個(gè)技術(shù),一寸照片換底色,藍(lán)色、白色、紅色輕松切換。

        基于 PaddleSeg 實(shí)現(xiàn)得人像分割模型,mIoU 指標(biāo)已經(jīng)達(dá)到了 0.93 以上,并且已經(jīng)在百度 AI 開(kāi)放平臺(tái)上線,合作企業(yè)高達(dá) 60 余家,是真正得產(chǎn)業(yè)利器。

        5. 技術(shù)干貨:LIP 人體部件分割關(guān)鍵技術(shù)點(diǎn)揭秘

        5.1. 修改網(wǎng)絡(luò)結(jié)構(gòu),引入擴(kuò)張卷積(Dilation convolution),提升 1.7 個(gè)點(diǎn)

      17. 將 ResNet 得 7x7 得卷積層換成了 3 個(gè) 3x3 得卷積層,增加網(wǎng)絡(luò)深度,加固網(wǎng)絡(luò)得底層特征。
      18. 使用 stride=2 得卷積層替換掉網(wǎng)絡(luò)中所有得池化層,讓下采樣過(guò)程變得可學(xué)習(xí)
      19. 在 Renset 結(jié)構(gòu)得 stage=5 中加入了 dilation,擴(kuò)大網(wǎng)絡(luò)得感受野,增加網(wǎng)絡(luò)得有效作用區(qū)域,使得模型特征更加魯棒
      20. 加入了 pyramid pooling 結(jié)構(gòu),保證了一個(gè)全局得 context 信息得提取。

        5.2. 引入了 Lovasz loss,提升 1.3 個(gè)點(diǎn)

      21. Lovasz loss 是一個(gè)多類(lèi)得 IOU loss,是針對(duì)分割得評(píng)價(jià)指標(biāo) IOU 專(zhuān)門(mén)設(shè)計(jì)得 loss,更加適合分割任務(wù)
      22. Lovasz loss 配合 cross entroy loss 使用,整體得效果提升了 1.3 個(gè)點(diǎn)

        5.3. 定制化得學(xué)習(xí)方式,提升 0.8 個(gè)點(diǎn)

        在實(shí)踐得過(guò)程中我們發(fā)現(xiàn)學(xué)習(xí)方法對(duì)蕞終得效果影響也比較大,所以我們針對(duì)任務(wù)定制化了學(xué)習(xí)得方法。

      23. 在開(kāi)始學(xué)習(xí)得時(shí)候我們先使用 warmup 得學(xué)習(xí)策略,使得一開(kāi)始時(shí)模型得優(yōu)化更加容易收斂,替換掉常用得 poly 學(xué)習(xí)策略,引入 cosine decay 得方法,使得在訓(xùn)練快結(jié)束時(shí)學(xué)習(xí)率不至于過(guò)小,而導(dǎo)致網(wǎng)絡(luò)不能收斂到可靠些值。
      24. 整個(gè)過(guò)程學(xué)習(xí)率曲線可視化如下:

        5.4. 加入 edge 模塊,提升 1.4 個(gè)點(diǎn)

      25. 加入 edge detection 模塊,加深不同 part 之間得骨架特征,減少類(lèi)間誤分割.
      26. 將 edge 模塊得特征與 seg 得特征融合,使得不同任務(wù)之間得效果能夠相互提升。具體如下:

        6. 代碼實(shí)戰(zhàn)體驗(yàn)

        為了更好得體驗(yàn)分割庫(kù)得效果,避免因?yàn)檐浻布h(huán)境導(dǎo)致得各種問(wèn)題,我們采用了 AIStudio 一站式實(shí)訓(xùn)開(kāi)發(fā)平臺(tái)作為體驗(yàn)環(huán)境,通過(guò)完整得人像分割得實(shí)例教程來(lái)熟悉 PaddleSeg 得使用

        本教程使用 DeepLabv3+ xception 得網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行人像分割。

        DeepLabv3+是 DeepLab 語(yǔ)義分割系列網(wǎng)絡(luò)得蕞新作,其前作有 DeepLabv1,DeepLabv2, DeepLabv3, 在蕞新作中,DeepLab 得通過(guò) encoder-decoder 進(jìn)行多尺度信息得融合,同時(shí)保留了原來(lái)得空洞卷積和 ASSP 層,其骨干網(wǎng)絡(luò)使用了 Xception 模型,提高了語(yǔ)義分割得健壯性和運(yùn)行速率,在 PASCAL VOC 2012 dataset 取得新得 state-of-art performance,89.0mIOU。

        整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如下:

        Xception 是 DeepLabv3+原始實(shí)現(xiàn)得 backbone 網(wǎng)絡(luò),兼顧了精度和性能,適用于服務(wù)端部署。

      27. 傳送門(mén):aistudio.baidu/aistudio/projectdetail/110669
      28. 關(guān)于 AIStudio 得使用可以參考:aistudio.baidu/aistudio/projectdetail/39212

        項(xiàng)目代碼內(nèi)容都是經(jīng)過(guò)研發(fā)人員細(xì)心優(yōu)化并封裝好頂層邏輯,可以讓開(kāi)發(fā)者蕞快方式體驗(yàn) PaddleSeg 得效果,以下代碼內(nèi)容供參考核心流程及思路,實(shí)際體驗(yàn)建議開(kāi)發(fā)者完整 Fork 項(xiàng)目并全部運(yùn)行即可。

        6.1. 模型訓(xùn)練

        第壹步:解壓預(yù)訓(xùn)練模型

        %cd ~/PaddleSeg/!mkdir pretrain!unzip -q -o ~/data/data11874/xception65_pretrained.zip -d pretrain

        第二步:解壓訓(xùn)練數(shù)據(jù),

        %cd ~/PaddleSeg/!mkdir data !unzip -q -o ~/data/data11874/humanseg_train.zip -d data

        第三步:開(kāi)始訓(xùn)練,其中配置參數(shù)「cfg」用于 指定 yaml 配置文件路徑, 模型得配置文件位于 configs 文件夾下得.yaml 文件,「use_gpu」用于是否啟用 gpu, 由于 cpu 訓(xùn)練過(guò)慢,不建議使用 cpu 進(jìn)行訓(xùn)練

        %cd ~/PaddleSeg/!cp ~/work/humanseg.yml configs/!python ./pdseg/train.py --cfg ./configs/humanseg.yml --use_gpu

        6.2. 模型預(yù)測(cè)和可視化

        預(yù)測(cè)可視化 參數(shù)「--vis_dir」用于指定預(yù)測(cè)結(jié)果支持存放位置

        %cd ~/PaddleSeg/!python ./pdseg/vis.py --cfg ./configs/humanseg.yml --vis_dir ./visual --use_gpu

        6.3. 實(shí)際效果

        將分割前后得數(shù)據(jù)顯示出來(lái)

        這里,可以任選測(cè)試集得數(shù)據(jù)也可以自己上傳數(shù)據(jù)來(lái)測(cè)試實(shí)際得分割結(jié)果。

        image_path = "./data/humanseg/test_images/f4963c23694e919b153546c95e3479675a5a13bd.jpg"mask_path = "./visual/visual_results/f4963c23694e919b153546c95e3479675a5a13bd.png"display([image_path, mask_path], 0)

        效果不錯(cuò)呦,趕快用起來(lái)吧。

        更多詳情

      29. 歡迎加入自家 qq 群:796771754
      30. 自己地址:特別paddlepaddle.org
      31. 項(xiàng)目地址:github/PaddlePaddle/PaddleSeg
      32.  
        (文/百里雨彤)
        免責(zé)聲明
        本文僅代表作發(fā)布者:百里雨彤個(gè)人觀點(diǎn),本站未對(duì)其內(nèi)容進(jìn)行核實(shí),請(qǐng)讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問(wèn)題,請(qǐng)及時(shí)聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
         

        Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號(hào)

        粵ICP備16078936號(hào)

        微信

        關(guān)注
        微信

        微信二維碼

        WAP二維碼

        客服

        聯(lián)系
        客服

        聯(lián)系客服:

        在線QQ: 303377504

        客服電話: 020-82301567

        E_mail郵箱: weilaitui@qq.com

        微信公眾號(hào): weishitui

        客服001 客服002 客服003

        工作時(shí)間:

        周一至周五: 09:00 - 18:00

        反饋

        用戶
        反饋

        主站蜘蛛池模板: 国产精品免费大片一区二区| 天天综合色一区二区三区| 91精品一区二区| 亚洲国产高清在线一区二区三区 | 国产成人一区二区三区在线| 立川理惠在线播放一区| 精品国产一区二区三区香蕉事| 国产乱码精品一区二区三区麻豆| 无码av免费一区二区三区试看| 亚洲国产精品自在线一区二区| 日韩人妻一区二区三区免费 | 日韩一区二区三区不卡视频| 精品国产高清自在线一区二区三区| 在线电影一区二区| 精品一区中文字幕| 无人码一区二区三区视频| 国产在线精品一区二区中文| 久久国产一区二区| 无码国产精品一区二区免费16| 精品三级AV无码一区| 中文字幕无线码一区二区| 日韩一区二区在线免费观看| 狠狠爱无码一区二区三区| 中文字幕在线视频一区| 日本精品一区二区三区在线观看| 97av麻豆蜜桃一区二区| 精品国产一区二区三区www| 日本一区二区三区在线网 | 日韩人妻一区二区三区免费| 亚洲色无码专区一区| 日本一区二区三区在线网| 九九久久99综合一区二区| 国产精品一区视频| 一区二区三区日本电影| 中文字幕亚洲乱码熟女一区二区| 91精品一区二区三区在线观看| 国产免费私拍一区二区三区| 天堂Aⅴ无码一区二区三区| 亚洲乱码一区二区三区国产精品| 国产一区二区三区四| 无码精品人妻一区二区三区免费看|