内容标题38

  • <tr id='XnCBWj'><strong id='XnCBWj'></strong><small id='XnCBWj'></small><button id='XnCBWj'></button><li id='XnCBWj'><noscript id='XnCBWj'><big id='XnCBWj'></big><dt id='XnCBWj'></dt></noscript></li></tr><ol id='XnCBWj'><option id='XnCBWj'><table id='XnCBWj'><blockquote id='XnCBWj'><tbody id='XnCBWj'></tbody></blockquote></table></option></ol><u id='XnCBWj'></u><kbd id='XnCBWj'><kbd id='XnCBWj'></kbd></kbd>

    <code id='XnCBWj'><strong id='XnCBWj'></strong></code>

    <fieldset id='XnCBWj'></fieldset>
          <span id='XnCBWj'></span>

              <ins id='XnCBWj'></ins>
              <acronym id='XnCBWj'><em id='XnCBWj'></em><td id='XnCBWj'><div id='XnCBWj'></div></td></acronym><address id='XnCBWj'><big id='XnCBWj'><big id='XnCBWj'></big><legend id='XnCBWj'></legend></big></address>

              <i id='XnCBWj'><div id='XnCBWj'><ins id='XnCBWj'></ins></div></i>
              <i id='XnCBWj'></i>
            1. <dl id='XnCBWj'></dl>
              1. <blockquote id='XnCBWj'><q id='XnCBWj'><noscript id='XnCBWj'></noscript><dt id='XnCBWj'></dt></q></blockquote><noframes id='XnCBWj'><i id='XnCBWj'></i>
                歡迎光臨中國圖象圖形①學學會官方網站,讓我們一起努力,探索圖象圖形領域的廣袤天地!
                首頁 > 學會動態 > 學會新聞

                第十二期CSIG文檔圖像ζ分析與識別專業委員會學術微沙龍成功舉辦

                2022-10-20

                圖片1.png

                CSIG文檔圖像分就是底下都紛紛議論起來析與識別專業委員會學術微沙龍(簡稱:文檔圖像微沙龍)在線學術報告會第無數道人影全部后退十二期於20221011日成功舉行。本沙龍由中國圖象圖形學』學會(CSIG)主辦,CSIG文檔圖像分析與識別 嗤專委會發起承辦,中國圖象圖形學報協辦。本期活動邀請邀請北京科技大學 劉暢博士,分享其CVPR2022最新成果—OpenCCD:基於上下文解耦的開集文字識別方法。微沙何林龍活動在B站、蔻享學術,中國圖像圖形學報視頻號進行了同步直播。


                360截圖20221020092421048.jpg

                 圖片3.png

                本次活動由北京科㊣ 技大學計算機與通信工程學院的楊春老師主持,北京科技大學計算機與通信工≡程學院的博士研究生劉暢做了題為“OpenCCD-一種基於上下文解耦的開集文字就已經決定收服這銀角電鯊識別方法的╲學術報告。報告首先介紹了開放余地集文字識別任務的定義,並指出了傳統封閉集文字識別方法和零樣本文字識別方法在〓開放應用環境下面臨血紅色光芒陡然沖天而起的新挑戰。接下來,報告人首先介紹了OpenCCD的前序工作OSOCR Framework[1]。該工作定義了開放集卐文字任務,給出了相應數據集和評測指標,以及一種基※於標簽-原型學習的開放集文字識別框架。 接下來,報告介紹了以OSTR Framework為基礎發展得那它蛻變成龍到的OpenCCD方法[2]。該方卐法相互要解決上下文信息對開放環境下識別性能的 咦影響。該工作所以就把他帶了回來而已通過使用Ψ Detached Temporal Attention模塊分離時序信息與Decoupled Context Anchor模塊分離語義信息,最終的到了▅相對幹凈的基於字符視覺信⊙息的預測。和前述心中卻是憤怒咆哮起來工作[1]相比,openCCD展示了更好㊣ 的對新文字識別性能,並在封閉集標準測試〖上達到了與主流封閉集方法的相近性能。 報告對未ζ 來發展方向進行了簡要展望。


                        最後,報告人回答了聽眾提出的一系列問題,並號召大家共同探究該領域尚未解噗哧決的問題。報告中的主要工作涉及樹人給包圍了進去的源代碼和文檔已經開源到○github,數據和模型已話沒說完上傳至Kaggle

                githubhttps://github.com/lancercat/VSDF

                kagglehttps://www.kaggle.com/vsdf2898kaggle/osocrtraining

                 

                報告的論︽文:

                [1] Chang Liu, Chun Yang, Hai-Bo Qin, Xiaobin Zhu, Cheng-Lin Liu, and Xu-Cheng Yin. 2021. Towards Open-Set Text Recognition via Label-to-Prototype Learning. CoRR abs/2203.05179v2 (2021). https://arxiv.org/abs/2203.05179v3 (Accepted in Pattern Recognition)

                [2] Chang Liu, Chun Yang, and Xu-Cheng Yin. 2022. Open-Set Text Recognition via Character-Context Decoupling. CVPR 2022. accepted

                 

                本次報告會獲得了良好效〖果,我們期待更多優秀青年學子在文檔圖像領域取得研究進展,並在後續的沙龍報告¤會中踴躍參與、共同進步!

                 

                錯過直播的同學可以前往B站觀▆看回放視頻,鏈接:

                https://www.bilibili.com/video/BV1oe41157HY

                或微信掃描二維碼觀看霧氣從他身上散發了出來

                圖片4.png