深度視覺算法的可信魯棒學習——胡斌博士作通識教育講座
發布時間: 2025-04-17 16:32:38 瀏覽量:
2025年4月15日下午2點,在金盆嶺校區六教305室舉行了一場題為《深度視覺算法的可信魯棒學習》的通識講座,由計算機學院胡斌博士主講。講座圍繞深度學習在視覺領域中的應用與挑戰,深入探討了深度視覺算法的基本原理、發展演進以及當前面臨的可信性與魯棒性難題,引導大家走近該領域的研究前沿與探索路徑。
講座首先從“揭神秘面紗”的角度切入,生動介紹了人工智能與深度學習之間的關系,并系統回顧了深度學習從感知模型到多層神經網絡的發展脈絡。他特別指出,以卷積神經網絡(CNN)為代表的深度學習模型,通過端到端的訓練方式,能夠自動從原始圖像中學習與任務相關的有效特征,已在圖像分類、語義分割、目標檢測等任務中取得了突破性成果。講座中通過AlexNet、ResNet、Faster R-CNN等經典模型的演進示例,讓同學們深入理解了“深度”的內涵和算法設計背后的邏輯。
在講解視覺算法應用的同時,胡斌博士著重指出,盡管當前深度學習模型在感知類任務中取得了令人矚目的成績,但仍存在諸多值得關注的問題,尤其是模型在實際場景下的“可信性”與“魯棒性”問題日益突出。其通過圖像分類中的對抗樣本現象向大家展示了深度模型在面對微小擾動時預測結果劇烈變化的脆弱性,并引出了對抗攻擊、模型不可解釋性、泛化能力不足等深層挑戰。
圍繞“魯棒性差”“對數據依賴強”“對未知場景適應性弱”等核心問題,胡斌博士介紹了當前研究中的若干前沿技術路徑,包括貝葉斯深度學習、自監督學習、小樣本學習、多模態建模與基礎模型等。他特別介紹了近年來備受關注的Vision Transformer、Diffusion Models和CLIP模型,分析了它們在提高視覺模型泛化能力、減少對標簽數據依賴、應對復雜任務需求方面的作用與優勢。
在“探未解之謎”部分,胡斌博士指出,可信魯棒學習的研究不僅是算法設計的問題,更涉及對模型安全性、解釋性的深入理解與系統性評估。他鼓勵同學們從“黑盒模型”的內部機制入手,關注模型為何容易受到攻擊、為何對輸入微小變化敏感,并嘗試從訓練策略、結構創新、跨層機制等維度提升模型的穩健性與可信性。
講座最后,胡斌博士與同學們進行了積極的互動交流,耐心解答了大家在深度學習應用、科研選題與理論前沿方面的疑問。與會學生紛紛表示,本次講座不僅加深了他們對深度學習基本理論和主流模型的理解,也激發了對人工智能可信魯棒性方向的濃厚興趣。講座內容扎實、深入淺出,不僅為大家厘清了深度視覺算法的研究脈絡,也為未來相關方向的學術探索提供了寶貴啟發。
(圖/胡斌 文/胡斌 一審/金帥 二審/張建明 三審/張錦)