要麼幹要麼滾!推特開始裁員了;深度學習產品應用·隨書代碼;可分離各種樂器音源的工具包;Transformer教程;前沿論文 | ShowMeAI資訊日報

語言: CN / TW / HK

👀日報合輯 | 📆電子月刊 | 🔔公眾號下載資料 | 🍩@韓信子

📢 解散Twitter董事會,代碼審查,裁員25%,收每月20美元認證費···馬斯克那些騷操作···

埃隆·馬斯克 (Elon Musk) 抱着洗手池入主 Twitter 後,狂風驟雨已經一波波襲來——首先解僱了CEO、CFO等一眾高管,解散了整個Twitter董事會,並親自上陣擔任CEO開始整頓。

之前放出的『裁員75%』的消息被驗證不實,但第一波25%的確定性裁員已在進行中了,第二波第三波或許正在路上。馬斯克從旗下公司特斯拉等抽調了50多名工程師進入Twitter工作,來審核Twitter員工的代碼。據內部信息稱,具體方法讓員工打印出近期代碼並解釋和重寫,寫不出來或説不清楚的話,大概率就進入第一批裁員名單了。

隨後馬斯克又發出下馬威:11月第1周要上線新的『Twitter Blue 付費驗證』功能,將每月 4.99 美元的可選訂閲服務更改為 19.99 美元,並且只對付費訂閲用户的賬户進行驗證標記。面對這個impossible deadline,項目負責經理正帶領團隊成員加班加點,每週7天輪班工作12小時,就為了趕上這個DDL。畢竟要麼幹要麼只能走人了。

工具&框架

🚧 『Demucs (v3)』音源分離工具包,可分離各種樂器

http://github.com/facebookresearch/demucs

Facebook提供了一個用於音樂源分離的Hybrid Demucs的實現,它既在MusDB HQ數據集上訓練,又有內部的額外訓練數據。它可以將鼓、低音和人聲從其他部分分離出來,並在2021年索尼音樂DemiXing挑戰賽(MDX)上取得了第一名的成績。

Demucs基於U-Net卷積架構,靈感來自Wave-U-Net。最新版本的特點是混合譜圖/波形分離,以及壓縮剩餘分支、局部注意和奇異值正則化。Demucs是目前唯一支持真正的端到端混合模型訓練的模型,在各域之間共享信息,而不是訓練後的模型混合。

🚧 『PromptCLUE』支持最多中文Prompt任務的開源多任務模型

http://github.com/clue-ai/PromptCLUE

http://www.cluebenchmarks.com/clueai.html

PromptCLUE 是一個多任務中文模型,基於t5模型,使用1000億中文token(字詞級別)進行大規模預訓練,並且在100+任務上進行多任務學習獲得。

PromptCLUE 支持眾多中文任務,並具有零樣本學習能力。 針對理解類任務,如分類、情感分析、抽取等,可以自定義標籤體系;針對生成任務,可以進行採樣自由生成。

🚧 『Transformers-Tutorials』HuggingFace Transformers庫實例教程集

http://github.com/NielsRogge/Transformers-Tutorials

這個資源庫包含了作者用🤗HuggingFace製作的Transformers的演示。目前,所有這些都是在PyTorch中實現的。如果你不熟悉HuggingFace和/或Transformers,可以查看這個完整教程,它向你介紹了幾種Transformer架構(如BERT、GPT-2、T5、BART等),以及HuggingFace庫的概況,包括Transformers、Tokenizers、Datasets、Accelerate和the hub。

🚧 『hot-lib-reloader』無需重新啟動應用重新加載Rust代碼

http://github.com/rksm/hot-lib-reloader-rs

hot-lib-reloader是一個開發工具,它使得你能重新加載一個正在運行的Rust程序的功能。也就是説支持"實時編程",即修改代碼並立即看到運行中的程序的效果。它是圍繞着libloading crate建立的,需要你把你需要熱加載的代碼放在Rust庫(dylib)中。

🚧 『NiceGUI』易用的Python UI框架

http://github.com/zauberzeug/nicegui

NiceGUI 是一個易於使用、基於Python的用户界面框架,它顯示在Web瀏覽器裏,可創建按鈕,對話框,markdown,3D場景,繪圖等。它非常適用於小型網頁應用、儀表盤、機器人項目、智能家居解決方案和類似的場景。

博文&分享

👍 『A Deep Dive into Transformers with TensorFlow and Keras』使用 TensorFlow 和 Keras 深入瞭解 Transformer

🧭 A Deep Dive into Transformers with TensorFlow and Keras: Part 1

http://pyimagesearch.com/2022/09/05/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-1/

這是 Transformer 系列教程的第1篇,講解以下內容:

  • The Transformer Architecture:Encoder / 編碼器、Decoder / 解碼器
  • Evolution of Attention:Version 0、Version 1、Version 2、Version 3、Version 4 (Cross-Attention)、Version 5 (Self-Attention)、Version 6 (Multi-Head Attention)

🧭 A Deep Dive into Transformers with TensorFlow and Keras: Part 2

http://pyimagesearch.com/2022/09/26/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-2/

這是系列教程的第2篇,講解 Transformers 架構中將編碼器和解碼器連接在一起的部分(Connecting Wires),包含四部分:

  • Skip Connection / 跳過連接
  • Layer Normalization / 層標準化
  • Feed-Forward Network / 前饋網絡
  • Positional Encoding / 位置編碼

👍 『Production-Ready Applied Deep Learning』深度學習產品應用·隨書代碼

http://github.com/PacktPublishing/Production-Ready-Applied-Deep-Learning

本書側重於通過詳細的示例縮小理論與應用之間的差距。雖然有很多關於針對不同問題介紹各種 AI 模型的書籍,但我們看到真正困難的資源有限,即部署。這本書是我們從大規模部署數百個基於人工智能的服務中獲得的知識的集合。

由於本書強調如何大規模部署機器學習系統,因此具有一定機器學習或軟件工程知識的讀者會發現內容更容易理解。然而,這並不是一個硬性要求,因為我們假設讀者是該領域的新手,並討論了理論和技術背景。

  • Effective Planning of Deep Learning Driven Projects(深度學習驅動項目的有效規劃
  • Data Preparation for DL projects(深度學習項目的數據準備
  • Developing a Powerful Deep Learning Model(開發強大的深度學習模型
  • Experiments Tracking, Model Management, and Dataset Versioning(實驗跟蹤、模型管理和數據集版本控制
  • Data Preparation on Cloud(雲端數據準備
  • Efficient Model Training(高效模型訓練
  • Revealing the secret of DL models(揭開深度學習模型的祕密
  • Simplifying Deep Learning Model Deployment(簡化深度學習模型部署
  • Scaling Deep Learning Pipeline(擴展深度學習管道
  • Improving inference efficiency(提高推理效率
  • Deep Learning on Mobile Devices(移動設備上的深度學習
  • Monitoring and maintenance at production level(生產層面的監控和維護
  • Reviewing the Completed Deep Learning Project(回顧已完成的深度學習項目

數據&資源

🔥 『Awesome Face Restoration & Enhancement』人臉恢復與增強論文資源列表

http://github.com/sczhou/Awesome-Face-Restoration

  • Papers
  • Face Image Restoration
  • Face Video Restoration
  • Survey
  • Datasets
  • High-Resolution
  • Low-Resolution
  • Video Face
  • Other Face Dataset

🔥 『Spectral Indices』遙感光譜指數相關資源大列表

http://github.com/awesome-spectral-indices/awesome-spectral-indices

光譜指數廣泛用於遙感社區。本存儲庫跟蹤不同遙感應用的經典和新穎的光譜指數。存儲庫中的所有光譜索引都經過精心策劃,可用於不同的環境和編程語言。如果想在本地環境中使用,可以使用 CSV 和 JSON 格式。

研究&論文

公眾號後台回覆關鍵字 日報,免費獲取整理好的論文合輯。

科研進展

  • 2022.10.03 『圖像生成』 From Face to Natural Image: Learning Real Degradation for Blind Image Super-Resolution
  • \2022. 10.04 『語言模型』 Knowledge Unlearning for Mitigating Privacy Risks in Language Models
  • 2022.09.29 『圖像分割』 3D UX-Net: A Large Kernel Volumetric ConvNet Modernizing Hierarchical Transformer for Medical Image Segmentation

⚡ 論文:From Face to Natural Image: Learning Real Degradation for Blind Image Super-Resolution

論文時間:3 Oct 2022

領域任務:Image Generation, Image Super-Resolution,圖像生成超分辨率變換

論文地址:http://arxiv.org/abs/2210.00752

代碼實現:http://github.com/csxmli2016/redegnet

論文作者:Xiaoming Li, Chaofeng Chen, Xianhui Lin, WangMeng Zuo, Lei Zhang

論文簡介:Notably, face images, which have the same degradation process with the natural images, can be robustly restored with photo-realistic textures by exploiting their specific structure priors./值得注意的是,人臉圖像與自然圖像具有相同的退化過程,通過利用其特定的結構先驗,可以用照片般真實的紋理進行穩健的恢復。

論文摘要:設計適當的訓練對對現實世界的低質量(LQ)圖像進行超級解算至關重要,但在獲取成對的地面真實HQ圖像或合成照片般逼真的退化觀測值方面存在困難。最近的工作主要是通過用手工製作的或估計的退化參數來模擬退化來規避這一問題。然而,現有的合成退化模型沒有能力模擬複雜的真實退化類型,導致對這些場景的改進有限,比如老照片。值得注意的是,人臉圖像與自然圖像有相同的退化過程,通過利用其特定的結構先驗,可以用照片般真實的紋理進行穩健的修復。在這項工作中,我們使用這些現實世界的LQ臉部圖像和它們修復後的HQ對應物來模擬複雜的真實退化(即ReDegNet),然後將其轉移到HQ自然圖像上,以合成其現實的LQ。具體來説,我們把這些成對的HQ和LQ臉部圖像作為輸入,明確地預測退化感知和內容無關的表徵,這些表徵控制着退化圖像的生成。隨後,我們將這些真實的退化表徵從人臉轉移到自然圖像,以合成退化的LQ自然圖像。實驗表明,我們的ReDegNet能夠很好地從人臉圖像中學習到真實的退化過程,而且用我們的合成對訓練的修復網絡在對抗SOTA時表現良好。更重要的是,我們的方法提供了一種新的方式來處理不可合成的真實世界場景,通過其中的人臉圖像來學習它們的退化表徵,這可以用來進行專門的微調。源代碼可在 http://github.com/csxmli2016/ReDegNet 獲取。

⚡ 論文:Knowledge Unlearning for Mitigating Privacy Risks in Language Models

論文時間:4 Oct 2022

領域任務:Language Modelling, Pretrained Language Models,語言模型預訓練語言模型

論文地址:http://arxiv.org/abs/2210.01504

代碼實現:http://github.com/joeljang/knowledge-unlearning

論文作者:Joel Jang, Dongkeun Yoon, Sohee Yang, Sungmin Cha, Moontae Lee, Lajanugen Logeswaran, Minjoon Seo

論文簡介:Pretrained Language Models (LMs) memorize a vast amount of knowledge during initial pretraining, including information that may violate the privacy of personal lives and identities./預訓練的語言模型(LMs)在最初的預訓練中記憶了大量的知識,包括可能侵犯個人生活和身份隱私的信息。

論文摘要:預訓練語言模型(LMs)在最初的預訓練中會記憶大量的知識,包括可能侵犯個人生活和身份隱私的信息。以前解決語言模型隱私問題的工作大多集中在數據預處理和差異化隱私方法上,這兩種方法都需要重新訓練基礎的LM。我們提出知識解除學習(unlearning)作為一種替代方法來減少LM的事後隱私風險。我們表明,簡單地將非可能性訓練目標應用於目標標記序列,就能有效地遺忘它們,而幾乎不降低一般語言建模的性能;有時甚至只需幾次迭代就能大幅提高基礎LM。我們還發現,按順序解除學習比試圖一次性解除所有數據的學習要好,而且解除學習在很大程度上取決於被遺忘的數據(領域)的種類。通過展示與以前的數據預處理方法的比較,我們表明,在易受提取攻擊的數據是預先知道的情況下,解除學習可以提供更強的經驗隱私保證,同時在計算上更有效率。我們發佈了復現我們結果所需的代碼和數據集:http://github.com/joeljang/knowledge-unlearning

⚡ 論文:3D UX-Net: A Large Kernel Volumetric ConvNet Modernizing Hierarchical Transformer for Medical Image Segmentation

論文時間:29 Sep 2022

領域任務:Image Segmentation, Medical Image Segmentation, 圖像分割醫療圖像分割

論文地址:http://arxiv.org/abs/2209.15076

代碼實現:http://github.com/masilab/3dux-net

論文作者:Ho Hin Lee, Shunxing Bao, Yuankai Huo, Bennett A. Landman

論文簡介:Hierarchical transformers (e. g., Swin Transformers) reintroduced several ConvNet priors and further enhanced the practical viability of adapting volumetric segmentation in 3D medical datasets./分層transformer(如Swin transformer)重新引入了幾個ConvNet先驗,並進一步增強了在三維醫療數據集中適應體積分割的實際可行性。

論文摘要:視覺transformers(ViTs)已經迅速取代了卷積網絡(ConvNets),成為目前最先進的(SOTA)醫學圖像分割模型。分層transformers(如Swin transformers)重新引入了幾個ConvNet先驗,並進一步增強了在三維醫療數據集中適應體積分割的實際可行性。混合方法的有效性主要歸功於非局部自我注意的大接收場和大量的模型參數。在這項工作中,我們提出了一個輕量級的體積壓縮網絡,稱為3D UX-Net,它利用ConvNet模塊適應分層變換器,以實現穩健的體積分割。具體來説,我們重新審視了具有大核尺寸(例如從7×7×7開始)的體積深度卷積,以實現更大的全局感受野,其靈感來自Swin Transformer。我們進一步用點式深度卷積代替Swin Transformer塊中的多層感知器(MLP),並通過減少歸一化和激活層來提高模型性能,從而減少模型參數的數量。3D UX-Net與目前的SOTA轉化器(如SwinUNETR)競爭,使用了三個關於體積腦和腹部成像的挑戰性公共數據集:1)MICCAI Challenge 2021 FLARE,2)MICCAI Challenge 2021 FeTA,和3)MICCAI Challenge 2022 AMOS。3D UX-Net始終優於SwinUNETR,改進幅度從0.929到0.938 Dice(FLARE2021)和0.867到0.874 Dice(Feta2021)。我們用AMOS2022進一步評估了3D UX-Net的轉移學習能力,並證明了2.27%的Dice改善(從0.880到0.900)。我們提出的模型的源代碼可在 http://github.com/MASILab/3DUX-Net 獲取。

我們是 ShowMeAI,致力於傳播AI優質內容,分享行業解決方案,用知識加速每一次技術成長!

◉ 點擊 日報合輯,在公眾號內訂閲話題 #ShowMeAI資訊日報,可接收每日最新推送。

◉ 點擊 電子月刊,快速瀏覽月度合輯。

「其他文章」