東方甄選推獨立App自立門戶;西湖大學『強化學習數學基礎』教材書稿;經典書籍『深入淺出設計模式』Python版程式碼;前沿論文 | ShowMeAI資訊日報

語言: CN / TW / HK

攜手創作,共同成長!這是我參與「掘金日新計劃 · 8 月更文挑戰」的第32天,點選檢視活動詳情

👀日報合輯 | 📆電子月刊 | 🔔公眾號下載資料 | 🍩@韓信子

📢 東方甄選推獨立App,新晉『抖音一哥』這就要自立門戶了?

東方甄選在各大應用平臺上線了同名獨立App,據第三方資料顯示,目前累計下載量已接近20萬。

APP底部有甄選、分類、購物車和我的訂單4個入口。『分類』頁面,除了東方甄選自營商品以外,共有11個類目的近千款商品,大多是零食、生鮮、農副產品和圖書等,品類與抖音商城基本一致,商品價格也無明顯變化,僅部分產品參與限時折扣。App當前還僅限於購物,直播等功能尚未開通。

俞敏洪6月底直播時表示,未來東方甄選會非常認真地佈局,建立一個立體化的銷售平臺,為更多的中國商家服務,除了抖音以外,也會考慮到其他地方;還會以較快速度自建產品體系,類似於網易嚴選。東方甄選獨立App上線,說明正在沿著俞敏洪預設的軌道前進。

工具&框架

🚧 『bqplot』IPython/Jupyter notebooks繪相簿

http://github.com/bqplot/bqplot

bqplot 是一個 IPython/Jupyter notebooks 繪相簿,在 bqplot中,一個繪圖的每個元件都是一個互動式部件。這使得使用者可以將視覺化與其他Jupyter互動式部件整合起來,只需幾行Python程式碼就可以建立整合的圖形使用者介面。

🚧 『flink-ml』Apache Flink機器學習庫

http://github.com/apache/flink-ml

http://flink.apache.org/zh/

Flink ML是一個提供機器學習(ML)API和基礎設施的工具庫,它簡化了ML管道的構建。使用者可以用標準的ML APIs實現ML演算法,並進一步使用這些基礎設施來建立ML管道,用於訓練和推理工作。Flink ML是在Apache Flink的基礎上開發的。

🚧 『Azimuth』面向文字分類的開源資料集和錯誤分析工具

http://github.com/ServiceNow/azimuth

http://servicenow.github.io/azimuth/main/

Azimuth 是一個開源的應用程式,通過資料集和錯誤分析,幫助人工智慧從業者和資料科學家更好地理解他們的資料集和模型預測。它利用不同的工具,包括魯棒性測試、語義相似性分析和突出性地圖,由智慧標籤和擬議行動等概念統一起來。目前只支援文字分類用例。

🚧 『gym-wordle』Wordle的Gym強化學習研究環境

http://github.com/zach-lawless/gym-wordle

Wordle是一個猜詞遊戲,玩家有六次猜詞機會,以猜出當天的五個字母的隱藏單詞。根據玩家的猜測,遊戲會對所猜單詞中的每個字母提供反饋。如果玩家在用完所有的六個猜測之前猜對了這個詞,遊戲就贏了。這個猜詞遊戲被構建為強化學習環境,可以被使用。

🚧 『Opni』Opni = Kubernetes的AIOps + 日誌 + 監控

http://github.com/rancher/opni

http://opni.io/v0.4/

Opni 具有日誌異常檢測功能:只需將你的日誌提交給Opni,其人工智慧模型將自動學習並識別你的控制平臺、etcd和應用程式日誌中的異常行為。

博文&分享

👍 『Mathmatical Foundation of Reinforcement Learning』強化學習的數學基礎·免費書稿

http://github.com/MathFoundationRL/Book-Mathmatical-Foundation-of-Reinforcement-Learning

這是新書『強化學習的數學基礎』的書稿,作者趙世鈺,現任西湖大學工學院智慧無人系統實驗室主任。2022年秋季是作者第四次教授強化學習的研究生課程,撰寫這份資料是為了彌補已有教材的不足,具有以下特點:

  • 從數學角度介紹強化學習各主題,幫助讀者更好地理解演算法的數學根源、設計初衷與作用機制。
  • 數學的呈現方式也經過精心設計,深度也被仔細地控制在適當的水平。
  • 書中大量示例均基於網格世界任務,非常易於理解,且有助於說明新概念和演算法。
  • 將演算法核心思想與可能分散讀者注意力的複雜問題進行了區分,幫助讀者更好地掌握演算法心思想。
  • 章末有問答部分,彙總整理自網路上的常見問題,並給出了明確的參考答案。

本書的每一章都在前一章的基礎上構建,併為後續章節奠定了必要的基礎。不同章節內容主題與彼此之間的關係如圖所示。

  • 第2章:貝爾曼方程,是分析狀態值的基本工具
  • 第3章:貝爾曼最優方程,是一個特殊的貝爾曼方程
  • 第4章:值迭代演算法,是一種求解貝爾曼最優方程的演算法
  • 第5章:蒙特卡羅學習,是第4章策略迭代演算法的擴充套件
  • 第6章:隨機逼近的基礎知識
  • 第7章:時差學習,第6章是本章的基礎
  • 第8章:擴充套件了表格時間對價值函式逼近情況的差分學習方法
  • 第9章:策略迭代
  • 第10章:actor-critic 方法

👍 『Python Head First Design Patterns』深入淺出設計模式(第二版)·Python版程式碼

http://github.com/rebuild-123/Python-Head-First-Design-Patterns

http://github.com/bethrobson/Head-First-Design-Patterns

這是GitHub上 2.7K Star的專案『Head First Design Patterns』的Python版實現。原專案的程式碼為 java。

資料&資源

🔥 『Adversarial Explainable AI』對抗可解釋AI相關資源列表

http://github.com/hbaniecki/adversarial-explainable-ai

http://hbaniecki.com/adversarial-explainable-ai/

🔥 『Awesome NeuroAI Papers』神經科學與深度學習交叉論文列表

http://github.com/CYHSM/awesome-neuro-ai-papers

研究&論文

公眾號回覆關鍵字日報,免費獲取整理好的論文合輯。

科研進展

  • 2022.08.11 『語音降噪』 Speech Enhancement and Dereverberation with Diffusion-based Generative Models
  • 2022.08.18 『目標檢測』Unifying Visual Perception by Dispersible Points Learning
  • 2022.08.18 『目標檢測』RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object Detection
  • 2022.08.08 『看圖說話』Analog Bits: Generating Discrete Data using Diffusion Models with Self-Conditioning

⚡ 論文:Speech Enhancement and Dereverberation with Diffusion-based Generative Models

論文時間:11 Aug 2022

領域任務:Speech Dereverberation,語音降噪

論文地址:http://arxiv.org/abs/2208.05830

程式碼實現:http://github.com/sp-uhh/sgmse

論文作者:Julius Richter, Simon Welker, Jean-Marie Lemercier, Bunlong Lay, Timo Gerkmann

論文簡介:Furthermore, we show that the proposed method achieves remarkable state-of-the-art performance in single-channel speech dereverberation./此外,我們還表明,所提出的方法在單通道語音去混響方面取得了顯著的先進效能。

論文摘要:最近,基於擴散的生成模型已被引入到語音增強的任務中。清潔語音的損壞被建模為一個固定的前向過程,在這個過程中,越來越多的噪聲被逐漸加入。通過學習以迭代的方式逆轉這一過程,並以噪聲輸入為條件,生成乾淨的語音。我們在以前工作的基礎上,在隨機微分方程的形式中推匯出訓練任務。我們對基本的分數匹配目標進行了詳細的理論回顧,並探討了在測試時解決反向過程的不同取樣器配置。通過使用自然影象生成文獻中的一個複雜的網路結構,與我們以前的方法相比,我們明顯提高了效能。我們還表明,在對不同於訓練用的語料庫進行評估時,我們可以與最近的判別性模型競爭,並實現更好的泛化。我們用主觀聽覺測試來補充評價結果,其中我們提出的方法被評為最佳。此外,我們表明,所提出的方法在單通道語音去混響方面取得了顯著的最先進的效能。我們的程式碼和音訊例項可線上獲取,地址為 http://uhh.de/inf-sp-sgmse

⚡ 論文:Unifying Visual Perception by Dispersible Points Learning

論文時間:18 Aug 2022

領域任務:Instance Segmentation, object-detection, 例項分割目標檢測

論文地址:http://arxiv.org/abs/2208.08630

程式碼實現:http://github.com/sense-x/unihead

論文作者:Jianming Liang, Guanglu Song, Biao Leng, Yu Liu

論文簡介:The method, called UniHead, views different visual perception tasks as the dispersible points learning via the transformer encoder architecture./該方法被稱為UniHead,它將不同的視覺感知任務視為通過transformer編碼器架構進行的可分散點學習。

論文摘要:我們提出了一個概念上簡單、靈活和通用的視覺感知頭,用於不同的視覺任務,如分類、物體檢測、例項分割和姿勢估計,以及不同的框架,如單階段或雙階段管道。我們的方法可以有效地識別影象中的物體,同時生成高質量的目標檢測框或基於輪廓的分割掩碼或關鍵點集。該方法被稱為UniHead,它將不同的視覺感知任務視為通過transformer編碼器架構進行的可分散點學習。給定一個固定的空間座標,UniHead自適應地將其分散到不同的空間點,並通過transformer編碼器推理它們之間的關係。它直接以多個點的形式輸出最終的預測集,使我們能夠在不同的框架中用相同的頭設計來執行不同的視覺任務。我們展示了對ImageNet分類和COCO系列挑戰的所有三個軌道的廣泛評估,包括物體檢測、例項分割和姿態估計。沒有任何花哨的東西,UniHead可以通過單一的視覺頭設計來統一這些視覺任務,並且與為每個任務開發的專家模型相比取得了相當的效能。我們希望我們簡單而通用的UniHead可以作為一個堅實的基線,幫助促進通用的視覺感知研究。程式碼和模型可在http://github.com/Sense-X/UniHead獲取。

⚡ 論文:RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object Detection

論文時間:18 Aug 2022

領域任務:object-detection, Object Detection,目標檢測

論文地址:http://arxiv.org/abs/2208.08738

程式碼實現:http://github.com/chasel-tsui/mmdet-rfla

論文作者:Chang Xu, Jinwang Wang, Wen Yang, Huai Yu, Lei Yu, Gui-Song Xia

論文簡介:Then, instead of assigning samples with IoU or center sampling strategy, a new Receptive Field Distance (RFD) is proposed to directly measure the similarity between the Gaussian receptive field and ground truth./然後,我們提出了一種新的感受場距離(RFD),以直接測量高斯感受場和地面真實之間的相似性,而不是用IoU或中心取樣策略來分配樣本。

論文摘要:檢測微小物體是阻礙物體檢測發展的主要障礙之一。一般物體檢測器的效能在微小物體檢測任務中往往會急劇惡化。在本文中,我們指出,無論是基於錨的檢測器中的盒式先驗還是無錨檢測器中的點式先驗,對於微小物體來說都是次優的。我們的主要觀察結果是,目前基於錨點或無錨點的標籤分配正規化會產生許多離群的微小尺寸的地面真實樣本,導致檢測器對微小物體的關注度降低。為此,我們提出了一種基於高斯感受場的標籤分配(RFLA)策略,用於微小物體檢測。具體來說,RFLA首先利用了特徵感受野遵循高斯分佈的先驗資訊。然後,不使用IoU或中心取樣策略來分配樣本,而是提出一個新的感受野距離(RFD)來直接測量高斯感受野和地面真相之間的相似度。考慮到基於IoU閾值和中心取樣策略對大型物體的傾斜,我們進一步設計了基於RFD的層次化標籤分配(HLA)模組,以實現對微小物體的平衡學習。在四個資料集上進行的大量實驗證明了所提出的方法的有效性。特別是,我們的方法在AI-TOD資料集上以4.0個AP點超越了最先進的競爭對手。程式碼可在http://github.com/Chasel-Tsui/mmdet-rfla獲取。

⚡ 論文:Analog Bits: Generating Discrete Data using Diffusion Models with Self-Conditioning

論文時間:8 Aug 2022

領域任務:Image Captioning, Image Generation,影象字幕看圖說話影象生成

論文地址:http://arxiv.org/abs/2208.04202

程式碼實現:http://github.com/lucidrains/imagen-pytorch

論文作者:Ting Chen, Ruixiang Zhang, Geoffrey Hinton

論文簡介:The main idea behind our approach is to first represent the discrete data as binary bits, and then train a continuous diffusion model to model these bits as real numbers which we call analog bits./我們的方法的主要思想是首先將離散資料表示為二進位制位元,然後訓練一個連續擴散模型,將這些位元模擬為實數,我們稱之為模擬位元。

論文摘要:我們提出了位元擴散:一種簡單而通用的方法,用連續擴散模型生成離散資料。我們的方法的主要思想是首先將離散資料表示為二進位制位元,然後訓練一個連續擴散模型,將這些位元建模為實數,我們稱之為模擬位元。為了生成樣本,該模型首先生成模擬位元,然後對其進行閾值處理,得到代表離散變數的位元。我們進一步提出了兩個簡單的技術,即自我調節和不對稱時間間隔,這導致了樣本質量的顯著改善。儘管它很簡單,但所提出的方法在離散影象生成和影象字幕任務中都能取得強大的效能。對於離散影象生成,我們在CIFAR-10(有3K個離散的8位標記)和ImageNet-64x64(有12K個離散的8位標記)上都大大改進了以前的先進技術,在樣本質量(用FID衡量)和效率上都超過了最佳自迴歸模型。對於MS-COCO資料集上的影象標題,與自迴歸模型相比,我們的方法取得了有競爭力的結果。

我們是 ShowMeAI,致力於傳播AI優質內容,分享行業解決方案,用知識加速每一次技術成長!

◉ 點選 日報合輯,在公眾號內訂閱話題 #ShowMeAI資訊日報,可接收每日最新推送。

◉ 點選 電子月刊,快速瀏覽月度合輯。

「其他文章」