谷歌翻譯結束了中國大陸業務;投資鍊金術!使用者投資交易輔助系統;向量搜尋應用指南與最佳實踐;可調整引數的AI繪圖外掛;前沿論文 | ShowMeAI資訊日報

語言: CN / TW / HK

持續創作,加速成長!這是我參與「掘金日新計劃 · 10 月更文挑戰」的第2天,點選檢視活動詳情

👀日報合輯 | 📆電子月刊 | 🔔公眾號下載資料 | 🍩@韓信子

📢 因使用率過低,Google Translate 結束中國大陸區域的翻譯服務

日前不少使用者在 Reddit 網站上反饋國內無法正常使用谷歌翻譯。隨後谷歌發言人通過電子郵件回覆 TechCrunch 媒體,承認谷歌結束了其在中國大陸的翻譯業務,原因是『使用率低』。

根據使用者反饋與網站檔案,9月末的某個時間點,谷歌將 translate.google.cn 的翻譯介面換成了一個普通的搜尋頁面,並將訪問者重定向到其香港的域名 translate.google.com.hk。

此做法與此前谷歌搜尋、谷歌地圖等功能退出中國大陸時一致。早在 2010 年穀歌宣佈退出中國之後,僅僅保留了谷歌翻譯和谷歌地圖兩款服務。2020 年 2 月 3 日起,谷歌地圖在國內停止服務,現在,最後的谷歌翻譯服務也關閉了。

目前谷歌在國內仍然提供部分可被訪問的功能,包括谷歌廣告、開發者社群、Android 開發者社群等,主要為開發者和客戶提供支援。

工具&框架

🚧 『Invest Alchemy』投資鍊金術使用者投資交易輔助系統

https://github.com/bmpi-dev/invest-alchemy

https://money.bmpi.dev/

為了滿足上班族或業餘投資者簡單長期的投資需求,作者開源了這個投資鍊金術這個輔助使用者投資交易的系統。

系統可以從投資組合整體的角度評價交易策略的風險與收益,而不像大多量化投資軟體,解決了交易策略在模擬回測與投資組合實踐中差距過大的問題。

🚧 『Daft』為機器學習與複雜資料設計的快速可擴充套件資料庫

https://github.com/Eventual-Inc/Daft

https://getdaft.io/

Daft 是一個快速和可擴充套件的開源資料框架庫,為 Python 和複雜資料/機器學習工作負載而構建。處理複雜的資料(如影象/音訊/點雲),通常需要加速幾何或機器學習演算法的計算,其中大部分是利用Python/C++生態系統的現有工具。然而,許多工作負載,如分析、模型訓練資料整理和資料處理,往往也需要載入/過濾/連線/聚合的關係查詢操作。Daft可以很好地支援這些功能。

🚧 『VR-Baseline』影片恢復工具包

https://github.com/linjing7/VR-Baseline

VR-Baseline 是一個影片恢復工具包,包括超解析度、去模糊、壓縮影片質量提等功能實現。

🚧 『DataSloth』基於GPT-3的自然語言查詢工具

https://github.com/ibestvina/datasloth

DataSloth 是一個基於 GPT-3 的自然語言查詢工具,它可以搭配 pandas dataframe 格式的資料,基於自然語言描述進行資料查詢。

🚧 『txt2img2img for Stable Diffusion』Stability Diffusion外掛

https://github.com/ThereforeGames/txt2img2img

txt2img2img 是 AUTOMATIC1111 的 Stable Diffusion Web UI 的一個實驗性外掛,它簡化了通過 txt2img 執行提示的過程,然後使用預先定義的引數通過 img2img 執行其輸出。除了能夠定義你自己的關鍵詞和預設之外,txt2img2img 還可以根據 txt2img 的輸出結果,智慧地自動調整 img2img 階段的引數。

博文&分享

👍 『Vector Search』向量搜尋應用指南

https://github.com/esteininger/vector-search

向量搜尋引擎為開發人員提供了儲存圍繞某些演算法(即KNN)的向量的能力,並提供了計算相似向量(如餘弦距離)的引擎來確定向量相關的向量。Repo 提供了包括教程、指南、最佳實踐和擴充套件學習的向量搜尋景觀的全面概述。

資料&資源

🔥 『Ethics Union Bibliography』倫理相關資源列表

https://github.com/acl-org/ethics-reading-list

為自然語言處理和計算語言學的研究人員和從業者提供的倫理相關資源列表。這是由現任 ACL 道德委員會主持的公開名單。

研究&論文

公眾號後臺回覆關鍵字 日報,免費獲取整理好的論文合輯。

科研進展

  • 2022.09.16 『異常檢測』 A Deep Moving-camera Background Model
  • 2022.09.15 『點雲分割』 Can We Solve 3D Vision Tasks Starting from A 2D Vision Transformer?
  • 2022.09.16 『知識蒸餾』 Deliberated Domain Bridging for Domain Adaptive Semantic Segmentation

⚡ 論文:A Deep Moving-camera Background Model

論文時間:16 Sep 2022

領域任務:Anomaly Detection, Change Detection,異常檢測

論文地址:https://arxiv.org/abs/2209.07923

程式碼實現:https://github.com/bgu-cs-vil/deepmcbm

論文作者:Guy Erez, Ron Shapira Weber, Oren Freifeld

論文簡介:Moreover, existing MCBMs usually model the background either on the domain of a typically-large panoramic image or in an online fashion./此外,現有的MCBMs通常是在典型的大型全景影象領域或以線上方式對背景進行建模。

論文摘要:在影片分析中,背景模型有很多應用,如背景/前景分離、變化檢測、異常檢測、跟蹤等等。然而,雖然在靜態攝像機拍攝的影片中學習這樣的模型是一項相當成熟的任務,但在移動攝像機背景模型(MCBM)的情況下,由於攝像機運動所帶來的演算法和可擴充套件性的挑戰,其成功率要低得多。因此,現有的MCBM在其範圍和支援的相機運動型別方面是有限的。這些障礙也阻礙了在這種無監督的任務中採用基於深度學習(DL)的端到端解決方案。此外,現有的MCBMs通常在典型的大型全景影象領域或以線上方式對背景進行建模。不幸的是,前者產生了幾個問題,包括可擴充套件性差,而後者則妨礙了對攝像機重新訪問場景中以前看到的部分的識別和利用。本文提出了一種新的方法,稱為DeepMCBM,它消除了所有上述的問題,並取得了最先進的結果。具體來說,首先我們確定了與一般影片幀的聯合對齊相關的困難,特別是在DL環境下。接下來,我們提出了一個新的聯合對齊策略,讓我們使用一個空間變換器網,既沒有正則化,也沒有任何形式的專門(和非差異化)的初始化。再加上一個以非扭曲的穩健中心矩為條件的自動編碼器(從聯合對齊中獲得),這就產生了一個端到端的無正則化的MCBM,它支援廣泛的相機運動並能優雅地擴充套件。我們在各種影片上證明了DeepMCBM的實用性,包括其他方法無法解決的問題。我們的程式碼可在 https://github.com/BGU-CS-VIL/DeepMCBM

⚡ 論文:Can We Solve 3D Vision Tasks Starting from A 2D Vision Transformer?

論文時間:15 Sep 2022

領域任務:Point Cloud Segmentation,點雲分割

論文地址:https://arxiv.org/abs/2209.07026

程式碼實現:https://github.com/VITA-Group/Simple3D-Former , https://github.com/reimilia/simple3d-former

論文作者:Yi Wang, Zhiwen Fan, Tianlong Chen, Hehe Fan, Zhangyang Wang

論文簡介:Vision Transformers (ViTs) have proven to be effective, in solving 2D image understanding tasks by training over large-scale image datasets; and meanwhile as a somehow separate track, in modeling the 3D visual world too such as voxels or point clouds./視覺變換器(ViTs)已被證明是有效的,通過對大規模影象資料集的訓練來解決二維影象理解任務;同時,作為一個獨立的軌道,在三維視覺世界的建模方面也是如此,如體素或點雲。

論文摘要:事實證明,視覺Transformers(ViTs)通過對大規模影象資料集的訓練,在解決二維影象理解任務方面是有效的;同時,作為一個獨立的方向,在對三維視覺世界(如體素或點雲)建模方面也是如此。然而,隨著人們越來越希望轉化器能夠成為異質資料的 "通用 "建模工具,用於二維和三維任務的ViTs到目前為止已經採用了截然不同的架構設計,幾乎無法轉移。這就引出了一個(過於)雄心勃勃的問題:我們能否縮小二維和三維ViT架構之間的差距?作為一項試驗性研究,本文展示了理解3D視覺世界的誘人前景,使用標準的2D ViT架構,只需在輸入和輸出層面進行最小的定製,而無需重新設計管道。為了從其二維兄弟姐妹中建立一個三維ViT,我們 "膨脹 "了補丁嵌入和標記序列,同時還設計了新的位置編碼機制以匹配三維資料的幾何結構。由此產生的 "極簡 "3D ViT被命名為Simple3D-Former,與高度定製的3D特定設計相比,它在流行的3D任務中表現得非常穩健,如物體分類、點雲分割和室內場景檢測。因此,它可以作為新的三維ViTs的一個強有力的基線。此外,我們注意到,追求一個統一的2D-3D ViT設計,除了科學上的好奇心,還有實際意義。具體來說,我們證明了Simple3D-Former能夠自然地利用來自大規模現實二維影象(如ImageNet)的預訓練權重,這些權重可以被 "免費"插入以提高三維任務的效能。

⚡ 論文:Deliberated Domain Bridging for Domain Adaptive Semantic Segmentation

論文時間:16 Sep 2022

領域任務:Knowledge Distillation, Semantic Segmentation, 知識蒸餾語義分割

論文地址:https://arxiv.org/abs/2209.07695

程式碼實現:https://github.com/xiaoachen98/DDB

論文作者:Lin Chen, Zhixiang Wei, Xin Jin, Huaian Chen, Miao Zheng, Kai Chen, Yi Jin

論文簡介:In this work, we resort to data mixing to establish a deliberated domain bridging (DDB) for DASS, through which the joint distributions of source and target domains are aligned and interacted with each in the intermediate space./在這項工作中,我們藉助於資料混合,為DASS建立了一個商議的領域橋接(DDB),通過它,源域和目標域的聯合分佈被對齊,並在中間空間相互作用。

論文摘要:在無監督領域適應(UDA)中,直接從源域適應到目標域通常會出現明顯的差異並導致不充分的對齊。因此,許多UDA工作試圖通過各種中間空間逐漸柔和地消除領域差距,即所謂的領域橋接(DB)。然而,對於密集的預測任務,如領域適應性語義分割(DASS),現有的解決方案大多依賴於粗糙的風格轉移,如何優雅地橋接領域仍未得到充分的探索。在這項工作中,我們藉助於資料混合,為DASS建立了一個深思熟慮的領域橋接(DDB),通過它,源域和目標域的聯合分佈在中間空間被對齊並相互作用。DDB的核心是一個雙路徑領域橋接步驟,使用粗略和精細的資料混合技術生成兩個中間域,同時還有一個跨路徑知識蒸餾步驟,將在生成的中間樣本上訓練的兩個互補模型作為 "教師",以多教師蒸餾的方式培養一個優秀的 "學生"。這兩個優化步驟以交替的方式工作並相互加強,從而產生了具有強大適應能力的DDB。對不同設定的自適應分割任務進行的廣泛實驗表明,我們的DDB明顯優於最先進的方法。程式碼可在 https://github.com/xiaoachen98/DDB.git 檢視。

我們是 ShowMeAI,致力於傳播AI優質內容,分享行業解決方案,用知識加速每一次技術成長!

◉ 點選 日報合輯,在公眾號內訂閱話題 #ShowMeAI資訊日報,可接收每日最新推送。

◉ 點選 電子月刊,快速瀏覽月度合輯。

「其他文章」