谷歌翻譯結束了中國大陸業務;投資鍊金術!用户投資交易輔助系統;矢量搜索應用指南與最佳實踐;可調整參數的AI繪圖插件;前沿論文 | ShowMeAI資訊日報

語言: CN / TW / HK

持續創作,加速成長!這是我參與「掘金日新計劃 · 10 月更文挑戰」的第2天,點擊查看活動詳情

👀日報合輯 | 📆電子月刊 | 🔔公眾號下載資料 | 🍩@韓信子

📢 因使用率過低,Google Translate 結束中國大陸區域的翻譯服務

日前不少用户在 Reddit 網站上反饋國內無法正常使用谷歌翻譯。隨後谷歌發言人通過電子郵件回覆 TechCrunch 媒體,承認谷歌結束了其在中國大陸的翻譯業務,原因是『使用率低』。

根據用户反饋與網站檔案,9月末的某個時間點,谷歌將 translate.google.cn 的翻譯界面換成了一個普通的搜索頁面,並將訪問者重定向到其香港的域名 translate.google.com.hk。

此做法與此前谷歌搜索、谷歌地圖等功能退出中國大陸時一致。早在 2010 年穀歌宣佈退出中國之後,僅僅保留了谷歌翻譯和谷歌地圖兩款服務。2020 年 2 月 3 日起,谷歌地圖在國內停止服務,現在,最後的谷歌翻譯服務也關閉了。

目前谷歌在國內仍然提供部分可被訪問的功能,包括谷歌廣告、開發者社區、Android 開發者社區等,主要為開發者和客户提供支持。

工具&框架

🚧 『Invest Alchemy』投資鍊金術用户投資交易輔助系統

http://github.com/bmpi-dev/invest-alchemy

http://money.bmpi.dev/

為了滿足上班族或業餘投資者簡單長期的投資需求,作者開源了這個投資鍊金術這個輔助用户投資交易的系統。

系統可以從投資組合整體的角度評價交易策略的風險與收益,而不像大多量化投資軟件,解決了交易策略在模擬回測與投資組合實踐中差距過大的問題。

🚧 『Daft』為機器學習與複雜數據設計的快速可擴展數據庫

http://github.com/Eventual-Inc/Daft

http://getdaft.io/

Daft 是一個快速和可擴展的開源數據框架庫,為 Python 和複雜數據/機器學習工作負載而構建。處理複雜的數據(如圖像/音頻/點雲),通常需要加速幾何或機器學習算法的計算,其中大部分是利用Python/C++生態系統的現有工具。然而,許多工作負載,如分析、模型訓練數據整理和數據處理,往往也需要加載/過濾/連接/聚合的關係查詢操作。Daft可以很好地支持這些功能。

🚧 『VR-Baseline』視頻恢復工具包

http://github.com/linjing7/VR-Baseline

VR-Baseline 是一個視頻恢復工具包,包括超分辨率、去模糊、壓縮視頻質量提等功能實現。

🚧 『DataSloth』基於GPT-3的自然語言查詢工具

http://github.com/ibestvina/datasloth

DataSloth 是一個基於 GPT-3 的自然語言查詢工具,它可以搭配 pandas dataframe 格式的數據,基於自然語言描述進行數據查詢。

🚧 『txt2img2img for Stable Diffusion』Stability Diffusion插件

http://github.com/ThereforeGames/txt2img2img

txt2img2img 是 AUTOMATIC1111 的 Stable Diffusion Web UI 的一個實驗性插件,它簡化了通過 txt2img 運行提示的過程,然後使用預先定義的參數通過 img2img 運行其輸出。除了能夠定義你自己的關鍵詞和預設之外,txt2img2img 還可以根據 txt2img 的輸出結果,智能地自動調整 img2img 階段的參數。

博文&分享

👍 『Vector Search』矢量搜索應用指南

http://github.com/esteininger/vector-search

矢量搜索引擎為開發人員提供了存儲圍繞某些算法(即KNN)的向量的能力,並提供了計算相似向量(如餘弦距離)的引擎來確定矢量相關的矢量。Repo 提供了包括教程、指南、最佳實踐和擴展學習的矢量搜索景觀的全面概述。

數據&資源

🔥 『Ethics Union Bibliography』倫理相關資源列表

http://github.com/acl-org/ethics-reading-list

為自然語言處理和計算語言學的研究人員和從業者提供的倫理相關資源列表。這是由現任 ACL 道德委員會主持的公開名單。

研究&論文

公眾號後台回覆關鍵字 日報,免費獲取整理好的論文合輯。

科研進展

  • 2022.09.16 『異常檢測』 A Deep Moving-camera Background Model
  • 2022.09.15 『點雲分割』 Can We Solve 3D Vision Tasks Starting from A 2D Vision Transformer?
  • 2022.09.16 『知識蒸餾』 Deliberated Domain Bridging for Domain Adaptive Semantic Segmentation

⚡ 論文:A Deep Moving-camera Background Model

論文時間:16 Sep 2022

領域任務:Anomaly Detection, Change Detection,異常檢測

論文地址:http://arxiv.org/abs/2209.07923

代碼實現:http://github.com/bgu-cs-vil/deepmcbm

論文作者:Guy Erez, Ron Shapira Weber, Oren Freifeld

論文簡介:Moreover, existing MCBMs usually model the background either on the domain of a typically-large panoramic image or in an online fashion./此外,現有的MCBMs通常是在典型的大型全景圖像領域或以在線方式對背景進行建模。

論文摘要:在視頻分析中,背景模型有很多應用,如背景/前景分離、變化檢測、異常檢測、跟蹤等等。然而,雖然在靜態攝像機拍攝的視頻中學習這樣的模型是一項相當成熟的任務,但在移動攝像機背景模型(MCBM)的情況下,由於攝像機運動所帶來的算法和可擴展性的挑戰,其成功率要低得多。因此,現有的MCBM在其範圍和支持的相機運動類型方面是有限的。這些障礙也阻礙了在這種無監督的任務中採用基於深度學習(DL)的端到端解決方案。此外,現有的MCBMs通常在典型的大型全景圖像領域或以在線方式對背景進行建模。不幸的是,前者產生了幾個問題,包括可擴展性差,而後者則妨礙了對攝像機重新訪問場景中以前看到的部分的識別和利用。本文提出了一種新的方法,稱為DeepMCBM,它消除了所有上述的問題,並取得了最先進的結果。具體來説,首先我們確定了與一般視頻幀的聯合對齊相關的困難,特別是在DL環境下。接下來,我們提出了一個新的聯合對齊策略,讓我們使用一個空間變換器網,既沒有正則化,也沒有任何形式的專門(和非差異化)的初始化。再加上一個以非扭曲的穩健中心矩為條件的自動編碼器(從聯合對齊中獲得),這就產生了一個端到端的無正則化的MCBM,它支持廣泛的相機運動並能優雅地擴展。我們在各種視頻上證明了DeepMCBM的實用性,包括其他方法無法解決的問題。我們的代碼可在 http://github.com/BGU-CS-VIL/DeepMCBM

⚡ 論文:Can We Solve 3D Vision Tasks Starting from A 2D Vision Transformer?

論文時間:15 Sep 2022

領域任務:Point Cloud Segmentation,點雲分割

論文地址:http://arxiv.org/abs/2209.07026

代碼實現:http://github.com/VITA-Group/Simple3D-Former , http://github.com/reimilia/simple3d-former

論文作者:Yi Wang, Zhiwen Fan, Tianlong Chen, Hehe Fan, Zhangyang Wang

論文簡介:Vision Transformers (ViTs) have proven to be effective, in solving 2D image understanding tasks by training over large-scale image datasets; and meanwhile as a somehow separate track, in modeling the 3D visual world too such as voxels or point clouds./視覺變換器(ViTs)已被證明是有效的,通過對大規模圖像數據集的訓練來解決二維圖像理解任務;同時,作為一個獨立的軌道,在三維視覺世界的建模方面也是如此,如體素或點雲。

論文摘要:事實證明,視覺Transformers(ViTs)通過對大規模圖像數據集的訓練,在解決二維圖像理解任務方面是有效的;同時,作為一個獨立的方向,在對三維視覺世界(如體素或點雲)建模方面也是如此。然而,隨着人們越來越希望轉化器能夠成為異質數據的 "通用 "建模工具,用於二維和三維任務的ViTs到目前為止已經採用了截然不同的架構設計,幾乎無法轉移。這就引出了一個(過於)雄心勃勃的問題:我們能否縮小二維和三維ViT架構之間的差距?作為一項試驗性研究,本文展示了理解3D視覺世界的誘人前景,使用標準的2D ViT架構,只需在輸入和輸出層面進行最小的定製,而無需重新設計管道。為了從其二維兄弟姐妹中建立一個三維ViT,我們 "膨脹 "了補丁嵌入和標記序列,同時還設計了新的位置編碼機制以匹配三維數據的幾何結構。由此產生的 "極簡 "3D ViT被命名為Simple3D-Former,與高度定製的3D特定設計相比,它在流行的3D任務中表現得非常穩健,如物體分類、點雲分割和室內場景檢測。因此,它可以作為新的三維ViTs的一個強有力的基線。此外,我們注意到,追求一個統一的2D-3D ViT設計,除了科學上的好奇心,還有實際意義。具體來説,我們證明了Simple3D-Former能夠自然地利用來自大規模現實二維圖像(如ImageNet)的預訓練權重,這些權重可以被 "免費"插入以提高三維任務的性能。

⚡ 論文:Deliberated Domain Bridging for Domain Adaptive Semantic Segmentation

論文時間:16 Sep 2022

領域任務:Knowledge Distillation, Semantic Segmentation, 知識蒸餾語義分割

論文地址:http://arxiv.org/abs/2209.07695

代碼實現:http://github.com/xiaoachen98/DDB

論文作者:Lin Chen, Zhixiang Wei, Xin Jin, Huaian Chen, Miao Zheng, Kai Chen, Yi Jin

論文簡介:In this work, we resort to data mixing to establish a deliberated domain bridging (DDB) for DASS, through which the joint distributions of source and target domains are aligned and interacted with each in the intermediate space./在這項工作中,我們藉助於數據混合,為DASS建立了一個商議的領域橋接(DDB),通過它,源域和目標域的聯合分佈被對齊,並在中間空間相互作用。

論文摘要:在無監督領域適應(UDA)中,直接從源域適應到目標域通常會出現明顯的差異並導致不充分的對齊。因此,許多UDA工作試圖通過各種中間空間逐漸柔和地消除領域差距,即所謂的領域橋接(DB)。然而,對於密集的預測任務,如領域適應性語義分割(DASS),現有的解決方案大多依賴於粗糙的風格轉移,如何優雅地橋接領域仍未得到充分的探索。在這項工作中,我們藉助於數據混合,為DASS建立了一個深思熟慮的領域橋接(DDB),通過它,源域和目標域的聯合分佈在中間空間被對齊並相互作用。DDB的核心是一個雙路徑領域橋接步驟,使用粗略和精細的數據混合技術生成兩個中間域,同時還有一個跨路徑知識蒸餾步驟,將在生成的中間樣本上訓練的兩個互補模型作為 "教師",以多教師蒸餾的方式培養一個優秀的 "學生"。這兩個優化步驟以交替的方式工作並相互加強,從而產生了具有強大適應能力的DDB。對不同設置的自適應分割任務進行的廣泛實驗表明,我們的DDB明顯優於最先進的方法。代碼可在 http://github.com/xiaoachen98/DDB.git 查看。

我們是 ShowMeAI,致力於傳播AI優質內容,分享行業解決方案,用知識加速每一次技術成長!

◉ 點擊 日報合輯,在公眾號內訂閲話題 #ShowMeAI資訊日報,可接收每日最新推送。

◉ 點擊 電子月刊,快速瀏覽月度合輯。

「其他文章」