尬住了!小扎被自家產品爆黑料;酷炫清晰的『技術學習路線圖』大合輯;Markdown引用塊的N種樣式;地形設計工具;前沿論文 | ShowMeAI資訊日報

語言: CN / TW / HK

攜手創作,共同成長!這是我參與「掘金日新計劃 · 8 月更文挑戰」的第28天,點擊查看活動詳情

ShowMeAI日報系列全新升級!覆蓋AI人工智能 工具&框架 | 項目&代碼 | 博文&分享 | 數據&資源 | 研究&論文 等方向。點擊查看 歷史文章列表,在公眾號內訂閲話題 #ShowMeAI資訊日報,可接收每日最新推送。點擊 專題合輯&電子月刊 快速瀏覽各專題全集。

📢 小扎最近負面新聞有點多!被自家聊天機器人吐槽,元宇宙自拍被羣嘲

馬克·扎克伯格的 Meta 推出了一款AI聊天機器人 BlenderBot 3,並聲稱這個 AI 可以接住網友提出的任何話題聊起來,像和真人對話一樣流暢。結果網友嘗試了一下,沒想到AI卻在聊天裏和人類狂抱怨馬克·扎克伯格,讓扎克伯格的口碑大翻車,甚至還抖了點黑料。

他的公司為了錢剝削員工,但他毫不在意。

他的商業行為有時會挑戰道德底線,以及這麼多錢還總穿同樣的衣服。

小紮在 Facebook 上傳了來自元宇宙平台 Horizon Worlds 的化身自拍截圖,慶祝 Horizon Worlds 在法國和西班牙的上線:期待看到人們在這裏探索,建立沉浸化的世界,並且,Horizon Worlds 很快將在更多國家上線。這張截圖引來一篇羣嘲並引發質疑——這種上世紀PC遊戲的畫質,就是燒了 100 億美元的元宇宙?幾天後他發佈了一些新截圖,展示了一個更加栩栩如生的自己和一個看起來很古老的廣場,並配文即將對 Horizon 和頭像圖形進行重大更新。

元宇宙是下一代終端平台,而 Meta 將在其中扮演非常重要的角色,扎克伯格已多次向人們兜售這樣的觀念。然而,其新產品的體驗似乎與扎克伯格的期待還有不小距離,尤其是 Horizon Worlds。

工具&框架

🚧 『TerrainDecorator』Unity3D 輕量級地形設計工具

https://github.com/emrecancubukcu/Terrain-Decorator

TerrainDecoration 是作者為 Fire & Steel Game 開發的基於規則的 Unity3D 地形紋理工具。它包含了斜率、高度、噪音、圖像遮罩和混合模式等過濾器,可以結合使用。TerrainDecoration 由2個腳本組成,把『MiniTerrainDecorator』腳本放在地形上輸入規則即可,也可以通過調整一些代碼來實時使用這個工具。

🚧 『Charabia』Meilisearch用於標記查詢&文檔的庫

https://github.com/meilisearch/charabia

Charabia 提供了一個簡單的 API 來對特定語言的文本進行分段、規範化或標記化,方法是檢測其 Script / Language 併為其選擇專門的管道。

🚧 『ZigZag』用於識別時序峯值和谷值的Python庫

https://github.com/jbn/ZigZag

https://github.com/jbn/ZigZag/blob/main/zigzag_demo.ipynb

ZigZag 工具庫可用於識別時間序列的峯值和谷值,並且支持計算最大跌幅。

🚧 『ProxSuite』高級近似優化工具包

https://github.com/Simple-Robotics/proxsuite

https://simple-robotics.github.io/proxsuite/

ProxSuite是一個開源的、數值穩健的、精確和高效的數值求解器(例如,LPs,QPs等)工具包,基於重新審視的原始-雙重近似算法完成,它是可擴展的優化器,可以處理密集、稀疏或無矩陣問題。它第一個目標應用是機器人學,但ProxSuite可以不受任何限制地在其他領域應用。

博文&分享

👍 GitHub為Markdown設置的一些特殊的『引用塊樣式』,方便設計

https://github.com/community/community/discussions/16925

Markdown 文檔中的註釋或警告塊引用,可以突出顯示文檔中的某些信息,並將其與其他信息區分開。這個討論彙集了 GitHub 中特殊且易用的引用塊樣式,快看看有沒有你喜歡的!

👍 『路線圖大列表』AI / 機器學習 / 數據科學主題

https://github.com/liuchong/awesome-roadmaps

這個 Repo 是主題路線圖的精選彙總,包含編程語言、Web開發、移動開發、遊戲開發、AI、機器學習和數據科學等,為各主題的學習提供一條清晰的學習路線和充分的學習資料。以下選擇我們最關心的人工智能部分,將部分截圖放在這裏。

數據&資源

🔥 『internet dataset』通過搜索引擎獲取的各種數據集

https://github.com/RimoChan/internet-dataset

作者通過搜索引擎,在互聯網上自動獲取數據集。數據量正在持續增長中,截至2022年5月大約有50G 的數據,包含域名數據、網頁數據、反向索引數據。Repo 提供了樣例和下載地址。

🔥 『Awesome 3D Reconstruction Papers』深度學習3D重建相關論文列表

https://github.com/bluestyle97/awesome-3d-reconstruction-papers

研究&論文

公眾號回覆關鍵字日報,免費獲取整理好的論文合輯。

科研進展

  • 2022.08.01 『3D人體重建』 AvatarGen: a 3D Generative Model for Animatable Human Avatars
  • IEEE conference 2022 『EEG』Raspberry PI Shield - for measure EEG (PIEEG)
  • 2022.07.12 『圖像分類』LightViT: Towards Light-Weight Convolution-Free Vision Transformers
  • 2022.08.07 『目標檢測』Graph R-CNN: Towards Accurate 3D Object Detection with Semantic-Decorated Local Graph

⚡ 論文:AvatarGen: a 3D Generative Model for Animatable Human Avatars

論文時間:1 Aug 2022

領域任務:3D Human Reconstruction,3D人體重建

論文地址:https://arxiv.org/abs/2208.00561

代碼實現:https://github.com/jfzhang95/avatargen

論文作者:Jianfeng Zhang, Zihang Jiang, Dingdong Yang, Hongyi Xu, Yichun Shi, Guoxian Song, Zhongcong Xu, Xinchao Wang, Jiashi Feng

論文簡介:Unsupervised generation of clothed virtual humans with various appearance and animatable poses is important for creating 3D human avatars and other AR/VR applications./無監督地生成具有各種外觀和可動畫化姿勢的着裝虛擬人,對於創建3D人類頭像和其他AR/VR應用非常重要。

論文摘要:無監督地生成具有各種外觀和可動畫化姿勢的衣着虛擬人,對於創建3D人類化身和其他AR/VR應用非常重要。現有的方法要麼侷限於僵硬的物體建模,要麼不是生成性的,因此無法合成高質量的虛擬人併為其製作動畫。在這項工作中,我們提出了AvatarGen,這是第一個不僅能夠生成具有多樣化外觀的非剛性人類,而且能夠完全控制姿勢和視角的方法,同時只需要2D圖像進行訓練。具體來説,它通過利用粗略的人體模型作為代理,將觀察空間扭曲成典型空間下的標準頭像,將最近的3D GANs擴展到衣着人的生成。為了對非剛性動態進行建模,它引入了一個變形網絡來學習典範空間中與姿勢相關的變形。為了提高生成的人類頭像的幾何質量,它利用有符號的距離場作為幾何表示,這使得身體模型對幾何學習的正則化更為直接。受益於這些設計,我們的方法可以生成具有高質量外觀和幾何建模的可動畫的人類頭像,明顯優於以前的3D GANs。此外,它還能勝任許多應用,例如,單視角重建、重塑和文本引導的合成。將提供代碼和預訓練的模型。

⚡ 論文:Raspberry PI Shield - for measure EEG (PIEEG)

論文時間:IEEE conference 2022

領域任務EEG

論文地址:https://ieeexplore.ieee.org/document/9707969

代碼實現:https://github.com/Ildaron/EEGwithRaspberryPI

論文作者:Ildar Rakhmatulin

論文簡介:According to its characteristics, the device is compared to the signal-to-noise level of the ADS1299 device produced by Texas instruments and used for comparison in this paper./根據其特點,該設備與德州儀器生產的ADS1299設備的信噪比水平進行了比較,並在本文中用於比較。

論文摘要:本文介紹了用RaspberryPI的屏蔽器進入神經科學世界的最簡單方法--PIEEG。在過去的十年裏,人工智能的進步已經擴大並重塑了許多行業。它也影響了神經科學,機器學習使得大腦中的腦電信號在各個工程領域找到實際用途成為可能。因此,用於以低成本記錄大腦信號的腦機接口設備的普及率急劇上升。近年來,一些公司開始製造能夠使用非侵入性電極低成本記錄腦電信號的設備。即使如此,這些設備的成本也常常超過IOOOUSD。在本文中,我們的目標是通過提出一個基於樹莓PI的設備來讀取腦電信號,從而進一步降低成本。根據其特點,該設備與德州儀器生產的ADS1299設備的信噪比水平進行了比較,並在本文中用於比較。所提出的設備在滿足信號中的噪音水平和檢測偽影的準確性的基礎上,還進行了測試,確認其能成功抵抗電磁干擾的影響,成功檢測阿爾法腦波,並檢測P300範式。

⚡ 論文:LightViT: Towards Light-Weight Convolution-Free Vision Transformers

論文時間:12 Jul 2022

領域任務:Image Classification, Inductive Bias, 圖像分類

論文地址:https://arxiv.org/abs/2207.05557

代碼實現:https://github.com/hunto/lightvit

論文作者:Tao Huang, Lang Huang, Shan You, Fei Wang, Chen Qian, Chang Xu

論文簡介:Vision transformers (ViTs) are usually considered to be less light-weight than convolutional neural networks (CNNs) due to the lack of inductive bias./視覺transformers(ViTs)通常被認為沒有卷積神經網絡(CNNs)輕量,因為缺乏歸納偏置。

論文摘要:視覺transformers(ViTs)通常被認為沒有卷積神經網絡(CNNs)輕量,因為缺乏歸納偏置。因此,最近的工作將卷積作為一種即插即用的模塊,並將其嵌入到各種ViT的對應物中。在本文中,我們認為卷積核進行信息聚合以連接所有的標記;然而,如果這種明確的聚合能以更均勻的方式發揮作用,那麼它們對於輕量級的ViTs來説實際上是不必要的。受此啟發,我們提出了LightViT,作為一個新的輕量級ViT系列,在沒有卷積的純轉化器塊上實現更好的精度-效率平衡。具體來説,我們在ViTs的自我關注和前饋網絡(FFN)中引入了一個全局而有效的聚合方案,其中引入了額外的可學習標記來捕捉全局依賴性;並對標記嵌入施加雙維通道和空間關注。實驗表明,我們的模型在圖像分類、物體檢測和語義分割任務上取得了重大改進。例如,我們的LightViT-T在ImageNet上僅用0.7G FLOPs就實現了78.7%的準確率,比PVTv2-B0高出8.2%,同時在GPU上快了11%。代碼可在 https://github.com/hunto/LightViT 獲取。

⚡ 論文:Graph R-CNN: Towards Accurate 3D Object Detection with Semantic-Decorated Local Graph

論文時間:7 Aug 2022

領域任務:3D Object Detection, object-detection,目標檢測

論文地址:https://arxiv.org/abs/2208.03624

代碼實現:https://github.com/nightmare-n/graphrcnn

論文作者:Honghui Yang, Zili Liu, Xiaopei Wu, Wenxiao Wang, Wei Qian, Xiaofei He, Deng Cai

論文簡介:The dynamic farthest voxel sampling is then applied to evenly sample the points./然後應用動態最遠體素取樣來均勻地取樣點。

論文摘要:兩階段檢測器在三維物體檢測中獲得了很大的普及。大多數兩階段三維檢測器在第二階段利用網格點、體素網格或採樣關鍵點進行RoI特徵提取。然而,這類方法在處理分佈不均和稀疏的室外點時效率很低。本文從三個方面解決了這個問題。1)動態點聚合。我們提出了補丁搜索,以快速搜索每個三維建議的局部區域內的點。然後應用動態最遠體素抽樣來對點進行均勻抽樣。特別是,體素大小沿距離變化以適應點的不均勻分佈。2)RoI-圖形彙集。我們在採樣點上建立局部圖,以更好地模擬上下文信息,並通過迭代信息傳遞挖掘點的關係。3) 視覺特徵增強。我們引入了一個簡單而有效的融合策略來補償語義線索有限的稀疏LiDAR點。基於這些模塊,我們構建了圖形R-CNN作為第二階段,它可以應用於現有的單階段檢測器,以持續提高檢測性能。廣泛的實驗表明,在KITTI和Waymo開放數據集上,Graph R-CNN以較大的優勢勝過最先進的3D檢測模型。而且我們在KITTI BEV汽車檢測排行榜上排名第一。代碼將在 https://github.com/Nightmare-n/GraphRCNN 發佈。

我們是 ShowMeAI,致力於傳播AI優質內容,分享行業解決方案,用知識加速每一次技術成長!點擊查看 歷史文章列表,在公眾號內訂閲話題 #ShowMeAI資訊日報,可接收每日最新推送。點擊 專題合輯&電子月刊 快速瀏覽各專題全集。

  • 作者:[韓信子]https://github.com/HanXinzi-AI)@ShowMeAI
  • 歷史文章列表
  • 專題合輯&電子月刊
  • 聲明:版權所有,轉載請聯繫平台與作者並註明出處
  • 歡迎回復,拜託點贊,留言推薦中有價值的文章、工具或建議,我們都會盡快回復噠~
「其他文章」