精準用户畫像!商城用户分羣2.0!
本站內容均來自興趣收集,如不慎侵害的您的相關權益,請留言告知,我們將盡快刪除.謝謝.
我報名參加金石計劃1期挑戰——瓜分10萬獎池,這是我的第23篇文章,點擊查看活動詳情
:blue_book:數據分析實戰系列: www.showmeai.tech/tutorials/4…
:blue_book:機器學習實戰系列: www.showmeai.tech/tutorials/4…
:blue_book:本文地址: www.showmeai.tech/article-det…
:loudspeaker: 聲明:版權所有,轉載請聯繫平台與作者並註明出處
:loudspeaker: 收藏ShowMeAI查看更多精彩內容
很多公司的技術人員在做用户畫像的工作, 細分客户/客户分羣 是一個很有意義的工作,可以確保企業構建更個性化的消費者針對策略,同時優化產品和服務。
在機器學習的角度看,客户分羣通常會採用無監督學習的算法完成。應用這些方法,我們會先收集整理客户的基本信息,例如 地區、性別、年齡、偏好 等,再對其進行分羣。
在之前的文章 :blue_book: 基於機器學習的用户價值數據挖掘與客户分羣 中,ShowMeAI 已經做了一些用户分羣實操介紹,本篇內容中,ShowMeAI 將更深入地介紹聚類分羣的方法,使用更豐富的建模方式,並剖析模型評估的方法模式。
:bulb: 數據加載 & 基本處理
我們先使用 pandas 加載 :trophy: Mall_Customers數據 ,並做了一些最基本的數據清洗,把字段名稱更改為清晰可理解的字符串格式。
:trophy: 實戰數據集下載(百度網盤) :公眾號『ShowMeAI研究中心』回覆『 實戰 』,或者點擊 這裏 獲取本文 [27]基於多種聚類算法的商城用户分羣!繪製精準用户畫像 『 Mall_Customers數據集 』
:star: ShowMeAI官方GitHub : github.com/ShowMeAI-Hu…
df= pd.read csv( "Mall Customers.csv") df.rename (columns={"CustomerID": "id", "Age": "age", "Annual Income (k$)": "annual_income", "Spending Score (1-100)": "spending_score"}, inplace=True) df.drop(columns=["id"], inplace=True)
:bulb: 探索性數據分析
本文數據操作處理與分析涉及的工具和技能,歡迎大家查閲ShowMeAI 對應的教程和工具速查表,快學快用。
下面我們對數據做一些探索性數據分析,首先我們的特徵字段可以分為 數值型 和 類別型 兩種類型。後面我們單獨對兩類特徵字段進行分析。
numcol = ["age", "annual_income", "spending_score"] objcol = ['Gender']
:sweat_drops: 單變量分析
① 類別型特徵
我們對性別(女性和男性)做計數統計和繪圖,代碼如下:
sns.set_style("ticks") my_pal = {"Male": "slateblue", "Female": "lightsalmon"} ax = sns.countplot(data=df, x="Gender", palette=-my_pal) ax.grid(True, axis='both' ) for p in ax.patches: ax.annotate( '{:.Of}'. format(p.get _height()), (p.get _x()+0.25, p.get_height()+0.3)) percentage = "{:.If}%'. format(100 * p.get height )/lendf[ "Gender" ])) ax.annotate(percentage, (p.get x()+0.25, p.get height ( )/2)) olt.title( "Gender Countolot")
② 數值特徵
後續的用户分羣會使用到聚類算法,為了確保聚類算法可以正常工作,我們會查看連續值數據分佈並檢查異常值。如果不加這個步驟,嚴重傾斜的數據和異常值可能會導致很多問題。
如上圖所示,除了 annual_income
特徵有一個異常值之外,大多數數值特徵已經很規整了。
sns.set_style("ticks", {'axes.grid' : False}) for idx, col in enumerate (numcol): plt.figure() f, ax = plt.subplots(nrows=2, sharex=True, gridspec_kw={"height_ratios": (0.2,0.85)}, figsize=(10,8)); plt.suptitle(f"{col.upper()}",y=0.93); sns.boxplot(data=df,x=col,ax=ax[0],color="slateblue",boxprops=dict(alpha=.7), linewidth=0.8, width=0.6, fliersize=10, flierprops={ "marker" :"O", "markerfacecolor": "slateblue"}, medianprops={ "color": "black", "linewidth":2.5}) sns.histplot(data=df, ×=col, ax=ax[1],multiple="layer", fill=True, color= "slateblue", bins=40) ax2 =ax[1].twinx() sns.kdeplot(data=df, x=col, ax=ax2, multiple="layer", fill=True, color="slateblue", bw_adjust=0.9, alpha=0.1, linestyles="--") ax[1].grid(False) ax[0].set(xlabel=""); ax[1].set _xlabel(col, fontsize=14) ax[1].grid(True)
:sweat_drops: 雙變量分析
我們再對兩兩的特徵做聯合分析,代碼和繪製結果如下:
sns.set_style("ticks", {'axes.grid' : False}) def pairplot_hue(df, hue, **kwargs): g = sns.pairplot(df, hue=hue, **kwargs) g.fig.subplots_adjust(top=0.9) g.fig.suptitle(hue) return g pairplot_hue(df[numcol+objcol], hue='Gender')
:bulb: 建模
:sweat_drops: 數據縮放
為了保證後續聚類算法的性能效果,數值特徵在送入模型之前需要做縮放處理。我們直接使用 sklearn 中的 MinMaxScaler
縮放方法來完成這項工作,將數值型字段數據範圍轉換為 [0,1]。
scaler = MinMaxScaler() df_scaled = df.copy() for col in numcol: df scaled[col] = pd.DataFrame(scaler.fit_transform(df_scaled[col].values.reshape(-1,1) ))
:sweat_drops: 模型選擇
本篇內容涉及的聚類無監督學習算法,歡迎大家查看ShowMeAI的教程文章:
① K-Means 聚類
K-Means 算法是一種無監督學習算法,它通過迭代和聚合來根據數據分佈確定數據屬於哪個簇。
② 層次聚類(BIRCH) 算法
BIRCH(Balanced Iterative Reducing and Clustering Using Hierarchies)翻譯為中文就是『利用層次方法的平衡迭代規約和聚類』,全稱非常複雜。簡單來説,BIRCH 算法利用了一個樹結構來幫助我們快速的聚類,這個特殊的樹結構,就是我們後面要詳細介紹的 聚類特徵樹 (CF-tree)。簡單地説算法可以分為兩步:
1)掃描數據庫,建立一棵存放於內存的 CF-Tree,它可以被看作數據的多層壓縮,試圖保留數據的內在聚類結構;
2)採用某個選定的聚類算法,如 K-Means 或者凝聚算法,對 CF 樹的葉節點進行聚類,把稀疏的簇當作離羣點刪除,而把更稠密的簇合併為更大的簇。
:sweat_drops: 模型評估
① 聚類算法評估
雖然説聚類是一個無監督學習算法,但我們也有一些方法可以對其最終聚類效果進行評估,對我們的建模和聚合有一些指導作用。
◉ 輪廓分數(Silhouette score)
輪廓分數( Silhouette score)是一種常用的聚類評估方式。對於單個樣本,設 a 是與它同類別中其他樣本的平均距離,b 是與它距離最近不同類別中樣本的平均距離,輪廓係數為:
對於一個數據集,它的輪廓係數是所有樣本輪廓係數的平均值。輪廓係數取值範圍是 [-1,1],同類別樣本越距離相近且不同類別樣本距離越遠,分數越高。
◉ 卡林斯基哈拉巴斯得分(Calinski Harabasz score)
卡林斯基哈拉巴斯得分(Calinski Harabasz score)也稱為方差比標準,由所有簇的 簇間離散度 (Between Group Sum of Squares, BGSS)之和與 簇內離散度 (Within Group Sum of Squares, WGSS)之和的比值計算得出。較高的 Calinski Harabasz 分數意味着更好的聚類(每個聚類中更密集)。以下給出計算過程:
第一步:計算簇間離散度(Between Group Sum of Squares, BGSS)
第二部:計算簇內離散度(Within Group Sum of Squares, WGSS)
第三步:計算卡林斯基哈拉巴斯得分(Calinski Harabasz score)
◉ 戴維斯布爾丹得分(Davies Bouldin score)
戴維斯布爾丹得分(Davies Bouldin score)表示每個集羣與與其最相似的集羣或每個集羣的內部模式的平均相似度。最低可能或最接近零表示更好的聚類。
② 應用 K-Means 聚類
我們先應用 K-Means 聚類對數據進行建模,聚合得到不同的用户簇,代碼如下:
k_range = range(2,10) for x in k range: model = KMeans(n_clusters=x, random_state=42) X = df_scaled[[ "annual_ income", "spending_score"]] model.fit(x)
評估 K-Means 算法的一種非常有效的方法是肘點法,它會可視化具有不同數量的簇的平方距離之和(失真分數)的加速變化(遞減收益)的過程。
我們結合上述提到的3個得分,以及肘點法進行計算和繪圖如下:
如上圖所示,簇數 = 5 是適用於該數據集的適當簇數,因為它有着這些特性:
開始遞減收益(肘法)
最高平均輪廓分數
相對較高的 Calinski Harabarsz 評分(局部最大值)
Davies Bouldin 最低分數
我們以5為聚類個數,對數據重新聚類,並分發聚類 id,然後再對數據進行分佈分析繪圖,不同的用户簇的數據分佈如下(我們可以比較清晰看到不同用户羣的分佈差異)。
③ 應用 BIRCH 聚類
我們再使用 BIRCH 進行聚類,代碼如下:
n = range(2,10) for x in n: model = Birch(n_clusters=x, threshold=0.17) X = df_scaledI[ "annual income", "spending_score"]] model.fit(X)
與 K-Means 聚類不同,BIRCH 聚類沒有失真分數。其他3 個評分指標(Silhouette、CH、DBI)仍然相同。
BIRCH 的計算也給出了簇數等於5這樣的一個結論。我們同樣對數據進行分佈分析繪圖,不同的用户簇的數據分佈如下(依舊可以比較清晰看到不同用户羣的分佈差異)。
兩種算法都得出相似的結果(不完全相同)。
④ 建模結果解釋
我們來對聚類後的結果做一些解釋分析,如下:
如上圖所示,從年齡的角度來看,不同的用户簇有各自的一些分佈特點:
第 2 個用户簇 => 年齡在 27 到 40 歲之間 ,平均值為 33 歲。
第 5 個用户簇 => 年齡在 18 到 35 歲之間 ,平均為 25 歲。
從收入維度來看:
用户羣4和5的年收入大致相等,大約為 26,000 美元。 → 低收入羣體
用户羣1和2的年收入大致相等,這意味着大約 87,000 美元。 → 高收入羣體
用户羣3是獨立組,平均年收入為 55,000 美元。 → 中等收入羣體
綜合年齡和年收入得出以下結果。
結果表明
用户羣2和5的年齡範圍相同,但年收入有顯着差異
用户羣4和5的年收入範圍相同,但第 5 段屬於青少年組(20-40 歲)
從花費的角度來看分組的用户羣:
結果表明
用户羣5的 支出得分最高 。
用户羣4的 支出得分最低 。
綜合支出分和年收入來看。
結果表明:
用户羣1和2的年收入範圍相同,但支出分範圍完全不同。
用户羣4和5的年收入範圍相同,但支出分範圍完全不同。
:bulb: 結論
我們對各個用户羣進行平均彙總,並繪製圖表如下:
用户羣1是最高年收入組,但有最差的支出消費。 → 目前商城的產品並不是這部分客户的消費首選(非目標客户)。
用户羣2的平均年齡比第 1 段低 10 倍,但在相同年收入範圍內的平均支出分數是 4 倍。
用户羣5是最高支出分數但是最低年收入組。 → 客户購買慾望強,但消費能力有限。
參考資料
:blue_book: 基於機器學習的用户價值數據挖掘與客户分羣 : showmeai.tech/article-det…
:blue_book: 數據科學工具庫速查表 | Pandas 速查表 : www.showmeai.tech/article-det…
:blue_book: 數據科學工具庫速查表 | Matplotlib 速查表 : www.showmeai.tech/article-det…
:blue_book: 數據科學工具庫速查表 | Seaborn 速查表 : www.showmeai.tech/article-det…
:blue_book: 圖解數據分析:從入門到精通系列教程 : www.showmeai.tech/tutorials/3…
:blue_book: 圖解機器學習 | 聚類算法詳解 : ttps://www.showmeai.tech/article-detail/197
- 全自動數據建模平台打造建模新範式,人人都能成為數據科學家 | 愛分析調研
- 如何用DBSCAN聚類模型做數據分析?
- 精準用户畫像!商城用户分羣2.0!
- Test time adaptation方法總結
- 超精準!AI 結合郵件內容與附件的意圖理解與分類!
- AI加速器與機器學習算法:協同設計與進化
- 使用SINet進行偽裝目標檢測
- ECCV 2022 Oral | 理解藝術字:用於場景文字識別的角點引導Transformer
- AI醫療高精尖!基於AI的新葯研發!
- 谷歌&北大擴散模型(Diffusion Model)首篇綜述-Diffusion Models: A Comprehensive Survey of Meth…
- 協同過濾算法——基於物品(Item)
- MLOps對比DevOps:有什幺區別?
- CVPR 2022 | UniDet:通用的多數據集目標檢測
- ECCV 2022 | k-means Mask Transformer
- IS 2022 | 字節AI Lab聯合南科大提出:利用偽標註數據提升端到端S2ST
- 自定義分詞起始規則實現關鍵詞全詞高亮項目實戰(全語種通吃)
- 電商搜索全鏈路(PART II)Query理解
- 機器學習分類問題:九個常用的評估指標總結
- 簡單的文本分類任務:不借助Trainer實現
- Macbook Pro M1芯片使用Pytorch進行深度學習小試