Pytorch基礎-tensor數據結構
開啟掘金成長之旅!這是我參與「掘金日新計劃 · 12 月更文挑戰」的第2天,點擊查看活動詳情。
torch.Tensor
torch.Tensor
是一種包含單一數據類型元素的多維矩陣,類似於 numpy 的 array
。
可以使用使用 torch.tensor() 方法將 python 的 list 或序列數據轉換成 Tensor 數據,生成的是dtype
默認是 torch.FloatTensor
。
注意
torch.tensor()
總是拷貝 data。如果你有一個 tensor data 並且僅僅想改變它的requires_grad
屬性,可用requires_grad_()
或者detach()
來避免拷貝。如果你有一個numpy
數組並且想避免拷貝,請使用torch.as_tensor()
。
1,指定數據類型的 tensor 可以通過傳遞參數 torch.dtype
和/或者 torch.device
到構造函數生成:
注意為了改變已有的 tensor 的 torch.device 和/或者 torch.dtype, 考慮使用
to()
方法.
```python
torch.ones([2,3], dtype=torch.float64, device="cuda:0") tensor([[1., 1., 1.], [1., 1., 1.]], device='cuda:0', dtype=torch.float64) torch.ones([2,3], dtype=torch.float32) tensor([[1., 1., 1.], [1., 1., 1.]]) ```
2,Tensor 的內容可以通過 Python 索引或者切片訪問以及修改:
```python
matrix = torch.tensor([[2,3,4],[5,6,7]]) print(matrix[1][2]) tensor(7) matrix[1][2] = 9 print(matrix) tensor([[2, 3, 4], [5, 6, 9]]) ```
3,使用 torch.Tensor.item()
或者 int()
方法從只有一個值的 Tensor中獲取 Python Number:
```python
x = torch.tensor([[4.5]]) x tensor([[4.5000]]) x.item() 4.5 int(x) 4 ```
4,Tensor可以通過參數 requires_grad=True
創建, 這樣 torch.autograd
會記錄相關的運算實現自動求導:
```python
x = torch.tensor([[1., -1.], [1., 1.]], requires_grad=True) out = x.pow(2).sum() out.backward() x.grad tensor([[ 2.0000, -2.0000], [ 2.0000, 2.0000]]) ```
5,每一個 tensor都有一個相應的 torch.Storage
保存其數據。tensor 類提供了一個多維的、strided 視圖, 並定義了數值操作。
Tensor 數據類型
Torch 定義了七種 CPU Tensor 類型和八種 GPU Tensor 類型:
torch.Tensor
是默認的 tensor 類型(torch.FloatTensor
)的簡稱,即 32
位浮點數數據類型。
Tensor 的屬性
Tensor 有很多屬性,包括數據類型、Tensor 的維度、Tensor 的尺寸。
- 數據類型:可通過改變 torch.tensor() 方法的
dtype
參數值,來設定不同的Tensor
數據類型。 - 維度:不同類型的數據可以用不同維度(dimension)的張量來表示。標量為
0
維張量,向量為1
維張量,矩陣為2
維張量。彩色圖像有rgb
三個通道,可以表示為3
維張量。視頻還有時間維,可以表示為4
維張量,有幾個中括號[
維度就是幾。可使用dim() 方法
獲取tensor
的維度。 - 尺寸:可以使用
shape屬性
或者size()方法
查看張量在每一維的長度,可以使用view()方法
或者reshape() 方法
改變張量的尺寸。Pytorch 框架中四維張量形狀的定義是(N, C, H, W)
。
關於如何理解 Pytorch 的 Tensor Shape 可以參考 stackoverflow 上的這個 回答。
樣例代碼如下:
python
matrix = torch.tensor([[[1,2,3,4],[5,6,7,8]],
[[5,4,6,7], [5,6,8,9]]], dtype = torch.float64)
print(matrix) # 打印 tensor
print(matrix.dtype) # 打印 tensor 數據類型
print(matrix.dim()) # 打印 tensor 維度
print(matrix.size()) # 打印 tensor 尺寸
print(matrix.shape) # 打印 tensor 尺寸
matrix2 = matrix.view(4, 2, 2) # 改變 tensor 尺寸
print(matrix2)
程序輸出結果如下:
view 和 reshape 的區別
- 兩個方法都是用來改變 tensor 的 shape,view() 只適合對滿足連續性條件(
contiguous
)的 tensor 進行操作,而 reshape() 同時還可以對不滿足連續性條件的 tensor 進行操作。 - 在滿足 tensor 連續性條件(
contiguous
)時,a.reshape() 返回的結果與a.view() 相同,都不會開闢新內存空間;不滿足contiguous
時, 直接使用 view() 方法會失敗,reshape()
依然有用,但是會重新開闢內存空間,不與之前的 tensor 共享內存,即返回的是 ”副本“(等價於先調用contiguous()
方法再使用view()
方法)。 更多理解參考這篇文章
Tensor 與 ndarray
1,張量和 numpy 數組。可以用 .numpy()
方法從 Tensor 得到 numpy 數組,也可以用 torch.from_numpy
從 numpy 數組得到Tensor。這兩種方法關聯的 Tensor 和 numpy 數組是共享數據內存的。可以用張量的 clone
方法拷貝張量,中斷這種關聯。
python
arr = np.random.rand(4,5)
print(type(arr))
tensor1 = torch.from_numpy(arr)
print(type(tensor1))
arr1 = tensor1.numpy()
print(type(arr1))
"""
<class 'numpy.ndarray'>
<class 'torch.Tensor'>
<class 'numpy.ndarray'>
"""
2,item()
方法和 tolist()
方法可以將張量轉換成 Python 數值和數值列表
```python
item方法和tolist方法可以將張量轉換成Python數值和數值列表
scalar = torch.tensor(5) # 標量 s = scalar.item() print(s) print(type(s))
tensor = torch.rand(3,2) # 矩陣
t = tensor.tolist()
print(t)
print(type(t))
"""
1.0
創建 Tensor
創建 tensor ,可以傳入數據或者維度,torch.tensor() 方法只能傳入數據,torch.Tensor() 方法既可以傳入數據也可以傳維度,強烈建議 tensor() 傳數據,Tensor() 傳維度,否則易搞混。
傳入維度的方法
|方法名|方法功能|備註|
|-----|-------|---|
|torch.rand(*sizes, out=None) → Tensor
|返回一個張量,包含了從區間 [0, 1)
的均勻分佈中抽取的一組隨機數。張量的形狀由參數sizes定義。|推薦|
|torch.randn(*sizes, out=None) → Tensor
|返回一個張量,包含了從標準正態分佈(均值為0,方差為1,即高斯白噪聲)中抽取的一組隨機數。張量的形狀由參數sizes定義。|不推薦|
|torch.normal(means, std, out=None) → Tensor
|返回一個張量,包含了從指定均值 means
和標準差 std
的離散正態分佈中抽取的一組隨機數。標準差 std
是一個張量,包含每個輸出元素相關的正態分佈標準差。|多種形式,建議看源碼|
|torch.rand_like(a)
|根據數據 a
的 shape 來生成隨機數據|不常用|
|torch.randint(low=0, high, size)
|生成指定範圍(low, hight
)和 size
的隨機整數數據|常用|
|torch.full([2, 2], 4)
|生成給定維度,全部數據相等的數據|不常用|
|torch.arange(start=0, end, step=1, *, out=None)
|生成指定間隔的數據|易用常用|
|torch.ones(*size, *, out=None)
|生成給定 size 且值全為1 的矩陣數據|簡單|
|zeros()/zeros_like()/eye()
|全 0
的 tensor 和 對角矩陣|簡單|
樣例代碼:
```python
torch.rand([1,1,3,3]) tensor([[[[0.3005, 0.6891, 0.4628], [0.4808, 0.8968, 0.5237], [0.4417, 0.2479, 0.0175]]]]) torch.normal(2, 3, size=(1, 4)) tensor([[3.6851, 3.2853, 1.8538, 3.5181]]) torch.full([2, 2], 4) tensor([[4, 4], [4, 4]]) torch.arange(0,10,2) tensor([0, 2, 4, 6, 8]) torch.eye(3,3) tensor([[1., 0., 0.], [0., 1., 0.], [0., 0., 1.]]) ```
參考資料
- ssh遠程連接方式總結
- 深度學習基礎-損失函數詳解
- 模型壓縮-剪枝算法詳解
- 機器學習經典算法總結
- 深度學習基礎-優化算法詳解
- 深度學習基礎-機器學習基本原理
- 機器學習基本概念總結
- 手把手教你註冊和使用ChatGPT
- 深入淺出動態規劃算法(中)
- 深度學習煉丹-數據預處理和增強
- 深入淺出回溯算法
- 深入淺出動態規劃算法(上)
- GitHub 車牌檢測識別項目調研
- 卷積神經網絡壓縮方法總結
- 神經網絡模型複雜度分析
- MobileNetv1 論文詳解
- ShuffleNetv2論文詳解
- Pytorch基礎-tensor數據結構
- Fast YOLO:用於實時嵌入式目標檢測(附論文下載)
- 嵌入式新聞早班車-第24期