tensor内部结构

内部结构

1.tensor分为头信息区(Tensor)和存储区(Storage);
信息区:tensor的形状(size)、步长(stride)、数据类型(type),信息区占用内存较少
存储区:数据保存为连续数组,主要内存占用在存储区
2.每一个tensor有着一个对应的storage,storage是在data之上封装的接口;

具体操作

  1. a = t.arange(0,6)
  2. a.storage()
  3. b = a.view(2,3)
  4. b.storage()
  5. #a和b的storage的内存地址一样,即他们是用同一个storage
  6. print( id(b.storage) == id(a.storage) )
  7. #a改变,b也随之改变,因为他们共享storage
  8. a[1] = 100
  9. print(b)
  10. c = a[2:]
  11. c.storage()
  12. print(c)
  13. #3198436924144    3198436924128,首地址差16,因为两个元素2*8,每个元素占8个字节
  14. print(c.data_ptr())
  15. print(a.data_ptr())
  16. c[0] = -100
  17. print(a)
  18. #3个tensor共享storage
  19. print(id( a.storage() ) == id( b.storage() ) == id( c.storage()) )
  20. #以储存元素的个数的形式返回tensor在地城内存中的偏移量
  21. print( a.storage_offset() )
  22. print( b.storage_offset() )
  23. print( c.storage_offset() )
  24. '''''0  0  2'''
  25. print('b',b)
  26. e = b[::1,::2]
  27. print('e',e)
  28. '''''b tensor([[   0,  100, -100],
  29. [   3,    4,    5]])
  30. e tensor([[   0, -100],
  31. [   3,    5]])'''
  32. #tensor步长
  33. print(b.stride(),e.stride())
  34. '''''(3, 1) (3, 2)'''
  35. #判断tensor是否连续
  36. print(e.is_contiguous())
  37. '''''False'''
  38. f = e.contiguous()
  39. print(f.is_contiguous())
  40. '''''True'''

总结

大部分操作并不修改tensor的数据,只修改了tensor的头信息,这种做法更节省内存,提升了处理速度。
注意:有些操作会导致tensor不连续,可以用tensor.contiguous方法将它们变成连续的数据。

2018-11-22 20:36:00

上一篇:窝上课不听,how to learn C language easily(1)


下一篇:大连CCPC D - A Simple Math Problem