#定義一個2行3列全為0的矩陣 tensor1 = tf.zeros([2,3]) print(tensor1)
"""
運行結(jié)果:
tf.Tensor(
[[0. 0. 0.]
[0. 0. 0.]], shape=(2, 3), dtype=float32)
"""
#定義一個2行2列全為1的矩陣
ones_tsr = tf.ones([2, 2])
print(ones_tsr)
"""
運行結(jié)果:
tf.Tensor(
[[1. 1.]
[1. 1.]], shape=(2, 2), dtype=float32)
"""
#創(chuàng)建一個2行3列全為常量8的矩陣
filled_tsr = tf.fill([2, 3], 8)
print(filled_tsr)
"""
運行結(jié)果:
?tf.Tensor(
?[[8 8 8]
?[8 8 8]], shape=(2, 3), dtype=int32)
"""
#自定義一個矩陣
constant_tsr = tf.constant([1, 2, 3])
print(constant_tsr)
"""
運行結(jié)果:
tf.Tensor([1 2 3], shape=(3,), dtype=int32)
"""
#自定義一個全為常量8的矩陣
constant2_str = tf.constant(8, tf.float32, [2,4])
print(constant2_str)
"""
運行結(jié)果:
? tf.Tensor(
? [[8. 8. 8. 8.]
? [8. 8. 8. 8.]], shape=(2, 4), dtype=float32)
"""
#查看維度
print(ones_tsr.ndim)
"""
運行結(jié)果:
tf.Tensor(
[[1. 1.]
[1. 1.]], shape=(2, 2), dtype=float32)
2
"""
#查看形狀
print(ones_tsr.shape)
"""
運行結(jié)果:
tf.Tensor(
[[1. 1.]
[1. 1.]], shape=(2, 2), dtype=float32)
(2, 2)
"""
#tensor相加
constant_tsr2 = tf.constant([[1, 2, 3],[3,2,1]])
constant_tsr3 = tf.constant([1, 2, 3])
print(constant_tsr2+constant_tsr3)
"""
運行結(jié)果:
?tf.Tensor(
?[[2 4 6]
?[4 4 4]], shape=(2, 3), dtype=int32)
"""
#tensor相減
constant_tsr2 = tf.constant([[1, 2, 3],[3,2,1]])
constant_tsr3 = tf.constant([1, 2, 3])
print(constant_tsr2-constant_tsr3)
"""
運行結(jié)果:
? tf.Tensor(
? [[ 0 0 0]
? [ 2 0 -2]], shape=(2, 3), dtype=int32)
"""
#tensor相乘
constant_tsr2 = tf.constant([[1, 2, 3],[3,2,1]])
constant_tsr3 = tf.constant([1, 2, 3])
print(constant_tsr2 * constant_tsr3)
"""
運行結(jié)果:
? tf.Tensor(
? [[1 4 9]
? [3 4 3]], shape=(2, 3), dtype=int32)
"""
#tensor相除
constant_tsr2 = tf.constant([[1, 2, 3],[3,2,1]])
constant_tsr3 = tf.constant([1, 2, 3])
print(constant_tsr2 / constant_tsr3)
"""
運行結(jié)果:
? tf.Tensor(
? [[1. 1. 1. ]
? [3. 1. 0.33333333]], shape=(2, 3), dtype=float64)
"""
#pow方法
a = torch.full([2,2],6)
a = a.pow(2)
print(a)
"""
運行結(jié)果:
? tensor([[36, 36],
? [36, 36]])
"""
#sqrt方法
a = torch.full([2,2],25)
a = a.sqrt()
print(a)
"""
運行結(jié)果:
? tensor([[5., 5.],
? [5., 5.]])
"""
本文摘自 :https://www.cnblogs.com/