一:基本概念
- 1、使用图(graphs)来表示计算任务
- 2、在被称之为会话(Session)的上下文(context)中执行图
- 3、使用tensor表示数据
- 4、通过变量(Variable)维护状态
- 5、使用feed和fetch可以为任意的操作赋值或者从其中获取数据
TensorFlow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个tensor,执行计算,产生0个或多个tensor。tensor看做是一个n维的数组或列表。图必须在会话(Session)里被启动。
二:TensorFlow结构
三:简单练习
1、热身前技巧:
a、首先在桌面创建一个专门用来存放TensorFlow代码的文件夹,以后把全部和TensorFlow相关的代码存放在该文件夹下。
b、打开jupyter:首先打开系统终端(cmd):进入刚才创建的存放代码的文件夹(比如我的study_tensor)输入:cd C:\Users\felix\Desktop\study_tensor
进入后输入jupyter notebook
会再浏览器中打开jupyter notebook的编辑环境。(这样打开的话,默认jupyter的工作环境就是刚才创建的文件夹了)
新建工作环境。
如下图表示成功进入工作环境:
2、切入正题,撸代码
shift+enter 执行代码
tab 代码提示
shift+tab 详情提示
a、创建图和启动图
import tensorflow as tf # 创建一个常量op
m1=tf.constant([[3,3]])
# 创建一个常量op
m2=tf.constant([[2],[3]])
# 创建一个矩阵乘法的op,把m1,m2传入
product=tf.matmul(m1,m2)
print(product) #直接打印并没有执行 # 定义一个会话,自动默认图
sess=tf.Session()
# 调用sess的run方法来执行矩阵乘法op
# run(product)触发图中3个op
result=sess.run(product)
print(result)
sess.close() # 关闭 # 将上一句简化
with tf.Session() as sess:
# 调用sess的run方法来执行矩阵乘法op
# run(product)触发图中3个op
result=sess.run(product)
print(result)
创建图,启动图
图中的每一个代码块都执行了。(按shift+enter执行)
b、变量
import tensorflow as tf x=tf.Variable([1,2]) # 创建一个变量op
a=tf.constant([3,3]) # 创建一个常量op
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)
# 初始化全部的变量,不初始化会出问题
init=tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)# 先进行变量的初始化
print(sess.run(sub))
print(sess.run(add)) state=tf.Variable(0,name='counter')# 初始化变量为0,可以给变量起名字
new_value=tf.add(state,1) # 创建一个op,作用是使state加1
update=tf.assign(state,new_value) # 将后面的值赋值给前面的值,赋值op
# 初始化全部的变量,不初始化会出问题
init=tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)# 先进行变量的初始化
print(sess.run(state))
for i in range(5):
sess.run(update)
print(sess.run(state))
变量
c、fetch和feed
import tensorflow as tf # fetch 可以执行多个op
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0) add=tf.add(input2,input3)
mul=tf.multiply(input1,add) # 乘法op with tf.Session() as sess:
result=sess.run([mul,add]) # 同时运行多个op,就是fetch
print(result) # feed 以字典的形式传入值
input1=tf.placeholder(tf.float32) # 创建一个占位符,具体的值可以在运行的时候传入
input2=tf.placeholder(tf.float32) # 创建一个占位符
output=tf.multiply(input1,input2) with tf.Session() as sess:
# feed的数据以字典的形式传入
result=sess.run(output,feed_dict={input1:[7.0],input2:[2.0]})
print(result)
fetch和feed
d、简单示例-优化线性模型,使模型接近样本
import tensorflow as tf
import numpy as np # pip3 install numpy安装 # 使用numpy生成100个随机点
# 样本
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2 # 直线 标准直线 # 构造一个线性模型
b=tf.Variable(0.0)
k=tf.Variable(0.0)
y=k*x_data+b # 使用TensorFlow优化k 和 b 来优化线性模型,使其接近样本 # 二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y)) # reduce_mean求平均值,tf.square计算平方
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2) # 0.2为学习率,梯度下降的优化器
# 最小化代价函数
train=optimizer.minimize(loss) # 初始化变量
init=tf.global_variables_initializer() with tf.Session() as sess:
sess.run(init)# 初始化
for step in range(201):# 进行迭代
sess.run(train)
if step%20==0: # 每20次输出一次结果
print(step,sess.run([k,b])) # 发现结构k值越来越接近0.1,b值越来越接近0.2
简单示例 优化线性模型