Tensorflow搭建神经网络的具体方法及代码是什么
Admin 2022-07-21 群英技术资讯 347 次浏览
import tensorflow as tf import numpy as np #创建数据 x_data = np.random.rand(100).astype(np.float32) y_data = x_data*0.1+0.3 #创建一个 tensorlow 结构 weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))#一维,范围[-1,1] biases = tf.Variable(tf.zeros([1])) y = weights*x_data + biases loss = tf.reduce_mean(tf.square(y - y_data))#均方差函数 #建立优化器,减少误差,提高参数准确度,每次迭代都会优化 optimizer = tf.train.GradientDescentOptimizer(0.5)#学习率为0.5(<1) train = optimizer.minimize(loss)#最小化损失函数 #初始化不变量 init = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) #train for step in range(201): sess.run(train) if step % 20 == 0: print(step, sess.run(weights), sess.run(biases))
import tensorflow as tf matrix1 = tf.constant([[3, 3]]) matrix2 = tf.constant([[2], [2]]) product = tf.matmul(matrix1, matrix2) #method1 sess = tf.Session() result2 = sess.run(product) print(result2) #method2 # with tf.Session() as sess: # result2 = sess.run(product) # print(result2)
import tensorflow as tf state = tf.Variable(0, name = 'counter')#变量初始化 # print(state.name) one = tf.constant(1) new_value = tf.add(state, one) #将state用new_value代替 updata = tf.assign(state, new_value) #变量激活 init = tf.global_variables_initializer() with tf.Session() as sess: sess.run(init) for _ in range(3): sess.run(updata) print(sess.run(state))
#给定type,tf大部分只能处理float32数据 input1 = tf.placeholder(tf.float32) input2 = tf.placeholder(tf.float32) output = tf.multiply(input1, input2) with tf.Session() as sess: print(sess.run(output, feed_dict={input1:[7.], input2:[2.]}))
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None): Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布 biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1 Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值 #激活 if activation_function is None: #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去 outputs = Wx_plus_b else: #如果设置了激活函数,则由此激活函数对信号进行传递或抑制 outputs = activation_function(Wx_plus_b) return outputs
七、创建一个神经网络
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None): Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布 biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1 Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值 #激活 if activation_function is None: #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去 outputs = Wx_plus_b else: #如果设置了激活函数,则由此激活函数对信号进行传递或抑制 outputs = activation_function(Wx_plus_b) return outputs """定义数据形式""" #创建一列(相当于只有一个属性值),(-1,1)之间,有300个单位,后面是维度,x_data是有300行 x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定间隔内返回均匀间隔数字 #加入噪声,均值为0,方差为0.05,形状和x_data一样 noise = np.random.normal(0, 0.05, x_data.shape) #定义y的函数为二次曲线函数,同时增加一些噪声数据 y_data = np.square(x_data) - 0.5 + noise #定义输入值,输入结构的输入行数不固定,但列就是1列的值 xs = tf.placeholder(tf.float32, [None, 1]) ys = tf.placeholder(tf.float32, [None, 1]) """建立网络""" #定义隐藏层,输入为xs,输入size为1列,因为x_data只有一个属性值,输出size假定有10个神经元的隐藏层,激活函数relu l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #定义输出层,输出为l1输入size为10列,也就是l1的列数,输出size为1,这里的输出类似y_data,因此为1列 prediction = add_layer(l1, 10, 1,activation_function=None) """预测""" #定义损失函数为差值平方和的平均值 loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) """训练""" #进行逐步优化的梯度下降优化器,学习率为0.1,以最小化损失函数进行优化 train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #初始化模型所有参数 init = tf.global_variables_initializer() #可视化 with tf.Session() as sess: sess.run(init) for i in range(1000):#学习1000次 sess.run(train_step, feed_dict={xs:x_data, ys:y_data}) if i%50==0: print(sess.run(loss, feed_dict={xs:x_data, ys:y_data}))
import tensorflow as tf import numpy as np import matplotlib.pyplot as plt def add_layer(inputs, in_size, out_size, activation_function = None): Weights = tf.Variable(tf.random_normal([in_size, out_size]))#正态分布 biases = tf.Variable(tf.zeros([1, out_size])+0.1) #1行,out_size列,初始值不推荐为0,所以加上0.1 Wx_plus_b = tf.matmul(inputs, Weights) + biases #Weights*x+b的初始化值,也是未激活的值 #激活 if activation_function is None: #如果没有设置激活函数,,则直接把当前信号原封不动的传递出去 outputs = Wx_plus_b else: #如果设置了激活函数,则由此激活函数对信号进行传递或抑制 outputs = activation_function(Wx_plus_b) return outputs """定义数据形式""" #创建一列(相当于只有一个属性值),(-1,1)之间,有300个单位,后面是维度,x_data是有300行 x_data = np.linspace(-1, 1, 300)[:, np.newaxis]#np.linspace在指定间隔内返回均匀间隔数字 #加入噪声,均值为0,方差为0.05,形状和x_data一样 noise = np.random.normal(0, 0.05, x_data.shape) #定义y的函数为二次曲线函数,同时增加一些噪声数据 y_data = np.square(x_data) - 0.5 + noise #定义输入值,输入结构的输入行数不固定,但列就是1列的值 xs = tf.placeholder(tf.float32, [None, 1]) ys = tf.placeholder(tf.float32, [None, 1]) """建立网络""" #定义隐藏层,输入为xs,输入size为1列,因为x_data只有一个属性值,输出size假定有10个神经元的隐藏层,激活函数relu l1 = add_layer(xs, 1, 10, activation_function=tf.nn.relu) #定义输出层,输出为l1输入size为10列,也就是l1的列数,输出size为1,这里的输出类似y_data,因此为1列 prediction = add_layer(l1, 10, 1,activation_function=None) """预测""" #定义损失函数为差值平方和的平均值 loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),reduction_indices=[1])) """训练""" #进行逐步优化的梯度下降优化器,学习率为0.1,以最小化损失函数进行优化 train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss) #初始化模型所有参数 init = tf.global_variables_initializer() #可视化 with tf.Session() as sess: sess.run(init) fig = plt.figure()#先生成一个图片框 #连续性画图 ax = fig.add_subplot(1, 1, 1)#编号为1,1,1 ax.scatter(x_data, y_data)#画散点图 #不暂停 plt.ion()#打开互交模式 # plt.show() #plt.show绘制一次就暂停了 for i in range(1000):#学习1000次 sess.run(train_step, feed_dict={xs:x_data, ys:y_data}) if i%50==0: try: #画出一条后,抹除掉,去除第一个线段,但是只有一个相当于抹除当前线段 ax.lines.remove(lines[0]) except Exception: pass prediction_value = sess.run(prediction, feed_dict={xs:x_data}) lines = ax.plot(x_data,prediction_value,'r-',lw=5)#lw线宽 #暂停 plt.pause(0.5)
可视化结果:
动图效果如下所示:
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
这篇文章主要为大家介绍了python程序的组织结构,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望能够给你带来帮助
要想在Flask中处理好异常,有一套自己的异常处理机制,首先,我们必须先知道Flask自己是如何处理异常的。去flask的源码里找一找会发现,在flask源码的app.py文件下,有很多会抛出异常的方法,其中拿一个举例:
从几年前开始学习编程直到现在,一直对程序中的异常处理怀有恐惧和排斥心理。之所以这样,是因为不了解。这次攻python,首先把自己最畏惧和
python的循环语句是很基础的内容,这篇文章主要给大家介绍python中if循环语句的使用,下面给大家分享python的if循环语句写菱形金字塔和九九乘法表代码,对新手学习和理解python的if循环语句有一定的帮助,有需要的朋友就往下看吧。
这篇文章主要介绍了python中的字符串占位符的"{0:2}",具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
成为群英会员,开启智能安全云计算之旅
立即注册Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008