波士顿房价

import matplotlib.pyplot as plt

%matplotlib inline

import tensorflow as tf

import numpy as np

from sklearn.datasets import load_boston

import sklearn.linear_model as sk

boston = load_boston()

features = np.array(boston.data)

labels = np.array(boston.target)

print(boston["DESCR"])

def normalize(dataset):

    mu = np.mean(dataset, axis = 0)

    sigma = np.std(dataset, axis = 0)

return (dataset-mu)/sigma

n_training_samples = features.shape[0]

n_dim = features.shape[1]

print('The dataset has',n_training_samples,'training samples.')

print('The dataset has',n_dim,'features.')

features_norm = normalize(features)

print(features_norm.shape)

print(labels.shape)

np.random.seed(42)

rnd = np.random.rand(len(features_norm)) < 0.8

train_x = tf.Variable(features_norm[rnd],dtype=tf.float32)

train_y = tf.Variable(labels[rnd],dtype=tf.float32)

test_x = tf.Variable(features_norm[~rnd],dtype=tf.float32)

test_y = tf.Variable(labels[~rnd],dtype=tf.float32)

print(train_x.shape)

print(train_y.shape)

print(test_x.shape)

print(test_y.shape)

train_x.numpy()

train_y.numpy()

test_x.numpy()

test_x.numpy()[1]

test_y.numpy()

# cost_history = np.empty(shape=[0], dtype = float)

# cost_history = np.append(cost_history, cost_)           

#设置超参数

learn_rate = 0.01  # 学习率

iter = 2000  # 迭代次数

display_step = 200  # 显示间隔

#设置模型变量初始值

np.random.seed(612)

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

mse_train = []  # 训练损失,训练误差

mse_test = []  # 测试损失,测试误差

for i in range(0 , iter+1):

   with tf.GradientTape() as tape:

       PRED_train = tf.matmul(train_x, W)+b

       Loss_train = 0.5 * tf.reduce_mean(tf.square(train_y - PRED_train))

       mse_train.append(Loss_train)

       

       PRED_test = tf.matmul(test_x, W)+b

       Loss_test = 0.5 * tf.reduce_mean(tf.square(test_y - PRED_test))

       mse_test.append(Loss_test)

       dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

   W.assign_sub(learn_rate * dL_dW)

   b.assign_sub(learn_rate * dL_db)

   # 输出训练误差和测试误差

   if i % display_step == 0:

       print("i:%i,Train Loss: %f, Test Loss: %f" % (i, Loss_train, Loss_test))  

train_x

#开始训练,轮数为epoch,采用SGD随机梯度下降优化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 200

learn_rate = 0.01  # 学习率

iter = 200  # 迭代次数

display_step = 200  # 显示间隔

#设置模型变量初始值

np.random.seed(612)

mse_train = []  # 训练损失,训练误差

mse_test = []  # 测试损失,测试误差

#w = tf.Variable(np.random.randn(13,1),tf.float32)

#b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

        for step in range(total_step):

            xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

            ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

            #计算当前[w,b]的梯度

            #delta_w,delta_b = grad(xs,ys,w,b)

            with tf.GradientTape() as tape:

                PRED_train = tf.matmul(xs, W)+b

                Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

                mse_train.append(Loss_train)

                dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

            W.assign_sub(learn_rate * dL_dW)

            b.assign_sub(learn_rate * dL_db)   

            #    grads = grad(xs,ys,w,b)

            #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

            #change_w = delta_w * learning_rate

            #change_b = delta_b * learning_rate

            #w.assign_sub(change_w)

            #b.assign_sub(change_b)

        #计算损失,并保存本次损失计算结果

        #loss_ =loss_fun(xs,ys,w,b)

        #loss_ =loss_fun(xs,ys,w,b)

        #loss.append(loss_)

        #训练步数加1

        count = count +1

        if count % display_count == 0:

               print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

            #完成一轮训练后,画图

        #plt.plot(x,w.numpy() * x +b.numpy())   #plt.plot(x_data,w.numpy() * x_data +b.numpy())

W

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.plot(mse_train, ls='solid', color = 'black')

ax.set_xlabel('epochs', fontsize = 16)

ax.set_ylabel('Cost function $J$ (MSE)', fontsize = 16)

plt.xlim(0,10000)

plt.tick_params(labelsize=16)

b

#pred_y = sess.run(y_, feed_dict = {X: test_x, Y: test_y})

#mse = tf.reduce_mean(tf.square(pred_y - test_y))

pred_y = model(test_x,W,b)

pred_y

test_y

mse = tf.reduce_mean(tf.square(pred_y - test_y))

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

   

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.scatter(test_y, pred_y, lw = 5)

ax.plot([test_y.numpy().min(), test_y.numpy().max()], [test_y.numpy().min(), test_y.numpy().max()], 'k--', lw = 5)

ax.set_xlabel('Measured Target Value', fontsize = 16)

ax.set_ylabel('Predicted Target Value', fontsize = 16)

plt.tick_params(labelsize=16)

print ('Starting first model')

#cost_history1 = run_linear_model(learning_r = 0.1,

#                                 training_epochs = 10000,

#                                train_obs = train_x,

#                                train_labels = train_y,

#                                debug = True)

#开始训练,轮数为epoch,采用SGD随机梯度下降优化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.1  # 学习率

iter = 200  # 迭代次数

display_step = 200  # 显示间隔

#设置模型变量初始值

np.random.seed(612)

mse_train1 = []  # 训练损失,训练误差

mse_test = []  # 测试损失,测试误差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

        for step in range(total_step):

            xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

            ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

            #计算当前[w,b]的梯度

            #delta_w,delta_b = grad(xs,ys,w,b)

            with tf.GradientTape() as tape:

                PRED_train = tf.matmul(xs, W)+b

                Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

                mse_train1.append(Loss_train)

                dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

            W.assign_sub(learn_rate * dL_dW)

            b.assign_sub(learn_rate * dL_db)    

            #    grads = grad(xs,ys,w,b)

            #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

            #change_w = delta_w * learning_rate

            #change_b = delta_b * learning_rate

            #w.assign_sub(change_w)

            #b.assign_sub(change_b)

        #计算损失,并保存本次损失计算结果

        #loss_ =loss_fun(xs,ys,w,b)

        #loss_ =loss_fun(xs,ys,w,b)

        #loss.append(loss_)

        #训练步数加1

        count = count +1

        if count % display_count == 0:

               print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

            #完成一轮训练后,画图

        #plt.plot(x,w.numpy() * x +b.numpy())   #plt.plot(x_data,w.numpy() * x_data +b.numpy())

  

print ('Starting second model')

#sess2, cost_history2 = run_linear_model(learning_r = 0.01,

#                                training_epochs = 10000,

#                                train_obs = train_x,

#                                train_labels = train_y,

# #开始训练,轮数为epoch,采用SGD随机梯度下降优化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.01  # 学习率

iter = 200  # 迭代次数

display_step = 200  # 显示间隔

#设置模型变量初始值

np.random.seed(612)

mse_train2 = []  # 训练损失,训练误差

mse_test = []  # 测试损失,测试误差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

        for step in range(total_step):

            xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

            ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

            #计算当前[w,b]的梯度

            #delta_w,delta_b = grad(xs,ys,w,b)

            with tf.GradientTape() as tape:

                PRED_train = tf.matmul(xs, W)+b

                Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

                mse_train2.append(Loss_train)

                dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

            W.assign_sub(learn_rate * dL_dW)

            b.assign_sub(learn_rate * dL_db)   

            #    grads = grad(xs,ys,w,b)

            #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

            #change_w = delta_w * learning_rate

            #change_b = delta_b * learning_rate

            #w.assign_sub(change_w)

            #b.assign_sub(change_b)

        #计算损失,并保存本次损失计算结果

        #loss_ =loss_fun(xs,ys,w,b)

        #loss_ =loss_fun(xs,ys,w,b)

        #loss.append(loss_)

        #训练步数加1

        count = count +1

        if count % display_count == 0:

               print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

            #完成一轮训练后,画图

        #plt.plot(x,w.numpy() * x +b.numpy())   #plt.plot(x_data,w.numpy() * x_data +b.numpy())

                                

print ('Starting third model')

#sess3, cost_history3 = run_linear_model(learning_r = 0.001,

#                                training_epochs = 10000,

#                                train_obs = train_x,

#                                train_labels = train_y,

#                                debug = True)

#开始训练,轮数为epoch,采用SGD随机梯度下降优化方法

W = tf.Variable(np.random.randn(13,1),dtype=tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

train_epochs = 1000

learn_rate = 0.001  # 学习率

iter = 200  # 迭代次数

display_step = 200  # 显示间隔

#设置模型变量初始值

np.random.seed(612)

mse_train3 = []  # 训练损失,训练误差

mse_test = []  # 测试损失,测试误差

w = tf.Variable(np.random.randn(13,1),tf.float32)

b = tf.Variable(tf.zeros(1),tf.float32)

batch_size=10

count = tf.Variable(0.0,tf.float32)

optimizer = tf.keras.optimizers.SGD(learn_rate)

total_step = int(train_x.shape[0]/batch_size)

for epoch in range(train_epochs):

        for step in range(total_step):

            xs= train_x.numpy()[step*batch_size:(step+1)*batch_size,:]

            ys= train_y.numpy()[step*batch_size:(step+1)*batch_size]

            #计算当前[w,b]的梯度

            #delta_w,delta_b = grad(xs,ys,w,b)

            with tf.GradientTape() as tape:

                PRED_train = tf.matmul(xs, W)+b

                Loss_train = 0.5 * tf.reduce_mean(tf.square(ys - PRED_train))

                mse_train3.append(Loss_train)

                dL_dW,dL_db = tape.gradient(Loss_train,[W,b])

            W.assign_sub(learn_rate * dL_dW)

            b.assign_sub(learn_rate * dL_db)   

            #    grads = grad(xs,ys,w,b)

            #delta_w,delta_b = optimizer.apply_gradients(zip(grads,[w,b]))

            #change_w = delta_w * learning_rate

            #change_b = delta_b * learning_rate

            #w.assign_sub(change_w)

            #b.assign_sub(change_b)

        #计算损失,并保存本次损失计算结果

        #loss_ =loss_fun(xs,ys,w,b)

        #loss_ =loss_fun(xs,ys,w,b)

        #loss.append(loss_)

        #训练步数加1

        count = count +1

        if count % display_count == 0:

               print('train epoch : ','%02d'%(epoch+1),'step:%03d' % (count),'loss= ','{:.9f}'.format(Loss_train))

            #完成一轮训练后,画图

        #plt.plot(x,w.numpy() * x +b.numpy())   #plt.plot(x_data,w.numpy() * x_data +b.numpy())

  

plt.rc('font', family='arial')

plt.rc('xtick', labelsize='x-small')

plt.rc('ytick', labelsize='x-small')

   

plt.tight_layout()

fig = plt.figure(figsize=(10, 7))

ax = fig.add_subplot(1, 1, 1)

ax.plot(mse_train1, ls='solid', color = 'black', label='$\gamma=0.1$')

ax.plot(mse_train2, ls='dashed', color = 'black', label='$\gamma=0.01$')

ax.plot(mse_train3, ls='dotted', color = 'black', label='$\gamma=0.001$')

ax.set_xlabel('epochs', fontsize = 16)

ax.set_ylabel('Cost function $J$ (MSE)', fontsize = 16)

plt.xlim(0,300)

plt.legend(bbox_to_anchor=(1.05, 1), loc=2, borderaxespad=0., fontsize = 16)

plt.tick_params(labelsize=16)

lm = sk.LinearRegression()

lm.fit(train_x, train_y)

msetest = np.mean((test_y-lm.predict(test_x))**2)

msetrain = np.mean((train_y-lm.predict(train_x))**2)

print('Train MSE=',msetrain)

print('Test MSE=',msetest)

model = tf.keras.Sequential()

"""添加层:其实就是 wx+b"""

model.add(tf.keras.layers.Dense(1,input_shape = (13,)))    #输出是1维数据,输入是14维数据

"""查看网络结构"""

model.summary()

"""编译,配置"""

model.compile(optimizer = 'adam',

              loss = 'mse',

              metrics=['mae','mse']

)

"""训练数据"""

history = model.fit(train_x.numpy(), train_y.numpy(), epochs = 500)

predict = model.predict(test_x.numpy())

predict

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/diannao/89775.shtml
繁体地址,请注明出处:http://hk.pswp.cn/diannao/89775.shtml
英文地址,请注明出处:http://en.pswp.cn/diannao/89775.shtml

如若内容造成侵权/违法违规/事实不符,请联系英文站点网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

YOLOv11深度解析:Ultralytics新一代目标检测架构创新与实战指南

🔍 2024年Ultralytics重磅推出YOLOv11**:在精度与速度的平衡木上再进一步,参数减少22%,推理速度提升2%,多任务支持全面升级! 🚀 一、YOLOv11核心创新:轻量化与注意力机制的完美融合 YOLOv11并非颠覆性重构,而是通过模块级优化实现“少参数、高精度、快推理”的目标…

基于 SpringBoot+Vue.js+ElementUI 的 “花开富贵“ 花园管理系统设计与实现7000字论文

摘要 本论文详细阐述了基于 SpringBoot、Vue.js 和 ElementUI 的 "花开富贵" 花园管理系统的设计与实现过程。该系统旨在为花园管理者提供高效、便捷的花园信息管理平台&#xff0c;实现花卉信息、员工、客户、订单等全方位管理功能。论文首先分析了花园管理系统的研…

RESTful API 安装使用教程

一、RESTful API 简介 REST&#xff08;Representational State Transfer&#xff09;是一种基于 Web 的架构风格&#xff0c;RESTful API 是使用 HTTP 协议并遵循 REST 原则设计的 API 接口。其核心思想是&#xff1a;使用标准 HTTP 方法&#xff08;GET、POST、PUT、DELETE&…

【行云流水ai笔记】粗粒度控制:推荐CTRL、GeDi 细粒度/多属性控制:推荐TOLE、GPT-4RL

TOLE模型完整启动方法指南 TOLE (Token-level Optimization with Language Models) 是一种基于强化学习的可控文本生成方法&#xff0c;通过token级别的反馈实现对文本多个属性的精确控制。以下是完整的启动方法指南&#xff1a; 1. 环境准备 1.1 创建虚拟环境 conda creat…

【沉浸式解决问题】idea开发中mapper类中突然找不到对应实体类

目录 一、问题描述二、场景还原三、原因分析四、解决方案 一、问题描述 mapper类继承了mybatis-plus的BaseMapper&#xff0c;泛型需要填入实体类&#xff0c;但是不知怎么地突然实体类就报错了&#xff0c;显示没有这个类 二、场景还原 实体类就是死活报错找不到&#xff0c;所…

初学python的我开始Leetcode题11-2

提示&#xff1a;100道LeetCode热题-11-1主要是二分查找相关&#xff0c;包括三题&#xff1a;搜索旋转排序数组、寻找旋转排序数组中的最小值、寻找两个正序数组的中位数。由于初学&#xff0c;所以我的代码部分仅供参考。前言上次的三道二分查找题较为基础&#xff0c;主要是…

Python 数据分析与可视化 Day 12 - 建模前准备与数据集拆分

✅ 今日目标 掌握建模前常见准备步骤学会使用 train_test_split() 将数据划分为训练集和测试集理解特征&#xff08;X&#xff09;与标签&#xff08;y&#xff09;的区分学习常见建模流程的输入要求&#xff08;格式、维度&#xff09;&#x1f4d8; 一、建模前准备流程概览 数…

Swagger 安装使用教程

一、Swagger 简介 Swagger 是一套开放源代码的 API 文档生成工具链&#xff0c;现归属于 OpenAPI 规范。它支持 RESTful API 的定义、生成、测试和文档自动化。常见的使用工具包括 Swagger UI、Swagger Editor、Swagger Codegen 以及 SpringFox&#xff08;Spring 集成库&…

【seismic unix相速度分析-频散曲线】

介绍Seismic Unix Seismic Unix&#xff08;SU&#xff09;是一个开源的地震数据处理软件包&#xff0c;主要用于地震数据的处理、分析和可视化。它由科罗拉多矿业学院的Center for Wave Phenomena开发&#xff0c;广泛应用于学术研究和工业领域。SU提供了一系列命令行工具&am…

3.前端和后端参数不一致,后端接不到数据的解决方案

目录 1.问题背景: (1).前端代码: (2).后端代码: (3).问题分析: [1]前端参数构造错误: [2].Api请求配置错误: 2.解决方案 (1).修改 role.js 中的 API 方法 (2).前端组件中的调用方式改成下面的而不是继续拼接了 3.总结: 1.问题背景: 我在接口开发过程中&#xff0c;前…

SpringBoot:整合quartz实现定时任务-MisFire的处理

文章目录 一、什么是MisFire二、MisFire发生的情况三、MisFire的补偿策略四、代码实现 一、什么是MisFire 简单理解为&#xff1a;定时任务&#xff0c;所错过的触发 二、MisFire发生的情况 1、资源紧张&#xff0c;定时任务请求不到对应的线程。 2、调度器关闭。 3、设置定…

返回json,优雅处理转换(如 0.85 → “85.00%“)

核心解决方案 通过 自定义序列化器 JsonSerialize 注解&#xff0c;实现 BigDecimal 到百分比字符串的自动转换。 1.1 自定义序列化器代码 java import com.fasterxml.jackson.core.JsonGenerator; import com.fasterxml.jackson.databind.JsonSerializer; import com.fasterx…

大语言模型LLM在训练/推理时的padding

讨论的是在训练大型语言模型&#xff08;Transformer-based models&#xff0c;比如GPT等&#xff09;时&#xff0c;文本序列的填充&#xff08;padding&#xff09;问题&#xff0c;即训练和推理时分辨填充在序列的左侧&#xff08;left padding&#xff09;或右侧&#xff0…

50 个常用 Docker 命令

1. Docker 基础命令 查看 Docker 版本 docker --version查看 Docker 运行状态 systemctl status docker查看 Docker 信息 docker info查看帮助信息 docker help2. 镜像管理 拉取镜像 docker pull <镜像名>查看本地镜像 docker images删除镜像 docker rmi <镜…

纹理贴图算法研究论文综述

纹理贴图&#xff08;Texture Mapping&#xff09;是计算机图形学和计算机视觉中的核心技术&#xff0c;广泛应用于三维重建、游戏渲染、虚拟现实&#xff08;VR&#xff09;、增强现实&#xff08;AR&#xff09;等领域。对其算法的研究涵盖了纹理生成、映射、缝合、优化等多个…

关于使用cursor tunnel链接vscode(避免1006 issue的做法)

详细步骤 第 1 步&#xff1a;在你的本地机器上准备好 Cursor 这一步很简单&#xff0c;你可能已经完成了。只需确保你的本地电脑上已经安装了 Cursor 桌面应用程序。 要做的事&#xff1a;无&#xff0c;只需确保 Cursor 已安装。 第 2 步&#xff1a;在远程服务器上安装 Curs…

Redis常见性能问题和解决方案有哪些

Redis 作为高性能的内存数据库&#xff0c;在电商等高并发场景中广泛使用&#xff0c;但可能因配置、使用不当或环境限制出现性能问题。以下是 Redis 常见的性能问题及其解决方案&#xff0c;结合电商场景&#xff0c;用中文简洁说明&#xff1a;### 1. **高延迟&#xff08;响…

明远智睿RK3588:创新了高性能,让顾虑烟消云散

在科技浪潮的推动下&#xff0c;高性能开发已经成为众多行业发展的核心驱动力。从智能交通的车路协同&#xff0c;到医疗领域的影像诊断&#xff1b;从智能家居的智能控制&#xff0c;到工业互联网的智能制造&#xff0c;每一个领域都对模块的性能提出了极高的要求。然而&#…

I Data Lab

万事开头难&#xff0c;尤其是和 0 与 1 打交道&#xff0c;和后面的实验相比&#xff0c;这次只能算个热身。但是喜欢运动的都知道&#xff0c;热身很重要&#xff01;任务目标我们先来看看 Datalab 需要我们做什么。主要是通过这次的作业来熟悉整型及浮点数的位表达形式&…

SQLite 安装使用教程

一、SQLite 简介 SQLite 是一个轻量级的关系型数据库管理系统&#xff0c;嵌入式、零配置、无需安装服务器&#xff0c;广泛应用于移动端开发&#xff08;如 Android&#xff09;、桌面应用、小型网站等场景。 二、下载安装 2.1 官方网站下载 访问 SQLite 官网 下载适用于操…