news 2026/5/5 7:44:48

Day39 PythonStudy

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Day39 PythonStudy

@浙大疏锦行

import torch torch.cuda import torch # 检查CUDA是否可用 if torch.cuda.is_available(): print("CUDA可用!") # 获取可用的CUDA设备数量 device_count = torch.cuda.device_count() print(f"可用的CUDA设备数量: {device_count}") # 获取当前使用的CUDA设备索引 current_device = torch.cuda.current_device() print(f"当前使用的CUDA设备索引: {current_device}") # 获取当前CUDA设备的名称 device_name = torch.cuda.get_device_name(current_device) print(f"当前CUDA设备的名称: {device_name}") # 获取CUDA版本 cuda_version = torch.version.cuda print(f"CUDA版本: {cuda_version}") else: print("CUDA不可用。")
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split import numpy as np iris = load_iris() X = iris.data y = iris.target X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2,random_state=42) print(X_train.shape) print(y_train.shape) print(X_test.shape) print(y_test.shape)

(120, 4)
(120,)
(30, 4)
(30,)

# 归一化数据,神经网络对于输入数据的尺寸敏感,归一化是最常见的处理方式 from sklearn.preprocessing import MinMaxScaler scaler = MinMaxScaler() X_train = scaler.fit_transform(X_train) X_test = scaler.transform(X_test) # 将数据转换为 PyTorch 张量,因为 PyTorch 使用张量进行训练 # y_train和y_test是整数,所以需要转化为long类型,如果是float32,会输出1.0 0.0 X_train = torch.FloatTensor(X_train) y_train = torch.LongTensor(y_train) X_test = torch.FloatTensor(X_test) y_test = torch.LongTensor(y_test) import torch import torch.nn as nn import torch.optim as optim class MLP(nn.Module): def __init__(self): super(MLP,self).__init__() #开始自定义部分 self.fc1 = nn.Linear(4,10) self.relu = nn.ReLU() self.fc2 = nn.Linear(10,3) def forward(self,x): out = self.fc1(x) out = self.relu(out) out = self.fc2(out) return out #模型实例化 model = MLP() # 分类问题使用交叉熵损失函数 criterion = nn.CrossEntropyLoss() # 使用随机梯度下降优化器 optimizer = optim.SGD(model.parameters(), lr=0.01) # 训练 num_epochs = 10 losses = [] for epoch in range(num_epochs): #前向传播 outputs = model.forward(X_train) loss = criterion(outputs,y_train) #反向传播 optimizer.zero_grad() #梯度清零 loss.backward()#反向传播计算梯度 optimizer.step()#更新参数 #记录损失 losses.append(loss.item()) #打印训练信息 print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

Epoch [1/10], Loss: 1.1156
Epoch [2/10], Loss: 1.1153
Epoch [3/10], Loss: 1.1150
Epoch [4/10], Loss: 1.1147
Epoch [5/10], Loss: 1.1144
Epoch [6/10], Loss: 1.1141
Epoch [7/10], Loss: 1.1138
Epoch [8/10], Loss: 1.1135
Epoch [9/10], Loss: 1.1132
Epoch [10/10], Loss: 1.1130

import matplotlib.pyplot as plt plt.plot(range(num_epochs),losses) plt.xlabel('Epoch') plt.ylabel('Loss') plt.title('Training Loss over Epochs') plt.show()

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/30 23:10:37

LobeChat能否实现AI生成年终总结?年度绩效展示利器

LobeChat能否实现AI生成年终总结?年度绩效展示利器 在每年年底,无数职场人面对的一项“传统挑战”不是加班赶项目,而是如何写出一份既真实反映工作成果、又足够亮眼的年终总结。写得平淡,怕被忽视;夸大其词&#xff0c…

作者头像 李华
网站建设 2026/4/30 23:22:00

零成本搞定!2025 年免费降 AI 率实操指南:3款工具 + 5个有效方方法

论文降aigc现在绝对是大家写论文时遇到的最大拦路虎。别慌,只要掌握了正确的方法,把那些顽固的AI生成痕迹去掉,顺利通过检测其实并不难。 一、 AI检测原理 很多同学都在问:为什么我自己一个字一个字敲出来的论文,aig…

作者头像 李华
网站建设 2026/5/5 7:15:39

大模型如何赋能智能制造

大模型(Large Models),特别是以大语言模型(LLM)和多模态大模型为代表的通用人工智能技术,正在深刻赋能智能制造(Smart Manufacturing),推动制造业向更高效、柔性、智能和…

作者头像 李华
网站建设 2026/5/2 21:32:31

HunyuanVideo-Foley:AI自动生成音效的技术与应用

HunyuanVideo-Foley:AI自动生成音效的技术与应用 你有没有试过看一段没有声音的视频?画面清晰、动作流畅,但总觉得哪里不对劲——仿佛演员在演哑剧,世界被抽走了呼吸。可一旦加上脚步踩在石板上的回响、风吹树叶的沙沙声、杯子轻轻…

作者头像 李华
网站建设 2026/5/4 11:06:14

根据Excel数据自动生成Word文档:AI助力文档自动化的未来

随着大数据和AI技术的不断发展,文档生成的自动化逐渐成为提升办公效率的重要工具。尤其是在文档批量生成和格式统一方面,如何快速、准确地根据数据生成标准化的文档,已成为企业和开发者关注的焦点。在这个过程中,Excel数据的处理与…

作者头像 李华
网站建设 2026/4/30 0:20:51

LobeChat能否嵌入WordPress网站?网页集成方法探讨

LobeChat 能否嵌入 WordPress?网页集成方法深度解析 在今天的内容型网站中,用户早已不再满足于单向阅读。他们希望提问、互动、获得即时反馈——而传统的 WordPress 博客或企业官网,往往只能提供静态信息展示。如何让一个原本“沉默”的网站变…

作者头像 李华