E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
softmax
交叉熵损失函数
importtorchimporttorch.nn.functionalasFimporttorch.nnasnnimportmathdefcross_entropyloss(y_pred,y_true):#y_pred'sshapeis[N,C]y_pred=torch.log_
softmax
onlyzzr
·
2025-07-28 13:09
深度学习
pytorch
深度学习
机器学习
【深度学习】
softmax
回归的从零开始实现与简洁实现
前言小时候听过一个小孩练琴的故事,老师让他先弹最简单的第一小节,小孩练了两天后弹不出。接着,老师让他直接去练更难的第二小节,小孩练习了几天后还是弹不出,开始感觉到挫败和烦躁了。小孩以为老师之后会让他从简单的开始练,谁知老师直接让他开始练最难的一小节。小孩不干了,问老师是不是故意刁难他。老师笑笑,让他现在弹弹第一小节试试。神奇的是,小孩竟然发现自己已经能完整弹出来了。这有点像我现在的学习状况,前些天
Douglassssssss
·
2025-07-24 02:31
深度学习
深度学习
回归
人工智能
softmax回归
交叉熵损失函数
【DL经典回顾】激活函数大汇总(四)(
Softmax
& Softplus附代码和详细公式)
激活函数大汇总(四)(
Softmax
&Softplus附代码和详细公式)更多激活函数见激活函数大汇总列表一、引言欢迎来到我们深入探索神经网络核心组成部分——激活函数的系列博客。
夺命猪头
·
2025-07-21 05:16
python
机器学习
人工智能
神经网络
numpy
LLM 的Top-P参数 是在LLM中的每一层发挥作用,还是最后一层?
Top-P(核采样)是在大语言模型(LLM)生成文本的最后一步发挥作用,具体来说是在模型输出**原始分数(Logits)**之后、应用
Softmax
函数生成概率分布之前进行筛选。
ZhangJiQun&MXP
·
2025-07-20 12:09
教学
2024大模型以及算力
2021
AI
python
人工智能
算法
机器学习
transformer
自然语言处理
华为OD技术面试高频考点(算法篇、AI方向)
一、Transformer核心机制:自注意力(Self-Attention)公式:Attention=
softmax
(QK^T/√d_k)v运作原理:1.Q/K/V矩阵:输入向量通过线性变换生成Query
·
2025-07-11 10:52
2.线性神经网络--
Softmax
回归
2.1从零实现
Softmax
回归#数据集导入importtorchimporttorchvisionfromtorchvisionimporttransformsimportmatplotlib.pyplotaspltfromtqdmimporttqdmfromtorch.utils.dataimportDataLoader
温柔济沧海
·
2025-07-08 06:31
深度学习
神经网络
回归
人工智能
Pytorch:nn.Linear中是否自动应用
softmax
函数
在本文中,我们将介绍Pytorch中的nn.Linear模块以及它是否自动应用
softmax
函数。nn.Linear是Pytorch中用于定义线性转换的模块,常用于神经网络的全连接层。
浩瀚之水_csdn
·
2025-07-05 23:51
深度学习目标检测
#
Pytorch框架
pytorch
人工智能
python
预训练语言模型之:Encoder-only PLM
1.基础架构:TransformerEncoder所有模型的基石都是TransformerEncoder结构,其核心是自注意力机制:Attention(Q,K,V)=
softmax
(QKTdk)V\text
抱抱宝
·
2025-06-25 10:36
大模型
语言模型
人工智能
自然语言处理
【动手学深度学习】4.2~4.3 多层感知机的实现
为了与之前
softmax
回归获得的结果进行比较,我们将继续使用Fashion-MNIST图像分类数据集。importtorchfromtorchimportnnfromd2limporttorcha
XiaoJ1234567
·
2025-06-23 06:08
《动手学深度学习》
深度学习
人工智能
MLP
多层感知机
BERT-NER-Pytorch 深度学习教程
BERT-NER-Pytorch深度学习教程BERT-NER-PytorchChineseNER(NamedEntityRecognition)usingBERT(
Softmax
,CRF,Span)项目地址
富茉钰Ida
·
2025-06-22 10:52
激活层为
softmax
时,CrossEntropy损失函数对激活层输入Z的梯度
∂L∂Z=y^−y\frac{\partialL}{\partialZ}=\hat{y}-y∂Z∂L=y^−y其中yyy为真实值,采用one-hot编码,y^\hat{y}y^为
softmax
输出的预测值证明
Jcldcdmf
·
2025-06-20 19:42
AI
机器学习
损失函数
交叉熵
softmax
理解Logits、
Softmax
和
softmax
_cross_entropy_with_logits的区别
理解Logits、
Softmax
和
softmax
_cross_entropy_with_logits的区别技术背景在机器学习尤其是深度学习中,分类问题是一个常见的任务。
1010n111
·
2025-06-19 08:00
机器学习
LLM输出优化秘籍:Dify参数调节技巧大揭秘!
一、核心参数详解1.温度(Temperature)作用机制:通过
softmax
函数调整预测分布调节范围:0-1效果对比:温度值生成质量多样
AI大模型-大飞
·
2025-06-17 17:08
人工智能
机器学习
大模型
AI大模型
程序员
语言模型
大模型教程
MSE做多分类任务如何
输出:配合
softmax
激活函数,输出每个类别的概率(和为1)。判卷逻辑:看「预测概率是否接近真实类别」,比
·
2025-06-16 15:14
PyTorch张量操作中dim参数的核心原理与应用技巧:
今天在搭建神经网络模型中重写forward函数时,对输出结果在最后一个维度上应用
Softmax
函数,将输出转化为概率分布。但对于dim的概念不是很熟悉,经过查阅后整理了一下内容。
AI扶我青云志
·
2025-06-16 11:12
pytorch
人工智能
26 - UFO模块
论文《UFO-ViT:HighPerformanceLinearVisionTransformerwithout
Softmax
》1、作用UFO-ViT旨在解决传统Transformer在视觉任务中所面临的主要挑战之一
Leo Chaw
·
2025-06-15 22:46
深度学习算法实现
人工智能
深度学习
pytorch
计算机视觉
多分类与多标签分类的损失函数
使用神经网络处理多分类任务时,一般采用
softmax
作为输出层的激活函数,使用categorical_crossentropy(多类别交叉熵损失函数)作为损失函数,输出层包含k个神经元对应k个类别。
麦格芬230
·
2025-06-13 21:24
自然语言处理
缩放点积模型:如何巧妙化解
Softmax
梯度消失难题?
在Transformer模型中,缩放点积注意力(ScaledDot-ProductAttention)通过一个看似简单的操作——除以维度的平方根——解决了
Softmax
梯度消失的核心问题。
摘取一颗天上星️
·
2025-06-13 14:05
深度学习
损失函数
标准点积
梯度消失
机器学习专栏(36):逻辑回归与
Softmax
回归全解析(附完整代码与可视化)
概率世界的"温度计"1.1核心原理:从线性到概率的魔法转换1.2Sigmoid函数:概率转换的核心引擎1.3实战案例:鸢尾花二分类二、模型训练:损失函数的艺术2.1对数损失函数解析2.2正则化实战技巧三、
Softmax
Sonal_Lynn
·
2025-06-11 04:46
人工智能专题
机器学习
逻辑回归
回归
【OpenCV】cv::exp函数详解
cv::exp是OpenCV中用于对矩阵中的每个元素进行自然指数运算(即ex)的函数,常用于图像增强、概率计算或机器学习中的激活函数(如
Softmax
)。
浩瀚之水_csdn
·
2025-06-09 23:16
#
OpenCV学习
opencv
人工智能
计算机视觉
KV Cache:大模型推理加速的核心机制
标准的self-attention计算公式大家都很熟悉:Attention(Q,K,V)=
softmax
非常大模型
·
2025-06-04 04:54
大模型
语言模型
人工智能
人工智能与大模型技术:从理论到实践的黄金指南
其核心公式可表示为:Attention(Q,K,V)=
softmax
(QKTdk)VAttention(Q,K,V)=
softmax
(dkQKT)V其中QQ(Query)、KK(Key)、V
NIHILISM DAMN
·
2025-06-02 12:41
人工智能
python
人工智能
人工智能与大模型技术:从理论到实践的黄金指南
其核心公式可表示为:Attention(Q,K,V)=
softmax
(QKTdk)VAttention(Q,K,V)=
softmax
(dkQKT)V其中QQ(Query)、KK(Key)、V
NIHILISM DAMN
·
2025-06-02 12:40
人工智能
python
人工智能
triton学习笔记2: 循环优化术
Puzzles8:Long
softmax
puzzles8是计算batch的
softmax
,题目如下:
Softmax
ofabatchoflogits.Usesoneprogramblockaxis.BlocksizeB0representsthebatchofxoflengthN0
·
2025-05-30 13:16
人工智能与大模型技术:从理论到实践的黄金指南
其核心公式可表示为:Attention(Q,K,V)=
softmax
(QKTdk)VAttention(Q,K,V)=
softmax
(dkQKT)V其中QQ(Query)、KK(Key)、V
张家铭02
·
2025-05-27 09:08
人工智能
python
人工智能
【知识点】大模型面试题汇总(持续更新)
答案:•核心原因:防止点积结果过大导致
softmax
进入饱和区(梯度消失)。•数学解释:假设Q、K的每个维度是独立零均值、方差为1的随机变量,点积结果的方差为d。缩放后方差恢复为1,稳定梯度。
XD742971636
·
2025-05-16 07:41
深度学习机器学习
大模型
深度学习
面试题
大模型中的KV Cache
原理:自注意力机制:在Transformer中,注意力计算基于公式:Attention(Q,K,V)=
softmax
(QK⊤dk)V=∑i=1nwivi(加权
为啥全要学
·
2025-05-15 23:16
大模型
python
kv缓存
python
大模型
kv缓存
python pytorch 模型构造函数、连接函数 通俗版
`nn.ReLU`(激活函数)2.nn.Sigmoid3.nn.
Softmax
三、组合示例(搭积木).分类模型模板2.生成模型模板**五、常见问题**Q1:为什么要有激活函数?
Python虫
·
2025-05-15 15:48
python
pytorch
开发语言
人工智能
电商直播实时字幕生成:语音-视觉同步对齐技术详解与实战
一、技术原理与数学建模1.1多模态特征同步机制核心公式:声学特征提取:X_audio=CNN1D(MFCC(wav))视觉特征提取:X_vision=ResNet(frame)同步对齐:A=
softmax
燃灯工作室
·
2025-05-14 07:12
Ai
神经网络
机器学习
深度学习
学习
pytorch
pytorch验算CrossEntropyLoss ,BCELoss 和 BCEWithLogitsLoss
一.手动计算、log_
softmax
+nll_loss、nn.CrossEntropyLoss三种方式计算交叉熵:(classtorch.nn.CrossEntropyLoss(weight=None,
咕噜咕噜day
·
2025-05-11 05:08
pytorch相关
CrossEntropylo
BCELoss
BCEWithLogits
BCE_交叉熵_BCEWit
Qwen2.5模型结构
config.hidden_size,config.vocab_size,bias=False)这个是用来干嘛的输出层,词汇投影层,将模型输出的隐藏状态向量映射回词表空间,用于预测下一个token#预测logits,未经过
softmax
lm_logits
AloneCat2012
·
2025-05-10 01:35
人工智能
pytorch
【机器学习】gumbel
softmax
的介绍
一、介绍Gumbel-
Softmax
是一种技术,用于在离散选择中引入可微分的近似。这对于需要在神经网络中进行离散采样(如分类任务或生成离散数据)而不破坏梯度计算非常有用。
追风赶月。
·
2025-05-08 16:22
学习过程中遇到的问题
机器学习
pytorch
深度学习
李沐《动手学深度学习》
softmax
回归python代码实现
一、手动实现
softmax
回归#手动实现
softmax
回归#%matplotlibinlineimporttorchfromd2limporttorchasd2limportmatplotlib.pyplotaspltfromIPythonimportdisplay
阿万音玲羽
·
2025-05-06 16:04
深度学习
回归
python
机器学习
算法
人工智能
零基础-动手学深度学习-3.6
softmax
回归的从零开始实现
目录一、初始化模型参数二、定义
softmax
操作三、定义模型四、定义损失函数五、分类精度六、训练七、一点补充鄙人生医转码,道行浅薄,请多谅解~感觉这章的内容超量,代码和详解都非常长,细嚼慢咽ing~首先导入需要的库和上一章讲的训练和测试集
生医转码,四海为家
·
2025-05-06 16:03
深度学习
人工智能
Transformer:颠覆性架构的二次革命与全模态实践指南
一、认知跃迁:全局建模的数学革命1.1注意力机制本质解构Attention(Q,K,V)=
softmax
(QKTdk⊙M)VAttention(Q,K,V)=
softmax
(dkQKT⊙M)V(M为因
Gupao123
·
2025-05-03 06:07
transformer
架构
深度学习
目标检测
人工智能
神经网络
计算机视觉
解密分类模型的核心:Sigmoid与
SoftMax
的应用与奥秘
SigmoidSigmoid针对多标签分类问题=答案可共存(如生病和住院)Sigmoid(x)=11+e−xSigmoid(x)=\frac{1}{1+e^{-x}}Sigmoid(x)=1+e−x1输入得分值,输出概率值二、
SoftMax
北上ing
·
2025-05-01 05:14
计算机视觉
分类
数据挖掘
人工智能
目标检测
多分类
人工智能与大模型技术:从理论到实践的黄金指南
其核心公式可表示为:Attention(Q,K,V)=
softmax
(QKTdk)VAttention(Q,K,V)=
softmax
(dkQKT)V其中QQ(Query)、KK(Key)、V
张家铭02
·
2025-04-20 00:23
python
python
人工智能
开发语言
Python----深度学习(
Softmax
与交叉熵)
一、
Softmax
Softmax
是一种常见的激活函数,可以将计算出来的数值通过公式变成概率,通常用在分类中。
Softmax
从字面上来说,可以分成soft和max两个部分。
蹦蹦跳跳真可爱589
·
2025-04-18 15:17
深度学习
Python
python
深度学习
开发语言
Neural Network from Scratch in Cangjie: Part 4 - 仓颉从头开始的神经网络:第四部分
Today,wewilltrytorecreatetheoutputlayerforatypicalclassificationnetworkwiththehelpofthe`
Softmax
`activationfunction.Itwillletusnormalizetheoutputofthefinallayerinournetworkanddisplayprobabilitiesofwhic
研究编程
·
2025-04-18 13:01
神经网络
深度学习
华为
开发语言
nlp面试重点
如果不使用
softmax
计算交叉熵,是不行的。损失函数可能会非常大,或者预测的概率是[-0.1,0.3,0.5],log不接收负值。pytorch默认给你加
softmax
。
heine162
·
2025-04-14 23:13
自然语言处理
TensorFlow自然语言处理深度解析:从理论到工业级实践
1.NLP数学基础与TensorFlow实现原理1.1注意力机制的数学本质注意力机制的核心是学习一个动态权重分布,其数学表达为:Attention(Q,K,V)=
softmax
((QK^T)/
qq_16226939
·
2025-04-14 09:09
人工智能
tensorflow
自然语言处理
人工智能
深度学习
python
分类
bert
【人脸识别中的“类内差异”和“类间差异】
对应DeepID1:只用
Softmax
Loss训练模型分类,模型只学会“爸爸和妈妈是不同的人”。
学渣67656
·
2025-04-13 00:34
人工智能
Log
Softmax
和
Softmax
的核心区别及使用场景
在PyTorch中,Log
Softmax
和
Softmax
的核心区别及使用场景如下:1.数学定义
Softmax
:σ(zi)=ezi∑j=1Kezj\sigma(z_i)=\frac{e^{z_i}}{\sum
code 旭
·
2025-04-06 01:01
AI人工智能学习
python
机器学习
人工智能
LLM 优化技术(4)——flash_attention 原理
FlashAttention:FastandMemory-EfficientExactAttentionwithIO-Awareness如上图所示,Flash-attention采用了矩阵分块和算子融合(safe
softmax
reducetion
哦豁灬
·
2025-04-05 22:37
大模型
LLM
深度学习
人工智能
深度学习
LLM
大模型
self-attention
基于
Softmax
回归完成鸢尾花分类任务
1.任务概述1.1
Softmax
回归原理
Softmax
回归是一种用于多分类问题的线性分类模型。其核心思想是将线性回归的输出通过
Softmax
函数转换为概率分布,从而实现多分类。
阿尔法星球
·
2025-04-05 12:06
深度学习与神经网络实战
回归
分类
数据挖掘
pytorch调用手写CUDA算子和pybind11的使用
下面我们先介绍一下代码结构:代码架构
softmax
.cupy::array_t
谨慎付费(看不懂试读博客不要订阅)
·
2025-04-01 03:09
高性能计算
pytorch
人工智能
python
1024程序员节
【深度学习】Self-Attention机制详解:Transformer的核心引擎
Self-Attention的数学原理1.计算查询(Query)、键(Key)和值(Value)2.计算注意力分数3.缩放并应用
Softmax
4.加权求和多头注意力(Mu
烟锁池塘柳0
·
2025-03-26 19:05
深度学习
transformer
人工智能
Softmax
温度调节与注意力缩放:深度神经网络中的平滑艺术
Softmax
温度调节与注意力缩放:深度神经网络中的平滑艺术在深度学习的精密机械中,有些细微的调整机制往往被视为理所当然,却实际上蕴含着深刻的数学洞察和巧妙的工程智慧。
Mark White
·
2025-03-21 17:01
dnn
人工智能
神经网络
c++高性能多进程 cuda编程: safe_
softmax
实现 + cub::BlockReduce自定义归约操作
目录cub::BlockReduce自定义归约操作(`cub::BlockReduce::Reduce`)1.语法safe_
softmax
实现cub::BlockReducecub::BlockReduce
FakeOccupational
·
2025-03-20 06:35
深度学习
c++
开发语言
知识蒸馏:从软标签压缩到推理能力迁移的工程实践(基于教师-学生模型的高效压缩技术与DeepSeek合成数据创新)
在实际应用中,无论是大规模语言模型(LLMs)还是其他类型的神经网络模型,都会通过
softmax
AI仙人掌
·
2025-03-19 17:20
人工智能
AI
人工智能
深度学习
语言模型
机器学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他