E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Training
【GitHub项目推荐--微软开源了大规模对话系统GPT】【转载】
大规模对话预训练Large-scalepre
training
fordialogue微软开源了目标导向对话大模型源代码microsoft/GODEL:Large-scalepretrainedmodelsforgoal-directeddialog
旅之灵夫
·
2025-04-19 22:37
GitHub项目推荐
人工智能
gpt
Tensorflow实现用接口调用模型训练和停止训练功能
#存储所有训练任务
training
_tasks={}#训练模型的接口@train_model.route("/train",methods=["POST"])deftrain():try:data=request.get
NLP的小Y
·
2025-04-19 09:14
python
深度学习
人工智能
AI 产品开发流程全解析:从需求到部署的六大阶段
六大核心阶段总览需求分析(BusinessUnderstanding)数据收集与处理(DataCollection&Preprocessing)模型训练与优化(Model
Training
&Optimization
Yoan AI Lab
·
2025-04-18 13:29
人工智能
【NLP】 22. NLP 现代教程:Transformer的训练与应用全景解读
NLP现代教程:Transformer的训练与应用全景解读一、Transformer的使用方式(
Training
andUse)如何使用Transformer模型?
pen-ai
·
2025-04-16 12:14
机器学习
NLP
深度学习
自然语言处理
transformer
人工智能
【NLP笔记】预训练+微调范式之OpenAI Transformer、ELMo、ULM-FiT、Bert..
文章目录OpenAITransformerELMoULM-FiTBert基础结构Embedding预训练&微调【原文链接】:BERT:Pre-
training
ofDeepBidirectionalTransformersforLanguageUnderstanding
`AllureLove
·
2025-04-15 18:16
自然语言处理
自然语言处理
笔记
bert
训练优化技术:混合精度训练(Mixed Precision
Training
)
混合精度训练(MixedPrecision
Training
)是一种优化深度学习训练过程的技术,通过结合使用不同精度的数据类型(例如,32位浮动精度和16位浮动精度),在保证模型性能的同时,显著减少内存消耗
彬彬侠
·
2025-04-15 13:16
大模型
混合精度训练
Mixed
Precision
训练优化
AMP
pytorch
python
大模型
亚马逊云科技-基于GenAI预训练新基础模型
亚马逊云科技-基于GenAI预训练新基础模型关键字:[yt,SageMaker,FoundationModels,AmazonSagemaker,Distributed
Training
,ModelParallelism
taibaili2023
·
2025-04-15 05:21
AWS
MMdetection-教程5:自定义运行设置
pytorch支持的优化器自定义自主实现的优化器1.定义一个新的优化器2.添加优化器到注册表3.在配置文件中指定优化器自定义优化器构造函数(optimizerconstructor)其他设置自定义训练策略(
training
schedules
闰土_RUNTU
·
2025-04-13 15:43
目标检测
MMdetection
pytorch
深度学习
人工智能
如何从零开始训练一个大模型,文案解析。
✅大模型微调常见流程图(逻辑顺序)预训练(Pre
training
)↓指令微调SFT(SupervisedFine-tuning)↓偏好数据准备(人类偏好标注或对比)↓┌─────────────┬───
要努力啊啊啊
·
2025-04-13 13:31
大模型中的技术名词解析
算法
人工智能
原生多模态大模型时代:统一感知的智能跃迁
1.模态编码统一(ModalityTokenization)2.统一骨干(Backbone):Transformer进化体3.目标函数协同(Multi-taskPre
training
Objectives
gs80140
·
2025-04-11 23:24
AI
人工智能
BN层和Dropout在训练与测试时的差别以及实现细节
1·BN层介绍及测试训练的差别BN也即BatchNormalization,批规范化,是由谷歌的大佬们在2015年《BatchNormalization:AcceleratingDeepNetwork
Training
byReducingInternalCovariateShift
andyL_05
·
2025-04-10 10:22
Pytorch
深度学习
从研究动机视角对无监督图像去雾论文的分类
1.数据依赖与配对数据稀缺问题1.1论文《DEHAZE-GLCGAN:UNPAIREDSINGLEIMAGEDEHAZINGVIAADVERSARIAL
TRAINING
》-2020年模型的特点如下:将去雾问题转化为图像到图像的转换问题
梦姐的编程日志
·
2025-04-06 02:38
图像处理
深度学习
计算机视觉
算法
人工智能
自我激励语言模型:解锁AI训练新范式
自我激励语言模型:解锁AI训练新范式self-rewarding-lm-pytorchImplementationofthe
training
frameworkproposedinSelf-RewardingLanguageModel
秋玥多
·
2025-04-06 02:05
生成对抗网络(GAN)详解
GANs的基本概念Thisframeworkcanyieldspecific
training
algorithmsformanykindsofmodelandoptimizationalgorithm.Inthisarticle
frostmelody
·
2025-04-04 14:09
深度学习小知识点
PyTorch小知识点
机器学习小知识点
生成对抗网络
人工智能
神经网络
量化方法分类
6.量化方法分类大模型的量化方法主要分为两个大类:✅6.1训练后量化(Post-
Training
Quantization,PTQ)定义:PTQ是指在模型训练完成后,直接对其参数(权重和激活值)进行量化处理
大多_C
·
2025-04-02 09:17
分类
人工智能
数据挖掘
DRAM每日一问:DRAM的DVFS模式是什么意思
电压/频率的变化会带来一些
training
的参数值会有些变化,所以在
training
阶段需要对各个可能使用到的电压
DRAM视界
·
2025-04-01 22:29
DRAM每日一问
架构
系统架构
笔记
【论文阅读】SAM2LONG: ENHANCING SAM 2 FOR LONGVIDEO SEGMENTATION WITH A
TRAINING
-FREE MEMORY TREE
SAM2LONG:ENHANCINGSAM2FORLONGVIDEOSEGMENTATIONWITHA
TRAINING
-FREEMEMORYTREE原文摘要:背景与问题:SAM2是一种强大的基础模型,用于图像和视频中的对象分割
s1ckrain
·
2025-03-30 18:50
计算机视觉
论文阅读
计算机视觉
机器学习
LLM大模型提示工程Prompt Engineering
在LLM中影响词汇的分布主要通过两种方式,一种是通过提示(Prompting),另外一种就是通过训练(
Training
)。
Langchain
·
2025-03-24 16:08
prompt
langchain
私有化大模型
人工智能
产品经理
ai大模型
LLM
BUAA-SCSE
Training
day2
好多题目是uva上的然后当时看过刘汝佳的书再看看就好还有一些思路都很清晰代码也很少就没有什么可写的了A-OpenCreditSystemTimeLimit:3000MSMemoryLimit:0KB64bitIOFormat:%lld&%lluSubmitStatusPracticeUVA11078DescriptionProblemEOpenCreditSystemInput:StandardI
屎宝宝
·
2025-03-24 12:07
BUAA
Training
2013
BUAA-SCSE
Training
day2 指导……
题目的确选择的比昨天难多了....http://acm.hust.edu.cn/vjudge/contest/view.action?cid=25719#overviewAinti,x,y;cin>>T;while(T--){cin>>n;x=-1>y;ans=max(x-y,ans);x=max(y,x);}cout>n&&n){memset(s,0,sizeof(s));f=0;while(n
Sd_无心插柳
·
2025-03-24 12:32
一文说清楚什么是预训练(Pre-
Training
)、微调(Fine-Tuning),零基础小白建议收藏!!
前言预训练和微调是现代AI模型的核心技术,通过两者的结合,机器能够在处理复杂任务时表现得更为高效和精准。预训练为模型提供了广泛的语言能力,而微调则确保了模型能够根据特定任务进行细化和优化。近年来,人工智能(AI)在各个领域的突破性进展,尤其是在自然语言处理(NLP)方面,引起了广泛关注。两项重要的技术方法——预训练和微调,成为了AI模型发展的基石。预训练通常是指在大规模数据集上进行模型训练,以帮助
小城哇哇
·
2025-03-22 20:26
人工智能
语言模型
AI大模型
大模型微调
预训练
agi
LLM
深度学习与目标检测系列(三) 本文约(4万字) | 全面解读复现AlexNet | Pytorch |
数据集翻译精读主要内容:ImageNet简介:图像处理方法:3.TheArchitecture—网络结构3.1ReLUNonlinearity—非线性激活函数ReLU翻译精读传统方法及不足本文改进方法本文的改进结果3.2
Training
onMultipleG
小酒馆燃着灯
·
2025-03-22 10:03
深度学习
目标检测
pytorch
AlexNet
人工智能
A SURVEY ON POST-
TRAINING
OF LARGE LANGUAGE MODELS——大型语言模型的训练后优化综述——第9部分——应用
应用尽管预训练为大型语言模型(LLMs)赋予了强大的基础能力,但在部署于专业领域时,LLMs仍经常遇到持续的限制,包括上下文长度受限、容易产生幻觉(hallucination)、推理能力欠佳和固有的偏见。在现实世界的应用中,这些不足显得尤为重要,因为在这些场景中,精确性、可靠性和伦理一致性是至关重要的。这些问题引发了一些根本性的探讨:(1)如何系统地提高LLM的表现以满足特定领域的需求?(2)在实
王金-太想进步了
·
2025-03-19 19:31
语言模型
人工智能
自然语言处理
【源码阅读】olmocr中的prompts
目录一、PDF转换为训练数据二、使用微调模型三、比较差异总结一、PDF转换为训练数据让ChatGPT-4将文档(如PDF文件)转换为结构化的“银级”训练数据(silver
training
data)#Thisisthepromptweuseforgettingchatgpt4otoconvertdocumentsintooursilver
training
datadefbuild_openai_sil
海绵波波107
·
2025-03-17 17:46
#
大模型
pdf
关于stable diffusion的lora训练在linux远程工作站的部署
在学校Arc中部署lora
training
,一大问题就是依赖缺失和冲突。可以利用miniconda或者anaconda建立虚拟环境来解决。
回天一梦
·
2025-03-16 19:02
stable
diffusion
python
经验分享
模型的秘密武器:利用注意力改善长上下文推理能力
今天,我们就以《AttentionRevealsMoreThanTokens:
Training
-FreeLong-ContextReasoningwithAttention-guidedRetrieval
步子哥
·
2025-03-15 16:51
人工智能
自然语言处理
深度学习
语言模型
weka 决策树
synopsisor-infoOutputsynopsisforclassifier(useinconjunctionwith-h)-t(trainfile,训练文件,通常训练时只需要此文件即可,会进行10交叉验证)Sets
training
file
marui1982
·
2025-03-12 11:03
机器学习
git subtree 高频使用方法
高频使用方法官网添加新的子项目查看子项目的差异使用子项目克隆存储库引入超级项目更新改变分支引入子项目更新对子项目进行更改将更改推送到子项目存储库高效配置添加新的子项目subtreegitsubtreeadd--prefix=example-submodulehttps://github.com/github
training
NickDeCodes
·
2025-03-11 12:59
git
git
github
Training
-Free Transformer Architecture Search WithZero-Cost Proxy Guided Evolution(预览版本)
摘要Transformers已表现出卓越的性能,然而,其架构设计是一个耗时的过程,需要专业知识和反复试验。因此,研究通过Transformer架构搜索(TAS)自动搜索高性能Transformers的有效方法是值得的。为了提高搜索效率,基于无训练代理的方法已在神经架构搜索(NAS)中得到广泛采用。然而,这些代理被发现不足以很好地推广到Transformer搜索空间,这一点已被多项研究和我们自己的实
境心镜
·
2025-03-10 18:05
transformer
深度学习
人工智能
Training
-free Neural Architecture Searchthrough Variance of Knowledge of Deep Network Weights(预览版本)
代码位置摘要深度学习彻底改变了计算机视觉,但它使用深度网络架构取得了巨大的成功,而这些架构大多是手工制作的,因此可能不是最理想的。神经架构搜索(NAS)旨在通过遵循明确定义的优化范式来弥补这一差距,该范式系统地寻找最佳架构,给定客观标准,例如最大分类准确度。然而,NAS的主要限制是其天文数字般的计算成本,因为它通常需要从头开始训练每个候选网络架构。在本文中,我们旨在通过基于Fisher信息提出一种
境心镜
·
2025-03-10 08:54
免训练
深度学习
人工智能
NAS
AI芯片概述-分类、应用、技术(APU、CPU、DPU、GPU、NPU和TPU)及厂家
二、AI芯片分类1.
Training
(训练)2.Inference(推理)三、AI芯片应用领域四、AI芯片技术路线五、APU、CPU、DPU、GPU、NPU和TPU六、AI芯片厂家一、AI芯片是什么?
一码当前
·
2025-03-09 00:27
AI基础
人工智能
分类
数据挖掘
BurpSuit官方实验室之SQL注入
BurpSuit官方实验室之SQL注入这是BurpSuit官方的实验室靶场,以下将记录个人SQL注入共17个Lab的通关过程WebSecurityAcademy:FreeOnline
Training
fromPortSwiggerlab1
tpaer
·
2025-03-08 19:52
从入门到入狱
web安全
sql
web
后端
数据库
探索未来文本的无限可能:OLMo 开源语言模型深度解析
探索未来文本的无限可能:OLMo开源语言模型深度解析OLMoModeling,
training
,eval,andinferencecodeforOLMo项目地址:https://gitcode.com/
钟洁祺
·
2025-03-06 14:33
零基础也能看懂的ChatGPT等大模型入门解析!大模型入门到精通,看这篇就够了!
GPT对应的是三个关键概念:生成式(Generative)、预训练(Pre-
Training
)和Transfo
大模型微调实战
·
2025-03-05 12:27
chatgpt
百度
人工智能
大数据
wps
学习
大模型
探秘Mixup:数据增强的新利器
探秘Mixup:数据增强的新利器mixupImplementationofthemixup
training
method项目地址:https://gitcode.com/gh_mirrors/mi/mixup
荣正青
·
2025-03-05 10:42
强化学习与网络安全资源-论文和环境
TableofContentsRL-EnvironmentsPapersBooksBlogpostsTalksMiscellaneous↑EnvironmentsPentesting
Training
FrameworkforReinforcementLearningAgents
AI拉呱
·
2025-03-03 14:03
web安全
安全
大模型隐空间推理论文阅读笔记
文章目录
Training
LargeLanguageModelstoReasoninaContinuousLatentSpace一.简介1.1摘要1.2引言
Training
LargeLanguageModelstoReasoninaContinuousLatentSpace
猴猴猪猪
·
2025-03-03 03:57
AIGC
python
实验记录
人工智能
深度学习
Meta:基于数据关系的LLM高效预训练
标题:Data-EfficientPre
training
withGroup-LevelDataInfluenceModeling来源:arXiv,2502.14709摘要数据高效的预训练已显示出提高缩放定律的巨大潜力
大模型任我行
·
2025-03-01 12:37
大模型-模型训练
人工智能
自然语言处理
语言模型
论文笔记
扑克强化学习:DouZero/douzero/dmc/dmc.py (train)
deftrain(flags):"""Thisisthemainfuntionfor
training
.Itwillfirstinitilizeeverything,suchasbuffers,optimizers
强化学习曾小健
·
2025-02-28 03:54
python
人工智能
深度学习
TensorFlow 架构
https://www.tensorflow.org/guide/extend/architecture一WedesignedTensorFlowforlarge-scaledistributed
training
andinference
weixin_zdpau
·
2025-02-27 19:11
AI
tensorflow
人工智能
神经网络
TensorFlow基础架构
处理结构计算图纸Tensorflow首先要定义神经网络的结构,然后再把数据放入结构当中去运算和
training
.处理结构因为TensorFlow是采用数据流图(dataflowgraphs)来计算,所以首先我们得创建一个数据流流图
humbinal
·
2025-02-27 19:40
tensorflow
阅读笔记:ViLBERT: Pre
training
Task-Agnostic Visiolinguistic Representations for Vision-and-Language Task
阅读笔记:ViLBERT:Pre
training
Task-AgnosticVisiolinguisticRepresentationsforVision-and-LanguageTasksContribution
Araloak
·
2025-02-25 14:44
论文阅读笔记
深度学习
自然语言处理
文献阅读(part2)--Towards K-means-friendly spaces Simultaneous deep learning and clustering
AbstractIntroductionBackgroundandRelatedWorksProposedFormulationOptimizationProcedureInitializationviaLayer-wisePre-
Training
GUI Research Group
·
2025-02-23 02:33
机器学习
python
深度聚类
【深度学习】预训练和微调概述
预训练和微调概述1.预训练和微调的介绍1.1预训练(Pre
training
)1.2微调(Fine-Tuning)2.预训练和微调的区别预训练和微调是现代深度学习模型训练中的两个关键步骤,它们通常是一个预训练
CS_木成河
·
2025-02-21 22:35
深度学习
深度学习
人工智能
语言模型
预训练
微调
【学习笔记】李宏毅2021春机器学习课程第2.3节:Adaptive Learning Rate
文章目录
Training
stuck≠SmallGradientDifferentparametersneedsdifferentlearningrateRootmeansquareAdagradRMSPropAdamLearningRateScheduling
Training
stuck
Harryline-lx
·
2025-02-16 07:21
机器学习
机器学习
人工智能
深度学习
1.5 企业级AI大模型四阶技术全景解析:从Prompt到Pre-
training
的进化路径
企业级AI大模型四阶技术全景解析:从Prompt到Pre-
training
的进化路径一、技术演进金字塔:四阶技术如何构建AI新范式▲预训练│(万亿参数基建)├─大模型微调│(领域知识注入)├─AI智能体
少林码僧
·
2025-02-15 21:08
掌握先机!从
0
起步实战
AI
大模型微调
打造核心竞争力
人工智能
prompt
chatgpt
langchain
gpt
X-R1 项目代码文件的详细剖析并精读rewards、grpo、x_grpo_trainer(src/x_r1)
这个项目名为[X-R1](https://github.com/dhcode-cpp/X-R1),是一个基于强化学习的训练框架,旨在构建一个易于使用、低成本的训练框架,以加速ScalingPost-
Training
仙人掌_lz
·
2025-02-15 12:34
人工智能
人工智能
深度学习
学习
DeepSeek-V2 论文解读:混合专家架构的新突破
andEfficientMixture-of-ExpertsLanguageModel目录一、引言二、模型架构(一)多头部潜在注意力(MLA):重塑推理效率(二)DeepSeekMoE:经济高效的训练架构三、预训练(Pre-
Training
进一步有进一步的欢喜
·
2025-02-13 09:49
DeepSeek-V2
大模型
MoE
混合专家架构
深度学习模型格式解析:PyTorch、AWQ 和 GPTQ
PyTorch、AWQ(Activation-awareWeightQuantization)和GPTQ(GeneralizedPost-
Training
Quantization)是目前较为流行的三种模型格式
gs80140
·
2025-02-08 11:00
基础知识科谱
AI
深度学习
pytorch
人工智能
Android Room 使用
官网介绍:https://developer.android.google.cn/
training
/data-storage/roomRoom是在SQLite上提供了一个抽象层,以便在充分利用SQLite
francisHuang
·
2025-01-30 19:24
android学习
android
Room
数据库
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他