E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Tuning
rtx3060安装ubuntu21与tensorflow1.15环境
前段时间又在搞mt5的fine
tuning
,就想着搭个方便跑的环境。总而言之,很麻烦,坑很多,有点后悔买30系显卡了。昨晚8点半开搞,本想着12点前搞完,结果硬是搞到凌晨3点多,今天起来整个人都
sin_404
·
2022-07-23 18:16
备忘录
transformer
机器学习四种调参方法总结
介绍维基百科上说,“Hyperparameteroptimization或
tuning
是为学习算法选择一组最优的hyperparameters的问题”。
m0_61899108
·
2022-07-16 07:52
知识学习系列
机器学习
人工智能
利用pyspark 实现协同过滤算法
pysparkcondainstallpysparkfrompysparkimportSparkConffrompyspark.ml.evaluationimportRegressionEvaluatorfrompyspark.ml.recommendationimportALSfrompyspark.ml.
tuning
i
weixin_jumery
·
2022-07-14 07:10
推荐系统
机器学习笔记(一)绪论、模型评估与选择
归纳偏好第二章模型评估与选择0️⃣经验误差与过拟合1️⃣评估方法✏️留出法/hold-out✏️交叉验证法/crossvalidation✏️自助法/bootstrapping✏️调参/parameter
tuning
LabulaH
·
2022-07-14 07:41
机器学习
机器学习
MoCo v1原理解析
首先需要明确的是无监督模型的正确使用姿势,即先在较大的、难以很好标注的数据集上利用无监督训练得到一个pre-trained模型,再根据下游具体的任务,在较小的、可以很好标注的数据集上,进行有监督的fine-
tuning
PyBigStar
·
2022-07-12 07:06
#
论文阅读
深度学习
随笔
深度学习
人工智能
计算机视觉
NLP 前置知识3 —— 预训练模型
一.Pre-training&Fine-
tuning
机制1.定义Pre-training:在大规模数据集上学习尽可能好的通用表示Fine-
tuning
:利用学习好的通用表示初始化下游任务网络加速收敛减少任务相关监督数据的需求二
温酒ss
·
2022-07-09 07:14
自然语言处理
深度学习
机器学习
GPPT阅读笔记
GPPT:GraphPre-trainingandPrompt
Tuning
toGeneralizeGraphNeuralNetworksMotivationContributionPre-train:LinkPredictionDownstream
StarfishCu
·
2022-07-08 07:20
图学习
GNN
PROMPT
Transformer课程第39章:面向Knowledge-intensive任务的Transformer模型RAG的架构及完整源码实现
2,pretraineddenseretrieval数学原理分析3,sequence-to-sequencemodel数学原理分析4,jointlyfine-
tuning
数学原理分析5,parametricmemory
StarSpaceNLP667
·
2022-07-05 07:03
Transformer
NLP
StarSpace
语言模型
架构
自然语言处理
transformer
深度学习
面向个性化需求的在线云数据库混合调优系统 | SIGMOD 2022入选论文解读
近日,腾讯云数据库团队的最新研究成果入选SIGMOD2022ResearchFullPaper(研究类长文),入选论文题目为“HUNTER:AnOnlineCloudDatabaseHybrid
Tuning
SystemforPersonalizedRequirements
·
2022-07-04 09:19
数据库
ML&DL:《Hyperparameter
tuning
for machine learning models机器学习模型的超参数调优》翻译与解读
ML&DL:《Hyperparameter
tuning
formachinelearningmodels机器学习模型的超参数调优》翻译与解读目录《Hyperparameter
tuning
formachinelearningmodels
一个处女座的程序猿
·
2022-07-01 07:30
精选(人工智能+区块链)
ML
DL
机器学习
超参数调优
模型压缩-浅尝
《LST:LadderSide-
Tuning
forParameterandMemoryEfficientTransferLearning》——“过墙梯”https://spaces.ac.cn/archives
追光女孩儿
·
2022-06-27 23:47
论文记录
机器学习
人工智能
深度学习
CLIP-Adapter: Better Vision-Language Models with Feature Adapters
对比语言图像预训练(CLIP)虽然prompt-
tuning
用于textualinputs,但是建议CLIPAdapter在视觉或语言分支上使用功能适配器进行fine-tuneCLIPAdapter采用了一个额外的瓶颈层来学习新的特征
Tsukinousag1
·
2022-06-26 07:37
机器学习
深度学习
人工智能
python
计算机视觉
小样本如何更好的在BERT上fine-tune
小样本如何更好的在BERT上fine-tuneRevisitingFew-sampleBERTFine-
tuning
阅读笔记,论文地址:https://arxiv.org/abs/2006.059871
带着小板凳学习
·
2022-06-26 07:23
NLP
transformer-Autoencoding Language Models数学原理及模型架构解析
1,Auto-encodingLanguageModels通用数学原理详解2,为何要放弃采用Feature-Based语言模型ELMo而使用Fine-
tuning
模型?
普通网友
·
2022-06-25 07:05
transformer
语言模型
架构
oracle中慢sql优化思路
参考资料:官方文档SQL
Tuning
Guidehttps://docs.oracle.com/en/database/oracle/oracle-database/12.2/tgsql/sql-performance-fundamentals.html
独孤清扬玩DB
·
2022-06-21 13:25
Oracle数据库
oracle
慢sql优化思路
sql优化
2020李宏毅机器学习笔记-Transfer Learning
TargetDatalabelled&SourceDatalabelledModelFine-
tuning
ConservativeTrainingLayerTransferMultitaskLearningProgressiveNeuralNetworksTargetDataunlabelled
ZN_daydayup
·
2022-06-18 07:09
人工智能
深度学习
神经网络
吴恩达机器学习课程第七周笔记
吴恩达机器学习课程第七周笔记超参数调试、Batch正则化和程序框架(Hyperparameter
tuning
)调试处理(
Tuning
process)为超参数选择合适的范围(Usinganappropriatescaletopickhyperparameters
DreamHigh_GRT
·
2022-06-12 15:10
机器学习
吴恩达机器学习课程笔记
前置camera没有搭配闪光灯,如何关闭闪光灯图标
yes如果有请修改为:MTK_SUB_STROBE_SUPPORT=no1.2如果82/92平台,请把82:alps/mediatek/custom/mt6582/hal/inc/aaa/flash_
tuning
_c
bestwu0666
·
2022-06-05 11:08
mtk
camera
OpenSUSE Leap 15.3 系统分析与调整指南【翻译完成】
原文:openSUSELeap15.3SystemAnalysisand
Tuning
Guide协议:CCBY-NC-SA4.0阶段:机翻(1)新时代需要新道德。
·
2022-05-31 20:05
linux
深度学习-第一章 神经网络面试题(大厂必问,历经半年整理)
1.8对fine-
tuning
(微调模型)的理解?
cc13186851239
·
2022-05-25 07:24
计算机视觉
神经网络
算法
tensorflow
动手深度学习——计算机视觉
1.2常见图片增广方式1.2.1翻转1.2.2切割(裁剪)1.2.3改变颜⾊1.2.4综合使用1.3使⽤图像增⼴进⾏训练1.4小结二、微调2.1为啥要微调2.2微调(fine-
tuning
)步骤2.3总结
神洛华
·
2022-05-20 07:26
人工智能读书笔记
深度学习
计算机视觉
人工智能
5篇关于3D 卷积的最新论文推荐
1、3DConvolutionalNeuralNetworksforDendriteSegmentationUsingFine-
Tuning
andHyperparameterOptimizationhttps
·
2022-05-19 11:58
人工智能深度学习神经网络
spark(56) -- SparkMllib -- SparkMllib的功能和应用场景
、聚类、降维、协同过滤(2)Featurization特征化:特征抽取、特征转换、特征降维、特征选择(3)Pipelines管道:toolsforconstructing,evaluating,and
tuning
MLPipeline
erainm
·
2022-05-05 07:07
大数据学习
spark
机器学习
机器视觉基于卷积神经网络之VGG迁移学习(附源码可直接运行)
文章目录机器视觉基于卷积神经网络之VGG迁移学习迁移学习微调(fine-
tuning
)迁移学习步骤VGG准备训练集与测试集相关api修改模型分类层VGG-notop模型全局平均池化(GobalAveragePooling2D
高星熠
·
2022-04-29 07:18
机器学习
卷积神经网络
迁移学习
计算机视觉
深度学习
三、深度学习基础7(微调、初始化)
预训练与微调(fine
tuning
)深度网络存在问题:(1)网络越深,需要的训练样本数越多。若用监督则需大量标注样本,不然小规模样本容易造成过拟合。
满满myno
·
2022-04-28 07:07
深度学习
机器学习
深度学习
opencv
人工智能
[paper reading] Rethinking ImageNet Pre-training
Introduction使用ImageNetpre-training,再fine-
tuning
加速了收敛,尤其是在训
Direwolf_0
·
2022-04-25 07:14
paper
reading
学习笔记:深度学习(5)——词向量的相关概念
文章目录4.词向量的相关概念4.1概念定义4.1.1词向量4.1.2词嵌入WordEmbedding4.1.3预训练Pre-training(1)Frozon/Feature-based(2)Fine-
tuning
4.2
新四石路打卤面
·
2022-04-23 07:59
深度学习
深度学习
nlp
机器学习
自然语言处理
经验分享
利用Jmeter进行压力测试(基础版)
找到以下文字:ifnotdefinedHEAP(remSeetheunixstartupfilefortherationaleofthefollowingparameters,remincludingsome
tuning
recommendationssetHEAP
又又爱吃肉
·
2022-04-22 22:37
压力测试
压力测试
CVPR2021论文解读 | 通过方差调整增强对抗性攻击的可转移性
作者基于梯度迭代攻击方法加入variance
tuning
在输入变换以及多模型的设置下,面对9种防御方法可以达到90.1%的平均攻击成功率,将当下最好攻击效果提高了85.1%。
深兰深延AI
·
2022-04-19 07:58
CVPR2021
算法
人工智能
计算机视觉
Nginx 性能调优
原文地址:http://nginx.com/blog/
tuning
-nginx/
Tuning
NGINXforPerformanceNginx性能调优NGINXiswellknownasahighperformanceloadbalancer
agangdi
·
2022-04-13 15:46
优化
nginx
译文
linux
nginx
performance
优化
web服务器
linux
【学习笔记】小样本学习(Few-shot Learning)
v=UkQ2FVpDxHg文章目录基本概念孪生网络(SiameseNetwork)PretrainingandFine
Tuning
Few-shot常用数据集参考资料基本概念小样本学习(few-shotlearning
iioSnail
·
2022-04-12 08:24
机器学习
深度学习
人工智能
机器学习
2022 年 4 月 10篇 ML 研究论文推荐
1、TensorProgramsV:
Tuning
LargeNeuralNe
·
2022-04-09 12:31
OpenAI 研究员谈半监督学习:数据不足情况下的学习方法
对于只有有限标签数据的有监督任务,通常有四种候选方案:预训练+微调(Pre-Training+Fine-
Tuning
):在大规模无监督数据上训练一个
智源社区
·
2022-04-06 07:13
大数据
算法
python
计算机视觉
神经网络
CBNetV2论文的译读笔记
在本文中,作者提出了新型可伸缩的主干网络架构,称为CBNetV2,使用“已有的”开源预训练主干网络并使用pre-trainingfine-
tuning
范
songyuc
·
2022-04-05 07:56
深度学习
目标检测
CBNet
Prompt-based Language Models:模版增强语言模型小结
不,BERT的MLM模型也能小样本学习》,《P-
tuning
:自动构建模版,释放语言模型潜能》,到智源社区在3月20日举办的《智源悟道1.0AI研究成果发布会暨大规模预训练模型交流论坛
PaperWeekly
·
2022-04-02 07:38
自然语言处理
机器学习
人工智能
知识图谱
深度学习
论文解读(XR-Transformer)Fast Multi-Resolution Transformer Fine-
tuning
for Extreme Multi-label Text Classification
PaperInformationTitle:FastMulti-ResolutionTransformerFine-
tuning
forExtremeMulti-labelTextClassificationAuthors
Learner-
·
2022-04-01 22:00
训练CV模型新思路来了:用NLP大火的Prompt替代微调,性能全面提升
丰色发自凹非寺量子位|公众号QbitAIPrompt
tuning
,作为NLP领域中的一个“新宠”,甚至曾被学者誉为NLP预训练新范式。那么,它能否借鉴到CV领域并产生同样的成绩呢?
QbitAl
·
2022-03-28 10:04
人工智能
机器学习
深度学习
计算机视觉
算法
天池项目笔记-金融风控-贷款违约预测 Task4
Task04_建模与调参modelingand
tuning
尝试使用LightGBM、Xgboost和RandomForest三种树模型进行预测和集成1.划分数据集X_data=train_data[feature_columns
JADQ
·
2022-03-25 07:47
天池
数据比赛
机器学习
python
深度学习
python自然语言处理-bert实战_《从零开始学习自然语言处理(NLP)》-BERT推理加速实践(6)...
主要包括:环境搭建Pre-train模型获取结合自身业务Fine-
tuning
模型单精度(FP32)转半
weixin_39876002
·
2022-03-22 07:23
视觉Transformer开山之作:Vision Transformer(ViT)论文解读与复现
inductivebiases)2.3相关工作2.3.1简要介绍三.方法&复现3.1图片处理3.1.1复现(基于paddlepaddle框架)patchembeddingattentionlayerVIT前向部分3.2FINE-
TUNING
ANDHIGHERRESOLUTION
naca yu
·
2022-03-18 05:48
深度学习
论文
机器学习与统计学习
transformer
paddle
深度学习
人工智能
计算机视觉
jvm垃圾回收GC调优基础原理分析
目录核心概念(CoreConcepts)Latency(延迟)Throughput(吞吐量)Capacity(系统容量)相关示例
Tuning
forLatency(调优延迟指标)
Tuning
forThroughput
·
2022-03-15 16:24
读书笔记-增量学习-LwF_Learning without Forgetting
作者认为Fine
Tuning
/DuplicatingandFine
Tuning
/FeatureExtraction/JointTraining这几种基于修改参数的算法均存在性能或效率不高的问题。
谷粤狐
·
2022-03-15 07:24
读书笔记
深度学习
机器学习
人工智能
神经网络
计算机视觉
NLP论文解读:无需模板且高效的语言微调模型(下)
©原创作者|苏菲论文题目:Prompt-freeandEfficientLanguageModelFine-
Tuning
论文作者:RabeehKarimiMahabadi论文地址:https://openreview.net
NLP论文解读
·
2022-03-14 19:00
Raki的读paper小记:How to Fine-Tune BERT for Text Classification?
并提供了一个通用的解决方案最终通过实验发现:Bert的最顶层对于文本分类更加有效在适用层级别的学习率衰减的情况下,Bert可以很好的克服遗忘的问题Within-task和in-domain的预训练可以显著提高表现一个事先的多任务fine-
tuning
爱睡觉的Raki
·
2022-03-14 07:40
NLP
读paper
bert
人工智能
深度学习
自然语言处理
算法
Hugging Face Course-Introduction学习小记 (part2)
3.Fine-
tuning
apretrainedmodel在第2章中,我们探讨了如何使用分词器和预训练模型进行预测。但是,如果您想为自己的数据集微调预训练模型怎么办?这就是本章的主题!
爱睡觉的Raki
·
2022-03-14 07:39
NLP
深度学习
pytorch
自然语言处理
人工智能
transformer
11.1 迁移学习【李沐-斯坦福21秋季:实用机器学习中文版】
2.迁移学习的途径:3.相关的领域:4.迁移学习在计算机视觉领域:5.预训练(Pre-train):6.微调(Fine-
tuning
):7.限制搜索空间(不要训练太多epoch):8.寻找预训练模型:9
Jsper0420
·
2022-03-14 07:33
机器学习
迁移学习
人工智能
Knowledgeable Prompt-
tuning
: Incorporating Knowledge into Prompt Verbalizer for Text Classification
【摘要】用特定任务prompt,在基于预训练语言模型在上进行微调在文本分类任务上已经显示效果很好。特别,最近的研究发现在小样本场景上的效果尤为突出。Promptturning的核心是插入文本片段,也叫作template。将原来的分类问题转化为掩码语言模型问题。其中一个关键的步骤是在标签集合和标签词之间做一个映射,或者叫做verbalizer。一个verbalizer经常是手工设计或者基于梯度下降法
爱工作的小小酥
·
2022-03-12 07:44
深度学习
python
人工智能
NLP论文解读:无需模板且高效的语言微调模型(上)
©原创作者|苏菲论文题目:Prompt-freeandEfficientLanguageModelFine-
Tuning
论文作者:RabeehKarimiMahabadi论文地址:https://openreview.net
NLP论文解读
·
2022-03-11 20:00
深入Bert实战(Pytorch)----fine-
Tuning
2
深入Bert实战(Pytorch)----fine-
Tuning
2https://www.bilibili.com/video/BV1K5411t7MD?
元宇宙iwemeta
·
2022-03-07 07:21
云计算
NN
deep
learning
neural
network
深入Bert实战(Pytorch)----fine-
Tuning
1
深入Bert实战(Pytorch)----fine-
Tuning
1https://www.bilibili.com/video/BV1K5411t7MD?
名字填充中
·
2022-03-07 07:18
深入BERT实战Pytorch
nlp
上一页
26
27
28
29
30
31
32
33
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他