E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Scaling
深度学习篇---剪裁&缩放
在深度学习中,图像数据集的剪裁(Cropping)和缩放(
Scaling
/Resizing)是预处理阶段的核心操作,其核心目的是将原始图像转换为符合模型输入要求的统一尺寸,同时保留关键特征、去除冗余信息
Atticus-Orion
·
2025-07-26 20:29
图像处理篇
程序代码篇
深度学习篇
人工智能
图像处理
剪裁
缩放
一文吃透多模态:多模态大模型的探索 五大研究方向与十大应用领域!
在大模型兴起之后,产业也试图在图像、视频、音频等更多模态领域复现“
Scaling
Law”的成功,继续实现大模型的“智能涌现”。
黑客大白
·
2025-07-26 00:10
人工智能
大模型
Kubernetes自动扩缩容方案对比与实践指南
Kubernetes自动扩缩容方案对比与实践指南随着微服务架构和容器化的广泛采用,Kubernetes自动扩缩容(Auto
scaling
)成为保障生产环境性能稳定与资源高效利用的关键技术。
浅沫云归
·
2025-07-12 14:38
后端技术栈小结
kubernetes
autoscaling
devops
【机器学习笔记Ⅰ】9 特征缩放
特征缩放(Feature
Scaling
)详解特征缩放是机器学习数据预处理的关键步骤,旨在将不同特征的数值范围统一到相近的尺度,从而加速模型训练、提升性能并避免某些特征主导模型。1.为什么需要特征缩放?
巴伦是只猫
·
2025-07-12 05:30
机器学习
机器学习
笔记
人工智能
[FPGA Video IP] Video Processing Subsystem
详细介绍概述XilinxLogiCORE™IPVideoProcessingSubsystem(VPSS)(PG231)是一个高度可配置的视频处理模块,设计用于在单一IP核中集成多种视频处理功能,包括缩放(
Scaling
S&Z3463
·
2025-07-10 06:48
FPGA
Video
IP
fpga开发
tcp/ip
网络协议
Video
语言大模型综述
Paper:ASurveyofLargelanguageModels目录Paper:ASurveyofLargelanguageModels综述概要LLM关键技术规模定律(
Scaling
Laws)预训练与微调对齐调优
·
2025-07-08 07:37
PyTorch:Dropout 操作 torch.nn.Dropout()
torch.nn.Dropout(p=0.5,inplace=False)其作用是,在training模式下,基于伯努利分布抽样,以概率p对张量input的值随机置0;training模式中,对输出以1/(1-p)进行
scaling
sweettea~
·
2025-07-07 11:12
Python
pytorch
深度学习
YOLOv7 技术详解(Real-Time Dynamic Label Assignment + Model
Scaling
)
✅YOLOv7技术详解(Real-TimeDynamicLabelAssignment+Model
Scaling
)一、前言YOLOv7是AlexeyBochkovskiy团队后续维护者提出的一种高性能目标检测模型
要努力啊啊啊
·
2025-07-05 16:59
计算机视觉
YOLO
人工智能
深度学习
计算机视觉
目标跟踪
16.6 《3分钟扩容20实例!LanguageMentor容器化部署实战:高并发下的负载均衡与自动扩展方案》
LanguageMentorAgent容器化部署与发布:高并发场景下的负载均衡与自动扩展关键词:KubernetesHPA,AWSAuto
Scaling
,会话亲和性,监控指标,滚动更新1.高并发场景下的架构挑战
少林码僧
·
2025-07-01 03:22
负载均衡
运维
人工智能
语言模型
机器学习
langchain
llama
潜入思维的海洋:SoftCoT++如何让语言模型更聪明
2025年5月,一篇题为《SoftCoT++:Test-Time
Scaling
withSoftChain-of-ThoughtReasoning》的论文如同一盏明灯,照亮了如何让
步子哥
·
2025-06-28 13:40
智能涌现
语言模型
人工智能
自然语言处理
高并发系统设计
以下是设计高并发系统时需要考虑的关键方面:水平扩展(Horizontal
Scaling
):高并发系统通常需要水平扩展以应对大量的并发请求。
思静鱼
·
2025-06-25 18:01
#
Java架构设计
#
并发
java
什么是水平扩展
而“水平扩展”(Horizontal
Scaling
),又称为“横向扩展”或“扩容节点”,正是应对高并发、高访问量压力最常见的一种架构手段。
大数据张老师
·
2025-06-22 21:38
架构
微服务
数据库
缓存
别让GPU摸鱼!榨干它!
摘要:随着人工智能发展,
Scaling
Law越来越受认可。早期,人们依靠增加GPU数量提升模型性能。
九章云极DataCanvas
·
2025-06-20 10:13
技术干货
人工智能
gpu算力
机器学习中常用的数据预处理方法
2.特征缩放归一化(Min-Max
Scaling
)将数据缩放到[0,1]区间。优点:加速梯度下降,
C7211BA
·
2025-06-18 08:13
机器学习
人工智能
强化学习之父Richard Sutton:AGI研究的下一个范式
OpenAI下一代GPT近期被爆遇到瓶颈,这让“
Scaling
Law撞墙”的声音变得更响,尽管业内对此争论不休,但现实情况是,大模型确实不再像年前那样有突飞猛进的进展。
OneFlow深度学习框架
·
2025-06-17 08:39
业界观点
agi
强化学习
AGI
LLM
人工智能
语言模型
生成式AI
【无标题】在 4K 高分辨率(如 3840×2160)笔记本上运行 VMware 虚拟机时平面太小字体太小(ubuntu)
/bin/bashgsettingssetorg.gnome.desktop.interface
scaling
-factor2✅如果你使用的是GTK应用,还可以加上:exportGDK
linuxarmsummary
·
2025-06-16 05:04
4K屏幕显示
ubuntu
基于全球顶尖研究机构(智源研究院、斯坦福HAI、微软研究院、Gartner、DeepL等)2025年最新预测报告,结合产业落地矛盾与突破路径,系统分析未来十年AI技术颠覆性演进方向及社会变革
(智源研究院、斯坦福HAI、微软研究院、Gartner、DeepL等)2025年最新预测报告,结合产业落地矛盾与突破路径,系统分析未来十年AI技术颠覆性演进方向及社会变革影响:一、基础层重构:从“暴力
Scaling
AI编程员
·
2025-06-14 22:06
AI效率&我的思考文章汇总
人工智能
AI编程
系统架构
深度学习
学习
The Quantization Model of Neural
Scaling
文章目录摘要1引言2理论3概念验证:一个玩具数据集3.1“多任务稀疏奇偶校验”数据集3.2幂律规模和新兴能力4拆解大型语言模型的规模定律4.1单token损失的分布4.2单基因(monogenic)与多基因(polygenic)的规模曲线5.1语言模型量子的自然分布6相关工作7讨论摘要我们提出了神经网络规模定律的量化模型,该模型既解释了随着模型和数据规模增加损失按幂律下降的现象,也解释了随着规模扩
绒绒毛毛雨
·
2025-06-14 21:04
语言模型
人工智能
AWS EC2 虚拟服务器服务
核心功能EC2用途如何选择EC2确定工作负载需求选择合适的实例类型选择购买选项选择存储和网络选项地理区域选择考虑Auto
Scaling
和弹性AWSEC2是什么?
wumingxiaoyao
·
2025-05-25 19:50
Big
Data
aws
big
data
EC2
云计算
Reason-ModernColBERT论文速览:内存受限设置下深度对比学习批量大小的扩展
一、引言论文《
Scaling
DeepContrastiveLearningBatchSizeunderMemoryLimitedSetup》主要探讨了在内存受限环境下,如何通过梯度缓存技术扩大对比学习的批量大小
Open-source-AI
·
2025-05-25 12:04
前沿
学习
语言模型
人工智能
自然语言处理
大模型
开源
Llama:开源的急先锋
Llama1提出的
Scaling
Law业内普遍认为如果要达到同一个性能指标,训练更大大模型会更划算,因为训练的成本会降低,较大的模型会更快的收敛,但是llama不这么认为,llama认为虽然训练成本会降低
KangkangLoveNLP
·
2025-05-20 12:52
大模型
llama
神经网络
人工智能
机器学习
深度学习
算法
自然语言处理
Amazon EC2 Auto
Scaling
实战解析与行业最佳实践
AmazonEC2Auto
Scaling
以自动化能力成为企业上云的核心武器。本文将揭秘其原理、实战场景与优化技巧。一、传统架构的痛点:手动运维的“过山车式”成本与风险资源
AWS官方合作商
·
2025-05-12 23:44
云计算
aws
云服务器
2025 年 AI 十大展望:软件市场扩大 10 倍、系统比模型更重要、OpenAI 先发优势消退...
尽管有
Scaling
Law放缓这样的疑虑,但整体而言,多数业内人士对AI过去一年的诸多进展感到兴奋,对新的一年AI的发展更是充满期待,尽管他们对未来的预测可能不尽相同。
OneFlow深度学习框架
·
2025-05-07 10:23
人工智能
Switch Transformers:核心贡献与MoE的区别
SwitchTransformers:核心贡献与MoE的区别《SwitchTransformers:
Scaling
toTrillionParameterModelswithSimpleandEfficientSparsity
阿正的梦工坊
·
2025-05-03 18:31
LLM
DL
Papers
Deep
Learning
人工智能
机器学习
驾驭云端浪潮:深入理解高可扩展性及其在 Azure 中的实现
扩展策略的两大支柱:垂直与水平扩展垂直扩展(
Scaling
Up):提升单机性能水平扩展(
Scaling
Out):集群的力量负载均衡:扩展的幕后英雄高可扩展性的最佳实践:构建弹性系统架构设计的基石监控与动态调整
海棠AI实验室
·
2025-05-02 17:06
“智元启示录“
-
AI发展的深度思考与未来展望
azure
microsoft
AZ-900
云计算
科技
大模型训练从零到精通:详解如何训练大模型的完整指南
1.背景根据
scaling
law,模型越大,高质量数据越多,效果越好。但还有一个很直观的情况,随着预训练样本的质量不断提升,训练手段的优化。新的模型,往往效果能轻松反超参数量两倍于它的模型。
AGI大模型老王
·
2025-04-30 21:54
人工智能
学习
大模型
程序员
AI大模型
大模型训练
大模型教程
秒杀系统 Kafka 架构进阶优化
文章目录前言1.KafkaTopic分区(Partition)设计2.Kafka消费者高可用部署(Consumer
Scaling
)3.Kafka+Redis多级限流降级设计4.秒杀链路全链路追踪(Tracing
TE-茶叶蛋
·
2025-04-28 07:12
kafka
架构
【模型复现】零样本预测文本分类模型——ESM 快速复现模型
ESM快速复现教程01镜像详情镜像简介:这篇论文《Biologicalstructureandfunctionemergefrom
scaling
unsupervisedlearningto250millionproteinsequences
极链AI云
·
2025-04-27 22:51
模型部署
transformer
深度学习
人工智能
DeepSeek与清华联合发布重磅论文:从 SPCT 到 Meta Reward Model,或预示DeepSeek R2将近
2025年4月4日,中国人工智能企业深度求索(DeepSeek)与清华大学研究团队联合发布题为《奖励模型的推理时
Scaling
方法及其在大规模语言模型中的应用》的重磅论文,提出自我原则点评调优(SPCT
LinkTime_Cloud
·
2025-04-26 16:03
人工智能
《架构真经:互联网技术架构的设计原则(原书第2版)》一第1章 大道至简...
本节书摘来自华章出版社《架构真经:互联网技术架构的设计原则(原书第2版)》一书中的第1章,第1节,作者ScalabilityRules:Principlesfor
Scaling
WebSites,SecondEdition
weixin_33868027
·
2025-04-19 04:13
数据库
javascript
操作系统
ViewUI
TokenFormer: Rethinking Transformer
Scaling
with Tokenized Model Parameters
MuhammadFerjadNaeem,YongqinXian,JanEricLenssen,LiweiWang,FedericoTombari,BerntSchiele️关键词:Progressive
Scaling
不打灰的小刘
·
2025-04-19 04:40
daily
paper
transformer
深度学习
人工智能
语言模型
Tokenformer: 下一代Transformer架构
SOTA模型基本都是基于Transformer架构的,比如NLP中目前的各种知名大模型,或者CV中的Vit等模型本次介绍的论文标题为:Tokenformer:RethinkingTransformer
Scaling
withTokenizedModelParameters
码农Q!
·
2025-04-19 03:38
transformer
深度学习
人工智能
agi
ai
langchain
chatgpt
矩阵平衡(Matrix Balancing)
以下是关键算法实现及步骤详解:1.对角缩放法(Diagonal
Scaling
)核心思想:通过左乘和右乘对角矩阵(D)和(D^{-1})对矩阵(A)进行平衡,使得变换后矩阵(B=DAD^{-1})的行和列范数接近
东北豆子哥
·
2025-04-18 12:26
数值计算/数值优化
HPC/MPI
矩阵
线性代数
【大模型学习】第十七章 预训练技术综述
生活中的预训练启示2.2技术定义与核心价值三、预训练的技术解剖3.1核心架构:Transformer的统治架构优势分析:3.2预训练任务设计3.2.1语言模型预训练3.2.2视觉预训练创新3.3规模化定律(
Scaling
Law
好多渔鱼好多
·
2025-04-09 08:00
AI大模型
人工智能
AI
大模型
机器学习
DeepSeek底层揭秘——《推理时
Scaling
方法》技术对比浅析
笔者尝试对比了“关于推理时
Scaling
”与现有技术,粗浅分析如下:与LoRA的对比区别:应用场景:LoRA是一种参数高效微调方法,主要用于在训练阶段对模型进行微调,以适应特定的任务或数据集。
9命怪猫
·
2025-04-09 08:58
AI
人工智能
机器学习
深度学习
大模型
ai
如何从零开始训练大模型?
1背景根据
scaling
law,模型越大,高质量数据越多,效果越好。但还有一个很直观的情况,随着预训练样本的质量不断提升,训练手段的优化。新的模型,往往效果能轻松反超参数量两倍于它的模型。
知世不是芝士
·
2025-04-09 06:48
人工智能
大语言模型
ai大模型
大模型训练
LLM
计算机技术
国产ai大模型
【创新项目实训个人博客】camel学习笔记(1)camel介绍
camel开源框架,以下是对camel的笔记camel网址:camel-ai/camel:CAMEL:Thefirstandthebestmulti-agentframework.Findingthe
Scaling
LawofAgents.https
sduwcgg
·
2025-04-03 15:14
创新实训个人博客
创新实训
项目实训
山东大学软件学院
EfficientNet 概念与数学原理深度解析
EfficientNet概念与数学原理深度解析1.核心概念1.1复合缩放(Compound
Scaling
)核心思想:同时调整网络的深度、宽度和分辨率数学表达:depth:d=αϕwidth:w=βϕresolution
六月五日
·
2025-04-02 12:38
Pytorch指南
算法
聚类
人工智能
深度学习
python
神经网络
机器学习
AI大模型的规模化定律(
Scaling
Law)的本质:在对数据做更好的无损压缩
AI大模型的规模化定律(
Scaling
Law)的本质:在对数据做更好的无损压缩AI大模型,规模化定律,数据压缩,无损压缩,模型性能,计算资源,训练效率1.背景介绍近年来,深度学习模型的规模不断扩大,从最初的几百万参数到如今的数十亿甚至千亿参数
AGI大模型与大数据研究院
·
2025-04-01 10:30
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
Kubernetes 资源管理实战:合理配置 CPU 与内存请求和限制
补充知识点:监控与自动扩缩容监控工具自动扩缩容(Auto
scaling
)总结Kubernetes资源管理实战:合理配置CPU与内存请求和
XMYX-0
·
2025-03-24 08:04
K8S
kubernetes
容器
复旦:LLM不同层位置编码缩放
标题:Layer-Specific
Scaling
ofPositionalEncodingsforSuperiorLong-ContextModeling来源:arXiv,2503.04355摘要尽管大型语言模型
大模型任我行
·
2025-03-19 16:12
大模型-结构原理
人工智能
自然语言处理
语言模型
论文笔记
新手村:数据预处理-特征缩放
新手村:数据预处理-特征缩放特征缩放(Feature
Scaling
)是数据预处理中的一个重要步骤,特别是在应用某些机器学习算法时。
嘉羽很烦
·
2025-03-17 05:20
机器学习
线性回归
算法
机器学习
MATLAB算法实战应用案例精讲-【深度学习】归一化
常用feature
scaling
方法计算方式上对比分析feature
scaling
需要还是不需要什么时候需要feature
scaling
?什么时候不需要Feature
Scaling
?
林聪木
·
2025-03-16 06:59
matlab
算法
深度学习
扩散 Transformer 策略:用于通才视觉-语言-动作学习的规模化扩散 Transformer
25年2月来自上海AI实验室、浙大、香港中文大学、北大、商汤科技、清华和中科院香港科学创新研究院的论文“DiffusionTransformerPolicy:
Scaling
DiffusionTransformerforGeneralistVision-Language-ActionLearning
三谷秋水
·
2025-03-12 10:27
计算机视觉
大模型
智能体
transformer
深度学习
计算机视觉
语言模型
人工智能
机器学习
特征缩放:统一量纲,提高模型性能
特征缩放(Feature
Scaling
)就是一种用于解决这个问题的常用数据预处理
AI天才研究院
·
2025-03-08 03:04
DeepSeek
R1
&
大数据AI人工智能大模型
AI大模型企业级应用开发实战
计算
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
【人工智能】大模型的
Scaling
Laws(缩放定律),通过增加模型规模(如参数数量)、训练数据量和计算资源来提升模型性能。
缩放定律(
Scaling
Laws)是人工智能领域中关于大模型性能提升的重要理论,其核心思想是通过增加模型规模(如参数数量)、训练数据量和计算资源来提升模型性能。
本本本添哥
·
2025-03-07 12:27
013
-
AIGC
人工智能
大模型
人工智能
深度学习
机器学习
如何从零开始训练大模型?(附AGI大模型路线图)
1背景根据
scaling
law,模型越大,高质量数据越多,效果越好。但还有一个很直观的情况,随着预训练样本的质量不断提升,训练手段的优化。新的模型,往往效果能轻松反超参数量两倍于它的模型。
脱泥不tony
·
2025-03-06 21:13
agi
人工智能
产品经理
语言模型
大数据
学习
AI大模型
大语言模型技术发展
未来,
Scaling
Law的极限尚未触及,开源模型将扮演重要角色,数据供给成为关键挑战,新的模型架构将涌现,AIAgent和具身智能将成为推动通
联蔚盘云
·
2025-03-06 00:43
经验分享
云计算中的“按需扩展”和“自动扩展”有何不同?
在云计算中,“按需扩展”(On-Demand
Scaling
)和“自动扩展”(Auto
Scaling
)都是提升系统灵活性的重要机制,但它们在触发方式、控制方式和应用场景上有所不同。
云上的阿七
·
2025-03-05 13:04
云计算
Scaling
Laws(缩放法则)详解
Scaling
Laws(缩放法则)详解1.定义与核心概念
Scaling
Laws(缩放法则)描述的是模型性能(如准确率、任务表现)与计算资源(模型参数量、训练数据量、训练时间)之间的数学关系。
天一生水water
·
2025-03-05 05:00
人工智能
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他