- MotionLCM 部署优化 踩坑解决bug
AI算法网奇
aigc与数字人深度学习宝典文生motion
目录依赖项windowstorchok:渲染黑白图问题解决:humanml3d:sentence-t5-large下载数据:报错:Nomodulenamed'sentence_transformers'继续报错:fromtransformers.integrationsimportCodeCarbonCallback解决方法:推理相关转mesh:module‘matplotlib.cm‘hasno
- 基于深度学习的目标检测算法综述:从RCNN到YOLOv13,一文看懂十年演进!
人工智能教程
深度学习目标检测算法人工智能自动驾驶YOLO机器学习
一、引言:目标检测的十年巨变2012年AlexNet拉开深度学习序幕,2014年RCNN横空出世,目标检测从此进入“深度时代”。十年间,算法从两阶段到单阶段,从Anchor-base到Anchor-free,从CNN到Transformer,从2D到3D,从监督学习到自监督学习,迭代速度之快令人目不暇接。本文将系统梳理基于深度学习的目标检测算法,带你全面了解技术演进、核心思想、代表算法、工业落地与
- 视觉Transformer还有哪些点可以研究?怎么应用?
计算机视觉工坊
3D视觉从入门到精通学习算法开源
0.这篇文章干了啥?今天笔者为大家推荐一篇最新的综述,详细总结了Transformer的网络架构、优化策略、发展方向,还会定期更新Github,研究注意力机制的小伙伴一定不要错过。注意机制有助于人类视觉系统有效地分析和理解复杂场景,它能够聚焦于图像的关键区域,同时忽略无关紧要的部分。受此概念启发,注意机制已经被引入到计算机视觉(CV)中,以动态地为图像中的不同区域分配权重。这使得神经网络能够专注于
- 【AI大模型:前沿】43、Mamba架构深度解析:为什么它是Transformer最强挑战者?
无心水
架构transformerMambaMamba架构AI大模型系统开发实战AI大模型高手开发AI大模型系统实战
Transformer架构自2017年诞生以来,一直是NLP、计算机视觉等领域的“统治级”模型架构。但随着序列长度需求的增长(如128K长文本处理、基因组学超长序列分析),其自注意力机制的O(n2)O(n^2)O(n2)计算复杂度成为难以逾越的瓶颈。2023年底,由AlbertGu和TriDao等人提出的Mamba架构,通过创新的“选择性状态空间模型(SelectiveSSM)”实现了线性复杂度(
- Llama 2 模型架构深度解析:Transformer的进化
SuperAGI架构师的AI实验室
AI大模型应用开发宝典llama架构transformerai
Llama2模型架构深度解析:Transformer的进化关键词:Llama2、Transformer、模型架构、进化、人工智能摘要:本文将深入剖析Llama2的模型架构,探讨它作为Transformer进化版本的独特之处。从背景知识的介绍,到核心概念的解释,再到算法原理、实战案例以及实际应用场景等方面,为读者全面展现Llama2的魅力和价值。通过通俗易懂的语言,让即使是对技术不太熟悉的读者也能理
- 【Python】Python+sentence-transformers框架实现相似文本识别
宅男很神经
python开发语言
第一章:文本相似度与语义表示概述在深入sentence-transformers框架之前,我们首先需要对文本相似度计算及其背后的核心概念——语义表示,有一个清晰且全面的理解。这构成了后续所有讨论的基础。1.1什么是文本相似度?1.1.1定义与重要性文本相似度(TextSimilarity)是指衡量两段文本(可以是词、短语、句子、段落或整个文档)在意义或内容上相近程度的指标。这种相近可以是字面上的(
- 揭秘Transformer架构:残差流与隐藏层的关系
ZhangJiQun&MXP
教学2024大模型以及算力2021AIpythontransformer深度学习人工智能linux算法
在Transformer架构的LLM中,“残差流”(residualstream)和“隐藏层”(hiddenlayers)是密切相关但不同的概念,前者是层间流动的核心数据,后者是处理这些数据的结构单元。1.残差流(ResidualStream):层间传递的“信息流”残差流指的是在Transformer层之间传递的核心张量,它是模型中“流动”的数据载体。其本质是通过“残差连接”(residualco
- 【代码问题】【模型部署】部署千问时,ImportError: Cannot import available module of Qwen2_5_VLForConditionalGeneration
Catching Star
pythonpytorch开发语言
多半是环境的问题,最主要的是python版本要高python==3.12.9accelerate==1.8.1pipinstallqwen-vl-utils[decord]==0.0.8peft==0.14.0transformers==4.52.3torch==2.7.0torchvision==0.22.0modelscope==1.27.1
- 人工智能自然语言处理:Transformer 模型详解
大力出奇迹985
人工智能自然语言处理transformer
一、Transformer模型的诞生背景在自然语言处理的漫长征程中,早期的传统模型,如循环神经网络(RNN)及其变体长短时记忆网络(LSTM),曾占据主导地位。RNN试图通过依次处理序列中的每个元素,来捕捉上下文信息。但它存在一个致命弱点,在处理长序列时,会面临梯度消失或梯度爆炸的问题,就像一个长途跋涉的旅人,随着路程的增加,逐渐忘记了出发时的目标和重要信息。LSTM虽然在一定程度上缓解了这个问题
- LightGBM+Transformer-LSTM多变量回归交通流量预测,附模型研究报告(Matlab)
matlab科研助手
transformerlstm回归
✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。往期回顾关注个人主页:Matlab科研工作室个人信条:格物致知,完整Matlab代码及仿真咨询内容私信。内容介绍交通流量预测作为智能交通系统(ITS)的核心组成部分,对城市规划、交通管理、交通诱导和出行决策具有至关重要的意义。准确、可靠的流量预测能够有效缓解交通拥堵,提高道路利用率,降
- AAAI 2024 | TMFormer:用于缺失模态脑肿瘤分割的令牌合并Transformer
小白学视觉
医学图像处理论文解读transformer深度学习人工智能AAAI论文解读计算机顶会
论文信息题目:TMFormer:TokenMergingTransformerforBrainTumorSegmentationwithMissingModalitiesTMFormer:用于缺失模态脑肿瘤分割的令牌合并Transformer作者:ZheyuZhang,GangYang,YueyiZhang,HuanjingYue,AipingLiu,YunweiOu,JianGong,Xiaoy
- 【AIGC调研系列】敢于挑战Transformer的新架构Megalodon有什么优势
Zachary AI
AIGC调研相关AIGCtransformer架构
Megalodon作为一种新架构,其优势主要体现在以下几个方面:无限上下文处理能力:Megalodon能够处理无限上下文,这一点在多个证据中得到了强调[1][2][3]。这意味着它能够在处理长文本时保持高效和准确,而不会因为上下文长度的限制而降低性能。高性能:在2万亿token的训练任务中,Megalodon的性能超越了Llama2-7B,实现了非凡的效率[1][2][3]。这表明Megalodo
- 大模型系列——长度外推
confiself
深度学习
1.长度外推存在的问题1.长度外推存在不能识别的2.长度外推存在熵变问题3.长度内插入存在缩小距离分布2.直接使用外推技巧1.窗口局部关注+最终输出全局注意2.熵变+✖系数3.keynorm,增加模型识别距离能力4.增加bias,类似于SandwichTransformer升级之路:16、“复盘”长度外推技术
- RoPE:相对位置编码的旋转革命——原理、演进与大模型应用全景
大千AI助手
人工智能Python#OTHER人工智能深度学习大模型算法RoPE位置编码相对位置
“以复数旋转解锁位置关系的本质表达,让Transformer突破长度藩篱”旋转位置编码(RotaryPositionEmbedding,RoPE)是由JianlinSu等研究者于2021年提出的突破性位置编码方法,通过复数空间中的旋转操作将相对位置信息融入Transformer的自注意力机制,解决了传统位置编码在长序列建模中的外推瓶颈。该方法是当前主流大模型(如LLaMA、GPT-NeoX)的核心
- 浅谈生成式AI语言模型的现状与展望
摘要生成式人工智能语言模型作为当前人工智能领域最具突破性的技术之一,正在深刻改变着自然语言处理的技术范式和应用格局。本文从学术文献综述的角度,系统梳理了从Transformer架构到大语言模型的技术演进历程,深入分析了当前生成式AI语言模型的核心技术特征、应用现状以及面临的主要挑战,并展望了未来发展趋势。研究表明,生成式AI语言模型在参数规模扩展、多模态融合、推理能力提升等方面取得了显著进展,但仍
- Transformer:颠覆NLP的自注意力革命
ZhangJiQun&MXP
教学2024大模型以及算力2021AIpythontransformer自然语言处理深度学习
Transformer:颠覆NLP的自注意力革命Transformer是自然语言处理领域中极具影响力的深度学习模型架构,以下是对其的详细介绍:提出背景与应用:2017年,Vaswani等人在《AttentionIsAllYouNeed》论文中首次提出Transformer架构,它主要用于处理序列到序列的任务,如机器翻译、文本生成等。核心原理:文本生成的Transformer模型原理是“预测下一个词
- Pytorch实现细节解析:Transformer模型的Encoder与Decoder逐行代码讲解
lazycatlove
pytorchtransformer人工智能
文章目录摘要一、Transformer1.1为什么要使用attention1.2Transformer的优点二、Transformer模型Encoder和Decoder原理讲解与其Pytorch逐行实现2.1wordembedding2.2单词索引构成源句子和目标句子2.3构建positionembedding2.4构造encoder的self-attentionmask2.5构造intra-at
- Swin Transformer原理与代码精讲
bai666ai
深度学习之计算机视觉transformerswinCV深度学习图像分类
课程链接:SwinTransformer原理与代码精讲--计算机视觉视频教程-人工智能-CSDN程序员研修院Transformer在许多NLP(自然语言处理)任务中取得了最先进的成果。SwinTransformer是在ViT基础上发展而来,是Transformer应用于CV(计算机视觉)领域又一里程碑式的工作。它可以作为通用的骨干网络,用于图片分类的CV任务,以及下游的CV任务,如目标检测、实例分
- Transformer Masked loss原理精讲及其PyTorch逐行实现
MaskedLoss的核心原理是:在计算损失函数时,只考虑真实有意义的词元(token),而忽略掉为了数据对齐而填充的无意义的填充词元(paddingtoken)。这是重要的技术,可以确保模型专注于学习有意义的任务,并得到一个正确的性能评估。1.原理精讲为什么需要MaskedLoss?在训练神经网络时,我们通常会用一个批次(batch)的数据进行训练,而不是一次只用一个样本。对于自然语言处理任务,
- 深入探讨 Transformer 模型架构
年纪轻轻头已凉
transformer深度学习人工智能
```html深入探讨Transformer模型架构深入探讨Transformer模型架构Transformer是一种革命性的神经网络架构,由Vaswani等人在2017年提出,并在自然语言处理(NLP)领域取得了显著的成功。与传统的循环神经网络(RNN)和卷积神经网络(CNN)不同,Transformer完全依赖于自注意力机制(Self-AttentionMechanism),这使得它在处理长序
- LLM面试题详解:拿到大厂Offer
ZhangJiQun&MXP
教学2024大模型以及算力2021AIpythontransformer深度学习人工智能
LLM面试题核心架构与基本概念Token化包含哪些内容,为什么它对LLM至关重要?Token化是将文本分解为更小单元(如单词、词的一部分或字符)的过程。它对LLM至关重要,因为LLM处理的是token的数值版本,通过Token化,模型可以处理多种语言、稀有词汇,保持词汇表大小可管理,提高计算速度和模型有效性。注意力机制在Transformer模型中如何运作?注意力机制通过计算查询(query)、键
- Transformer模型Decoder原理精讲及其PyTorch逐行实现
老鱼说AI
transformerpytorch深度学习人工智能学习python
原理:Decoder的核心是一个自回归(Auto-regressive)的生成器。它的任务是在给定源序列的编码表示(encoder_outputs)和已生成的目标序列部分(y_1,...,y_{t-1})的条件下,预测出下一个词y_t的概率分布。一个标准的DecoderLayer包含三个核心子层:1.带掩码的多头自注意力(MaskedMulti-HeadSelf-Attention):用于处理已生
- 大模型训练全攻略:从数据到部署,小白也能看懂的技术手册
最近总有人问:“我也想训练一个自己的大模型,该从哪儿下手?”其实大模型训练就像盖房子——得先备料(数据)、搭骨架(架构)、按图纸施工(训练),最后还要验收(评估)和维护(监控)。今天就用“工程思维”拆解全流程,从基础概念到平台工具,从参数配置到避坑指南,一文讲透。先了解一下基础的概念一、LLM的基本原理LLM的底层逻辑依赖于一个叫Transformer的神经网络架构(2017年由Google提出)
- Transformer危!谷歌MoR架构发布:内存减半推理速度还翻倍
2501_92765346
transformer架构深度学习
超越Transformer,谷歌推出全新底层架构——Mixture-of-Recursions(MoR),注意不是MoE,它能推理速度提高2倍,而KV内存直接减半!而且AllinOne,首次在单一框架中实现,用同一组参数处理不同任务的同时,进行动态分配计算资源。就像给LLM开了个双层增强buff,模型性能和效率全都要。谷歌DeepMind联合KAISTAI、Mila人团队通过统一参数共享、自适应递
- stable diffusion No module named taming
图片gan模型部署报错。pipinstalltaming-transformersImportError:cannotimportname'VectorQuantizer2'from'taming.modules.vqvae.quantize',用https://github.com/CompVis/taming-transformers/blob/master/taming/modules/vq
- ModuleNotFoundError: No module named ‘taming‘
lh_lyh
taminglightning
参考:https://stackoverflow.com/questions/69983020/modulenotfounderror-no-module-named-taming【问题】缺少taming模块,错误提示:ModuleNotFoundError:Nomodulenamed‘taming’【解决】pipinstalltaming-transformers若发现安装时因为pytorch_
- 解决HPC环境下Python的持续性ModuleNotFoundError-No module named ‘taming‘
yang_li_wen
python开发语言
一、问题描述我们的目标是在一个HPC集群的计算节点上,通过提交作业脚本来执行一个依赖于taming-transformers库的Python程序。该程序的运行环境由Conda进行管理,且环境与项目代码均部署在所有节点均可访问的共享文件系统(/project和/scratch)上。尽管我们确认依赖包已在环境中安装,但在计算节点上执行脚本时,程序在尝试导入taming模块时(fromtaming.mo
- 使用 LLaMA 3 8B 微调一个 Reward Model:从入门到实践
茫茫人海一粒沙
Lorallama
本文将介绍如何基于Meta的LLaMA38B模型构建并微调一个RewardModel,它是构建RLHF(基于人类反馈的强化学习)系统中的关键一环。我们将使用HuggingFace的transformers、trl和peft等库,通过参数高效微调(LoRA)实现高质量RewardModel的训练。什么是RewardModel?RewardModel(RM)是RLHF流程中的评分器,它学习人类偏好:在
- Python常用医疗AI库以及案例解析(场景化进阶版)
Allen_Lyb
pythonpython人工智能开发语言健康医疗
框架应用拓扑图用例MONAISimpleITKBiopythonscanpyPyTorchscikit-learnLLaVA-MedTransformersFHIRFastAPIFlowerPySyft医学图像处理生物信息学模型训练多模态分析数据交换隐私保护部署应用医学图像处理
- Python----大模型( RAG的向量化(embedding))
蹦蹦跳跳真可爱589
Python大模型pythonembedding开发语言人工智能
一、向量化向量化是将非结构化数据(如文本、图像等)转化为数字表示的一种过程。在RAG中,通常会使用预训练的Transformer模型(如BERT、RoBERTa等)将文本表示为高维的向量。这些向量能够捕捉到数据的语义信息,从而在向量空间中表示相似性。两段相似的文本在向量空间中将非常接近。快速检索:向量化将文本转换为向量后,可以通过向量相似度算法(如余弦相似度)快速检索与查询相关的信息。语义理解:通
- 深入浅出Java Annotation(元注解和自定义注解)
Josh_Persistence
Java Annotation元注解自定义注解
一、基本概述
Annontation是Java5开始引入的新特征。中文名称一般叫注解。它提供了一种安全的类似注释的机制,用来将任何的信息或元数据(metadata)与程序元素(类、方法、成员变量等)进行关联。
更通俗的意思是为程序的元素(类、方法、成员变量)加上更直观更明了的说明,这些说明信息是与程序的业务逻辑无关,并且是供指定的工具或
- mysql优化特定类型的查询
annan211
java工作mysql
本节所介绍的查询优化的技巧都是和特定版本相关的,所以对于未来mysql的版本未必适用。
1 优化count查询
对于count这个函数的网上的大部分资料都是错误的或者是理解的都是一知半解的。在做优化之前我们先来看看
真正的count()函数的作用到底是什么。
count()是一个特殊的函数,有两种非常不同的作用,他可以统计某个列值的数量,也可以统计行数。
在统
- MAC下安装多版本JDK和切换几种方式
棋子chessman
jdk
环境:
MAC AIR,OS X 10.10,64位
历史:
过去 Mac 上的 Java 都是由 Apple 自己提供,只支持到 Java 6,并且OS X 10.7 开始系统并不自带(而是可选安装)(原自带的是1.6)。
后来 Apple 加入 OpenJDK 继续支持 Java 6,而 Java 7 将由 Oracle 负责提供。
在终端中输入jav
- javaScript (1)
Array_06
JavaScriptjava浏览器
JavaScript
1、运算符
运算符就是完成操作的一系列符号,它有七类: 赋值运算符(=,+=,-=,*=,/=,%=,<<=,>>=,|=,&=)、算术运算符(+,-,*,/,++,--,%)、比较运算符(>,<,<=,>=,==,===,!=,!==)、逻辑运算符(||,&&,!)、条件运算(?:)、位
- 国内顶级代码分享网站
袁潇含
javajdkoracle.netPHP
现在国内很多开源网站感觉都是为了利益而做的
当然利益是肯定的,否则谁也不会免费的去做网站
&
- Elasticsearch、MongoDB和Hadoop比较
随意而生
mongodbhadoop搜索引擎
IT界在过去几年中出现了一个有趣的现象。很多新的技术出现并立即拥抱了“大数据”。稍微老一点的技术也会将大数据添进自己的特性,避免落大部队太远,我们看到了不同技术之间的边际的模糊化。假如你有诸如Elasticsearch或者Solr这样的搜索引擎,它们存储着JSON文档,MongoDB存着JSON文档,或者一堆JSON文档存放在一个Hadoop集群的HDFS中。你可以使用这三种配
- mac os 系统科研软件总结
张亚雄
mac os
1.1 Microsoft Office for Mac 2011
大客户版,自行搜索。
1.2 Latex (MacTex):
系统环境:https://tug.org/mactex/
&nb
- Maven实战(四)生命周期
AdyZhang
maven
1. 三套生命周期 Maven拥有三套相互独立的生命周期,它们分别为clean,default和site。 每个生命周期包含一些阶段,这些阶段是有顺序的,并且后面的阶段依赖于前面的阶段,用户和Maven最直接的交互方式就是调用这些生命周期阶段。 以clean生命周期为例,它包含的阶段有pre-clean, clean 和 post
- Linux下Jenkins迁移
aijuans
Jenkins
1. 将Jenkins程序目录copy过去 源程序在/export/data/tomcatRoot/ofctest-jenkins.jd.com下面 tar -cvzf jenkins.tar.gz ofctest-jenkins.jd.com &
- request.getInputStream()只能获取一次的问题
ayaoxinchao
requestInputstream
问题:在使用HTTP协议实现应用间接口通信时,服务端读取客户端请求过来的数据,会用到request.getInputStream(),第一次读取的时候可以读取到数据,但是接下来的读取操作都读取不到数据
原因: 1. 一个InputStream对象在被读取完成后,将无法被再次读取,始终返回-1; 2. InputStream并没有实现reset方法(可以重
- 数据库SQL优化大总结之 百万级数据库优化方案
BigBird2012
SQL优化
网上关于SQL优化的教程很多,但是比较杂乱。近日有空整理了一下,写出来跟大家分享一下,其中有错误和不足的地方,还请大家纠正补充。
这篇文章我花费了大量的时间查找资料、修改、排版,希望大家阅读之后,感觉好的话推荐给更多的人,让更多的人看到、纠正以及补充。
1.对查询进行优化,要尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。
2.应尽量避免在 where
- jsonObject的使用
bijian1013
javajson
在项目中难免会用java处理json格式的数据,因此封装了一个JSONUtil工具类。
JSONUtil.java
package com.bijian.json.study;
import java.util.ArrayList;
import java.util.Date;
import java.util.HashMap;
- [Zookeeper学习笔记之六]Zookeeper源代码分析之Zookeeper.WatchRegistration
bit1129
zookeeper
Zookeeper类是Zookeeper提供给用户访问Zookeeper service的主要API,它包含了如下几个内部类
首先分析它的内部类,从WatchRegistration开始,为指定的znode path注册一个Watcher,
/**
* Register a watcher for a particular p
- 【Scala十三】Scala核心七:部分应用函数
bit1129
scala
何为部分应用函数?
Partially applied function: A function that’s used in an expression and that misses some of its arguments.For instance, if function f has type Int => Int => Int, then f and f(1) are p
- Tomcat Error listenerStart 终极大法
ronin47
tomcat
Tomcat报的错太含糊了,什么错都没报出来,只提示了Error listenerStart。为了调试,我们要获得更详细的日志。可以在WEB-INF/classes目录下新建一个文件叫logging.properties,内容如下
Java代码
handlers = org.apache.juli.FileHandler, java.util.logging.ConsoleHa
- 不用加减符号实现加减法
BrokenDreams
实现
今天有群友发了一个问题,要求不用加减符号(包括负号)来实现加减法。
分析一下,先看最简单的情况,假设1+1,按二进制算的话结果是10,可以看到从右往左的第一位变为0,第二位由于进位变为1。
 
- 读《研磨设计模式》-代码笔记-状态模式-State
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
/*
当一个对象的内在状态改变时允许改变其行为,这个对象看起来像是改变了其类
状态模式主要解决的是当控制一个对象状态的条件表达式过于复杂时的情况
把状态的判断逻辑转移到表示不同状态的一系列类中,可以把复杂的判断逻辑简化
如果在
- CUDA程序block和thread超出硬件允许值时的异常
cherishLC
CUDA
调用CUDA的核函数时指定block 和 thread大小,该大小可以是dim3类型的(三维数组),只用一维时可以是usigned int型的。
以下程序验证了当block或thread大小超出硬件允许值时会产生异常!!!GPU根本不会执行运算!!!
所以验证结果的正确性很重要!!!
在VS中创建CUDA项目会有一个模板,里面有更详细的状态验证。
以下程序在K5000GPU上跑的。
- 诡异的超长时间GC问题定位
chenchao051
jvmcmsGChbaseswap
HBase的GC策略采用PawNew+CMS, 这是大众化的配置,ParNew经常会出现停顿时间特别长的情况,有时候甚至长到令人发指的地步,例如请看如下日志:
2012-10-17T05:54:54.293+0800: 739594.224: [GC 739606.508: [ParNew: 996800K->110720K(996800K), 178.8826900 secs] 3700
- maven环境快速搭建
daizj
安装mavne环境配置
一 下载maven
安装maven之前,要先安装jdk及配置JAVA_HOME环境变量。这个安装和配置java环境不用多说。
maven下载地址:http://maven.apache.org/download.html,目前最新的是这个apache-maven-3.2.5-bin.zip,然后解压在任意位置,最好地址中不要带中文字符,这个做java 的都知道,地址中出现中文会出现很多
- PHP网站安全,避免PHP网站受到攻击的方法
dcj3sjt126com
PHP
对于PHP网站安全主要存在这样几种攻击方式:1、命令注入(Command Injection)2、eval注入(Eval Injection)3、客户端脚本攻击(Script Insertion)4、跨网站脚本攻击(Cross Site Scripting, XSS)5、SQL注入攻击(SQL injection)6、跨网站请求伪造攻击(Cross Site Request Forgerie
- yii中给CGridView设置默认的排序根据时间倒序的方法
dcj3sjt126com
GridView
public function searchWithRelated() {
$criteria = new CDbCriteria;
$criteria->together = true; //without th
- Java集合对象和数组对象的转换
dyy_gusi
java集合
在开发中,我们经常需要将集合对象(List,Set)转换为数组对象,或者将数组对象转换为集合对象。Java提供了相互转换的工具,但是我们使用的时候需要注意,不能乱用滥用。
1、数组对象转换为集合对象
最暴力的方式是new一个集合对象,然后遍历数组,依次将数组中的元素放入到新的集合中,但是这样做显然过
- nginx同一主机部署多个应用
geeksun
nginx
近日有一需求,需要在一台主机上用nginx部署2个php应用,分别是wordpress和wiki,探索了半天,终于部署好了,下面把过程记录下来。
1. 在nginx下创建vhosts目录,用以放置vhost文件。
mkdir vhosts
2. 修改nginx.conf的配置, 在http节点增加下面内容设置,用来包含vhosts里的配置文件
#
- ubuntu添加admin权限的用户账号
hongtoushizi
ubuntuuseradd
ubuntu创建账号的方式通常用到两种:useradd 和adduser . 本人尝试了useradd方法,步骤如下:
1:useradd
使用useradd时,如果后面不加任何参数的话,如:sudo useradd sysadm 创建出来的用户将是默认的三无用户:无home directory ,无密码,无系统shell。
顾应该如下操作:
- 第五章 常用Lua开发库2-JSON库、编码转换、字符串处理
jinnianshilongnian
nginxlua
JSON库
在进行数据传输时JSON格式目前应用广泛,因此从Lua对象与JSON字符串之间相互转换是一个非常常见的功能;目前Lua也有几个JSON库,本人用过cjson、dkjson。其中cjson的语法严格(比如unicode \u0020\u7eaf),要求符合规范否则会解析失败(如\u002),而dkjson相对宽松,当然也可以通过修改cjson的源码来完成
- Spring定时器配置的两种实现方式OpenSymphony Quartz和java Timer详解
yaerfeng1989
timerquartz定时器
原创整理不易,转载请注明出处:Spring定时器配置的两种实现方式OpenSymphony Quartz和java Timer详解
代码下载地址:http://www.zuidaima.com/share/1772648445103104.htm
有两种流行Spring定时器配置:Java的Timer类和OpenSymphony的Quartz。
1.Java Timer定时
首先继承jav
- Linux下df与du两个命令的差别?
pda158
linux
一、df显示文件系统的使用情况,与du比較,就是更全盘化。 最经常使用的就是 df -T,显示文件系统的使用情况并显示文件系统的类型。 举比例如以下: [root@localhost ~]# df -T Filesystem Type &n
- [转]SQLite的工具类 ---- 通过反射把Cursor封装到VO对象
ctfzh
VOandroidsqlite反射Cursor
在写DAO层时,觉得从Cursor里一个一个的取出字段值再装到VO(值对象)里太麻烦了,就写了一个工具类,用到了反射,可以把查询记录的值装到对应的VO里,也可以生成该VO的List。
使用时需要注意:
考虑到Android的性能问题,VO没有使用Setter和Getter,而是直接用public的属性。
表中的字段名需要和VO的属性名一样,要是不一样就得在查询的SQL中
- 该学习笔记用到的Employee表
vipbooks
oraclesql工作
这是我在学习Oracle是用到的Employee表,在该笔记中用到的就是这张表,大家可以用它来学习和练习。
drop table Employee;
-- 员工信息表
create table Employee(
-- 员工编号
EmpNo number(3) primary key,
-- 姓