- Qwen3 大模型实战:使用 vLLM 部署与函数调用(Function Call)全攻略
曦紫沐
大模型大模型部署Qwen3vLLM函数调用
文章摘要本文将带你从零开始,深入掌握如何使用Qwen3-8B大语言模型,结合vLLM进行高性能部署,并通过函数调用(FunctionCall)实现模型与外部工具的智能联动。我们将详细讲解部署命令、调用方式、代码示例及实际应用场景,帮助你快速构建基于Qwen3的智能应用。一、Qwen3简介与部署环境准备Qwen3是通义千问系列的最新一代大语言模型,具备强大的自然语言理解和生成能力,尤其在函数调用、工
- vllm本地台式机运行(3070显存8G)
名明鸣冥
pythonQwenvllm大模型部署
ollama和vllm的对比这块对比网上都很多资料了,这边使用上简单感觉就是ollama很方便部署,占用资料更少,但后续性能会差点,各选项也不一样.ollama安装和使用和docker很像,就不赘述了,这里是看vllm的安装硬件情况介绍30708G显存+-------------------------------------------------------------------------
- 在Ubuntu24.04搭建VLLM, SGLang 和 LangChain环境
小熊冲!冲!冲!
AIubuntulangchainai毕业设计
在Ubuntu24.04搭建VLLM,SGLang和LangChain环境[!NOTE]概述整片文章是笔者的回忆(白天忙碌了一天,晚上进行的总结),所以有些地方的描述可能有误差,本文更多的是大体方向问题,细节步骤不是本文的重点,见谅!!!如何安装Ubuntu24.04制作启动U盘,作者使用的是rufus.exe工具下载Ubuntu24.04的ISO镜像使用rufus.exe工具刷入Ubuntu22
- vLLM专题(三)-快速开始
AI专题精讲
大模型专题系列人工智能
本指南将帮助您快速开始使用vLLM执行:离线批量推理使用OpenAI兼容服务器进行在线服务1.先决条件操作系统:LinuxPython:3.9–3.122.安装如果您使用的是NVIDIAGPU,您可以直接使用pip安装vLLM。建议使用uv,一个非常快速的Python环境管理器,来创建和管理Python环境。请按照文档安装uv。安装uv后,您可以创建一个新的Python环境,并使用以下命令安装vL
- AI人工智能的SGLang、vllm和YaRN大语言模型服务框架引擎的对比
没刮胡子
Linux服务器技术软件开发技术实战专栏人工智能AI人工智能语言模型自然语言处理
简介SGLang、vLLM和YaRN在大语言模型中的应用场景和功能特点有所不同,具体如下:SGLang定位:是一种专为大型语言模型(LLMs)和视觉语言模型(VLMs)设计的高效服务框架。核心特点:通过优化前端和后端语言的协同设计,提升与模型的交互速度和可控性。前端语言灵活,原生支持Python语法,提供多种原语和控制机制;后端运行时使用RadixAttention技术实现前缀缓存和跳跃式解码,支
- 使用vllm创建相同模型的多个实例,使用nginx进行负载均衡,提高模型吞吐量
背景要提高vllm部署的大模型吞吐量,可以从显存利用率优化、多实例部署、参数调优和流程优化等多个维度入手,以下是具体建议:一、提高gpu-memory-utilization的效果与操作gpu-memory-utilization控制vllm预分配的GPU内存比例(默认0.9),当前值0.35预留了过多显存,是吞吐量低的重要原因。提升空间:合理提高该值可显著增加批处理能力。例如从0.35提升到0.
- vllm源码解析(一):整体架构与推理代码
m0_74825634
架构
vlllm官方代码更新频发,每个版本都有极大变动,很难说哪个版本好用.第一次阅读vllm源码是0.4.0版本,对这版圈复杂度极高的调度代码印象深刻0.4.1对调度逻辑进行重构,完全大变样,读代码速度快赶不上迭代的速度了。现在已经更新到0.5.4,经过长时间观察,发现主要的调度逻辑基本也稳定了下来,应该可以作为一个固话的版本去阅读。本文解读依据vllm0.5.4版本.没有修改任何代码,大家不必担心夹
- ✨零基础手把手|Docker+vLLM极速部署OpenAI风格API:5分钟4卡GPU推理+避坑指南+完整镜像配置
杨靳言先
pythondockervllm部署
一、Docker基础命令查看容器状态Bashdockerps#查看运行中的容器dockerps-a#查看所有容器(包括已停止的)查看镜像列表Bashdockerimages#列出本地所有镜像二、镜像与容器操作镜像打包为.tar文件Bashdockersave-o#将镜像导出为.tar文件#示例:dockersave-omy_image.tarvllm/vllm-openai:v0.8.4打包多个镜
- 红帽AI推理服务器三大特点
openlabx.org.cn
人工智能vLLM
生成式人工智能(GenAI)的迅猛发展,对大型语言模型(LLM)的部署提出了更高的性能、灵活性和效率要求。无论部署在何种环境中,红帽AI推理服务器都为用户提供经过强化并获得官方支持的vLLM发行版,配套智能LLM压缩工具,以及在HuggingFace平台上优化的模型仓库。结合红帽的企业级技术支持与灵活的第三方支持政策,为企业部署生成式AI应用提供强有力的支撑。借助vLLM内核与先进并行技术,加速A
- Qwen3 大模型开发实战指南(七):Qwen3 Agent 实战,释放智能交互强大潜力
寻道AI小兵
Qwen开发部署微调实战人工智能开源自然语言处理AIGC语言模型
系列篇章No.文章01Qwen3大模型开发实战指南(一):基于Transformers推理全攻略,开启智能应用大门02Qwen3大模型开发实战指南(二):基于vLLM高效推理,性能飙升03Qwen3大模型开发实战指南(三):基于GLang快速推理,服务部署快人一步04Qwen3大模型开发实战指南(四):基于Ollama极简本地部署,轻松搞定05Qwen3大模型开发实战指南(五):基于lama.cp
- 从 Ollama 转向 vLLM:寻求高通量 LLM 服务的稳定性
知识大胖
NVIDIAGPU和大语言模型开发教程ai
简介在过去的一年里,我一直在大量使用GraphRAG(微软版本和我自己开发的版本),我总是惊讶于文档复杂性的微小增加会造成多大的预算浪费。当我使用gpt-4.1-miniOpenAI时——仅一套文档就花费了我200多美元(!!)。即使使用gpt-4.1-nano(目前最便宜的前沿模型),我的预算也是荒谬的。为几份(确实很大的)文件花费2.15亿个代币是荒谬的,而且需要几天的时间来处理,这太过分了。
- 本地部署 Kimi K2 全指南(llama.cpp、vLLM、Docker 三法)
迎风斯黄
llamadocker容器kimi
KimiK2是MoonshotAI于2025年7月11日发布的高性能多专家语言模型(MoE),支持最大128K上下文,激活参数规模为32B,具备极强的推理、代码生成与多轮对话能力。自从其权重以多种格式开源以来,许多开发者希望将其部署在本地,以获得更高的私密性和灵活性。本文将详细介绍三种主流本地部署路径,并提供完整的配置步骤和使用建议。准备工作(通用部分)在进行部署前,请准备如下环境与资源:✅最低硬
- 离线部署视觉模型Qwen2.5-VL方案【企业应用级】
LensonYuan
机器视觉自然语言处理qwenvl视觉模型大模型部署qwen2.5qwen2.5环境qwen2.5-vl镜像包
离线多卡部署视觉模型Qwen2.5-VL企业级服务方案一、背景公司网络是有严格限制,所有涉及境外服务器的网站都无法访问,包括docker等镜像源。本教程,是在提前下载或构建好资源,通过上传到服务器后,做离线部署。二、参考环境大模型服务发布工具:VLLM=0.7.2。大模型版本:qwen2.5-vl-7b,其他版本也可。python版本:python==3.12。环境可选:docker或直接pyth
- 【vLLM 学习】Encoder Decoder Multimodal
HyperAI超神经
vLLMvLLMKV缓存大语言模型推理加速内存管理开源项目在线教程
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/*在线运行vLLM入门教程:零基础分步指南源码examples/offline_inference/encoder_decoder_multimodal.py#SPDX-License-Identifier:Apach
- vLLM快速入门:开启高效推理与部署之旅
在如今这个人工智能飞速发展的时代,语言模型的应用已经深入到我们生活的方方面面,从智能聊天机器人到文本生成工具,都离不开强大的语言模型技术支持。而vLLM作为一个专注于高效推理和部署的开源项目,正在为研究人员和开发人员提供一种全新的解决方案,让语言模型的使用变得更加便捷、高效。初识vLLM:背景与意义vLLM(VeryLargeLanguageModelInference)是一个专注于大型语言模型推
- 深入解析 vLLM 分布式推理与部署策略
在当今人工智能快速发展的时代,大型语言模型(LLM)的推理和部署面临着诸多挑战,尤其是当模型规模日益庞大时,如何高效地利用硬件资源成为关键问题。vLLM作为一种强大的工具,为分布式推理和部署提供了多种策略,本文将详细探讨其相关技术和应用场景,希望能对您提供有价值的参考。分布式推理策略的选择在开始分布式推理和部署之前,明确何时采用分布式推理以及可选的策略至关重要。1.单GPU推理:如果模型能够在单个
- mac mlx大模型框架的安装和使用
liliangcsdn
pythonjava前端人工智能macos
mlx是apple平台的大模型推理框架,对macm1系列处理器支持较好。这里记录mlx安装和运行示例。1安装mlx框架condacreate-nmlxpython=3.12condaactivatemlxpipinstallmlx-lm2运行mlx测试例以下是测试程序,使用方法和hf、vllm等推理框架基本一致。importosos.environ['HF_ENDPOINT']="https://
- vllm本地部署bge-reranker-v2-m3模型API服务实战教程
雷 电法王
大模型部署linuxpythonvscodelanguagemodel
文章目录一、说明二、配置环境2.1安装虚拟环境2.2安装vllm2.3对应版本的pytorch安装2.4安装flash_attn2.5下载模型三、运行代码3.1启动服务3.2调用代码验证一、说明本文主要介绍vllm本地部署BAAI/bge-reranker-v2-m3模型API服务实战教程本文是在Ubuntu24.04+CUDA12.8+Python3.12环境下复现成功的二、配置环境2.1安装虚
- LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
汀、人工智能
LLM技术汇总人工智能自然语言处理LLMAgentvLLMAI大模型大模型部署
LLM大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战1.环境准备GPU设备:A10,3090,V100,A100均可.#设置pip全局镜像(加速下载)pipconfigsetglobal.index-urlhttps://mirrors.aliyun.com/pypi/simple/#安装ms-swiftpipinstall'ms-swift[llm]'-U#vllm与
- mac m1安装大模型工具vllm
liliangcsdn
macos
1更新系统环境参考vllm官网文档,vllm对applem1平台macos,xcoder,clang有如下要求OS:macOSSonomaorlaterSDK:XCode15.4orlaterwithCommandLineToolsCompiler:AppleClang>=15.0.0在AppStore更新macOS和XCoder,依据XCoder版本号安装commandlinetools。htt
- vLLM 优化与调优:提升模型性能的关键策略
强哥之神
人工智能深度学习计算机视觉deepseek智能体vllm
在当今人工智能领域,大语言模型(LLM)的应用日益广泛,而优化和调优这些模型的性能成为了至关重要的任务。vLLM作为一种高效的推理引擎,提供了多种策略来提升模型的性能。本文将深入探讨vLLMV1的优化与调优策略,帮助读者更好地理解和应用这些技术。抢占式调度(Preemption)由于Transformer架构的自回归特性,有时键值缓存(KVcache)空间不足以处理所有批量请求。在这种情况下,vL
- 【vLLM 学习】Eagle
vLLM是一款专为大语言模型推理加速而设计的框架,实现了KV缓存内存几乎零浪费,解决了内存管理瓶颈问题。更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/*在线运行vLLM入门教程:零基础分步指南源码examples/offline_inference/eagle.py#SPDX-License-Identifier:Apache-2.0importargparseim
- Python 领域 vllm 安装与环境配置全攻略
Python编程之道
Python编程之道python开发语言ai
Python领域vllm安装与环境配置全攻略关键词:Python、vllm、安装、环境配置、深度学习摘要:本文围绕Python领域中vllm的安装与环境配置展开,全面且深入地介绍了vllm的相关知识。首先阐述了背景信息,包括目的范围、预期读者、文档结构和术语表。接着详细讲解了vllm的核心概念与联系,分析其核心算法原理并给出具体操作步骤,还引入了相关数学模型和公式进行说明。通过项目实战,提供代码实
- vLLM 的逻辑与运作机制
a李兆洋
大模型推理
vLLM的逻辑与运作机制vLLM作为一种高效的推理框架,逐渐成为研究和应用的热点。vLLM的核心在于如何高效地管理和调度模型推理任务,以最大化利用计算资源并提高推理效率。一、vLLM是如何运作的?vLLM是一种虚拟化的大语言模型推理框架,它通过高效的资源管理和调度机制,使得大规模语言模型的推理任务能够更加高效地运行。vLLM的核心逻辑是LLMEngine,它负责处理和调度推理请求,管理KVcach
- Python 领域 vllm 优化模型推理速度的方法
Python编程之道
Python编程之道python开发语言ai
Python领域vLLM优化模型推理速度的方法关键词:Python、vLLM、模型推理速度、优化方法、推理性能摘要:本文聚焦于Python领域中vLLM对模型推理速度的优化方法。首先介绍了相关背景知识,包括vLLM的概念和优化模型推理速度的重要性。接着阐述了vLLM的核心概念与架构,详细分析了其优化的原理。通过具体的Python代码展示了核心算法原理及操作步骤,同时给出了相应的数学模型和公式进行理
- vllm推理实践
try2find
java前端服务器
1.vllm推理demo实验fromvllmimportLLM,SamplingParams#定义生成参数sampling_params=SamplingParams(temperature=0.7,top_p=0.9,max_tokens=100,)#加载DeepSeek模型(以deepseek-llm-7b为例)#model_name="deepseek-ai/deepseek-llm-7b"
- DeepSeek-V3 私有化部署配置方案(以 vLLM / FastDeploy 为主)
以下是DeepSeek-V3私有化部署配置方案(基于vLLM/FastDeploy),适用于对模型性能、数据隐私、推理效率有要求的企业/个人部署场景。目标:在本地或私有服务器中部署DeepSeek-V3或其MoE结构变体支持高并发推理、高效资源利用提供HTTP接口供前端/插件/Agent调用方案对比方案支持MoE性能优化推荐场景vLLM部分支持高(KVCache/连续批次)高并发API服务Fast
- 基于昇腾910B部署Qwen3-embedding-8B模型(通过vllm 推理引擎部署)
萌新--加油
embedding人工智能经验分享
目前基于知识库搭建,会涉及到embedding和rerank模型,目前阿里通义千问Qwen3-embedding-8B模型在网上测评效果还不错,本文基于vllm部署Qwen3-embedding-8B模型,使用的国产化算力910B2-64G单卡资源。1、环境要求:软件支持版本CANN>=8.1.RC1torch-npu>=2.5.1torch>=2.5.1Python>=3.9,<3.122、to
- 云原生环境下部署大语言模型服务:以 DeepSeek 为例的实战教程
一ge科研小菜菜
人工智能Python编程语言语言模型人工智能自然语言处理
个人主页:一ge科研小菜鸡-CSDN博客期待您的关注一、引言随着DeepSeek、Qwen、ChatGLM等大语言模型(LLM)的开放与普及,企业将其私有化部署并服务化的需求愈发迫切。然而,从HuggingFace下载模型,到提供一个结构化、稳定、可调用的API,并不是一个简单过程。它涉及:模型推理框架(如vLLM)的集成;WebAPI封装(FastAPI等);容器化部署与资源调度;可扩展性设计与
- 【模型部署】如何在Linux中通过脚本文件部署模型
满怀1015
人工智能linux网络人工只能模型部署
在Linux中,你可以将部署命令保存为可执行脚本文件,并通过终端直接调用。以下是几种常见且实用的方法:方法1:Shell脚本(推荐)步骤创建一个.sh文件(例如start_vllm.sh):#!/bin/bashCUDA_VISIBLE_DEVICES=7\python-mvllm.entrypoints.openai.api_server\--served-model-nameQwen2-7B-
- 强大的销售团队背后 竟然是大数据分析的身影
蓝儿唯美
数据分析
Mark Roberge是HubSpot的首席财务官,在招聘销售职位时使用了大量数据分析。但是科技并没有挤走直觉。
大家都知道数理学家实际上已经渗透到了各行各业。这些热衷数据的人们通过处理数据理解商业流程的各个方面,以重组弱点,增强优势。
Mark Roberge是美国HubSpot公司的首席财务官,HubSpot公司在构架集客营销现象方面出过一份力——因此他也是一位数理学家。他使用数据分析
- Haproxy+Keepalived高可用双机单活
bylijinnan
负载均衡keepalivedhaproxy高可用
我们的应用MyApp不支持集群,但要求双机单活(两台机器:master和slave):
1.正常情况下,只有master启动MyApp并提供服务
2.当master发生故障时,slave自动启动本机的MyApp,同时虚拟IP漂移至slave,保持对外提供服务的IP和端口不变
F5据说也能满足上面的需求,但F5的通常用法都是双机双活,单活的话还没研究过
服务器资源
10.7
- eclipse编辑器中文乱码问题解决
0624chenhong
eclipse乱码
使用Eclipse编辑文件经常出现中文乱码或者文件中有中文不能保存的问题,Eclipse提供了灵活的设置文件编码格式的选项,我们可以通过设置编码 格式解决乱码问题。在Eclipse可以从几个层面设置编码格式:Workspace、Project、Content Type、File
本文以Eclipse 3.3(英文)为例加以说明:
1. 设置Workspace的编码格式:
Windows-&g
- 基础篇--resources资源
不懂事的小屁孩
android
最近一直在做java开发,偶尔敲点android代码,突然发现有些基础给忘记了,今天用半天时间温顾一下resources的资源。
String.xml 字符串资源 涉及国际化问题
http://www.2cto.com/kf/201302/190394.html
string-array
- 接上篇补上window平台自动上传证书文件的批处理问卷
酷的飞上天空
window
@echo off
: host=服务器证书域名或ip,需要和部署时服务器的域名或ip一致 ou=公司名称, o=公司名称
set host=localhost
set ou=localhost
set o=localhost
set password=123456
set validity=3650
set salias=s
- 企业物联网大潮涌动:如何做好准备?
蓝儿唯美
企业
物联网的可能性也许是无限的。要找出架构师可以做好准备的领域然后利用日益连接的世界。
尽管物联网(IoT)还很新,企业架构师现在也应该为一个连接更加紧密的未来做好计划,而不是跟上闸门被打开后的集成挑战。“问题不在于物联网正在进入哪些领域,而是哪些地方物联网没有在企业推进,” Gartner研究总监Mike Walker说。
Gartner预测到2020年物联网设备安装量将达260亿,这些设备在全
- spring学习——数据库(mybatis持久化框架配置)
a-john
mybatis
Spring提供了一组数据访问框架,集成了多种数据访问技术。无论是JDBC,iBATIS(mybatis)还是Hibernate,Spring都能够帮助消除持久化代码中单调枯燥的数据访问逻辑。可以依赖Spring来处理底层的数据访问。
mybatis是一种Spring持久化框架,要使用mybatis,就要做好相应的配置:
1,配置数据源。有很多数据源可以选择,如:DBCP,JDBC,aliba
- Java静态代理、动态代理实例
aijuans
Java静态代理
采用Java代理模式,代理类通过调用委托类对象的方法,来提供特定的服务。委托类需要实现一个业务接口,代理类返回委托类的实例接口对象。
按照代理类的创建时期,可以分为:静态代理和动态代理。
所谓静态代理: 指程序员创建好代理类,编译时直接生成代理类的字节码文件。
所谓动态代理: 在程序运行时,通过反射机制动态生成代理类。
一、静态代理类实例:
1、Serivce.ja
- Struts1与Struts2的12点区别
asia007
Struts1与Struts2
1) 在Action实现类方面的对比:Struts 1要求Action类继承一个抽象基类;Struts 1的一个具体问题是使用抽象类编程而不是接口。Struts 2 Action类可以实现一个Action接口,也可以实现其他接口,使可选和定制的服务成为可能。Struts 2提供一个ActionSupport基类去实现常用的接口。即使Action接口不是必须实现的,只有一个包含execute方法的P
- 初学者要多看看帮助文档 不要用js来写Jquery的代码
百合不是茶
jqueryjs
解析json数据的时候需要将解析的数据写到文本框中, 出现了用js来写Jquery代码的问题;
1, JQuery的赋值 有问题
代码如下: data.username 表示的是: 网易
$("#use
- 经理怎么和员工搞好关系和信任
bijian1013
团队项目管理管理
产品经理应该有坚实的专业基础,这里的基础包括产品方向和产品策略的把握,包括设计,也包括对技术的理解和见识,对运营和市场的敏感,以及良好的沟通和协作能力。换言之,既然是产品经理,整个产品的方方面面都应该能摸得出门道。这也不懂那也不懂,如何让人信服?如何让自己懂?就是不断学习,不仅仅从书本中,更从平时和各种角色的沟通
- 如何为rich:tree不同类型节点设置右键菜单
sunjing
contextMenutreeRichfaces
组合使用target和targetSelector就可以啦,如下: <rich:tree id="ruleTree" value="#{treeAction.ruleTree}" var="node" nodeType="#{node.type}"
selectionChangeListener=&qu
- 【Redis二】Redis2.8.17搭建主从复制环境
bit1129
redis
开始使用Redis2.8.17
Redis第一篇在Redis2.4.5上搭建主从复制环境,对它的主从复制的工作机制,真正的惊呆了。不知道Redis2.8.17的主从复制机制是怎样的,Redis到了2.4.5这个版本,主从复制还做成那样,Impossible is nothing! 本篇把主从复制环境再搭一遍看看效果,这次在Unbuntu上用官方支持的版本。 Ubuntu上安装Red
- JSONObject转换JSON--将Date转换为指定格式
白糖_
JSONObject
项目中,经常会用JSONObject插件将JavaBean或List<JavaBean>转换为JSON格式的字符串,而JavaBean的属性有时候会有java.util.Date这个类型的时间对象,这时JSONObject默认会将Date属性转换成这样的格式:
{"nanos":0,"time":-27076233600000,
- JavaScript语言精粹读书笔记
braveCS
JavaScript
【经典用法】:
//①定义新方法
Function .prototype.method=function(name, func){
this.prototype[name]=func;
return this;
}
//②给Object增加一个create方法,这个方法创建一个使用原对
- 编程之美-找符合条件的整数 用字符串来表示大整数避免溢出
bylijinnan
编程之美
import java.util.LinkedList;
public class FindInteger {
/**
* 编程之美 找符合条件的整数 用字符串来表示大整数避免溢出
* 题目:任意给定一个正整数N,求一个最小的正整数M(M>1),使得N*M的十进制表示形式里只含有1和0
*
* 假设当前正在搜索由0,1组成的K位十进制数
- 读书笔记
chengxuyuancsdn
读书笔记
1、Struts访问资源
2、把静态参数传递给一个动作
3、<result>type属性
4、s:iterator、s:if c:forEach
5、StringBuilder和StringBuffer
6、spring配置拦截器
1、访问资源
(1)通过ServletActionContext对象和实现ServletContextAware,ServletReque
- [通讯与电力]光网城市建设的一些问题
comsci
问题
信号防护的问题,前面已经说过了,这里要说光网交换机与市电保障的关系
我们过去用的ADSL线路,因为是电话线,在小区和街道电力中断的情况下,只要在家里用笔记本电脑+蓄电池,连接ADSL,同样可以上网........
 
- oracle 空间RESUMABLE
daizj
oracle空间不足RESUMABLE错误挂起
空间RESUMABLE操作 转
Oracle从9i开始引入这个功能,当出现空间不足等相关的错误时,Oracle可以不是马上返回错误信息,并回滚当前的操作,而是将操作挂起,直到挂起时间超过RESUMABLE TIMEOUT,或者空间不足的错误被解决。
这一篇简单介绍空间RESUMABLE的例子。
第一次碰到这个特性是在一次安装9i数据库的过程中,在利用D
- 重构第一次写的线程池
dieslrae
线程池 python
最近没有什么学习欲望,修改之前的线程池的计划一直搁置,这几天比较闲,还是做了一次重构,由之前的2个类拆分为现在的4个类.
1、首先是工作线程类:TaskThread,此类为一个工作线程,用于完成一个工作任务,提供等待(wait),继续(proceed),绑定任务(bindTask)等方法
#!/usr/bin/env python
# -*- coding:utf8 -*-
- C语言学习六指针
dcj3sjt126com
c
初识指针,简单示例程序:
/*
指针就是地址,地址就是指针
地址就是内存单元的编号
指针变量是存放地址的变量
指针和指针变量是两个不同的概念
但是要注意: 通常我们叙述时会把指针变量简称为指针,实际它们含义并不一样
*/
# include <stdio.h>
int main(void)
{
int * p; // p是变量的名字, int *
- yii2 beforeSave afterSave beforeDelete
dcj3sjt126com
delete
public function afterSave($insert, $changedAttributes)
{
parent::afterSave($insert, $changedAttributes);
if($insert) {
//这里是新增数据
} else {
//这里是更新数据
}
}
 
- timertask
shuizhaosi888
timertask
java.util.Timer timer = new java.util.Timer(true);
// true 说明这个timer以daemon方式运行(优先级低,
// 程序结束timer也自动结束),注意,javax.swing
// 包中也有一个Timer类,如果import中用到swing包,
// 要注意名字的冲突。
TimerTask task = new
- Spring Security(13)——session管理
234390216
sessionSpring Security攻击保护超时
session管理
目录
1.1 检测session超时
1.2 concurrency-control
1.3 session 固定攻击保护
 
- 公司项目NODEJS实践0.3[ mongo / session ...]
逐行分析JS源代码
mongodbsessionnodejs
http://www.upopen.cn
一、前言
书接上回,我们搭建了WEB服务端路由、模板等功能,完成了register 通过ajax与后端的通信,今天主要完成数据与mongodb的存取,实现注册 / 登录 /
- pojo.vo.po.domain区别
LiaoJuncai
javaVOPOJOjavabeandomain
POJO = "Plain Old Java Object",是MartinFowler等发明的一个术语,用来表示普通的Java对象,不是JavaBean, EntityBean 或者 SessionBean。POJO不但当任何特殊的角色,也不实现任何特殊的Java框架的接口如,EJB, JDBC等等。
即POJO是一个简单的普通的Java对象,它包含业务逻辑
- Windows Error Code
OhMyCC
windows
0 操作成功完成.
1 功能错误.
2 系统找不到指定的文件.
3 系统找不到指定的路径.
4 系统无法打开文件.
5 拒绝访问.
6 句柄无效.
7 存储控制块被损坏.
8 存储空间不足, 无法处理此命令.
9 存储控制块地址无效.
10 环境错误.
11 试图加载格式错误的程序.
12 访问码无效.
13 数据无效.
14 存储器不足, 无法完成此操作.
15 系
- 在storm集群环境下发布Topology
roadrunners
集群stormtopologyspoutbolt
storm的topology设计和开发就略过了。本章主要来说说如何在storm的集群环境中,通过storm的管理命令来发布和管理集群中的topology。
1、打包
打包插件是使用maven提供的maven-shade-plugin,详细见maven-shade-plugin。
<plugin>
<groupId>org.apache.maven.
- 为什么不允许代码里出现“魔数”
tomcat_oracle
java
在一个新项目中,我最先做的事情之一,就是建立使用诸如Checkstyle和Findbugs之类工具的准则。目的是制定一些代码规范,以及避免通过静态代码分析就能够检测到的bug。 迟早会有人给出案例说这样太离谱了。其中的一个案例是Checkstyle的魔数检查。它会对任何没有定义常量就使用的数字字面量给出警告,除了-1、0、1和2。 很多开发者在这个检查方面都有问题,这可以从结果
- zoj 3511 Cake Robbery(线段树)
阿尔萨斯
线段树
题目链接:zoj 3511 Cake Robbery
题目大意:就是有一个N边形的蛋糕,切M刀,从中挑选一块边数最多的,保证没有两条边重叠。
解题思路:有多少个顶点即为有多少条边,所以直接按照切刀切掉点的个数排序,然后用线段树维护剩下的还有哪些点。
#include <cstdio>
#include <cstring>
#include <vector&