- vllm本地台式机运行(3070显存8G)
名明鸣冥
pythonQwenvllm大模型部署
ollama和vllm的对比这块对比网上都很多资料了,这边使用上简单感觉就是ollama很方便部署,占用资料更少,但后续性能会差点,各选项也不一样.ollama安装和使用和docker很像,就不赘述了,这里是看vllm的安装硬件情况介绍30708G显存+-------------------------------------------------------------------------
- 【Ollama】大模型本地部署与 Java 项目调用指南
科马
LLMjava开发语言llama语言模型
Ollama大模型本地部署与Java项目调用指南一、引言背景介绍Ollama是一个轻量级的大语言模型部署工具,支持快速在本地拉取、运行主流开源模型(如LLaMA3、Mistral、Gemma等)。它简化了模型部署的过程,内置RESTfulAPI,使得开发者可以像调用本地服务一样使用强大的大模型能力。本文将介绍如何在本地部署Ollama模型,并通过Java项目调用Ollama提供的API接口,实现本
- Docker部署 Dify
swj868
付费专栏docker容器运维
1.安装镜像,多试几次gitclonehttps://kkgithub.com/langgenius/dify.git2.安装difydockercomposeup-d3.部署成功访问本地127.0.0.14.安装OLLama插件,此处配置IP必须为内网IP地址或者外网IP
- LLaMA-Factory快速入门
@BangBang
LLMllama
文章目录1.背景2.环境准备2.1硬件要求2.2CUDA和Pytorch环境2.3模型下载2.4模型推理3.自定义数据集构建4.基于LoRA的sft指令微调4.1Lora微调训练4.2动态合并LoRA的推理4.3训练效果评估4.4LoRA模型合并导出5.webuiboard的使用5.1使用介绍5.2APIServer的启动与调用6进阶6.1大模型主流评测benchmark6.2部署Ollama1.
- Qwen3 大模型开发实战指南(七):Qwen3 Agent 实战,释放智能交互强大潜力
寻道AI小兵
Qwen开发部署微调实战人工智能开源自然语言处理AIGC语言模型
系列篇章No.文章01Qwen3大模型开发实战指南(一):基于Transformers推理全攻略,开启智能应用大门02Qwen3大模型开发实战指南(二):基于vLLM高效推理,性能飙升03Qwen3大模型开发实战指南(三):基于GLang快速推理,服务部署快人一步04Qwen3大模型开发实战指南(四):基于Ollama极简本地部署,轻松搞定05Qwen3大模型开发实战指南(五):基于lama.cp
- 从 Ollama 转向 vLLM:寻求高通量 LLM 服务的稳定性
知识大胖
NVIDIAGPU和大语言模型开发教程ai
简介在过去的一年里,我一直在大量使用GraphRAG(微软版本和我自己开发的版本),我总是惊讶于文档复杂性的微小增加会造成多大的预算浪费。当我使用gpt-4.1-miniOpenAI时——仅一套文档就花费了我200多美元(!!)。即使使用gpt-4.1-nano(目前最便宜的前沿模型),我的预算也是荒谬的。为几份(确实很大的)文件花费2.15亿个代币是荒谬的,而且需要几天的时间来处理,这太过分了。
- 开源模型应用落地-qwen模型小试-Qwen2.5-7B-Instruct-玩转ollama(一)
开源技术探险家
开源模型-实际应用落地#深度学习自然语言处理语言模型
一、前言在AI大模型百花齐放的时代,很多人都对新兴技术充满了热情,都想尝试一下。然而,实际上要入门AI技术的门槛非常高。除了需要高端设备,还需要面临复杂的部署和安装过程,这让很多人望而却步。在这样的背景下,Ollama的出现为广大开发者和爱好者提供了一条便捷的道路,极大地降低了应用机器学习的门槛。Ollama的优势在于其极致的简化。通过这个平台,用户可以轻松下载、运行和管理各种机器学习模型,而无需
- ollama
https://ollama.comollamarunllama3.2新建ModelfileFROMllama3.2#设定温度参数为1[更高的更具有创新性,更低的更富有连贯性]PARAMETERtemperature1#将上下文窗口大小设置为4096,这控制着LLM能够使用多少个token来生成下一个token。PARAMETERnum_ctx4096#设置了自定义系统消息以指定聊天助手的行为。你
- 程序员管理与AIStarter开发:如何避免需求Bug,提升项目效率
ai_xiaogui
人工智能智能体国际化AI平台bug程序员管理AIStarter需求沟通避免BugAI模型一键部署教程
大家好,我是熊哥!今天聊聊程序员管理和AIStarter开发中的经验教训。创业公司项目常因需求不清出Bug,比如“管理员删管理员”这种低级错误,引发用户不满。熊哥亲测:程序员管理关键在于明确需求!通过整理需求文档、双向确认、开会逐条对齐,熊哥团队从Bug频发到第二个月问题骤减,AIStarter发布稳定。AIStarter专注AI模型部署(如Ollama),一键安装,免费为主,市场反馈超棒!总结:
- Spring AI核心技术面试指南:从大模型集成到生产级部署,9轮深度技术拷问(含架构解析)
面试官:cc程序员,聊聊SpringAI的那些事儿?场景背景互联网大厂AI平台部面试官老周,与自称"SpringAI源码贡献者"的cc程序员展开深度技术探讨。面试过程第一轮:基础架构面试官:SpringAI的架构分层是怎样的?cc:(推眼镜)顶层是Model接口!中间层适配OpenAI/Ollama等实现,底层整合SpringBoot自动配置!@ConfigurationpublicclassOl
- 掌握 RAG:使用 Langchain 和 Ollama 创建本地智能应用程序
知世不是芝士
langchain人工智能ai大模型大语言模型ollama本地部署大模型大模型技术
引言随着大型语言模型(LLMs)的兴起,我们见证了一种新的工具类别的诞生。然而,LLMs也存在局限性,尤其是当面对需要最新信息或专有数据的商业用例时。本文将介绍如何通过微调和RAG来解决这些问题。LLMs的局限性传统LLMs训练成本高昂,且只能访问公共信息。对于商业用途,需要模型能够提供基于内部知识的最新回应。文章介绍了两种解决这一问题的方法:微调和RAG。微调微调是针对特定数据集进一步训练预训练
- autodl云计算平台 使用ollama 部署lightrag 加入streamlit界面
42fourtytoo
云计算深度学习pytorch学习
1到autodl的算力市场里开一台机器镜像选择:PyTorch2.3.0、Python3.12(ubuntu22.04)、Cuda12.1我本来选择的Cuda12.4,但版本过高疑似会使ollama不使用GPU而只用CPU,后来换个镜像就好了2下载lightrag从lightrag的GitHub界面下载zip开机,上传zip,解压到autodl-tmp/lightrag下安装依赖,在文件夹下:pi
- Docker build ollama
longze_7
ollamadocker
dockerrun-d--gpus=all-vollama:/root/.ollama-p11434:11434--networkbridge--nameollamaollama/ollama
- 大模型格式
目录大模型格式:ollma可以加载ggufChatGPT说:什么是GGUF?大模型格式:Ollama模型格式只能运行已打包成.gguf格式的模型,或通过其Modelfile方式构建ModelScope模型格式大多使用HuggingFaceTransformers格式,如.bin、.safetensors,与Ollama不兼容模型加载方式不同Ollama自带封装推理引擎(ggml/llama.cpp
- 通过 Ollama 获取并运行本地大型语言模型(LLM)
Ollama是一个开源工具,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它支持多种操作系统(Windows、macOS、Linux),并提供简单的命令行接口和API,适合开发者、研究人员以及对数据隐私有较高要求的用户。本文档将详细指导您如何通过Ollama在本地获取和运行LLM。1.准备工作在开始之前,请确保您的系统满足以下要求:操作系统:Windows、macOS或Linux(支
- 使用 Ollama 、 DeepSeek和QWEN的模型上下文协议 (MCP) ,使用本地 LLM 教程的 MCP 服务器
知识大胖
NVIDIAGPU和大语言模型开发教程服务器运维人工智能qwen2vldeepseek
简介模型上下文协议:MCP服务器据称是AI领域的下一个重大改变者,它将使AI代理变得比我们想象的更加先进。MCP或模型上下文协议由Anthropic去年发布,它可以帮助LLM连接软件并对其进行控制。但有一个问题大多数MCP服务器都与ClaudeAI兼容,尤其是ClaudeAI桌面应用程序,但它们有自己的限制。有没有办法我们可以使用本地LLM运行MCP服务器?是的,在这个特定的逐步详细教程中,我们将
- 24GB GPU 中的 DeepSeek R1:Unsloth AI 针对 671B 参数模型进行动态量化
知识大胖
NVIDIAGPU和大语言模型开发教程人工智能deepseekollama
简介最初的DeepSeekR1是一个拥有6710亿个参数的语言模型,UnslothAI团队对其进行了动态量化,将模型大小减少了80%(从720GB减少到131GB),同时保持了强大的性能。当添加模型卸载功能时,该模型可以在24GBVRAM下以低令牌/秒的推理速度运行。推荐文章《本地构建AI智能分析助手之01快速安装,使用PandasAI和Ollama进行数据分析,用自然语言向你公司的数据提问为决策
- 使用 DeepSeek R1 和 Ollama 开发 RAG 系统 使用 DeepSeek R1 和 Ollama 构建强大的 RAG 系统。了解开发智能 AI 解决方案的设置过程、最佳实践和技巧。
知识大胖
NVIDIAGPU和大语言模型开发教程人工智能deepseekollama
简介DeepSeekR1和Ollama提供了用于构建检索增强生成(RAG)系统的强大工具。本指南介绍了使用这些技术开发RAG应用程序的设置、实施和最佳实践。为什么RAG系统会改变游戏规则检索增强生成(RAG)系统结合了搜索和生成AI的优点,可实现精确且准确的情境感知响应。借助DeepSeekR1和Ollama等工具,创建RAG系统不再令人生畏。无论您是构建聊天机器人、知识助手还是AI驱动的搜索引擎
- OpenWebUI系列之 如何通过docker自动将其更新到OpenWebUI最新版本
知识大胖
NVIDIAGPU和大语言模型开发教程dockerllmopenwebui
实战需求OpenWebUI是一个可扩展、功能丰富且用户友好的自托管WebUI,旨在完全离线运行。它支持各种LLM运行器,包括Ollama和OpenAI兼容API。如何通过docker自动将其更新到OpenWebUI最新版本?系列文章《OpenWebUI系列之如何通过docker更新到OpenWebUI的最新版本》权重0,本地类、opewebui类《OpenWebUI系列之如何通过docker自动将
- AnythingLLM教程系列之 12 AnythingLLM 上的 Ollama 与 MySQL+PostgreSQL
知识大胖
NVIDIAGPU和大语言模型开发教程mysqlpostgresql数据库anythingllmollama
简介一款全栈应用程序,可让您将任何文档、资源或内容转换为上下文,任何LLM都可以在聊天期间将其用作参考。此应用程序允许您选择要使用的LLM或矢量数据库,并支持多用户管理和权限。本文将介绍如何在AnythingLLM上将Ollama与MySQL+PostgreSQL连接起来。系列文章如何安装《无需任何代码构建自己的大模型知识库:AnythingLLM最易于使用的一体化AI应用程序,可以执行RAG、A
- Ollama平台里最流行的embedding模型: nomic-embed-text 模型介绍和实践
skywalk8163
人工智能embedding人工智能服务器
nomic-embed-text模型介绍nomic-embed-text是一个基于SentenceTransformers库的句子嵌入模型,专门用于特征提取和句子相似度计算。该模型在多个任务上表现出色,特别是在分类、检索和聚类任务中。其核心优势在于能够生成高质量的句子嵌入,这些嵌入在语义上非常接近,从而在相似度计算和分类任务中表现优异。之所以选用这个模型,是因为在Ollama网站查找这个模型,发现
- 【实战AI】macbook M1 本地ollama运行deepseek
东方鲤鱼
chatAImacosaillamaAIGCchatgpt
由于deepseek官网或者Aapi调用会有网络延迟或不响应的情况,故在本地搭建部署;前提条件1.由于需要拉取开源镜像,受网络限制,部分资源在前提中会下载的更快!请自行;2.设备macbookM132G下载ollamaOllama是一款跨平台推理框架客户端(MacOS、Windows、Linux),专为无缝部署大型语言模型(LLM)(如Llama2、Mistral、Llava等)而设计。通过一键式
- 在Ubuntu系统下使用Docker部署ollama并使用英伟达gpu加速
longze_7
docker容器运维
下载安装英伟达Nvidiacontainertoolkit:curl-fsSLhttps://nvidia.github.io/libnvidia-container/gpgkey|sudogpg--dearmor-o/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg\&&curl-s-Lhttps://nvidia.github.io
- Spring AI 本地 RAG 实战:用Redis、Chroma搭建离线知识问答系统
勤奋的知更鸟
JavaAI大模型AI工具spring人工智能RAG
本文将用Ollama+Qwen-7B搭建离线知识问答系统(含Redis/Chroma向量库)目录前言环境搭建项目结构设计Maven依赖pom.xmlapplication.yml配置(Redis+Ollama)Redis向量库实战OllamaConfig.javaRagService.javaRagController.javaRagApplication.java测试样例RAG增强Maven依赖
- 内网环境部署Deepseek+Dify,构建企业私有化AI应用
我是鲁阿姨
0.简介#公司为生产安全和保密,内部的服务器不可连接外部网络,为了可以在内网环境下部署,采用的方案为ollama(Docker)+Dify(DockerCompose),方便内网环境下迁移和备份,下文将介绍部署的全部过程。1.镜像拉取#镜像拉取为准备工作,因服务器在内网环境,需要先在可以连接外网的电脑上拉取相关镜像或文件。由于公司笔记本的Windows系统屏蔽了MicrosoftStore,导致D
- ollama v0.9.6版本发布详解:修复启动屏幕样式及新增工具名称参数支持
福大大架构师每日一题
文心一言vschatgptollama
作为近年来备受瞩目的开源对话式人工智能框架之一,ollama持续更新优化其产品,致力于为开发者带来更稳定、高效的使用体验。2025年7月8日,ollama发布了v0.9.6版本,这一版本在用户界面和API的可用性方面做出了重要改进,进一步增强了开发和集成的便捷性。本文将对ollamav0.9.6版本的更新内容进行全面解析,详细介绍新特性、修复的具体问题、应用示例及最佳实践,帮助开发者快速掌握和应用
- ServBay Windows 1.2.0 更新!新增 PHP 设置与 Ollama 支持
ServBay
php开发语言aiollamaservbay开发工具
各位Windows平台的开发者们,我们激动地宣布,ServBayforWindows1.2.0版本现已正式发布!自Beta版上线以来,我们收到了大量宝贵的反馈。在本次更新中,我们不仅修复了已知问题,提升了整体稳定性,更带来了两项备受期待的强大功能——灵活的PHP配置修改与前沿的Ollama集成。我们相信,这次更新将为您的本地开发工作流注入新的活力!本次新增功能我们始终倾听社区的声音,致力于让Ser
- 5、Spring AI(MCPServer+MCPClient+Ollama)开发环境搭建_第一篇
虾条_花吹雪
#开发环境搭建ai人工智能spring数据库学习
前言:该开发环境是在3、后端持久化(SpringBoot3.5.0+MybatisPlus3.5.5+mysql8.4.0)环境搭建上进行改造的,用到了后端持久化,主要改造的地方为数据库把email字段改为height(身高),该开发环境主要是设计了一个灌篮高手篮球经理对球队成员简单的查询,通过这个场景把MCPServer、MCPClient、大模型、用户客户端相互的职责和关系简单捋一下,其他的改
- Ollama实践之:Python代码生成与执行
小村学长毕业设计
python开发语言
Ollama实践之:Python代码生成与执行在人工智能领域,生成式模型正逐渐展现出其强大的潜力。Ollama,作为一个先进的生成式语言模型,不仅能生成连贯的文本,还能生成代码片段,并在某些情况下,生成可执行的代码。本文将详细探讨如何使用Ollama生成Python代码,以及执行这些代码的实践过程。我们不仅会讨论技术细节,还会探讨其应用场景、潜在风险以及未来的发展趋势。一、Ollama简介Olla
- 探索未来科技:Ollama Python 库——Python 与 AI 的无缝对接
尚绮令Imogen
探索未来科技:OllamaPython库——Python与AI的无缝对接项目地址:https://gitcode.com/gh_mirrors/ol/ollama-python在人工智能领域,Python是无可争议的首选语言。而OllamaPythonLibrary正是为了让开发者更加便捷地将Python3.8及以上版本项目与Ollama平台集成,从而解锁更强大的AI功能。这个库以其直观的API设
- 项目中 枚举与注解的结合使用
飞翔的马甲
javaenumannotation
前言:版本兼容,一直是迭代开发头疼的事,最近新版本加上了支持新题型,如果新创建一份问卷包含了新题型,那旧版本客户端就不支持,如果新创建的问卷不包含新题型,那么新旧客户端都支持。这里面我们通过给问卷类型枚举增加自定义注解的方式完成。顺便巩固下枚举与注解。
一、枚举
1.在创建枚举类的时候,该类已继承java.lang.Enum类,所以自定义枚举类无法继承别的类,但可以实现接口。
- 【Scala十七】Scala核心十一:下划线_的用法
bit1129
scala
下划线_在Scala中广泛应用,_的基本含义是作为占位符使用。_在使用时是出问题非常多的地方,本文将不断完善_的使用场景以及所表达的含义
1. 在高阶函数中使用
scala> val list = List(-3,8,7,9)
list: List[Int] = List(-3, 8, 7, 9)
scala> list.filter(_ > 7)
r
- web缓存基础:术语、http报头和缓存策略
dalan_123
Web
对于很多人来说,去访问某一个站点,若是该站点能够提供智能化的内容缓存来提高用户体验,那么最终该站点的访问者将络绎不绝。缓存或者对之前的请求临时存储,是http协议实现中最核心的内容分发策略之一。分发路径中的组件均可以缓存内容来加速后续的请求,这是受控于对该内容所声明的缓存策略。接下来将讨web内容缓存策略的基本概念,具体包括如如何选择缓存策略以保证互联网范围内的缓存能够正确处理的您的内容,并谈论下
- crontab 问题
周凡杨
linuxcrontabunix
一: 0481-079 Reached a symbol that is not expected.
背景:
*/5 * * * * /usr/IBMIHS/rsync.sh
- 让tomcat支持2级域名共享session
g21121
session
tomcat默认情况下是不支持2级域名共享session的,所有有些情况下登陆后从主域名跳转到子域名会发生链接session不相同的情况,但是只需修改几处配置就可以了。
打开tomcat下conf下context.xml文件
找到Context标签,修改为如下内容
如果你的域名是www.test.com
<Context sessionCookiePath="/path&q
- web报表工具FineReport常用函数的用法总结(数学和三角函数)
老A不折腾
Webfinereport总结
ABS
ABS(number):返回指定数字的绝对值。绝对值是指没有正负符号的数值。
Number:需要求出绝对值的任意实数。
示例:
ABS(-1.5)等于1.5。
ABS(0)等于0。
ABS(2.5)等于2.5。
ACOS
ACOS(number):返回指定数值的反余弦值。反余弦值为一个角度,返回角度以弧度形式表示。
Number:需要返回角
- linux 启动java进程 sh文件
墙头上一根草
linuxshelljar
#!/bin/bash
#初始化服务器的进程PId变量
user_pid=0;
robot_pid=0;
loadlort_pid=0;
gateway_pid=0;
#########
#检查相关服务器是否启动成功
#说明:
#使用JDK自带的JPS命令及grep命令组合,准确查找pid
#jps 加 l 参数,表示显示java的完整包路径
#使用awk,分割出pid
- 我的spring学习笔记5-如何使用ApplicationContext替换BeanFactory
aijuans
Spring 3 系列
如何使用ApplicationContext替换BeanFactory?
package onlyfun.caterpillar.device;
import org.springframework.beans.factory.BeanFactory;
import org.springframework.beans.factory.xml.XmlBeanFactory;
import
- Linux 内存使用方法详细解析
annan211
linux内存Linux内存解析
来源 http://blog.jobbole.com/45748/
我是一名程序员,那么我在这里以一个程序员的角度来讲解Linux内存的使用。
一提到内存管理,我们头脑中闪出的两个概念,就是虚拟内存,与物理内存。这两个概念主要来自于linux内核的支持。
Linux在内存管理上份为两级,一级是线性区,类似于00c73000-00c88000,对应于虚拟内存,它实际上不占用
- 数据库的单表查询常用命令及使用方法(-)
百合不是茶
oracle函数单表查询
创建数据库;
--建表
create table bloguser(username varchar2(20),userage number(10),usersex char(2));
创建bloguser表,里面有三个字段
&nbs
- 多线程基础知识
bijian1013
java多线程threadjava多线程
一.进程和线程
进程就是一个在内存中独立运行的程序,有自己的地址空间。如正在运行的写字板程序就是一个进程。
“多任务”:指操作系统能同时运行多个进程(程序)。如WINDOWS系统可以同时运行写字板程序、画图程序、WORD、Eclipse等。
线程:是进程内部单一的一个顺序控制流。
线程和进程
a. 每个进程都有独立的
- fastjson简单使用实例
bijian1013
fastjson
一.简介
阿里巴巴fastjson是一个Java语言编写的高性能功能完善的JSON库。它采用一种“假定有序快速匹配”的算法,把JSON Parse的性能提升到极致,是目前Java语言中最快的JSON库;包括“序列化”和“反序列化”两部分,它具备如下特征:  
- 【RPC框架Burlap】Spring集成Burlap
bit1129
spring
Burlap和Hessian同属于codehaus的RPC调用框架,但是Burlap已经几年不更新,所以Spring在4.0里已经将Burlap的支持置为Deprecated,所以在选择RPC框架时,不应该考虑Burlap了。
这篇文章还是记录下Burlap的用法吧,主要是复制粘贴了Hessian与Spring集成一文,【RPC框架Hessian四】Hessian与Spring集成
 
- 【Mahout一】基于Mahout 命令参数含义
bit1129
Mahout
1. mahout seqdirectory
$ mahout seqdirectory
--input (-i) input Path to job input directory(原始文本文件).
--output (-o) output The directory pathna
- linux使用flock文件锁解决脚本重复执行问题
ronin47
linux lock 重复执行
linux的crontab命令,可以定时执行操作,最小周期是每分钟执行一次。关于crontab实现每秒执行可参考我之前的文章《linux crontab 实现每秒执行》现在有个问题,如果设定了任务每分钟执行一次,但有可能一分钟内任务并没有执行完成,这时系统会再执行任务。导致两个相同的任务在执行。
例如:
<?
//
test
.php
- java-74-数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
bylijinnan
java
public class OcuppyMoreThanHalf {
/**
* Q74 数组中有一个数字出现的次数超过了数组长度的一半,找出这个数字
* two solutions:
* 1.O(n)
* see <beauty of coding>--每次删除两个不同的数字,不改变数组的特性
* 2.O(nlogn)
* 排序。中间
- linux 系统相关命令
candiio
linux
系统参数
cat /proc/cpuinfo cpu相关参数
cat /proc/meminfo 内存相关参数
cat /proc/loadavg 负载情况
性能参数
1)top
M:按内存使用排序
P:按CPU占用排序
1:显示各CPU的使用情况
k:kill进程
o:更多排序规则
回车:刷新数据
2)ulimit
ulimit -a:显示本用户的系统限制参
- [经营与资产]保持独立性和稳定性对于软件开发的重要意义
comsci
软件开发
一个软件的架构从诞生到成熟,中间要经过很多次的修正和改造
如果在这个过程中,外界的其它行业的资本不断的介入这种软件架构的升级过程中
那么软件开发者原有的设计思想和开发路线
- 在CentOS5.5上编译OpenJDK6
Cwind
linuxOpenJDK
几番周折终于在自己的CentOS5.5上编译成功了OpenJDK6,将编译过程和遇到的问题作一简要记录,备查。
0. OpenJDK介绍
OpenJDK是Sun(现Oracle)公司发布的基于GPL许可的Java平台的实现。其优点:
1、它的核心代码与同时期Sun(-> Oracle)的产品版基本上是一样的,血统纯正,不用担心性能问题,也基本上没什么兼容性问题;(代码上最主要的差异是
- java乱码问题
dashuaifu
java乱码问题js中文乱码
swfupload上传文件参数值为中文传递到后台接收中文乱码 在js中用setPostParams({"tag" : encodeURI( document.getElementByIdx_x("filetag").value,"utf-8")});
然后在servlet中String t
- cygwin很多命令显示command not found的解决办法
dcj3sjt126com
cygwin
cygwin很多命令显示command not found的解决办法
修改cygwin.BAT文件如下
@echo off
D:
set CYGWIN=tty notitle glob
set PATH=%PATH%;d:\cygwin\bin;d:\cygwin\sbin;d:\cygwin\usr\bin;d:\cygwin\usr\sbin;d:\cygwin\us
- [介绍]从 Yii 1.1 升级
dcj3sjt126com
PHPyii2
2.0 版框架是完全重写的,在 1.1 和 2.0 两个版本之间存在相当多差异。因此从 1.1 版升级并不像小版本间的跨越那么简单,通过本指南你将会了解两个版本间主要的不同之处。
如果你之前没有用过 Yii 1.1,可以跳过本章,直接从"入门篇"开始读起。
请注意,Yii 2.0 引入了很多本章并没有涉及到的新功能。强烈建议你通读整部权威指南来了解所有新特性。这样有可能会发
- Linux SSH免登录配置总结
eksliang
ssh-keygenLinux SSH免登录认证Linux SSH互信
转载请出自出处:http://eksliang.iteye.com/blog/2187265 一、原理
我们使用ssh-keygen在ServerA上生成私钥跟公钥,将生成的公钥拷贝到远程机器ServerB上后,就可以使用ssh命令无需密码登录到另外一台机器ServerB上。
生成公钥与私钥有两种加密方式,第一种是
- 手势滑动销毁Activity
gundumw100
android
老是效仿ios,做android的真悲催!
有需求:需要手势滑动销毁一个Activity
怎么办尼?自己写?
不用~,网上先问一下百度。
结果:
http://blog.csdn.net/xiaanming/article/details/20934541
首先将你需要的Activity继承SwipeBackActivity,它会在你的布局根目录新增一层SwipeBackLay
- JavaScript变换表格边框颜色
ini
JavaScripthtmlWebhtml5css
效果查看:http://hovertree.com/texiao/js/2.htm代码如下,保存到HTML文件也可以查看效果:
<html>
<head>
<meta charset="utf-8">
<title>表格边框变换颜色代码-何问起</title>
</head>
<body&
- Kafka Rest : Confluent
kane_xie
kafkaRESTconfluent
最近拿到一个kafka rest的需求,但kafka暂时还没有提供rest api(应该是有在开发中,毕竟rest这么火),上网搜了一下,找到一个Confluent Platform,本文简单介绍一下安装。
这里插一句,给大家推荐一个九尾搜索,原名叫谷粉SOSO,不想fanqiang谷歌的可以用这个。以前在外企用谷歌用习惯了,出来之后用度娘搜技术问题,那匹配度简直感人。
环境声明:Ubu
- Calender不是单例
men4661273
单例Calender
在我们使用Calender的时候,使用过Calendar.getInstance()来获取一个日期类的对象,这种方式跟单例的获取方式一样,那么它到底是不是单例呢,如果是单例的话,一个对象修改内容之后,另外一个线程中的数据不久乱套了吗?从试验以及源码中可以得出,Calendar不是单例。
测试:
Calendar c1 =
- 线程内存和主内存之间联系
qifeifei
java thread
1, java多线程共享主内存中变量的时候,一共会经过几个阶段,
lock:将主内存中的变量锁定,为一个线程所独占。
unclock:将lock加的锁定解除,此时其它的线程可以有机会访问此变量。
read:将主内存中的变量值读到工作内存当中。
load:将read读取的值保存到工作内存中的变量副本中。
- schedule和scheduleAtFixedRate
tangqi609567707
javatimerschedule
原文地址:http://blog.csdn.net/weidan1121/article/details/527307
import java.util.Timer;import java.util.TimerTask;import java.util.Date;
/** * @author vincent */public class TimerTest {
 
- erlang 部署
wudixiaotie
erlang
1.如果在启动节点的时候报这个错 :
{"init terminating in do_boot",{'cannot load',elf_format,get_files}}
则需要在reltool.config中加入
{app, hipe, [{incl_cond, exclude}]},
2.当generate时,遇到:
ERROR