- Language Models are Few-Shot Learners: 开箱即用的GPT-3(三)
新兴AI民工
深度网络/大模型经典论文详解语言模型gpt-3人工智能
Result前面的两个部分介绍了背景,模型的情况和一些测试的方法,这一章就是展示各种尺寸的模型,包括175B的GPT-3在各种任务下的测试情况了。power-law第三章一上来,就用了14不同尺寸的模型来验证这个cross-entropy的线性提升与模型尺寸的指数关系(从最小的100000个参数,一只上升到175B的GPT-3,从10的5次方一直测试到10的11次方),从更大的尺度上来验证这个结论
- 使用多块AMD GPU通过Megatron-DeepSpeed进行大型语言模型的预训练
109702008
#ROCm语言模型人工智能学习
Pre-trainingalargelanguagemodelwithMegatron-DeepSpeedonmultipleAMDGPUs2024年1月24日,作者:DouglasJia在这篇博客中,我们将向你展示如何使用Megatron-DeepSpeed框架在多块AMDGPU上预训练GPT-3模型。我们还将展示如何使用你预训练的模型执行文本生成任务的推理。什么是Megatron-DeepSp
- 深入解析LoRA:低秩适应的高效大模型微调技术
Zhong Yang
大模型微调人工智能机器学习算法
1.背景与动机随着大语言模型(如GPT-3、Llama)的参数规模突破千亿级,传统全参数微调面临三大挑战:显存爆炸:微调70B模型需数千GB显存(如Llama-270B全微调需1.2TB显存)计算成本:全参数微调的计算量随模型规模呈二次增长过拟合风险:大规模模型对少量下游数据易产生过拟合LoRA(Low-RankAdaptation)由微软研究院提出,通过低秩矩阵分解技术,将微调参数量压缩至原模型
- GPT-3 面试题
简介1、GPT-3是什么?它是基于什么模型的?GPT-3是一种基于深度学习原理的语言预测模型。它是由OpenAI开发的,可以从互联网数据中生成任何类型的文本。它只需要一小段文本作为输入,就可以生成大量的准确和复杂的机器生成文本²⁴。GPT-3是基于Transformer模型的,使用了仅有解码器的自回归架构。它使用下一个单词预测目标进行训练¹²。GPT-3有8个不同的模型,参数从1.25亿到1750
- 深度学习分布式训练:并行策略与通信机制的系统性分析
Takoony
深度学习分布式人工智能
1.引言随着深度学习模型规模的指数级增长,单一计算设备已无法满足训练需求。以GPT-3为例,其1750亿参数在FP16精度下需要约350GB存储空间(每个参数2字节),远超当前主流GPU的显存容量(如NVIDIAA100的80GB)。根据OpenAI的技术报告[1],即使使用最先进的硬件,单卡训练GPT-3需要355年。这一计算瓶颈催生了分布式训练技术的快速发展。本文将从理论基础出发,系统性地分析
- 在LLM快速迭代时代构建持久AI应用:架构设计与实施策略
引言:技术浪潮下的开发困境大型语言模型(LLM)的发展速度令人瞠目:从GPT-3到GPT-4,从Claude1到Claude3,从Llama1到Llama3,迭代周期正在从"年"缩短到"月"。作为一名AI应用开发者,我亲身经历了这种技术浪潮带来的挑战:昨天精心调优的prompt今天可能失效;上个季度集成的模型这个季度已有更优选择;刚完成的功能设计瞬间被新模型的能力超越。在如此快速变化的环境中,如何
- EgoAlpha/prompt-in-context-learning项目解析:Prompt Engineering核心技术指南
霍日江Eagle-Eyed
EgoAlpha/prompt-in-context-learning项目解析:PromptEngineering核心技术指南prompt-in-context-learningAwesomeresourcesforin-contextlearningandpromptengineering:MasteryoftheLLMssuchasChatGPT,GPT-3,andFlanT5,withup-
- MiniMind:3小时训练26MB微型语言模型,开源项目助力AI初学者快速入门
nine是个工程师
关注人工智能语言模型开源
开发|界面|引擎|交付|副驾——重写全栈法则:AI原生的倍速造应用流来自全栈程序员nine的探索与实践,持续迭代中。欢迎关注评论私信交流~在大型语言模型(LLaMA、GPT等)日益流行的今天,一个名为MiniMind的开源项目正在AI学习圈内引起广泛关注。这个项目让初学者能够在3小时内从零开始训练出一个仅26.88MB大小的微型语言模型,体积仅为GPT-3的七千分之一,却完整覆盖了从数据处理到模型
- 「论文导读」LLM高效推理与模型量化
雷羿 LexChien
prompt人工智能LLM论文阅读
1.论文背景作者:HugoTouvron等人,來自MetaAI来源:arXiv:2302.13971,2023年2月主题:介绍LLaMA系列模型(LLaMA-7B、13B、33B、65B),专为研究用途设计,强调高效能与低资源需求的语言模型推理。论文探讨如何通过优化训练数据、模型架构和推理技术,在有限硬体资源(如单一GPU或CPU)上实现高效推理。学术背景:随着大型语言模型(LLM)如GPT-3的
- 【人工智能】Maas(模型即服务)(Model as a Service)是一种基于云计算的商业模式,通过API将预训练的人工智能模型作为服务提供给用户,使其无需自行管理底层基础设施即可调用AI能力。
本本本添哥
A-AIGC人工智能大模型人工智能云计算
ModelasaService(模型即服务,MaaS)是一种基于云计算的商业模式,通过API将预训练的人工智能模型作为服务提供给用户,使其无需自行管理底层基础设施即可调用AI能力。MaaS通过云原生架构和标准化服务,正在重塑AI技术的开发和消费方式,推动人工智能从“技术专有”向“普惠工具”转变。以下是其核心要点:1.定义与核心理念MaaS将大模型(如GPT-3、多模态模型等)封装为标准化服务,用户
- 大语言模型原理基础与前沿 基于语言反馈进行微调
AI天才研究院
计算AI大模型企业级应用开发实战AI人工智能与大数据计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
大语言模型原理基础与前沿基于语言反馈进行微调作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着深度学习技术的飞速发展,自然语言处理(NLP)领域取得了显著的进展。大语言模型(LargeLanguageModels,LLMs)如GPT-3、BERT等在各项NLP任务上取得了令人瞩目的成绩。然而,如何进一步提高大语言模型的理
- 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
当谈到人工智能大语言模型的微调技术时,我们进入了一个令人兴奋的领域。这些大型预训练模型,如GPT-3、BERT和T5,拥有卓越的自然语言处理能力,但要使它们在特定任务上表现出色,就需要进行微调,以使其适应特定的数据和任务需求。在这篇文章中,我们将深入探讨四种不同的人工智能大语言模型微调技术:SFT监督微调、LoRA微调方法、P-tuningv2微调方法和Freeze监督微调方法。第一部分:SFT监
- 基于Google Gemini 探索大语言模型在医学领域应用评估和前景
知来者逆
LLM语言模型搜索引擎人工智能Gemini大语言模型医疗健康医疗
概述近年来,大规模语言模型(LLM)在理解和生成人类语言方面取得了显著的飞跃,这些进步不仅推动了语言学和计算机编程的发展,还为多个领域带来了创新的突破。特别是模型如GPT-3和PaLM,它们通过吸收海量文本数据,已经能够掌握复杂的语言模式。人工智能技术的迅猛发展不断推动着LLM的进化,并加速了这一领域的专业创新。这些进步是随着模型规模的扩大、数据量的增加以及计算能力的提升而逐步实现的,其中许多尖端
- LoRA微调详解:如何为AIGC模型节省90%显存
SuperAGI2025
AI大模型应用开发宝典AIGCai
LoRA微调详解:如何为AIGC模型节省90%显存关键词:LoRA、低秩适应、AIGC模型、参数高效微调、显存优化摘要:在AIGC(人工智能生成内容)领域,大模型(如GPT-3、LLaMA、StableDiffusion)的微调需要消耗海量显存,普通用户或企业难以负担。本文将深入解析LoRA(Low-RankAdaptation,低秩适应)这一参数高效微调技术,通过生活类比、数学原理、代码实战和应
- 《论文阅读》GPT-3是否会产生移情对话?一种新的情境示例选择方法和用于生成同理心对话的自动评估度量 ICCL 2022
365JHWZGo
情感对话论文阅读gpt-3共情回复上下文学习提示学习大模型
《论文阅读》GPT-3是否会产生移情对话?一种新的情境示例选择方法和用于生成同理心对话的自动评估度量ICCL2022前言贡献PromptIn-contextlearningSITSMEMOSITSM新的自动指标实验前言亲身阅读感受分享,细节画图解释,再也不用担心看不懂论文啦~无抄袭,无复制,纯手工敲击键盘~今天为大家带来的是《DoesGPT-3GenerateEmpatheticDialogues
- 【LangChain编程:从入门到实践】AI 大模型检索增强生成 RAG 实践
AI智能应用
Python入门实战计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
LangChain编程:从入门到实践-AI大模型检索增强生成RAG实践关键词:LangChain,RAG,大语言模型,检索增强生成,向量数据库,嵌入模型,提示工程1.背景介绍在人工智能和自然语言处理领域,大语言模型(LargeLanguageModels,LLMs)的出现无疑是一个重大突破。像GPT-3、GPT-4这样的模型展现出了惊人的语言理解和生成能力,为各种应用场景带来了无限可能。然而,这些
- 大模型系列——提示词工程:从原理、实践到未来的一部系统性综述
猫猫姐
大模型人工智能大模型提示词
提示词工程:从原理、实践到未来的一部系统性综述摘要本文系统性地阐述了提示词工程(PromptEngineering)这一关键领域,它作为释放大语言模型(LLM)潜能的核心人机交互范式。报告从LLM的“下一个词预测”基本机制出发,追溯了提示词工程从GPT-3时代“上下文学习”的偶然发现到当前系统化、工程化的演进历程。本文深度剖析了多种高级提示框架,包括旨在激发模型逐步推理的“思维链”(Chain-o
- 【AI大模型】26、算力受限下的模型工程:从LoRA到弹性智能系统的优化实践
无心水
AI大模型人工智能搜索引擎LoRA大语言模型微调模型压缩知识蒸馏量化技术
引言:算力瓶颈与模型工程的突围之路在人工智能领域,大语言模型的发展正呈现出参数规模爆炸式增长的趋势。从GPT-3的1750亿参数到PaLM的5400亿参数,模型能力的提升往往伴随着对算力资源的极度渴求。然而,对于大多数企业和研究者而言,动辄数百GB的显存需求、数十万块GPU的训练集群显然是难以企及的"算力鸿沟"。当面对"无米之炊"的困境时,模型工程技术成为突破算力瓶颈的核心路径——通过算法创新而非
- 【大模型学习 | LORA 原理及实现】
九年义务漏网鲨鱼
语言模型pythonpytorch自然语言处理
LORA:LOW-RANKADAPTATIONOFLARGELAN-GUAGEMODELSGithub库:GitHub-microsoft/LoRA:Codeforloralib,animplementationof“LoRA:Low-RankAdaptationofLargeLanguageModels”GPT-3:175B微调模型变得十分的贵。作者提出利用Low-RankAdaption来冻结
- ⼤模型(LLMs)基础⾯
cv2016_DL
LLM大模型计算机视觉人工智能llama
1.⽬前主流的开源模型体系有哪些?⽬前主流的开源LLM(语⾔模型)模型体系包括以下⼏个:1.GPT(GenerativePre-trainedTransformer)系列:由OpenAI发布的⼀系列基于Transformer架构的语⾔模型,包括GPT、GPT-2、GPT-3等。GPT模型通过在⼤规模⽆标签⽂本上进⾏预训练,然后在特定任务上进⾏微调,具有很强的⽣成能⼒和语⾔理解能⼒。2.BERT(B
- 二、大模型的能力(DataWhale大模型理论基础)
Y_fulture
大模型理论基础(DW组队学习)人工智能gpt-3nlp
大模型的能力一、概述本节主要是通过对GPT-3论文中的基准测试深入研究,从而获得关于GPT-3更深程度的认识我们应该知道,GPT-3的结果参差不齐:在某些任务上,比如语言建模,GPT-3大幅度超越了现有技术的最高水平;在其他任务上,GPT-3与训练有素,拥有大量标签数据的系统竞争时,却明显落后。造成上述现象的原因:GPT-3并未明确针对这些任务进行训练,它只是作为一个语言模型,被训练来预测下一个词
- 大语言模型:人工智能的“大脑革命“与未来图景
RockLiu@805
大模型实战人工智能语言模型自然语言处理
大语言模型:人工智能的"大脑革命"与未来图景——从GPT-3到AGI的演进之路引言:算力觉醒的时代2022年11月,ChatGPT的横空出世犹如一记惊雷,仅用5天时间就突破百万用户,两个月后月活用户突破1亿。这个现象级应用背后,是参数量高达1750亿的GPT-3.5大模型在支撑。这场由大语言模型(LargeLanguageModels,LLMs)引发的AI革命,正在重塑人类社会的认知边界。当我们与
- DeepSpeed 深度学习学习笔记:高效训练大型模型
主要参考官网文档,对于具体内容还需参考官方文档1.引言:为什么需要DeepSpeed?大型模型训练的挑战随着深度学习模型规模的爆炸式增长(从BERT的几亿参数到GPT-3的千亿参数,再到现在的万亿参数模型),传统的单GPU训练方式变得力不从心,即使是多GPU训练也面临巨大挑战:内存限制(MemoryWall):模型参数:模型的参数量巨大,例如一个1750亿参数的GPT-3模型,即使使用FP16精度
- LoRA、QLoRA是什么
爱吃土豆的马铃薯ㅤㅤㅤㅤㅤㅤㅤㅤㅤ
人工智能机器学习深度学习
一:LoRA(Low-RankAdaptation,低秩适应)是一种高效的大模型参数微调技术,由Meta在2021年提出。它通过冻结预训练模型参数,仅训练少量新增的低秩矩阵,大幅减少了需要训练的参数量,同时保持接近全参数微调的效果。为什么需要LoRA?传统的全参数微调(Fine-tuning)需要更新大型语言模型的所有参数(如GPT-3有1750亿参数),这带来两个核心问题:计算资源需求极高:需要
- 深入探讨:如何使用OutputFixingParser修复LLM输出的解析错误并确保数据结构的完整性
m0_57781768
数据结构
深入探讨:如何使用OutputFixingParser修复LLM输出的解析错误并确保数据结构的完整性在当今的自然语言处理(NLP)领域,大型语言模型(LLM)如GPT-3等,已成为解决复杂问题的重要工具。这些模型能够生成自然语言文本,用于回答问题、生成内容或进行对话。然而,在将这些生成的文本转换为结构化数据格式(如JSON或Pydantic模型实例)时,可能会遇到解析错误。尤其是在文本格式不正确或
- AI 在创新创业比赛的 10 大应用:从创意激发到成果转化
大明者省
人工智能
1.创意灵感生成:基于大数据的创新点挖掘AI通过分析行业动态、市场痛点及前沿技术趋势,结合自然语言处理和生成式模型,为参赛者提供创新灵感。例如,利用GPT-3等语言模型,输入行业关键词,快速生成潜在的创业方向和产品概念。importopenai#设置OpenAIAPI密钥openai.api_key="your_api_key"defgenerate_innovation_ideas(keywor
- 【AI大模型】15、从GPT-1到GPT-3:大语言模型核心技术演进与能力涌现全解析
一、GPT-1:预训练微调范式的奠基者(2018)(一)架构创新:单向Transformer解码器的诞生GPT-1首次将Transformer架构应用于语言模型领域,其核心采用12层Transformer解码器,摒弃了传统RNN的递归结构,通过自注意力机制实现并行计算。与Encoder-Decoder架构不同,GPT-1仅使用解码器部分,每个解码器层包含:多头自注意力模块:8个头,每个头维度64,
- 从零开始掌握OpenAI的GPT-3 API:基础指南与实战示例
stjklkjhgffxw
gpt-3python
#从零开始掌握OpenAI的GPT-3API:基础指南与实战示例##引言在人工智能领域,OpenAI的GPT-3无疑是近年来最令人瞩目的技术突破之一。无论是用于生成自然语言文本、编写代码,还是提供智能对话服务,GPT-3都展示了其强大的能力。本篇文章旨在帮助初学者从零开始掌握GPT-3的API使用,了解其核心原理,并通过实战示例加深理解。##主要内容###1.什么是GPT-3?GPT-3(Gene
- 大模型全景解析:从技术突破到行业变革
敲键盘的小夜猫
大语言模型语言模型
目录一、引言:人工智能的新纪元二、大模型发展历史与技术演进1.早期探索期(2015-2017):从"人工智障"到初具规模RNN/LSTM架构时代(2013-2017)Transformer革命(2017)2.预训练模型崛起(2018-2020):范式转变BERT模型(2018)GPT系列初期(2018-2019)3.千亿参数时代(2020-2022):规模效应凸显GPT-3(2020):规模带来质
- AI大模型创业:如何实现未来盈利?
AI智能应用
AI大模型应用入门实战与进阶javapythonjavascriptkotlingolang架构人工智能
AI大模型,创业,盈利模式,商业应用,技术趋势,市场分析,案例研究1.背景介绍近年来,人工智能(AI)技术取得了飞速发展,特别是大规模语言模型(LLM)的出现,如GPT-3、LaMDA等,展现出强大的文本生成、理解和翻译能力,为各行各业带来了革命性的变革。随着AI技术的不断进步,越来越多的创业者看到了AI大模型的巨大商业潜力,纷纷涌入这个领域。然而,仅仅拥有先进的AI技术还不够,如何将AI大模型转
- java的(PO,VO,TO,BO,DAO,POJO)
Cb123456
VOTOBOPOJODAO
转:
http://www.cnblogs.com/yxnchinahlj/archive/2012/02/24/2366110.html
-------------------------------------------------------------------
O/R Mapping 是 Object Relational Mapping(对象关系映
- spring ioc原理(看完后大家可以自己写一个spring)
aijuans
spring
最近,买了本Spring入门书:spring In Action 。大致浏览了下感觉还不错。就是入门了点。Manning的书还是不错的,我虽然不像哪些只看Manning书的人那样专注于Manning,但怀着崇敬 的心情和激情通览了一遍。又一次接受了IOC 、DI、AOP等Spring核心概念。 先就IOC和DI谈一点我的看法。IO
- MyEclipse 2014中Customize Persperctive设置无效的解决方法
Kai_Ge
MyEclipse2014
高高兴兴下载个MyEclipse2014,发现工具条上多了个手机开发的按钮,心生不爽就想弄掉他!
结果发现Customize Persperctive失效!!
有说更新下就好了,可是国内Myeclipse访问不了,何谈更新...
so~这里提供了更新后的一下jar包,给大家使用!
1、将9个jar复制到myeclipse安装目录\plugins中
2、删除和这9个jar同包名但是版本号较
- SpringMvc上传
120153216
springMVC
@RequestMapping(value = WebUrlConstant.UPLOADFILE)
@ResponseBody
public Map<String, Object> uploadFile(HttpServletRequest request,HttpServletResponse httpresponse) {
try {
//
- Javascript----HTML DOM 事件
何必如此
JavaScripthtmlWeb
HTML DOM 事件允许Javascript在HTML文档元素中注册不同事件处理程序。
事件通常与函数结合使用,函数不会在事件发生前被执行!
注:DOM: 指明使用的 DOM 属性级别。
1.鼠标事件
属性  
- 动态绑定和删除onclick事件
357029540
JavaScriptjquery
因为对JQUERY和JS的动态绑定事件的不熟悉,今天花了好久的时间才把动态绑定和删除onclick事件搞定!现在分享下我的过程。
在我的查询页面,我将我的onclick事件绑定到了tr标签上同时传入当前行(this值)参数,这样可以在点击行上的任意地方时可以选中checkbox,但是在我的某一列上也有一个onclick事件是用于下载附件的,当
- HttpClient|HttpClient请求详解
7454103
apache应用服务器网络协议网络应用Security
HttpClient 是 Apache Jakarta Common 下的子项目,可以用来提供高效的、最新的、功能丰富的支持 HTTP 协议的客户端编程工具包,并且它支持 HTTP 协议最新的版本和建议。本文首先介绍 HTTPClient,然后根据作者实际工作经验给出了一些常见问题的解决方法。HTTP 协议可能是现在 Internet 上使用得最多、最重要的协议了,越来越多的 Java 应用程序需
- 递归 逐层统计树形结构数据
darkranger
数据结构
将集合递归获取树形结构:
/**
*
* 递归获取数据
* @param alist:所有分类
* @param subjname:对应统计的项目名称
* @param pk:对应项目主键
* @param reportList: 最后统计的结果集
* @param count:项目级别
*/
public void getReportVO(Arr
- 访问WEB-INF下使用frameset标签页面出错的原因
aijuans
struts2
<frameset rows="61,*,24" cols="*" framespacing="0" frameborder="no" border="0">
- MAVEN常用命令
avords
Maven库:
http://repo2.maven.org/maven2/
Maven依赖查询:
http://mvnrepository.com/
Maven常用命令: 1. 创建Maven的普通java项目: mvn archetype:create -DgroupId=packageName 
- PHP如果自带一个小型的web服务器就好了
houxinyou
apache应用服务器WebPHP脚本
最近单位用PHP做网站,感觉PHP挺好的,不过有一些地方不太习惯,比如,环境搭建。PHP本身就是一个网站后台脚本,但用PHP做程序时还要下载apache,配置起来也不太很方便,虽然有好多配置好的apache+php+mysq的环境,但用起来总是心里不太舒服,因为我要的只是一个开发环境,如果是真实的运行环境,下个apahe也无所谓,但只是一个开发环境,总有一种杀鸡用牛刀的感觉。如果php自己的程序中
- NoSQL数据库之Redis数据库管理(list类型)
bijian1013
redis数据库NoSQL
3.list类型及操作
List是一个链表结构,主要功能是push、pop、获取一个范围的所有值等等,操作key理解为链表的名字。Redis的list类型其实就是一个每个子元素都是string类型的双向链表。我们可以通过push、pop操作从链表的头部或者尾部添加删除元素,这样list既可以作为栈,又可以作为队列。
&nbs
- 谁在用Hadoop?
bingyingao
hadoop数据挖掘公司应用场景
Hadoop技术的应用已经十分广泛了,而我是最近才开始对它有所了解,它在大数据领域的出色表现也让我产生了兴趣。浏览了他的官网,其中有一个页面专门介绍目前世界上有哪些公司在用Hadoop,这些公司涵盖各行各业,不乏一些大公司如alibaba,ebay,amazon,google,facebook,adobe等,主要用于日志分析、数据挖掘、机器学习、构建索引、业务报表等场景,这更加激发了学习它的热情。
- 【Spark七十六】Spark计算结果存到MySQL
bit1129
mysql
package spark.examples.db
import java.sql.{PreparedStatement, Connection, DriverManager}
import com.mysql.jdbc.Driver
import org.apache.spark.{SparkContext, SparkConf}
object SparkMySQLInteg
- Scala: JVM上的函数编程
bookjovi
scalaerlanghaskell
说Scala是JVM上的函数编程一点也不为过,Scala把面向对象和函数型编程这两种主流编程范式结合了起来,对于熟悉各种编程范式的人而言Scala并没有带来太多革新的编程思想,scala主要的有点在于Java庞大的package优势,这样也就弥补了JVM平台上函数型编程的缺失,MS家.net上已经有了F#,JVM怎么能不跟上呢?
对本人而言
- jar打成exe
bro_feng
java jar exe
今天要把jar包打成exe,jsmooth和exe4j都用了。
遇见几个问题。记录一下。
两个软件都很好使,网上都有图片教程,都挺不错。
首先肯定是要用自己的jre的,不然不能通用,其次别忘了把需要的lib放到classPath中。
困扰我很久的一个问题是,我自己打包成功后,在一个同事的没有装jdk的电脑上运行,就是不行,报错jvm.dll为无效的windows映像,如截图
最后发现
- 读《研磨设计模式》-代码笔记-策略模式-Strategy
bylijinnan
java设计模式
声明: 本文只为方便我个人查阅和理解,详细的分析以及源代码请移步 原作者的博客http://chjavach.iteye.com/
/*
策略模式定义了一系列的算法,并将每一个算法封装起来,而且使它们还可以相互替换。策略模式让算法独立于使用它的客户而独立变化
简单理解:
1、将不同的策略提炼出一个共同接口。这是容易的,因为不同的策略,只是算法不同,需要传递的参数
- cmd命令值cvfM命令
chenyu19891124
cmd
cmd命令还真是强大啊。今天发现jar -cvfM aa.rar @aaalist 就这行命令可以根据aaalist取出相应的文件
例如:
在d:\workspace\prpall\test.java 有这样一个文件,现在想要将这个文件打成一个包。运行如下命令即可比如在d:\wor
- OpenJWeb(1.8) Java Web应用快速开发平台
comsci
java框架Web项目管理企业应用
OpenJWeb(1.8) Java Web应用快速开发平台的作者是我们技术联盟的成员,他最近推出了新版本的快速应用开发平台 OpenJWeb(1.8),我帮他做做宣传
OpenJWeb快速开发平台以快速开发为核心,整合先进的java 开源框架,本着自主开发+应用集成相结合的原则,旨在为政府、企事业单位、软件公司等平台用户提供一个架构透
- Python 报错:IndentationError: unexpected indent
daizj
pythontab空格缩进
IndentationError: unexpected indent 是缩进的问题,也有可能是tab和空格混用啦
Python开发者有意让违反了缩进规则的程序不能通过编译,以此来强制程序员养成良好的编程习惯。并且在Python语言里,缩进而非花括号或者某种关键字,被用于表示语句块的开始和退出。增加缩进表示语句块的开
- HttpClient 超时设置
dongwei_6688
httpclient
HttpClient中的超时设置包含两个部分:
1. 建立连接超时,是指在httpclient客户端和服务器端建立连接过程中允许的最大等待时间
2. 读取数据超时,是指在建立连接后,等待读取服务器端的响应数据时允许的最大等待时间
在HttpClient 4.x中如下设置:
HttpClient httpclient = new DefaultHttpC
- 小鱼与波浪
dcj3sjt126com
一条小鱼游出水面看蓝天,偶然间遇到了波浪。 小鱼便与波浪在海面上游戏,随着波浪上下起伏、汹涌前进。 小鱼在波浪里兴奋得大叫:“你每天都过着这么刺激的生活吗?简直太棒了。” 波浪说:“岂只每天过这样的生活,几乎每一刻都这么刺激!还有更刺激的,要有潮汐变化,或者狂风暴雨,那才是兴奋得心脏都会跳出来。” 小鱼说:“真希望我也能变成一个波浪,每天随着风雨、潮汐流动,不知道有多么好!” 很快,小鱼
- Error Code: 1175 You are using safe update mode and you tried to update a table
dcj3sjt126com
mysql
快速高效用:SET SQL_SAFE_UPDATES = 0;下面的就不要看了!
今日用MySQL Workbench进行数据库的管理更新时,执行一个更新的语句碰到以下错误提示:
Error Code: 1175
You are using safe update mode and you tried to update a table without a WHERE that
- 枚举类型详细介绍及方法定义
gaomysion
enumjavaee
转发
http://developer.51cto.com/art/201107/275031.htm
枚举其实就是一种类型,跟int, char 这种差不多,就是定义变量时限制输入的,你只能够赋enum里面规定的值。建议大家可以看看,这两篇文章,《java枚举类型入门》和《C++的中的结构体和枚举》,供大家参考。
枚举类型是JDK5.0的新特征。Sun引进了一个全新的关键字enum
- Merge Sorted Array
hcx2013
array
Given two sorted integer arrays nums1 and nums2, merge nums2 into nums1 as one sorted array.
Note:You may assume that nums1 has enough space (size that is
- Expression Language 3.0新特性
jinnianshilongnian
el 3.0
Expression Language 3.0表达式语言规范最终版从2013-4-29发布到现在已经非常久的时间了;目前如Tomcat 8、Jetty 9、GlasshFish 4已经支持EL 3.0。新特性包括:如字符串拼接操作符、赋值、分号操作符、对象方法调用、Lambda表达式、静态字段/方法调用、构造器调用、Java8集合操作。目前Glassfish 4/Jetty实现最好,对大多数新特性
- 超越算法来看待个性化推荐
liyonghui160com
超越算法来看待个性化推荐
一提到个性化推荐,大家一般会想到协同过滤、文本相似等推荐算法,或是更高阶的模型推荐算法,百度的张栋说过,推荐40%取决于UI、30%取决于数据、20%取决于背景知识,虽然本人不是很认同这种比例,但推荐系统中,推荐算法起的作用起的作用是非常有限的。
就像任何
- 写给Javascript初学者的小小建议
pda158
JavaScript
一般初学JavaScript的时候最头痛的就是浏览器兼容问题。在Firefox下面好好的代码放到IE就不能显示了,又或者是在IE能正常显示的代码在firefox又报错了。 如果你正初学JavaScript并有着一样的处境的话建议你:初学JavaScript的时候无视DOM和BOM的兼容性,将更多的时间花在 了解语言本身(ECMAScript)。只在特定浏览器编写代码(Chrome/Fi
- Java 枚举
ShihLei
javaenum枚举
注:文章内容大量借鉴使用网上的资料,可惜没有记录参考地址,只能再传对作者说声抱歉并表示感谢!
一 基础 1)语法
枚举类型只能有私有构造器(这样做可以保证客户代码没有办法新建一个enum的实例)
枚举实例必须最先定义
2)特性
&nb
- Java SE 6 HotSpot虚拟机的垃圾回收机制
uuhorse
javaHotSpotGC垃圾回收VM
官方资料,关于Java SE 6 HotSpot虚拟机的garbage Collection,非常全,英文。
http://www.oracle.com/technetwork/java/javase/gc-tuning-6-140523.html
Java SE 6 HotSpot[tm] Virtual Machine Garbage Collection Tuning
&