- 【大模型微调实战】4. P-Tuning爆款文案生成:让模型学会小红书“爽感”写作,转化率提升300%
AI_DL_CODE
大模型微调P-Tuning小红书文案爆款生成情绪强化自然语言生成提示工程
摘要:在内容营销竞争白热化的当下,普通文案已难以突破流量壁垒。本文聚焦P-Tuning技术在小红书爆款文案生成中的落地应用,通过参数化提示向量优化,将抽象的“爽感”写作转化为可量化、可训练的技术指标。文中提出“六步成文法”,从情绪化数据集构建到爆款元素复刻,完整拆解如何用RTX3060级显卡实现0.1%参数量微调,使文案点击率从2.1%提升至8.7%,爆文率提高5倍,单条文案带货超8万元。核心创新
- 大模型微调:从零到实践,掌握AI大模型的核心技能
之之为知知
12大模型人工智能机器学习特征工程pytorch深度学习大模型微调
大模型微调:从零到实践,掌握AI大模型的核心技能引言大规模语言模型(如DeepSeek、通义千问)的出现,彻底改变了自然语言处理的格局。这些模型不仅在学术界取得了突破性进展,在工业界也得到了广泛应用。对于许多初学者来说,直接训练一个完整的大型语言模型可能显得遥不可及。幸运的是,微调(Fine-tuning)技术为我们提供了一条捷径,让我们可以基于已有的预训练模型,针对特定任务进行调整,从而快速实现
- oracle health check,ORACLE SQL Tuning Health-Check(SQLHC)
爱护哼哼
oraclehealthcheck
一条sql语句的性能主要依赖于好的物理结构,准确的系统统计数据,准确的对象统计数据,合理的查询优化器参数,合理的系统参数.这些数据也就是CBO计算的基本参数,SQLHC(文档ID1366133.1)正是为用户提供sql的这些数据,来辅助sql调优.特别适合无法在客户环境中调优的情况,SQLHC虽然没有SQLT(文档ID215187.1)更强大,但不需要在采集的库上建用户,会被更多的客户所接受.以下
- Prompt Engineering(提示词工程)基础了解
Fuly1024
LLMprompt
参考:https://blog.csdn.net/qq_56438555/article/details/1448865171.基础概念:提示词工程(promptEngineering)是指通过设计、优化输入给大语言模型的文本指令(即“提示词”),引导LLM输出我们期望的结果。让大模型在无需微调(Fine-tuning)的情况下,通过“更好的提问方式”完成复杂任务(开发潜力,不会的还是不会)。但是
- 想进大厂?LLMs 10道面试题提前看,有问有答,图文详解!
AI大模型-大飞
人工智能大模型chatgpt产品经理AI程序员大模型面试题
一、微调与优化21、LLM的微调流程是什么?微调(Fine-tuning)LLMs指的是在特定任务或数据上对预训练好的模型进行进一步训练,使其能更好地适应目标场景的过程,其主要流程如下:数据准备:数据收集:根据目标任务收集高质量、有代表性的数据;数据预处理:对原始数据进行清洗,如去除噪声、重复项、不相关内容等。根据模型输入要求对数据进行格式化;数据划分:将数据分为训练集、验证集和测试集,为后续模型
- 【美团3面】大模型面试题详解:大模型使用几十条数据微调后为啥性能差的很多?
AI大模型-王哥
产品经理大模型学习AI大模型人工智能大模型大模型教程程序员
一个很有意思的回答:大模型的LossLandscape是由多个“Basin”(盆地)组成的,而不是一个平滑的曲面。如果微调(Fine-Tuning)的优化方向偏离了BasicCapacityBasin,就可能容易训崩掉,虽然训崩的概率不大。大模型(如LLM)在预训练阶段通过海量数据学习,优化出一个“基本能力盆地”(BasicCapacityBasin),这个Basin代表模型具备通用语言理解、生成
- 论文笔记:EMR-MERGING: Tuning-Free High-Performance Model Merging
UQI-LIUWJ
论文笔记论文阅读
2024neurips1intro随着HuggingFace、timm和torchvision等开源仓库的发展,预训练与微调模型的数量激增,这导致模型部署的存储和成本负担加重。多任务学习(MTL)通过联合训练多数据集来部分缓解上述问题,但它存在以下缺陷:(i)计算成本高;(ii)隐私数据限制导致数据不可获取因此,近年来出现了**模型融合(modelmerging)**方法,试图通过权重合并的方式绕
- 大模型微调技术的详细解析及对比
老兵发新帖
人工智能大数据
以下是四种主流大模型微调技术的详细解析及对比,结合技术原理、适用场景与性能表现进行说明:1.Full-tuning(全量微调)核心原理:加载预训练模型的所有参数,用特定任务数据(通常为指令-回答对)继续训练,更新全部权重。相当于对模型整体知识结构进行重构。操作流程:加载预训练模型;用任务数据集(如分类文本)和优化目标(如最小化误差)训练;所有参数参与梯度更新。优势:模型充分学习任务特征,效果通常最
- 大模型训练中的“训练阶段”(如Pre-training、SFT、RLHF等)与“微调技术”
老兵发新帖
人工智能深度学习机器学习
大模型训练中的“训练阶段”(如Pre-training、SFT、RLHF等)与“微调技术”(如Full-tuning、Freeze-tuning、LoRA、QLoRA)是两类不同维度的概念,二者共同构成模型优化的完整流程。以下是二者的关系解析及技术对照:一、训练阶段的核心流程与目标预训练(Pre-training)目标:在无标注通用数据(如互联网文本)上训练模型,学习语言、视觉等通用特征。微调技术
- 基于小样本学习的图像分类综述
cdyyyyyyy
学习分类机器学习
目录引言基本概念小样本学习方法分类1、数据增强2、迁移学习3、元学习小样本学习主流方法1、基于度量的小样本学习2、基于Pretraining+FineTuning的方法3、基于元学习的小样本学习总结引言因为课程设计要求,所以进行了关于小样本学习的调研。目前小样本学习还是一个比较热门的研究,很多关于小样本学习的论文也陆续发表。本文只是一个概述,具体方法研究还有待深入。基本概念小样本学习(FSL:Fe
- 论文阅读:LLaVA1.5:Improved Baselines with Visual Instruction Tuning
微风❤水墨
LLM&AIGC&VLPLLM
论文:https://arxiv.org/abs/2310.03744代码:https://github.com/haotian-liu/LLaVA#train微调:https://github.com/haotian-liu/LLaVA/blob/main/docs/Finetune_Custom_Data.md模型论文时间VisionEncoderVLAdapterProjectionLaye
- 14.3 FFT与PEFT终极对决:1%参数实现3倍速训练,显存暴降80%!
少林码僧
掌握先机!从0起步实战AI大模型微调打造核心竞争力人工智能机器学习大数据语言模型chatgptllama
以微调权重比例分类:FFTvsPEFT深度解析在大模型微调领域,参数调整比例直接决定训练效率与模型性能的平衡。本小节将深入解析全参数微调(FullFine-Tuning,FFT)与参数高效微调(Parameter-EfficientFine-Tuning,PEFT)的核心差异,并通过具体技术方案对比和实战代码示例揭示其工程应用场景。一、FFT与PEFT技术对比矩阵
- 【大语言模型基础】GPT(Generative Pre-training )生成式无监督预训练模型原理
前言ELMo:将上下文当作特征,但是无监督的语料和我们真实的语料还是有区别的,不一定符合我们特定的任务,是一种双向的特征提取。OpenAIGPT:通过transformerdecoder学习出来一个语言模型,不是固定的,通过任务fine-tuning,用transfomer代替ELMo的LSTM。OpenAIGPT其实就是缺少了encoder的transformer:当然也没了encoder与de
- MTK Camera 架构概览:Imagiq ISP 关键模块解析与工程实战分享
观熵
影像技术全景图谱:架构调优与实战架构接口隔离原则影像Camera
MTKCamera架构概览:ImagiqISP关键模块解析与工程实战分享关键词MTKCamera、ImagiqISP、联发科相机架构、AE/AWB/AF模块、3A控制、RAWDomain、SensorTuning、工程调试、影像信号处理摘要随着联发科平台在中高端手机市场逐步占据重要地位,其影像能力的竞争力也显著提升。ImagiqISP作为MTK平台核心影像处理模块,已支持多通道RAW输入、高速多帧
- SFT:大型语言模型专业化定制的核心技术体系——原理、创新与应用全景
大千AI助手
人工智能Python#OTHER语言模型人工智能自然语言处理深度学习机器学习微调SFT
本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!以下基于权威期刊、会议论文及技术报告,对监督微调(SupervisedFine-Tuning,SFT)的技术框架、创新方法与实际应用进行系统梳理:一、核心定义与技术原理基本概念SFT是在预训练语言模型(如GPT、BERT)基础上,利用标注数据集对模型进
- 【论文阅读】AdaCtrl: Towards Adaptive and Controllable Reasoning via Difficulty-Aware Budgeting
quintus0505
LLM论文阅读语言模型
AdaCtrl:TowardsAdaptiveandControllableReasoningviaDifficulty-AwareBudgeting3Method3.1长度触发标签作为控制接口(Length-TriggerTagsasControllingInterface)3.2冷启动微调(Cold-startfine-tuning)3.3难度感知的强化学习框架(Difficulty-awar
- 语言大模型综述
Paper:ASurveyofLargelanguageModels目录Paper:ASurveyofLargelanguageModels综述概要LLM关键技术规模定律(ScalingLaws)预训练与微调对齐调优(AlignmentTuning)外部工具集成GPT系列模型的技术演进模型检查点和APIPre-Training数据准备和处理数据准备数据预处理数据调度架构EmergentArchit
- Tuning Language Models by Proxy
樱花的浪漫
对抗生成网络与动作识别强化学习因果推断大模型与智能体人工智能机器学习深度学习自然语言处理计算机视觉神经网络
TuningLanguageModelsbyProxyhttps://arxiv.org/html/2401.08565v41.概述尽管大型预训练语言模型的通用能力越来越强,但它们仍然可以从额外的微调中受益,以更好地实现所需的行为。例如,它们通常被微调以遵循指令(Ouyang等人,2022年)、特定的兴趣领域(Gururangan等人,2020年)或特定任务(Raffel等人,2020年)。然而,
- 【零基础学AI】第29讲:BERT模型实战 - 情感分析
1989
0基础学AIbert人工智能深度学习神经网络cnnpython自然语言处理
本节课你将学到BERT模型的核心原理与优势HuggingFaceTransformers库的BERT接口使用情感分析任务的完整实现流程模型微调(Fine-tuning)技巧开始之前环境要求Python3.8+需要安装的包:pipinstalltorchtransformersdatasetspandastqdmGPU推荐(可加速训练)前置知识第28讲Transformer基础基本PyTorch使用
- 模型微调方法Prefix-Tuning
ballball~~
大模型人工智能算法大数据
简介:个人学习分享,如有错误,欢迎批评指正。随着大规模预训练语言模型(如GPT系列、BERT等)的广泛应用,如何高效、经济地针对特定任务对这些模型进行微调(Fine-Tuning)成为研究热点。传统的微调方法通常需要调整模型的大量参数,导致计算资源消耗大、适应新任务的速度慢。为了解决这一问题,Prefix-Tuning(前缀调优)作为一种高效的微调技术被提出,旨在通过引入少量可训练的前缀参数,达到
- 四种微调技术详解:SFT 监督微调、LoRA 微调、P-tuning v2、Freeze 监督微调方法
当谈到人工智能大语言模型的微调技术时,我们进入了一个令人兴奋的领域。这些大型预训练模型,如GPT-3、BERT和T5,拥有卓越的自然语言处理能力,但要使它们在特定任务上表现出色,就需要进行微调,以使其适应特定的数据和任务需求。在这篇文章中,我们将深入探讨四种不同的人工智能大语言模型微调技术:SFT监督微调、LoRA微调方法、P-tuningv2微调方法和Freeze监督微调方法。第一部分:SFT监
- 顶会新方向!14篇图神经网络(GNN)最新顶会论文汇总!(含2024)
AI科研技术派
神经网络人工智能深度学习
图神经网络(GNN)是深度学习领域中备受关注的前沿课题,它在处理图结构数据方面展现出了强大的潜力,随着研究的不断深入,越来越多的优秀论文在顶级学术会议上涌现。今天就给大家整理了14篇顶会中发表的图神经网络优质论文,一起看看这方面的最新研究成果吧!AAAI20241、Fine-tuningGraphNeuralNetworksbyPreservingGraphGenerativePatterns通过
- 大规模预训练语言模型的参数高效微调
人工智能咨询培训老师叶梓转载标明出处大规模预训练语言模型(PLMs)在特定下游任务上的微调和存储成本极高,这限制了它们在实际应用中的可行性。为了解决这一问题,来自清华大学和北京人工智能研究院的研究团队探索了一种优化模型中一小部分参数的方法,同时保持其他参数不变,以大幅降低计算和存储成本。研究团队提出了“delta-tuning”这一概念,将优化的参数部分称为“delta”,即在训练过程中被“改变”
- 【机器学习&深度学习】模型微调的基本概念与流程
一叶千舟
深度学习【理论】机器学习深度学习人工智能
目录前言一、什么是模型微调(Fine-tuning)?二、预训练vs微调:什么关系?三、微调的基本流程(以BERT为例)1️⃣准备数据2️⃣加载预训练模型和分词器3️⃣数据编码与加载4️⃣定义优化器5️⃣开始训练6️⃣评估与保存模型四、是否要冻结BERT层?五、完整训练示例代码5.1环境依赖5.2执行代码总结:微调的优势前言在自然语言处理(NLP)快速发展的今天,预训练模型如BERT成为了众多任务
- 解密大模型全栈开发:从搭建环境到实战案例,一站式攻略
海棠AI实验室
“智元启示录“-AI发展的深度思考与未来展望人工智能大模型全栈开发
目录大模型基础概念什么是大模型?大模型的发展历程大模型的类型大模型全栈开发环境搭建硬件需求软件环境配置云服务选择大模型应用开发流程模型选择策略提示工程(PromptEngineering)模型微调(Fine-tuning)参数高效微调(PEFT)大模型应用架构设计基本应用架构RAG(检索增强生成)系统Agent系统设计大模型应用部署与优化模型部署选项模型优化技术性能监控与调优大模型应用实战案例智能
- 【人工智能】微调的秘密武器:释放大模型的无限潜能
蒙娜丽宁
Python杂谈人工智能人工智能
《PythonOpenCV从菜鸟到高手》带你进入图像处理与计算机视觉的大门!解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界在人工智能迅猛发展的今天,大规模语言模型(LLMs)以其强大的通用能力席卷各行各业。然而,如何让这些通用模型在特定领域或任务中发挥最大潜力?答案是微调(Fine-tuning)。本文深入探讨微调的理论基础、技术细节与实践方法,揭示其作为解锁大模型隐藏潜力
- 【Servo】自整定、惯量识别、调谐
我不是程序猿儿
ServoCc++C++c语言
好的,这里为你用伺服驱动领域的语言详细解释“自整定”的概念:自整定(AutoTuning)的定义自整定是指伺服驱动器通过内置的检测、识别和计算算法,自动测量并设置控制系统参数(如增益、惯量、摩擦等),以实现对伺服系统性能的快速优化和匹配,无需人工手动逐一调节。通俗理解:就像智能家电的“一键设置”,自整定可以让初学者或非专业人员只需按一个按钮,系统会自动检测自身状态,选择或计算出合适的参数,使伺服系
- 【面试宝典】【大模型入门】【模型微调】
曾小文
人工智能深度学习机器学习
面试热点科普:监督微调vs无监督微调,有啥不一样?在大模型时代(比如BERT、GPT)里,我们经常听到“预训练+微调”的范式。但你可能会疑惑——监督微调、无监督微调,到底有啥区别?用的场景一样吗?今天这篇,带你5分钟搞懂这对“孪生兄弟”的异同✅1.术语定义名称定义说明预训练(Pretraining)在大规模通用数据上训练模型,学习“通用知识”,比如语言规律、语义表示。微调(Fine-tuning)
- 中文工单分类模型选择
SugarPPig
人工智能分类人工智能数据挖掘
采用基于预训练模型的微调(Fine-tuning)方案来做中文工单分类,这是非常明智的选择,因为预训练模型已经在大量中文语料上学习了丰富的语言知识,能大幅提升分类效果。在HuggingFace上,针对中文文本分类,我为你推荐以下最合适的模型:最推荐的模型:BERT-base-chinese模型名称(HuggingFaceID):google-bert/bert-base-chinese为什么推荐它
- LLM模型的一些思考
巴基海贼王
nlp
对通用LLM模型进行Fine-tuning操作(SFT,supervisedfinetuning),带来的影响往往是有害的?从表象看,使用领域数据对LLM做Fine-tuning,通常会造成灾难性的“灾难遗忘”问题。简单点儿说,SFT在赋予对领域知识理解能力的同时,由于修正模型参数,导致模型遗忘之前学会的某些知识。目前的“智能=压缩”的理论是否正确?LLM的压缩能力是否可以拆解成单个神经元的“压缩
- java封装继承多态等
麦田的设计者
javaeclipsejvmcencapsulatopn
最近一段时间看了很多的视频却忘记总结了,现在只能想到什么写什么了,希望能起到一个回忆巩固的作用。
1、final关键字
译为:最终的
&
- F5与集群的区别
bijian1013
weblogic集群F5
http请求配置不是通过集群,而是F5;集群是weblogic容器的,如果是ejb接口是通过集群。
F5同集群的差别,主要还是会话复制的问题,F5一把是分发http请求用的,因为http都是无状态的服务,无需关注会话问题,类似
- LeetCode[Math] - #7 Reverse Integer
Cwind
java题解MathLeetCodeAlgorithm
原题链接:#7 Reverse Integer
要求:
按位反转输入的数字
例1: 输入 x = 123, 返回 321
例2: 输入 x = -123, 返回 -321
难度:简单
分析:
对于一般情况,首先保存输入数字的符号,然后每次取输入的末位(x%10)作为输出的高位(result = result*10 + x%10)即可。但
- BufferedOutputStream
周凡杨
首先说一下这个大批量,是指有上千万的数据量。
例子:
有一张短信历史表,其数据有上千万条数据,要进行数据备份到文本文件,就是执行如下SQL然后将结果集写入到文件中!
select t.msisd
- linux下模拟按键输入和鼠标
被触发
linux
查看/dev/input/eventX是什么类型的事件, cat /proc/bus/input/devices
设备有着自己特殊的按键键码,我需要将一些标准的按键,比如0-9,X-Z等模拟成标准按键,比如KEY_0,KEY-Z等,所以需要用到按键 模拟,具体方法就是操作/dev/input/event1文件,向它写入个input_event结构体就可以模拟按键的输入了。
linux/in
- ContentProvider初体验
肆无忌惮_
ContentProvider
ContentProvider在安卓开发中非常重要。与Activity,Service,BroadcastReceiver并称安卓组件四大天王。
在android中的作用是用来对外共享数据。因为安卓程序的数据库文件存放在data/data/packagename里面,这里面的文件默认都是私有的,别的程序无法访问。
如果QQ游戏想访问手机QQ的帐号信息一键登录,那么就需要使用内容提供者COnte
- 关于Spring MVC项目(maven)中通过fileupload上传文件
843977358
mybatisspring mvc修改头像上传文件upload
Spring MVC 中通过fileupload上传文件,其中项目使用maven管理。
1.上传文件首先需要的是导入相关支持jar包:commons-fileupload.jar,commons-io.jar
因为我是用的maven管理项目,所以要在pom文件中配置(每个人的jar包位置根据实际情况定)
<!-- 文件上传 start by zhangyd-c --&g
- 使用svnkit api,纯java操作svn,实现svn提交,更新等操作
aigo
svnkit
原文:http://blog.csdn.net/hardwin/article/details/7963318
import java.io.File;
import org.apache.log4j.Logger;
import org.tmatesoft.svn.core.SVNCommitInfo;
import org.tmateso
- 对比浏览器,casperjs,httpclient的Header信息
alleni123
爬虫crawlerheader
@Override
protected void doGet(HttpServletRequest req, HttpServletResponse res) throws ServletException, IOException
{
String type=req.getParameter("type");
Enumeration es=re
- java.io操作 DataInputStream和DataOutputStream基本数据流
百合不是茶
java流
1,java中如果不保存整个对象,只保存类中的属性,那么我们可以使用本篇文章中的方法,如果要保存整个对象 先将类实例化 后面的文章将详细写到
2,DataInputStream 是java.io包中一个数据输入流允许应用程序以与机器无关方式从底层输入流中读取基本 Java 数据类型。应用程序可以使用数据输出流写入稍后由数据输入流读取的数据。
- 车辆保险理赔案例
bijian1013
车险
理赔案例:
一货运车,运输公司为车辆购买了机动车商业险和交强险,也买了安全生产责任险,运输一车烟花爆竹,在行驶途中发生爆炸,出现车毁、货损、司机亡、炸死一路人、炸毁一间民宅等惨剧,针对这几种情况,该如何赔付。
赔付建议和方案:
客户所买交强险在这里不起作用,因为交强险的赔付前提是:“机动车发生道路交通意外事故”;
如果是交通意外事故引发的爆炸,则优先适用交强险条款进行赔付,不足的部分由商业
- 学习Spring必学的Java基础知识(5)—注解
bijian1013
javaspring
文章来源:http://www.iteye.com/topic/1123823,整理在我的博客有两个目的:一个是原文确实很不错,通俗易懂,督促自已将博主的这一系列关于Spring文章都学完;另一个原因是为免原文被博主删除,在此记录,方便以后查找阅读。
有必要对
- 【Struts2一】Struts2 Hello World
bit1129
Hello world
Struts2 Hello World应用的基本步骤
创建Struts2的Hello World应用,包括如下几步:
1.配置web.xml
2.创建Action
3.创建struts.xml,配置Action
4.启动web server,通过浏览器访问
配置web.xml
<?xml version="1.0" encoding="
- 【Avro二】Avro RPC框架
bit1129
rpc
1. Avro RPC简介 1.1. RPC
RPC逻辑上分为二层,一是传输层,负责网络通信;二是协议层,将数据按照一定协议格式打包和解包
从序列化方式来看,Apache Thrift 和Google的Protocol Buffers和Avro应该是属于同一个级别的框架,都能跨语言,性能优秀,数据精简,但是Avro的动态模式(不用生成代码,而且性能很好)这个特点让人非常喜欢,比较适合R
- lua set get cookie
ronin47
lua cookie
lua:
local access_token = ngx.var.cookie_SGAccessToken
if access_token then
ngx.header["Set-Cookie"] = "SGAccessToken="..access_token.."; path=/;Max-Age=3000"
end
- java-打印不大于N的质数
bylijinnan
java
public class PrimeNumber {
/**
* 寻找不大于N的质数
*/
public static void main(String[] args) {
int n=100;
PrimeNumber pn=new PrimeNumber();
pn.printPrimeNumber(n);
System.out.print
- Spring源码学习-PropertyPlaceholderHelper
bylijinnan
javaspring
今天在看Spring 3.0.0.RELEASE的源码,发现PropertyPlaceholderHelper的一个bug
当时觉得奇怪,上网一搜,果然是个bug,不过早就有人发现了,且已经修复:
详见:
http://forum.spring.io/forum/spring-projects/container/88107-propertyplaceholderhelper-bug
- [逻辑与拓扑]布尔逻辑与拓扑结构的结合会产生什么?
comsci
拓扑
如果我们已经在一个工作流的节点中嵌入了可以进行逻辑推理的代码,那么成百上千个这样的节点如果组成一个拓扑网络,而这个网络是可以自动遍历的,非线性的拓扑计算模型和节点内部的布尔逻辑处理的结合,会产生什么样的结果呢?
是否可以形成一种新的模糊语言识别和处理模型呢? 大家有兴趣可以试试,用软件搞这些有个好处,就是花钱比较少,就算不成
- ITEYE 都换百度推广了
cuisuqiang
GoogleAdSense百度推广广告外快
以前ITEYE的广告都是谷歌的Google AdSense,现在都换成百度推广了。
为什么个人博客设置里面还是Google AdSense呢?
都知道Google AdSense不好申请,这在ITEYE上也不是讨论了一两天了,强烈建议ITEYE换掉Google AdSense。至少,用一个好申请的吧。
什么时候能从ITEYE上来点外快,哪怕少点
- 新浪微博技术架构分析
dalan_123
新浪微博架构
新浪微博在短短一年时间内从零发展到五千万用户,我们的基层架构也发展了几个版本。第一版就是是非常快的,我们可以非常快的实现我们的模块。我们看一下技术特点,微博这个产品从架构上来分析,它需要解决的是发表和订阅的问题。我们第一版采用的是推的消息模式,假如说我们一个明星用户他有10万个粉丝,那就是说用户发表一条微博的时候,我们把这个微博消息攒成10万份,这样就是很简单了,第一版的架构实际上就是这两行字。第
- 玩转ARP攻击
dcj3sjt126com
r
我写这片文章只是想让你明白深刻理解某一协议的好处。高手免看。如果有人利用这片文章所做的一切事情,盖不负责。 网上关于ARP的资料已经很多了,就不用我都说了。 用某一位高手的话来说,“我们能做的事情很多,唯一受限制的是我们的创造力和想象力”。 ARP也是如此。 以下讨论的机子有 一个要攻击的机子:10.5.4.178 硬件地址:52:54:4C:98
- PHP编码规范
dcj3sjt126com
编码规范
一、文件格式
1. 对于只含有 php 代码的文件,我们将在文件结尾处忽略掉 "?>" 。这是为了防止多余的空格或者其它字符影响到代码。例如:<?php$foo = 'foo';2. 缩进应该能够反映出代码的逻辑结果,尽量使用四个空格,禁止使用制表符TAB,因为这样能够保证有跨客户端编程器软件的灵活性。例
- linux 脱机管理(nohup)
eksliang
linux nohupnohup
脱机管理 nohup
转载请出自出处:http://eksliang.iteye.com/blog/2166699
nohup可以让你在脱机或者注销系统后,还能够让工作继续进行。他的语法如下
nohup [命令与参数] --在终端机前台工作
nohup [命令与参数] & --在终端机后台工作
但是这个命令需要注意的是,nohup并不支持bash的内置命令,所
- BusinessObjects Enterprise Java SDK
greemranqq
javaBOSAPCrystal Reports
最近项目用到oracle_ADF 从SAP/BO 上调用 水晶报表,资料比较少,我做一个简单的分享,给和我一样的新手 提供更多的便利。
首先,我是尝试用JAVA JSP 去访问的。
官方API:http://devlibrary.businessobjects.com/BusinessObjectsxi/en/en/BOE_SDK/boesdk_ja
- 系统负载剧变下的管控策略
iamzhongyong
高并发
假如目前的系统有100台机器,能够支撑每天1亿的点击量(这个就简单比喻一下),然后系统流量剧变了要,我如何应对,系统有那些策略可以处理,这里总结了一下之前的一些做法。
1、水平扩展
这个最容易理解,加机器,这样的话对于系统刚刚开始的伸缩性设计要求比较高,能够非常灵活的添加机器,来应对流量的变化。
2、系统分组
假如系统服务的业务不同,有优先级高的,有优先级低的,那就让不同的业务调用提前分组
- BitTorrent DHT 协议中文翻译
justjavac
bit
前言
做了一个磁力链接和BT种子的搜索引擎 {Magnet & Torrent},因此把 DHT 协议重新看了一遍。
BEP: 5Title: DHT ProtocolVersion: 3dec52cb3ae103ce22358e3894b31cad47a6f22bLast-Modified: Tue Apr 2 16:51:45 2013 -070
- Ubuntu下Java环境的搭建
macroli
java工作ubuntu
配置命令:
$sudo apt-get install ubuntu-restricted-extras
再运行如下命令:
$sudo apt-get install sun-java6-jdk
待安装完毕后选择默认Java.
$sudo update- alternatives --config java
安装过程提示选择,输入“2”即可,然后按回车键确定。
- js字符串转日期(兼容IE所有版本)
qiaolevip
TODateStringIE
/**
* 字符串转时间(yyyy-MM-dd HH:mm:ss)
* result (分钟)
*/
stringToDate : function(fDate){
var fullDate = fDate.split(" ")[0].split("-");
var fullTime = fDate.split("
- 【数据挖掘学习】关联规则算法Apriori的学习与SQL简单实现购物篮分析
superlxw1234
sql数据挖掘关联规则
关联规则挖掘用于寻找给定数据集中项之间的有趣的关联或相关关系。
关联规则揭示了数据项间的未知的依赖关系,根据所挖掘的关联关系,可以从一个数据对象的信息来推断另一个数据对象的信息。
例如购物篮分析。牛奶 ⇒ 面包 [支持度:3%,置信度:40%] 支持度3%:意味3%顾客同时购买牛奶和面包。 置信度40%:意味购买牛奶的顾客40%也购买面包。 规则的支持度和置信度是两个规则兴
- Spring 5.0 的系统需求,期待你的反馈
wiselyman
spring
Spring 5.0将在2016年发布。Spring5.0将支持JDK 9。
Spring 5.0的特性计划还在工作中,请保持关注,所以作者希望从使用者得到关于Spring 5.0系统需求方面的反馈。