- 113.Impala ODBC驱动的安装及配置
大勇任卷舒
113.1unixODBC依赖包的安装检查是否安装unixODBC包$rpm-qa|grep-iunixodbc安装unixODBC依赖包$sudoyum-yinstallunixODBCunixODBC-devel查看unixODBC配置文件路径$odbcinst-j113.2ImpalaODBC驱动安装ImpalaODBC驱动$wgethttps://downloads.cloudera.co
- 迁移学习让深度学习更容易
城市中迷途小书童
摘要:一文读懂迁移学习及其对深度学习发展的影响!深度学习在一些传统方法难以处理的领域有了很大的进展。这种成功是由于改变了传统机器学习的几个出发点,使其在应用于非结构化数据时性能很好。如今深度学习模型可以玩游戏,检测癌症,和人类交谈,自动驾驶。深度学习变得强大的同时也需要很大的代价。进行深度学习需要大量的数据、昂贵的硬件、甚至更昂贵的精英工程人才。在ClouderaFastForward实验室,我们
- CDH部署Hive详细指南
暴躁哥
大数据技术hivehadoop数据仓库
CDH部署Hive详细指南本文将详细介绍如何使用ClouderaManagerWeb界面部署Hive组件,包括安装、配置、优化和运维管理等内容。1.环境准备1.1系统要求1.1.1硬件要求服务器配置CPU:建议8核以上内存:建议32GB以上磁盘:建议使用企业级SAS或SSD网络:建议万兆网络集群规模小型集群:3-5节点中型集群:6-20节点大型集群:20节点以上1.1.2软件要求操作系统CentO
- 通过CDH安装Spark的详细指南
暴躁哥
大数据技术spark大数据分布式
通过CDH安装Spark的详细指南简介ClouderaDistributionofHadoop(CDH)是一个企业级的大数据平台,它集成了多个开源组件,包括Hadoop、Spark、Hive等。本文将详细介绍如何通过CDH安装和配置Spark。前提条件在开始安装之前,请确保满足以下条件:已安装CDH集群具有管理员权限所有节点之间网络互通系统时间同步足够的磁盘空间(建议至少预留20GB)安装步骤1.
- hadoop yarn 获取日志_Hadoop YARN日志查看方式
weixin_30131105
hadoopyarn获取日志
HadoopYARN日志查看方式实验环境CDH6.3.2Hadoop版本$hadoopversionHadoop3.0.0-cdh6.3.2Sourcecoderepositoryhttp://github.com/cloudera/hadoop-r9aff20de3b5ecccf3c19d57f71b214fb4d37ee89Compiledbyjenkinson2019-11-08T13:49
- parquet :开源的列式存储文件格式
1.Parquet文件定义与核心概念Parquet是一种开源的列式存储文件格式,由Twitter和Cloudera合作开发,2015年成为Apache顶级项目。其设计目标是为大数据分析提供高效存储和查询,主要特点包括:列式存储:数据按列而非按行组织,相同数据类型集中存储,显著提升分析查询效率(如仅读取部分列)。高效压缩:支持Snappy、Gzip、Zstd、LZO等算法,压缩率比行式格式(如CSV
- Impala原理与代码实例讲解
AI天才研究院
AI大模型企业级应用开发实战AI大模型应用入门实战与进阶计算科学神经计算深度学习神经网络大数据人工智能大型语言模型AIAGILLMJavaPython架构设计AgentRPA
Impala原理与代码实例讲解1.背景介绍1.1大数据处理的挑战随着数据量的爆炸式增长,传统的数据处理方式已经无法满足实时性和并发性的需求。MapReduce等批处理框架虽然能够处理海量数据,但是延迟较高,无法满足实时交互式查询的需求。1.2Impala的诞生Impala是由Cloudera公司开发的一款开源的MPP(大规模并行处理)SQL查询引擎,可以直接在Hadoop的存储层(如HDFS、HB
- Hadoop-几种列式存储比较
xyz2011
Hive面试题(持续更新)hadoophdfs大数据数据仓库
第一章相关理论1.1Parquet格式介绍1.1.1起源与发展Parquet,作为Hadoop生态系统中的一种新型列式存储格式,由Cloudera和Twitter公司联手开发,并已跻身至Apache软件基金会的顶级项目之列。自其诞生以来,便以高效的压缩和编码方式,以及卓越的跨平台支持性,在大数据处理领域崭露头角,展现出不可忽视的优势。这种格式的设计初衷是为了应对大数据场景下存储和查询性能的挑战,通
- maven使用Cloudera仓库
邢为栋
BigdataJavamavenclouderajava
现在已经很少开发Java了,Maven用的也少,已经忘得差不多了,但是在工作中不可避免需要开发一些。生产用的大数据平台使用的是CDH6.3.2,在开发时需要在Maven中引入Cloudera的一些依赖包,这时就需要配置Cloudera仓库。本文记录配置过程,以作备忘。配置Cloudera仓库,编辑pom文件,添加如下内容:cloudera.repohttps://repository.cloude
- Redash:让数据可视化变得简单
开源项目精选
信息可视化开源github
Redash是一款开源的BI工具,提供了基于web的数据库查询和数据可视化功能。Redash允许快速和方便地访问数十亿条记录,使用AmzonRedshift处理和收集这些记录。Redash支持查询多个数据库,包括:Redshift、GoogleBigQuery、PostgreSQL、MySQL、Graphite、Presto、Google电子表格、ClouderaImpala、Hive和自定义脚本
- 数据权限访问控制(Apache Sentry)
deepdata_cn
权限管理apachesentry
ApacheSentry最初由Cloudera公司内部开发,针对Hadoop系统中的数据(主要是HDFS、Hive的数据)进行细粒度控制,对HDFS、Hive以及Impala有着良好的支持性。2013年Sentry成为Apache的孵化项目,为Hadoop集群元数据和数据存储提供集中、细粒度的访问控制。其架构包括DataEngine、Plugin、Policymetadata等部分,Plugin负
- 大数据学习(75)-大数据组件总结
viperrrrrrr
大数据impalayarnhdfshiveCDHmapreduce
大数据学习系列专栏:哲学语录:用力所能及,改变世界。如果觉得博主的文章还不错的话,请点赞+收藏⭐️+留言支持一下博主哦一、CDHCDH(ClouderaDistributionIncludingApacheHadoop)是由Cloudera公司提供的一个集成了ApacheHadoop以及相关生态系统的发行版本。CDH是一个大数据平台,简化和加速了大数据处理分析的部署和管理。CDH提供Hadoop的
- 深度解读Kafka数据可靠性
程序の之道
kafkahiveyarnsparkhadoop
Kafka起初是由LinkedIn公司开发的一个分布式的消息系统,后成为Apache的一部分,它使用Scala编写,以可水平扩展和高吞吐率而被广泛使用。目前越来越多的开源分布式处理系统如Cloudera、ApacheStorm、Spark等都支持与Kafka集成。1概述Kafka与传统消息系统相比,有以下不同:•它被设计为一个分布式系统,易于向外扩展;•它同时为发布和订阅提供高吞吐量;•它支持多订
- CDH/HDP国产替换之路
yumgpkpm
hadoophivehbasehdfs
哪些用户需要迁移原社区版用户社区版不再更新Cloudera(Cloudera和Hortonworks合并后)所有产品不再提供社区版,用户无法获取新的功能。社区版不再免费2021年1月31日开始,所有Cloudera软件都需要有效的订阅,且订阅费昂贵(50个节点,一年订阅费50万美元)。原企业版用户企业版不再更新Cloudera和Hortonworks合并后推出了新一代大数据平台CDP,CDH6和H
- CDH角色迁移和硬盘扩容
专注大数据的Lyer
java大数据hadoophivehdfs
1.概述生产CDH集群硬盘不足,HDFSdatanode节点数据不平衡,历史管理角色安装混乱,全部节点需要硬盘扩容。迁移要求HDFS数据不丢失Hive元数据不丢失无临时过渡服务器不能影响用户计算使用CDH5.11.0只能使用centos6.5-6.9x版本大数据组件角色迁移ClouderaManagementService服务迁移服务器由物理机全部改造为虚拟机主节点不迁移角色迁移2.迁移整个迁移的
- SpringBoot+Implala常见问题:[Cloudera][ImpalaJDBCDriver](500605) 错误
平凡君
笔记HiveImpalaSpringBoot
问题描述Causedby:java.sql.SQLException:[Cloudera]ImpalaJDBCDriver问题分析:当CDH机器配置了LDAP验证的时候,Dbeaver或者其他链接工具或者java代码链接impala时,需要在impala链接Url后添加AuthMech=3属性Cloudera官网文档里也说明了这件事https://docs.cloudera.com/documen
- kylin linux 安装教程,Apache Kylin | 安装指南
社本
kylinlinux安装教程
软件要求Hadoop:2.7+Hive:0.13-1.2.1+HBase:1.1+Spark2.1.1+JDK:1.7+OS:Linuxonly,CentOS6.5+orUbuntu16.0.4+用HortonworksHDP2.2-2.6,ClouderaCDH5.7-5.11,AWSEMR5.7-5.10,AzureHDInsight3.5-3.6进行测试。出于试用和开发的目的,我们建议您使用
- spark2如何集成到cdh里
蘑菇丁
经验hadoop大数据+机器学习+oracle
最近做性能测试需要spark2测试下和spark1.6性能有多大差别,官方文档里写着可以集成,但是自己怎么搞都不行,折磨了3天的时间,目前终于把spark2集成到集群里了我安装的是最新版本的下载spark2安装包wgethttp://archive.cloudera.com/beta/spark2/parcels/latest/SPARK2-2.0.0.cloudera.beta2-1.cdh5.
- CDH大数据平台
梦龙zmc
大数据大数据
CDH概念CDH(ClouderaDistributionIncludingApacheHadoop)是由Cloudera公司提供的一个集成了ApacheHadoop以及相关生态系统的发行版本。CDH是一个大数据平台,简化和加速了大数据处理分析的部署和管理。CDH提供Hadoop的核心元素-可伸缩存储和分布式计算-以及基于web的用户界面和重要的企业功能。CDH是Apache许可的开放源码,是唯一
- CDH日志清理
只是甲
#CDH大数据平台大数据和数据仓库Cloudera日志清理hadoop
备注:CDH版本:6.3.1背景CDH集群运行了2个多月了,根目录磁盘使用率接近80%了,需要清理CDH日志。一.查看问题CDH的日志文件一般在如下几个目录,可以通过如下代码进行查看。代码:cd/var/log/du-s./*|sort-nrcd/var/lib/cloudera-service-monitordu-s./*|sort-nrcd/var/lib/cloudera-host-moni
- MAC安装Cloudera QuickStart VM+incubator-griffin相关配置过程
youyouiyiy
virtualboxcentosclouderagriffin
1.加载镜像至VirtualBox中,处理器核数调整至最少2个,内存默认最小4096MB。2.在虚拟机配置中增加共享文件夹路径。3.我的Macbook多加了一个屏幕,第一次启动在独立屏上显示CENTOS界面,分辨率只有800*600,关闭,修改显存大小和VirtualBox的“偏好设置”,“显示”,最大屏幕尺寸为空。重启就好了。4.Cloudera已经将所有组件都装好了,我是因为卸载重装了mysq
- 9.迁移CM和数据库-2
大勇任卷舒
9.1将原CM节点数据迁移至新节点9.1.1备份原CM节点数据主要备份CM的监控数据和管理信息,数据目录包括:/var/lib/cloudera-host-monitor/var/lib/cloudera-service-monitor/var/lib/cloudera-scm-server/var/lib/cloudera-scm-eventserver/var/lib/cloudera-scm
- 大数据基础之Flume——Flume基础及Flume agent配置以及自定义拦截器
Clozzz
Flume大数据flumehadoop
Flume简介Flume用于将多种来源的日志以流的方式传输至Hadoop或者其他目的地 -一种可靠、可用的高效分布式数据收集服务Flume拥有基于数据流上的简单灵活架构,支持容错、故障转移与恢复由Cloudera2009年捐赠给Apache,现为Apache顶级项目Flume架构Client:客户端,数据产生的地方,如Web服务器Event:事件,指通过Agent传输的单个数据包,如日志数据通常对
- Flume介绍及调优
桓桓桓桓
分布式大数据日志搜集
一、概述Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。当前Flume有两个版本Flume0.9X版本的统称Flume-og,Flume1.X版本的统称Flume-ng。由于Flume-ng经过重大重构,与Flu
- 大数据技术之Flume
okbin1991
大数据flumejavahadoop开发语言
第1章Flume概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。1.2Flume基础架构Flume组成架构如下图所示。1.2.1AgentAgent是一个JVM进程,它以事件的形式将数据从源头送至目的。Agent主要有3个部分组成,Source、Channel、Sink。1.2.2Sourc
- ubuntu16.04安装 ambari 2.7.3的环境准备工作
lbl251
0、登录官网先看下资料https://docs.cloudera.com/HDPDocuments/Ambari-2.7.3.0/bk_ambari-installation/content/setup_options.html1、准备好安装包(ambari安装包)(要用root用户最好)https://docs.hortonworks.com/HDPDocuments/Ambari-2.7.3.
- 基于Hadoop平台的电信客服数据的处理与分析④项目实现:任务16:数据采集/消费/存储
我非夏日
大数据开发---电信项目大数据大数据技术开发hadoop
任务描述“数据生产”的程序启动后,会持续向callLog.csv文件中写入模拟的通话记录。接下来,我们需要将这些实时的数据通过Flume采集到Kafka集群中,然后提供给HBase消费。Flume:是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据
- CDH 启停使用HiveServer2
金刚_30bf
翻译:https://www.cloudera.com/documentation/enterprise/latest/topics/cdh_ig_hiveserver2_start_stop.html版本:5.14.2HiveServer2是HiveServer的改进版本,支持Kerberos身份验证和多客户端并发访问。您可以使用Beeline客户端访问HiveServer2。警告:如果以远程模
- 大数据分析学习第十五课 自建云服务器集群离线安装Ambari2.7.5和HDP3.1.5(一)
猫头鹰数据分析
大数据JavaHivehadoopambari大数据centoshdfs
之前了解了很多关于大数据平台一站式部署管理的工具,比如ApacheAmbari和CDH,目前最新的CDH已经没有了社区版,也就是说以后使用新版本的ClouderaManager和CDH都是要收费的,这对于很多小公司来说,可能无法承受。转向Ambari是他们的一个可选项。Ambari是Apache的一个顶级开源项目,开源是其最大的优势,开源也意味着Ambari可以灵活地进行扩展,集成更多的数据组件,
- 大数据技术之 Flume
骚戴
大数据大数据Flume
第1章Flume概述1.1Flume定义Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统。Flume基于流式架构,灵活简单。骚戴理解:注意这里是日志采集,也就是只能采集文本类型的数据!Flume的作用的特点就是可以实时采集!1.2Flume基础架构Flume组成架构如下图所示1.2.1AgentAgent是一个JVM进程,它以事件的形式将数据从源头送
- java杨辉三角
3213213333332132
java基础
package com.algorithm;
/**
* @Description 杨辉三角
* @author FuJianyong
* 2015-1-22上午10:10:59
*/
public class YangHui {
public static void main(String[] args) {
//初始化二维数组长度
int[][] y
- 《大话重构》之大布局的辛酸历史
白糖_
重构
《大话重构》中提到“大布局你伤不起”,如果企图重构一个陈旧的大型系统是有非常大的风险,重构不是想象中那么简单。我目前所在公司正好对产品做了一次“大布局重构”,下面我就分享这个“大布局”项目经验给大家。
背景
公司专注于企业级管理产品软件,企业有大中小之分,在2000年初公司用JSP/Servlet开发了一套针对中
- 电驴链接在线视频播放源码
dubinwei
源码电驴播放器视频ed2k
本项目是个搜索电驴(ed2k)链接的应用,借助于磁力视频播放器(官网:
http://loveandroid.duapp.com/ 开放平台),可以实现在线播放视频,也可以用迅雷或者其他下载工具下载。
项目源码:
http://git.oschina.net/svo/Emule,动态更新。也可从附件中下载。
项目源码依赖于两个库项目,库项目一链接:
http://git.oschina.
- Javascript中函数的toString()方法
周凡杨
JavaScriptjstoStringfunctionobject
简述
The toString() method returns a string representing the source code of the function.
简译之,Javascript的toString()方法返回一个代表函数源代码的字符串。
句法
function.
- struts处理自定义异常
g21121
struts
很多时候我们会用到自定义异常来表示特定的错误情况,自定义异常比较简单,只要分清是运行时异常还是非运行时异常即可,运行时异常不需要捕获,继承自RuntimeException,是由容器自己抛出,例如空指针异常。
非运行时异常继承自Exception,在抛出后需要捕获,例如文件未找到异常。
此处我们用的是非运行时异常,首先定义一个异常LoginException:
/**
* 类描述:登录相
- Linux中find常见用法示例
510888780
linux
Linux中find常见用法示例
·find path -option [ -print ] [ -exec -ok command ] {} \;
find命令的参数;
- SpringMVC的各种参数绑定方式
Harry642
springMVC绑定表单
1. 基本数据类型(以int为例,其他类似):
Controller代码:
@RequestMapping("saysth.do")
public void test(int count) {
}
表单代码:
<form action="saysth.do" method="post&q
- Java 获取Oracle ROWID
aijuans
javaoracle
A ROWID is an identification tag unique for each row of an Oracle Database table. The ROWID can be thought of as a virtual column, containing the ID for each row.
The oracle.sql.ROWID class i
- java获取方法的参数名
antlove
javajdkparametermethodreflect
reflect.ClassInformationUtil.java
package reflect;
import javassist.ClassPool;
import javassist.CtClass;
import javassist.CtMethod;
import javassist.Modifier;
import javassist.bytecode.CodeAtt
- JAVA正则表达式匹配 查找 替换 提取操作
百合不是茶
java正则表达式替换提取查找
正则表达式的查找;主要是用到String类中的split();
String str;
str.split();方法中传入按照什么规则截取,返回一个String数组
常见的截取规则:
str.split("\\.")按照.来截取
str.
- Java中equals()与hashCode()方法详解
bijian1013
javasetequals()hashCode()
一.equals()方法详解
equals()方法在object类中定义如下:
public boolean equals(Object obj) {
return (this == obj);
}
很明显是对两个对象的地址值进行的比较(即比较引用是否相同)。但是我们知道,String 、Math、I
- 精通Oracle10编程SQL(4)使用SQL语句
bijian1013
oracle数据库plsql
--工资级别表
create table SALGRADE
(
GRADE NUMBER(10),
LOSAL NUMBER(10,2),
HISAL NUMBER(10,2)
)
insert into SALGRADE values(1,0,100);
insert into SALGRADE values(2,100,200);
inser
- 【Nginx二】Nginx作为静态文件HTTP服务器
bit1129
HTTP服务器
Nginx作为静态文件HTTP服务器
在本地系统中创建/data/www目录,存放html文件(包括index.html)
创建/data/images目录,存放imags图片
在主配置文件中添加http指令
http {
server {
listen 80;
server_name
- kafka获得最新partition offset
blackproof
kafkapartitionoffset最新
kafka获得partition下标,需要用到kafka的simpleconsumer
import java.util.ArrayList;
import java.util.Collections;
import java.util.Date;
import java.util.HashMap;
import java.util.List;
import java.
- centos 7安装docker两种方式
ronin47
第一种是采用yum 方式
yum install -y docker
 
- java-60-在O(1)时间删除链表结点
bylijinnan
java
public class DeleteNode_O1_Time {
/**
* Q 60 在O(1)时间删除链表结点
* 给定链表的头指针和一个结点指针(!!),在O(1)时间删除该结点
*
* Assume the list is:
* head->...->nodeToDelete->mNode->nNode->..
- nginx利用proxy_cache来缓存文件
cfyme
cache
user zhangy users;
worker_processes 10;
error_log /var/vlogs/nginx_error.log crit;
pid /var/vlogs/nginx.pid;
#Specifies the value for ma
- [JWFD开源工作流]JWFD嵌入式语法分析器负号的使用问题
comsci
嵌入式
假如我们需要用JWFD的语法分析模块定义一个带负号的方程式,直接在方程式之前添加负号是不正确的,而必须这样做:
string str01 = "a=3.14;b=2.71;c=0;c-((a*a)+(b*b))"
定义一个0整数c,然后用这个整数c去
- 如何集成支付宝官方文档
dai_lm
android
官方文档下载地址
https://b.alipay.com/order/productDetail.htm?productId=2012120700377310&tabId=4#ps-tabinfo-hash
集成的必要条件
1. 需要有自己的Server接收支付宝的消息
2. 需要先制作app,然后提交支付宝审核,通过后才能集成
调试的时候估计会真的扣款,请注意
- 应该在什么时候使用Hadoop
datamachine
hadoop
原帖地址:http://blog.chinaunix.net/uid-301743-id-3925358.html
存档,某些观点与我不谋而合,过度技术化不可取,且hadoop并非万能。
--------------------------------------------万能的分割线--------------------------------
有人问我,“你在大数据和Hado
- 在GridView中对于有外键的字段使用关联模型进行搜索和排序
dcj3sjt126com
yii
在GridView中使用关联模型进行搜索和排序
首先我们有两个模型它们直接有关联:
class Author extends CActiveRecord {
...
}
class Post extends CActiveRecord {
...
function relations() {
return array(
'
- 使用NSString 的格式化大全
dcj3sjt126com
Objective-C
格式定义The format specifiers supported by the NSString formatting methods and CFString formatting functions follow the IEEE printf specification; the specifiers are summarized in Table 1. Note that you c
- 使用activeX插件对象object滚动有重影
蕃薯耀
activeX插件滚动有重影
使用activeX插件对象object滚动有重影 <object style="width:0;" id="abc" classid="CLSID:D3E3970F-2927-9680-BBB4-5D0889909DF6" codebase="activex/OAX339.CAB#
- SpringMVC4零配置
hanqunfeng
springmvc4
基于Servlet3.0规范和SpringMVC4注解式配置方式,实现零xml配置,弄了个小demo,供交流讨论。
项目说明如下:
1.db.sql是项目中用到的表,数据库使用的是oracle11g
2.该项目使用mvn进行管理,私服为自搭建nexus,项目只用到一个第三方 jar,就是oracle的驱动;
3.默认项目为零配置启动,如果需要更改启动方式,请
- 《开源框架那点事儿16》:缓存相关代码的演变
j2eetop
开源框架
问题引入
上次我参与某个大型项目的优化工作,由于系统要求有比较高的TPS,因此就免不了要使用缓冲。
该项目中用的缓冲比较多,有MemCache,有Redis,有的还需要提供二级缓冲,也就是说应用服务器这层也可以设置一些缓冲。
当然去看相关实现代代码的时候,大致是下面的样子。
[java]
view plain
copy
print
?
public vo
- AngularJS浅析
kvhur
JavaScript
概念
AngularJS is a structural framework for dynamic web apps.
了解更多详情请见原文链接:http://www.gbtags.com/gb/share/5726.htm
Directive
扩展html,给html添加声明语句,以便实现自己的需求。对于页面中html元素以ng为前缀的属性名称,ng是angular的命名空间
- 架构师之jdk的bug排查(一)---------------split的点号陷阱
nannan408
split
1.前言.
jdk1.6的lang包的split方法是有bug的,它不能有效识别A.b.c这种类型,导致截取长度始终是0.而对于其他字符,则无此问题.不知道官方有没有修复这个bug.
2.代码
String[] paths = "object.object2.prop11".split("'");
System.ou
- 如何对10亿数据量级的mongoDB作高效的全表扫描
quentinXXZ
mongodb
本文链接:
http://quentinXXZ.iteye.com/blog/2149440
一、正常情况下,不应该有这种需求
首先,大家应该有个概念,标题中的这个问题,在大多情况下是一个伪命题,不应该被提出来。要知道,对于一般较大数据量的数据库,全表查询,这种操作一般情况下是不应该出现的,在做正常查询的时候,如果是范围查询,你至少应该要加上limit。
说一下,
- C语言算法之水仙花数
qiufeihu
c算法
/**
* 水仙花数
*/
#include <stdio.h>
#define N 10
int main()
{
int x,y,z;
for(x=1;x<=N;x++)
for(y=0;y<=N;y++)
for(z=0;z<=N;z++)
if(x*100+y*10+z == x*x*x
- JSP指令
wyzuomumu
jsp
jsp指令的一般语法格式: <%@ 指令名 属性 =”值 ” %>
常用的三种指令: page,include,taglib
page指令语法形式: <%@ page 属性 1=”值 1” 属性 2=”值 2”%>
include指令语法形式: <%@include file=”relative url”%> (jsp可以通过 include