E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Python爬虫学习
Python爬虫学习
--WIN10下定时获取CSDN个人的访问量并保存到文件中2018/04/30
CSDN的源码又更新了,现在的最新版本的代码如下:importrequests,timefrombs4importBeautifulSoupres=requests.get('http://blog.csdn.net/sayWhat_sayHello?ref=toolbar')res.encoding='utf-8'soup=BeautifulSoup(res.text,"html.parser"
sayWhat_sayHello
·
2020-08-22 10:24
Python学习
python爬虫学习
笔记 2.9 (使用bs4得案例)
python爬虫学习
笔记2.9(使用bs4得案例)
python爬虫学习
笔记1.1(通用爬虫和聚焦爬虫)
python爬虫学习
笔记1.2(HTTP和HTTPS)
python爬虫学习
笔记1.3str和bytes
还算小萌新?
·
2020-08-22 09:24
python爬虫学习
【
Python爬虫学习
笔记8-2】MongoDB数据库操作详解
上一篇学习笔记8-1中介绍了MySQL和MongoDB的安装、启动和配置,本节我们接着学习有关MongoDB的一些概念、基本操作和在python中的使用。MongoDB常用概念为更好地了解MongoDB地概念,下表以SQL术语进行对照说明。MongoDB术语SQL术语说明databasedatabase数据库collectiontable数据集合/表documentrow数据记录文档/行field
weixin_34372728
·
2020-08-22 04:25
【
Python爬虫学习
笔记8-1】MySQL数据库和MongoDB数据库存储概述
之前学习的JSON和CSV两种数据存储方式,都是基于文件的存储,有时候运用起来或许不是那么方便,为此本节来介绍基于数据库管理的存储方式。在日常工作中,常用的数据库分为关系型数据库和非关系型数据库。关系型数据库关系型数据库是基于关系模型的数据库,而关系模型是通过二维表来保存的,即其存储方式是由若干行和列组成的表,每一列为一个字段,每一行为一条记录。我们可以把表看成是具有相同数据结构的实体(记录)的集
weixin_34205076
·
2020-08-22 04:41
python爬虫学习
笔记(一)——环境配置(windows系统)
在进行
python爬虫学习
前,需要进行如下准备工作:python3+pip官方配置1.Anaconda(推荐,包括python和相关库)【推荐地址:清华镜像】https://mirrors.tuna.tsinghua.edu.cn
weixin_34234829
·
2020-08-22 04:41
Python爬虫学习
3-正则表达式
正则表达式想学爬虫不想学正则可以不可以:不可以。比如:1天前中提取出1,必须使用正则实现特殊字符:^:代表以该字符为开头。如^b就是b为开头。.:代表任意一个字符。如^b.就是b开头后面一个字母任意*:代表前一个字符可以出现任意次(0个也可以)。如^b.*就是b开头后面可有任意数个任意字母$:代表前一个字符为结尾符合。如:.*3$就是以3为结尾的任意字符串?:非贪婪匹配。一般情况从右往左匹配正则,
MingSha
·
2020-08-21 18:14
Python学习笔记-第十五天
Python爬虫学习
大纲.png**demo**#!
_尔东陈_
·
2020-08-20 21:52
python爬虫学习
笔记(一)
爬虫的工作步骤:获取数据。根据网址,向服务器发起请求,获取服务器返回数据。解析数据。把服务器返回的数据解析成我们能读懂的格式。提取数据。从数据中提取我们需要的数据。储存数据。把有用的数据保存起来,便于以后使用和分析。初识Requests库爬虫获取数据,使用requests库。需要先安装requests库。pipinstallrequestsrequests库可以帮我们下载网页源代码、文本、图片,音
xiaozhiliao666
·
2020-08-19 22:39
Python爬虫学习笔记
Python爬虫学习
第0关_2019-11-28
Python学习笔记_2019-11-28爬虫学习第0关1.requests.get()2.对象的常用属性举例1:图片等多媒体文件的下载举例2:文本下载举例3:数据响应状态码^①^举例4:数据编码类型输出结果:修改乱码方式:爬虫学习第0关1.requests.get()1importrequests#引入requests库2res=requests.get('URL')#requests.get是
weixin_44147675
·
2020-08-19 22:18
Python爬虫学习
-Day3
文章目录一、BeautifulSoup使用1、简介2、四大种类对象1)Tag2)NavigableString3)BeautifulSoup4)Comment3、遍历文档树1)直接子节点2)所有子孙节点3)节点内容4、搜索文档树1)name参数2)text参数5、CSS选择器1)通过对标签名查找2)通过类名查找3)通过id名查找4)获取内容二、丁香园评论爬取一、BeautifulSoup使用1、简
Frank.F.Wu
·
2020-08-19 21:58
python爬虫基本知识
bs4
爬虫
Python爬虫学习
-Day1
一、爬虫简介及网页知识今天开始学习爬虫,用一周的时间强化学习,坚持下来就是胜利。随着技术的不断发展,大数据的时代已经到来,数据的获取途径有两条,买数据或者利用工具爬取数据。根据使用场景,爬虫分为通用爬虫和聚焦爬虫两种。通用爬虫是搜索引擎抓取系统的重要组成部分,例如谷歌、百度、雅虎等,主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份。聚焦爬虫,是面向特定主题需求的一种网络爬虫,与通
Frank.F.Wu
·
2020-08-19 21:26
python爬虫基本知识
2、
python爬虫学习
项目之第三方代理IP的使用
在做爬虫的过程中,如果你爬取的频率过快,不符合人的操作模式。有些网站的反爬虫机制通过监测到你的IP异常,访问频率过高。就会对你进行封IP处理。目前已有比较多的第三方平台专门进行代理IP的服务,我们调用其API接口就可以随机获取到平台给定的IP。这里推荐几个比较常用的代理平台:阿布云:https://www.abuyun.com/讯代理:http://www.xdaili.cn/web芝麻HTTP:
初学者84010
·
2020-08-19 19:34
Python爬虫学习
中遇到的问题
请教一个问题,爬虫链接是一个下载地址,在浏览器中进入之后会自动弹回点击下载地址的页面,下载的是一个表格,但是在写的爬虫中,当我访问这个下载链接时,会出现报错:urllib2.URLError:,主机未回应,请问这该怎么做才能把表格下载下来?相关链接:1.http://www.moe.gov.cn/srcsite/A03/moe_634/201706/t20170614_306900.html2.h
轻倾子衿
·
2020-08-19 19:20
Python学习日记
python爬虫学习
(八)正则表达式批量爬取妹子图片
正则那块弄了蛮久,一点点去试#-*-coding:utf-8-*-importrequestsimportreimportosif__name__=='__main__':#创建一个文件夹,保存所有图片ifnotos.path.exists('./MMLibs'):os.mkdir('./MMLibs')headers={'User-Agent':'Mozilla/5.0(WindowsNT10.
haimian_baba
·
2020-08-19 17:31
Python爬虫学习
(2)- Ajax的Get、Post方法实战
1、Get方法爬取豆瓣……#Authors:xiaobei##AJAX适用于1.滑动刷新的页面2.分页刷新的页面importurllib.requestimporturllib.parseurl='https://movie.douban.com/j/search_subjects?'tag=input('请输入要查询的电影类型:')pagenum=eval(input('请输入要查询电影的页数:
拆掉思维的墙
·
2020-08-18 06:47
Python
Python爬虫学习
笔记(实例:Selenium+cookies实现自动登录百度首页)
实现效果:利用selenium添加cookies信息登录百度首页,如果账号没有登录,则首次手动登录账号后去cookies信息写入文件,待浏览器60秒后自动关闭,工程目录下生成cookies.pkl文件,之后再登录百度首页账号自动登录完毕#!coding=utf-8importtimefromseleniumimportwebdriverimportpickleclassBaiduSpider(ob
二叉叔
·
2020-08-17 06:43
Python爬虫
python爬虫学习
-task1
网页组成网页是由HTML、CSS、JavaScript组成的。HTML是用来搭建整个网页的骨架,而CSS是为了让整个页面更好看,包括我们看到的颜色,每个模块的大小、位置等都是由CSS来控制的,JavaScript是用来让整个网页“动起来”,这个动起来有两层意思,一层是网页的数据动态交互,还有一层是真正的动,比如我们都见过一些网页上的动画,一般都是由JavaScript配合CSS来完成的。不同类型的
O-oaz
·
2020-08-17 05:19
学习
python爬虫学习
-scrapy爬取链家房源信息并存储
爬取链家租房页面第一页的房源信息,获取内容包括:标题、价格、URLitems.pyimportscrapyclassScrapytestItem(scrapy.Item):#definethefieldsforyouritemherelike:title=scrapy.Field()price=scrapy.Field()url=scrapy.Field()pipelines.pyimportjs
右手画诗
·
2020-08-15 22:51
python
Python爬虫学习
Scrapy框架的初体验
(从上个星期天就打算学习scrapy,但是中间磨蹭了一两天,所以直到今天我才对着电子书动手写了第一个基于scrapy框架的程序)一、Scrapy的安装问题上个星期天我几乎花了一下午加上晚上才解决了scrapy的安装,主要的问题是在安装完scrapy模块后无法正常使用,出现了ImportError:DLLloadfailed:操作系统无法运行%1的报错,就算重装了anaconda并更换了python
神经元2020
·
2020-08-15 07:12
笔记
Python爬虫基础教程,详细讲解(含爬取文字为乱码解决办法、反爬虫机制解决办法)
Python爬虫学习
笔记前言适当爬取怡情,过度爬取…**爬取到的东西不要商用!爬取到的东西不要商用!爬取到的东西不要商用!
漫游感知
·
2020-08-14 16:23
爬虫
Python
python
爬虫
后端
python爬虫学习
一--爬取网络小说实例
最近疫情猖獗,长假憋在家里实在无聊,早上突然看了一篇python爬虫文章,当场决定试验一下,参照了一下别人的案例,自己各种踩坑捣鼓了好几个小时,终于成功最后把具体步骤和注意点分享给大家:1、Python爬虫关键的两个组件是requests和BeautifulSoup,特别是BeautifulSoup组件,认真学习好,会使你的爬取之路事半功倍。2、初始化爬取需要的变量#-*-coding:UTF-8
姚华军
·
2020-08-13 23:34
python
python爬虫学习
(数据解析)
引入我们首先回顾一下之前学习的requsets模块实现数据爬取的流程:指定url发起请求获取响应数据持久化存储其实,在上述的流程中还需要较为重要的一步,就是在持久化存储之前需要进行指定数据解析。因此大多数情况下的需求,我们都会指定去使用聚焦爬虫,也就是爬取页面中指定部分的数据值,而不是整个页面的数据。因此,本次可能将详细介绍三种聚焦爬虫中的数据解析方式。至此我们的数据爬取的流程可以修改为:指定ur
李济雄
·
2020-08-13 22:26
爬虫
python爬虫学习
(十一)bs4解析爬取三国演义
#-*-coding:utf-8-*-importlxmlimportrequestsfrombs4importBeautifulSoupif__name__=='__main__':headers={'User-Agent':'Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/76.0.3809.8
haimian_baba
·
2020-08-13 14:12
Python爬虫学习
6:scrapy入门(一)爬取汽车评论并保存到csv文件
一、scrapy安装:可直接使用AnacondaNavigator安装,也可使用pipinstallscrapy安装二、创建scrapy爬虫项目:语句格式为scrapystartprojectproject_name生成的爬虫项目目录如下,其中spiders是自己真正要编写的爬虫。三、爬取腾讯新闻并保存到csv文件1.只爬取一个页面:在spiders目录下创建spider程序car_comment
zhuzuwei
·
2020-08-12 18:43
爬虫
python爬虫学习
-scrapy爬取链家房源信息并存储(翻页)
爬取链家租房频道的房源信息,含翻页,含房间详情页的内容爬取。items.pyimportscrapyclassScrapytestItem(scrapy.Item):#definethefieldsforyouritemherelike:title=scrapy.Field()#房源名称price=scrapy.Field()#价格url=scrapy.Field()#详情页地址introduce
右手画诗
·
2020-08-12 16:57
python
Python 爬虫学习笔记(四)
python爬虫学习
笔记(四)【Python网络爬虫与信息提取】.MOOC.北京理工大学中国大学排名定向爬虫#视频33:中国大学排名定向爬虫实例importrequestsfrombs4importBeautifulSoupimportbs4defgetHTMLtext
柠檬汽水橘子汁
·
2020-08-12 12:36
Python
爬虫
Python爬虫学习
(一)Requests库入门
(一)Requests库入门(1)HTTP协议#HTTP超文本传输协议#HTTP是一种基于“请求与响应”模式的、无状态的应用层协议#HTTP采用URL作为定位网络资源的标识,一个URL对应一个数据资源-------------------------------http://host[:post][path]host:合法的Internet主机域名或IP地址port:端口号,缺省为80path:请
浩然丶
·
2020-08-12 12:21
Python-爬虫
【
Python爬虫学习
】中国大学排名网页爬虫实战
功能描述:定向爬取中国大学排名网页的排名信息,包括学校名称,学校排名,所在省市技术路线:requests——bs4(BeautifulSoup)核心操作:1.熬制一锅汤soup=BeautifulSoup(html,“html.parser”)2.soup.find(‘tbody’).children:在html页面中发现大学排名信息都存在:tbody标签下的名为’td’的tr标签中。找出包含所有
Johnny_sc
·
2020-08-12 10:23
爬虫
python爬虫学习
系列
Python爬虫(1):基本原理Python爬虫(2):Requests的基本用法Python爬虫(3):Requests的高级用法Python爬虫(4):BeautifulSoup的常用方法Python爬虫(5):豆瓣读书练手爬虫Python爬虫(6):煎蛋网全站妹子图爬虫Python爬虫(7):多进程抓取拉钩网十万数据Python爬虫(8):分析Ajax请求爬取果壳网Python爬虫(9):C
sunzq55
·
2020-08-12 10:45
Python
Python爬虫学习
笔记二:urllib
urllib模拟浏览器发送请求的库,Python自带Python2:urlliburllib2Python3:urllib.requesturllib.parse1urllib.requestresponseurlopen(url)urlretrieve(url,image_path)importurllib.requesturl='heep://www.baidu.com'#完整的url#htt
WM宸
·
2020-08-12 10:53
python爬虫学习
之路(2) 利用urllib爬取有道翻译的结果
上一节学习了如何简单的获取一个网站的html代码,这次学习一下如何爬取一个网站返回的数据.比如:爬取有道翻译所翻译的结果.在我们爬取有道翻译的结果前,我们需要将我们所要翻译的中文传到有道翻译的服务端,如何传送呢?这就需要用到urlopen的data参数.urlopen的data参数我们可以使用data参数,向服务器发送数据。根据HTTP规范,GET用于信息获取,POST是向服务器提交数据的一种请求
QEcode
·
2020-08-12 10:20
python
关于爬虫过程出现的错误类型 AttributeError: 'NoneType' object has no attribute 'text'
Python爬虫学习
错误记录关于出现AttributeError:‘NoneType’objecthasnoattribute'text’编译错误的情况在学习爬取百度新闻网站的新闻标题的时候,自己跟着网上的教程来写代码发现最后什么错误都没有
海锋Spurs
·
2020-08-11 16:30
问题
Python爬虫学习
3----xpath爬取哔哩哔哩排行榜
爬取哔哩哔哩月排行榜,并输出csv格式文件。importrequestsimportlxml.htmlimportcsvsource=requests.get('https://www.bilibili.com/ranking/all/0/0/30').content.decode('utf-8')selector=lxml.html.fromstring(source)items=selecto
小粥粥爱喝粥
·
2020-08-11 14:11
python个人学习
python
xpath
python爬虫学习
问题总结
这里记录一些在根据视频/网站学习爬虫时,遇到的一些问题。一般是由于视频/网站时间较早,相关代码语法网站等需要修改。这里做一些简单记录,当然,可能过了半载一年,又失效了。一、有道翻译解决:有道翻译‘errorCode’:50根据有道翻译的结果页信息,获取到的url为:http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=ru
CRISTIANO Xusanduo
·
2020-08-11 13:27
python
python爬虫学习
笔记 1.8 (urllib:get请求和post请求)
python爬虫学习
笔记1.8(urllib:get请求和post请求)
python爬虫学习
笔记1.1(通用爬虫和聚焦爬虫)
python爬虫学习
笔记1.2(HTTP和HTTPS)
python爬虫学习
笔记
还算小萌新?
·
2020-08-11 05:17
python爬虫学习
Python爬虫学习
-第四篇 Scrapy框架抓取唯品会数据
上篇博文讲述了scrapy的框架和组件,对于scrapy有了基本的了解,那么我们进入今天的正题:使用Scrapy框架爬取数据。1.创建Scrapy项目创建Scrapy工程文件的命令:scrapystartprojectscrapytest此命令是python默认目下创建的工程。指定目录文件下创建项目:1.进入指定目录cdD:\workspaces2.该目录下执行:scrapystartprojec
板命土豆
·
2020-08-11 05:13
python
爬虫
scrapy
唯评会
Python爬虫学习
-第二篇 Python爬虫扫盲与小栗子
通过上篇博文的操作,我们搭建好了python的运行环境和开发工具,接下来我们就可以开始编写我们的小爬虫了。操作之前我们需要对爬虫的概念要有一个清晰地认识。1.什么是爬虫简单来说互联网是由一个个站点和网络设备组成的大网,我们通过浏览器访问站点,站点把HTML、JS、CSS代码返回给浏览器,这些代码经过浏览器解析、渲染,将丰富多彩的网页呈现我们眼前;互联网就好比一张大的蜘蛛网,我们访问的其实其中的一个
板命土豆
·
2020-08-11 05:13
python
python爬虫
12天
Python爬虫学习
的总结和思考
爬取网页的过程1.发送请求和获取相应2.对获取的response进行想要的信息的提取3.对信息进行存储(1)发送请求和相应基本的是requests库的使用共有参数:headersheaders以字典形式添加,有的网页需要多一点的头部信息才可以获得响应。可以人为的删除一些没必要的头部信息。nb一点的用法,生成随机的头部信息用fake_useragent这个库,要pipinstall一下。fromfa
_LvP
·
2020-08-11 03:11
学习过程
爬虫
Python爬虫学习
:使用urllib(request)
文章目录1.前言2.发送请求1.前言在Python2中,有urllib和urllib2两个库来实现请求的发送。而在python3中,已经不存在urllib2这个库了,统一为urllib。urllib是Python内置的HTTP请求库,也就是说不需要额外安装即可使用,它一共包含四个模块:request:它是最基本的HTTP请求模块,可以用来模拟发送请求。就像在浏览器输入网址,然后回车一样,只需要给库
南淮北安
·
2020-08-11 03:13
Python
爬虫学习
nlp方向研究初步---
Python爬虫学习
心得
跟着导师做nlp方向的研究刚刚起步,首要任务是走一个中软杯项目的流程。此间,第一阶段是学习python爬虫相关知识,获取一些网页最好是功能性网页的数据,解析成json格式用作于后面的训练集。30+的网课学下来加上自己爬取baidu搜索信息,csdn个人博客,梨视频以及爆米花视频的实战,对Python爬虫有了些初步、浅薄的理解,于此分享一下,也记录下这一个月来的学习经历。首先,爬虫是什么呢?网络爬虫
eecho1
·
2020-08-11 02:00
Python爬虫学习
基础——利用Ajax爬取B站用户信息
Python爬虫学习
基础——利用Ajax爬取B站用户信息Ajax正式开始完整代码以及运行结果有时候我们在用requests抓取网页时,得到的结果可能和在浏览器中看到的不一样,原因是因为我们requests
ℳ๓₯㎕℡ 桜
·
2020-08-10 20:58
爬虫
Python
python爬虫学习
笔记(一)—— 爬取腾讯视频影评
前段时间我忽然想起来,以前本科的时候总有一些公众号,能够为我们提供成绩查询、课表查询等服务。我就一直好奇它是怎么做到的,经过一番学习,原来是运用了爬虫的原理,自动登陆教务系统爬取的成绩等内容。我觉得挺好玩的,于是自己也琢磨了一段时间,今天呢,我为大家分享一个爬虫的小实例,也算是记录自己的学习过程吧。我发现腾讯视频出了一部新的电视剧,叫做《新笑傲江湖》,也不知道好看不好看,反正我只喜欢陈乔恩版的东方
行歌er
·
2020-08-10 08:17
python爬虫
python爬虫学习
,使用requests库来实现模拟登录4399小游戏网站。
1.首先分析请求,打开4399网站。右键检查元素或者F12打开开发者工具。然后找到network选项,这里最好勾选perservelog选项,用来保存请求日志。这时我们来先用我们的账号密码登陆一下,然后查看一下截获的请求可以很清楚的看到这里有个login,而且这个请求是post请求,下拉查看一下Formdata,也就是表单数据可以很清楚的看到我们的刚才登录发送给服务器的表单数据,更重要的是,除了u
weixin_30772105
·
2020-08-10 07:44
Python爬虫学习
笔记(一)
1.urllib2简介urllib2的是爬取URL(统一资源定位器)的Python模块。它提供了一个非常简单的接口,使用urlopen函数。它能够使用多种不同的协议来爬取URL。它还提供了一个稍微复杂的接口,用于处理常见的情况-如基本身份验证,cookies,代理等。2.抓取URLs使用urlib2的简单方式可以像下面一样:importurllib2response=urllib2.urlopen
weixin_30642561
·
2020-08-10 07:07
python爬虫学习
5_cookie的获取、保存和使用
python爬虫学习
5_cookie的获取、保存和使用Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密)。
huhanghao
·
2020-08-10 07:38
Python学习
python爬虫学习
日记(1)--获取验证码
最近发现python的爬虫比较容易实现,我是python零基础,就疯狂的搜索资料,实现一下简单的爬虫,首先是登录爬虫,找到我们学校的教务网站,其中我遇到的第一个难题就是验证码的获取,因为是零基础,所以参考一些教程。http://www.dabu.info/python-login-crawler-captcha-cookies.html1.找地址首先,我们要找到这个网站生成验证码的地址,这个地址我
colodoo
·
2020-08-10 06:03
python爬虫
python爬虫学习
笔记
文章目录第一章网络请求1、`urllib`库1.01、`urlopen`函数:1.02、`urlretrieve`函数:1.03、`urlencode`函数:1.04、`parse_qs`函数:1.05、`urlparse`和`urlsplit`:1.06、`request.Request`类:1.07、proxyHandler处理器(代理设置)1.08、什么是`cookie`:1.09、使用`c
fdk少东家
·
2020-08-10 05:08
python
爬虫
python爬虫学习
笔记(一)
HTTP协议与requests库HTTP(HypertextTransferProtocol)超文本传输协议HTTP是一个基于“请求与响应”模式的,无状态的应用层协议HTTP协议采用URL作为定位网络资源的标识URL格式http://host[:port][path]host:表示合法的Internet主机域名或IP地址port:端口号,缺省为80path:请求资源的路径(服务器内部路径)HTTP
_Celeste_
·
2020-08-08 20:38
python爬虫学习
笔记5爬虫类结构优化
代码库传送门前文传送门:
python爬虫学习
笔记1一个简单的爬虫
python爬虫学习
笔记2模拟登录与数据库
python爬虫学习
笔记3封
憧憬少
·
2020-08-08 20:25
python
爬虫
Python爬虫学习
笔记
一、了解网页结构支撑起各种光鲜亮丽的网页的不是别的,全都是一些代码.这种代码我们称之为HTML(超文本标记语言),HTML是一种浏览器(Chrome,Safari,IE,Firefox等)看得懂的语言,浏览器能将这种语言转换成我们用肉眼看到的网页.所以HTML里面必定存在着很多规律,我们的爬虫就能按照这样的规律来爬取你需要的信息。用户看到的网页实质是由HTML代码构成的,爬虫爬来的便是这些内容,通
SpringRolls
·
2020-08-08 13:42
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他