0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python爬蟲(chóng)速成指南讓你快速的學(xué)會(huì)寫(xiě)一個(gè)最簡(jiǎn)單的爬蟲(chóng)

馬哥Linux運(yùn)維 ? 來(lái)源:未知 ? 作者:易水寒 ? 2018-06-10 09:57 ? 次閱讀

本文主要內(nèi)容:以最短的時(shí)間寫(xiě)一個(gè)最簡(jiǎn)單的爬蟲(chóng),可以抓取論壇的帖子標(biāo)題和帖子內(nèi)容。

本文受眾:沒(méi)寫(xiě)過(guò)爬蟲(chóng)的萌新。

入門(mén)

0.準(zhǔn)備工作

需要準(zhǔn)備的東西: Python、scrapy、一個(gè)IDE或者隨便什么文本編輯工具。

1.技術(shù)部已經(jīng)研究決定了,你來(lái)寫(xiě)爬蟲(chóng)。

隨便建一個(gè)工作目錄,然后用命令行建立一個(gè)工程,工程名為miao,可以替換為你喜歡的名字。

scrapy startproject miao

隨后你會(huì)得到如下的一個(gè)由scrapy創(chuàng)建的目錄結(jié)構(gòu)

Python爬蟲(chóng)速成指南讓你快速的學(xué)會(huì)寫(xiě)一個(gè)最簡(jiǎn)單的爬蟲(chóng)

在spiders文件夾中創(chuàng)建一個(gè)python文件,比如miao.py,來(lái)作為爬蟲(chóng)的腳本。

內(nèi)容如下:

import scrapyclass NgaSpider(scrapy.Spider): name = "NgaSpider" host = "http://bbs.ngacn.cc/" # start_urls是我們準(zhǔn)備爬的初始頁(yè) start_urls = [ "http://bbs.ngacn.cc/thread.php?fid=406", ] # 這個(gè)是解析函數(shù),如果不特別指明的話,scrapy抓回來(lái)的頁(yè)面會(huì)由這個(gè)函數(shù)進(jìn)行解析。 # 對(duì)頁(yè)面的處理和分析工作都在此進(jìn)行,這個(gè)示例里我們只是簡(jiǎn)單地把頁(yè)面內(nèi)容打印出來(lái)。 def parse(self, response): print response.body

2.跑一個(gè)試試?

如果用命令行的話就這樣:

cd miao scrapy crawl NgaSpider

你可以看到爬蟲(chóng)君已經(jīng)把你壇星際區(qū)第一頁(yè)打印出來(lái)了,當(dāng)然由于沒(méi)有任何處理,所以混雜著html標(biāo)簽和js腳本都一并打印出來(lái)了。

解析

接下來(lái)我們要把剛剛抓下來(lái)的頁(yè)面進(jìn)行分析,從這坨html和js堆里把這一頁(yè)的帖子標(biāo)題提煉出來(lái)。

其實(shí)解析頁(yè)面是個(gè)體力活,方法多的是,這里只介紹xpath。

0.為什么不試試神奇的xpath呢

看一下剛才抓下來(lái)的那坨東西,或者用chrome瀏覽器手動(dòng)打開(kāi)那個(gè)頁(yè)面然后按F12可以看到頁(yè)面結(jié)構(gòu)。

每個(gè)標(biāo)題其實(shí)都是由這么一個(gè)html標(biāo)簽包裹著的。舉個(gè)例子:

[合作模式] 合作模式修改設(shè)想

可以看到href就是這個(gè)帖子的地址(當(dāng)然前面要拼上論壇地址),而這個(gè)標(biāo)簽包裹的內(nèi)容就是帖子的標(biāo)題了。

于是我們用xpath的絕對(duì)定位方法,把class='topic'的部分摘出來(lái)。

1.看看xpath的效果

在最上面加上引用:

from scrapy import Selector

把parse函數(shù)改成:

def parse(self, response): selector = Selector(response) # 在此,xpath會(huì)將所有class=topic的標(biāo)簽提取出來(lái),當(dāng)然這是個(gè)list # 這個(gè)list里的每一個(gè)元素都是我們要找的html標(biāo)簽 content_list = selector.xpath("http://*[@class='topic']") # 遍歷這個(gè)list,處理每一個(gè)標(biāo)簽 for content in content_list: # 此處解析標(biāo)簽,提取出我們需要的帖子標(biāo)題。 topic = content.xpath('string(.)').extract_first() print topic # 此處提取出帖子的url地址。 url = self.host + content.xpath('@href').extract_first() print url

再次運(yùn)行就可以看到輸出你壇星際區(qū)第一頁(yè)所有帖子的標(biāo)題和url了。

遞歸

接下來(lái)我們要抓取每一個(gè)帖子的內(nèi)容。

這里需要用到python的yield。

yield Request(url=url, callback=self.parse_topic)

此處會(huì)告訴scrapy去抓取這個(gè)url,然后把抓回來(lái)的頁(yè)面用指定的parse_topic函數(shù)進(jìn)行解析。

至此我們需要定義一個(gè)新的函數(shù)來(lái)分析一個(gè)帖子里的內(nèi)容。

完整的代碼如下:

import scrapyfrom scrapy import Selectorfrom scrapy import Requestclass NgaSpider(scrapy.Spider): name = "NgaSpider" host = "http://bbs.ngacn.cc/" # 這個(gè)例子中只指定了一個(gè)頁(yè)面作為爬取的起始url # 當(dāng)然從數(shù)據(jù)庫(kù)或者文件或者什么其他地方讀取起始url也是可以的 start_urls = [ "http://bbs.ngacn.cc/thread.php?fid=406", ] # 爬蟲(chóng)的入口,可以在此進(jìn)行一些初始化工作,比如從某個(gè)文件或者數(shù)據(jù)庫(kù)讀入起始url def start_requests(self): for url in self.start_urls: # 此處將起始url加入scrapy的待爬取隊(duì)列,并指定解析函數(shù) # scrapy會(huì)自行調(diào)度,并訪問(wèn)該url然后把內(nèi)容拿回來(lái) yield Request(url=url, callback=self.parse_page) # 版面解析函數(shù),解析一個(gè)版面上的帖子的標(biāo)題和地址 def parse_page(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='topic']") for content in content_list: topic = content.xpath('string(.)').extract_first() print topic url = self.host + content.xpath('@href').extract_first() print url # 此處,將解析出的帖子地址加入待爬取隊(duì)列,并指定解析函數(shù) yield Request(url=url, callback=self.parse_topic) # 可以在此處解析翻頁(yè)信息,從而實(shí)現(xiàn)爬取版區(qū)的多個(gè)頁(yè)面 # 帖子的解析函數(shù),解析一個(gè)帖子的每一樓的內(nèi)容 def parse_topic(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='postcontent ubbcode']") for content in content_list: content = content.xpath('string(.)').extract_first() print content # 可以在此處解析翻頁(yè)信息,從而實(shí)現(xiàn)爬取帖子的多個(gè)頁(yè)面

到此為止,這個(gè)爬蟲(chóng)可以爬取你壇第一頁(yè)所有的帖子的標(biāo)題,并爬取每個(gè)帖子里第一頁(yè)的每一層樓的內(nèi)容。

爬取多個(gè)頁(yè)面的原理相同,注意解析翻頁(yè)的url地址、設(shè)定終止條件、指定好對(duì)應(yīng)的頁(yè)面解析函數(shù)即可。

Pipelines——管道

此處是對(duì)已抓取、解析后的內(nèi)容的處理,可以通過(guò)管道寫(xiě)入本地文件、數(shù)據(jù)庫(kù)。

0.定義一個(gè)Item

在miao文件夾中創(chuàng)建一個(gè)items.py文件。

from scrapy import Item, Fieldclass TopicItem(Item): url = Field() title = Field() author = Field() class ContentItem(Item): url = Field() content = Field() author = Field()

此處我們定義了兩個(gè)簡(jiǎn)單的class來(lái)描述我們爬取的結(jié)果。

1. 寫(xiě)一個(gè)處理方法

在miao文件夾下面找到那個(gè)pipelines.py文件,scrapy之前應(yīng)該已經(jīng)自動(dòng)生成好了。

我們可以在此建一個(gè)處理方法。

from scrapy import Item, Fieldclass TopicItem(Item): url = Field() title = Field() author = Field() class ContentItem(Item): url = Field() content = Field() author = Field()

2.在爬蟲(chóng)中調(diào)用這個(gè)處理方法。

要調(diào)用這個(gè)方法我們只需在爬蟲(chóng)中調(diào)用即可,例如原先的內(nèi)容處理函數(shù)可改為:

def parse_topic(self, response): selector = Selector(response) content_list = selector.xpath("http://*[@class='postcontent ubbcode']") for content in content_list: content = content.xpath('string(.)').extract_first() ## 以上是原內(nèi)容 ## 創(chuàng)建個(gè)ContentItem對(duì)象把我們爬取的東西放進(jìn)去 item = ContentItem() item["url"] = response.url item["content"] = content item["author"] = "" ## 略 ## 這樣調(diào)用就可以了 ## scrapy會(huì)把這個(gè)item交給我們剛剛寫(xiě)的FilePipeline來(lái)處理 yield item

3.在配置文件里指定這個(gè)pipeline

找到settings.py文件,在里面加入

ITEM_PIPELINES = { 'miao.pipelines.FilePipeline': 400, }

這樣在爬蟲(chóng)里調(diào)用

yield item

的時(shí)候都會(huì)由經(jīng)這個(gè)FilePipeline來(lái)處理。后面的數(shù)字400表示的是優(yōu)先級(jí)。

可以在此配置多個(gè)Pipeline,scrapy會(huì)根據(jù)優(yōu)先級(jí),把item依次交給各個(gè)item來(lái)處理,每個(gè)處理完的結(jié)果會(huì)傳遞給下一個(gè)pipeline來(lái)處理。

可以這樣配置多個(gè)pipeline:

ITEM_PIPELINES = { 'miao.pipelines.Pipeline00': 400, 'miao.pipelines.Pipeline01': 401, 'miao.pipelines.Pipeline02': 402, 'miao.pipelines.Pipeline03': 403, ## ... }

Middleware——中間件

通過(guò)Middleware我們可以對(duì)請(qǐng)求信息作出一些修改,比如常用的設(shè)置UA、代理、登錄信息等等都可以通過(guò)Middleware來(lái)配置。

0.Middleware的配置

與pipeline的配置類似,在setting.py中加入Middleware的名字,例如

DOWNLOADER_MIDDLEWARES = { "miao.middleware.UserAgentMiddleware": 401, "miao.middleware.ProxyMiddleware": 402, }

1.破網(wǎng)站查UA, 我要換UA

某些網(wǎng)站不帶UA是不讓訪問(wèn)的。

在miao文件夾下面建立一個(gè)middleware.py

import randomagents = [ "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/532.5 (KHTML, like Gecko) Chrome/4.0.249.0 Safari/532.5", "Mozilla/5.0 (Windows; U; Windows NT 5.2; en-US) AppleWebKit/532.9 (KHTML, like Gecko) Chrome/5.0.310.0 Safari/532.9", "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/534.7 (KHTML, like Gecko) Chrome/7.0.514.0 Safari/534.7", "Mozilla/5.0 (Windows; U; Windows NT 6.0; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/10.0.601.0 Safari/534.14", "Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.20 (KHTML, like Gecko) Chrome/11.0.672.2 Safari/534.20", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.27 (KHTML, like Gecko) Chrome/12.0.712.0 Safari/534.27", "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.24 Safari/535.1",]class UserAgentMiddleware(object): def process_request(self, request, spider): agent = random.choice(agents) request.headers["User-Agent"] = agent

這里就是一個(gè)簡(jiǎn)單的隨機(jī)更換UA的中間件,agents的內(nèi)容可以自行擴(kuò)充。

2.破網(wǎng)站封IP,我要用代理

比如本地127.0.0.1開(kāi)啟了一個(gè)8123端口的代理,同樣可以通過(guò)中間件配置讓爬蟲(chóng)通過(guò)這個(gè)代理來(lái)對(duì)目標(biāo)網(wǎng)站進(jìn)行爬取。

同樣在middleware.py中加入:

class ProxyMiddleware(object): def process_request(self, request, spider): # 此處填寫(xiě)你自己的代理 # 如果是買(mǎi)的代理的話可以去用API獲取代理列表然后隨機(jī)選擇一個(gè) proxy = "http://127.0.0.1:8123" request.meta["proxy"] = proxy

很多網(wǎng)站會(huì)對(duì)訪問(wèn)次數(shù)進(jìn)行限制,如果訪問(wèn)頻率過(guò)高的話會(huì)臨時(shí)禁封IP。

如果需要的話可以從網(wǎng)上購(gòu)買(mǎi)IP,一般服務(wù)商會(huì)提供一個(gè)API來(lái)獲取當(dāng)前可用的IP池,選一個(gè)填到這里就好。

一些常用配置

在settings.py中的一些常用配置

# 間隔時(shí)間,單位秒。指明scrapy每?jī)蓚€(gè)請(qǐng)求之間的間隔。DOWNLOAD_DELAY = 5# 當(dāng)訪問(wèn)異常時(shí)是否進(jìn)行重試RETRY_ENABLED = True# 當(dāng)遇到以下http狀態(tài)碼時(shí)進(jìn)行重試RETRY_HTTP_CODES = [500, 502, 503, 504, 400, 403, 404, 408]# 重試次數(shù)RETRY_TIMES = 5# Pipeline的并發(fā)數(shù)。同時(shí)最多可以有多少個(gè)Pipeline來(lái)處理itemCONCURRENT_ITEMS = 200# 并發(fā)請(qǐng)求的最大數(shù)CONCURRENT_REQUESTS = 100# 對(duì)一個(gè)網(wǎng)站的最大并發(fā)數(shù)CONCURRENT_REQUESTS_PER_DOMAIN = 50# 對(duì)一個(gè)IP的最大并發(fā)數(shù)CONCURRENT_REQUESTS_PER_IP = 50

我就是要用Pycharm

如果非要用Pycharm作為開(kāi)發(fā)調(diào)試工具的話可以在運(yùn)行配置里進(jìn)行如下配置:

Configuration頁(yè)面:

Script填你的scrapy的cmdline.py路徑,比如我的是

/usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

然后在Scrpit parameters中填爬蟲(chóng)的名字,本例中即為:

crawl NgaSpider

最后是Working diretory,找到你的settings.py文件,填這個(gè)文件所在的目錄。

示例:

Python爬蟲(chóng)速成指南讓你快速的學(xué)會(huì)寫(xiě)一個(gè)最簡(jiǎn)單的爬蟲(chóng)

按小綠箭頭就可以愉快地調(diào)試了。

參考

這里提供了對(duì)scrapy非常詳細(xì)的介紹。

http://scrapy-chs.readthedocs.io/zh_CN/0.24/

以下是幾個(gè)比較重要的地方:

scrapy的架構(gòu):

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/architecture.html

xpath語(yǔ)法:

http://www.w3school.com.cn/xpath/xpath_syntax.asp

Pipeline管道配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/item-pipeline.html

Middleware中間件的配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/downloader-middleware.html

settings.py的配置:

http://scrapy-chs.readthedocs.io/zh_CN/0.24/topics/settings.html

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • IDE
    IDE
    +關(guān)注

    關(guān)注

    0

    文章

    334

    瀏覽量

    46539
  • python
    +關(guān)注

    關(guān)注

    53

    文章

    4753

    瀏覽量

    84068
  • 爬蟲(chóng)
    +關(guān)注

    關(guān)注

    0

    文章

    80

    瀏覽量

    6769

原文標(biāo)題:從零開(kāi)始的 Python 爬蟲(chóng)速成指南

文章出處:【微信號(hào):magedu-Linux,微信公眾號(hào):馬哥Linux運(yùn)維】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    Python數(shù)據(jù)爬蟲(chóng)學(xué)習(xí)內(nèi)容

    ,利用爬蟲(chóng),我們可以解決部分?jǐn)?shù)據(jù)問(wèn)題,那么,如何學(xué)習(xí)Python數(shù)據(jù)爬蟲(chóng)能?1.學(xué)習(xí)Python基礎(chǔ)知識(shí)并實(shí)現(xiàn)基本的爬蟲(chóng)過(guò)程
    發(fā)表于 05-09 17:25

    Python爬蟲(chóng)與Web開(kāi)發(fā)庫(kù)盤(pán)點(diǎn)

    的接口,般我們都是和正則結(jié)合使用,如果對(duì)速度有要求的話,建議用lmxp,它比bs4 速度要快很多。2.Scrapy爬蟲(chóng)的世界里面有沒(méi)有懶人專用的框架,當(dāng)然有啦,scrapy就是其中比較有名的,可以快速
    發(fā)表于 05-10 15:21

    Python爬蟲(chóng)初學(xué)者需要準(zhǔn)備什么?

    ,想從事這方面的工作,需掌握以下知識(shí):1. 學(xué)習(xí)Python基礎(chǔ)知識(shí)并實(shí)現(xiàn)基本的爬蟲(chóng)過(guò)程般獲取數(shù)據(jù)的過(guò)程都是按照發(fā)送請(qǐng)求-獲得頁(yè)面反饋-解析并且存儲(chǔ)數(shù)據(jù) 這三個(gè)流程來(lái)實(shí)現(xiàn)的。這個(gè)過(guò)程
    發(fā)表于 06-20 17:14

    Python 爬蟲(chóng):8 個(gè)常用的爬蟲(chóng)技巧總結(jié)!

    python也差不多年多了,python應(yīng)用最多的場(chǎng)景還是web快速開(kāi)發(fā)、爬蟲(chóng)自動(dòng)化運(yùn)維:寫(xiě)過(guò)簡(jiǎn)單
    發(fā)表于 01-02 14:37

    什么是爬蟲(chóng)?

    什么是爬蟲(chóng)?爬蟲(chóng)的價(jià)值?最簡(jiǎn)單python爬蟲(chóng)爬蟲(chóng)基本架構(gòu)
    發(fā)表于 11-05 06:13

    0基礎(chǔ)入門(mén)Python爬蟲(chóng)實(shí)戰(zhàn)課

    大數(shù)據(jù)時(shí)代,有兩種技能可以給自己增加競(jìng)爭(zhēng)優(yōu)勢(shì)。種是數(shù)據(jù)分析,旨在挖掘數(shù)據(jù)的價(jià)值,做出最佳決策;另種是數(shù)據(jù)獲取,即爬蟲(chóng)。學(xué)會(huì)它,相當(dāng)于在數(shù)據(jù)時(shí)代掌握了攫取能源的最有效方式。谷歌百度等
    發(fā)表于 07-25 09:28

    Python爬蟲(chóng)簡(jiǎn)介與軟件配置

    Python爬蟲(chóng)練習(xí)、爬蟲(chóng)簡(jiǎn)介1. 介紹2. 軟件配置二、爬取南陽(yáng)理工OJ題目三、爬取學(xué)校信息通知四、總結(jié)五、參考、
    發(fā)表于 01-11 06:32

    python網(wǎng)絡(luò)爬蟲(chóng)概述

    、MySQL、MongoDB、Redis …關(guān)于爬蟲(chóng)的合法性幾乎每個(gè)網(wǎng)站都有個(gè)名為robots.txt的文檔,當(dāng)然也有有些網(wǎng)站沒(méi)有設(shè)定。對(duì)于沒(méi)有設(shè)定robots.txt的網(wǎng)站可以通過(guò)網(wǎng)絡(luò)爬蟲(chóng)
    發(fā)表于 03-21 16:51

    完全自學(xué)指南Python爬蟲(chóng)BeautifulSoup詳解

    完全自學(xué)指南Python爬蟲(chóng)BeautifulSoup詳解
    發(fā)表于 09-07 08:55 ?39次下載
    完全自學(xué)<b class='flag-5'>指南</b><b class='flag-5'>Python</b><b class='flag-5'>爬蟲(chóng)</b>BeautifulSoup詳解

    Python爬蟲(chóng)8個(gè)常用的爬蟲(chóng)技巧分析總結(jié)

    python也差不多年多了,python應(yīng)用最多的場(chǎng)景還是web快速開(kāi)發(fā)、爬蟲(chóng)、自動(dòng)化運(yùn)維:寫(xiě)過(guò)簡(jiǎn)單
    的頭像 發(fā)表于 08-18 11:45 ?5012次閱讀

    python爬蟲(chóng)入門(mén)教程之python爬蟲(chóng)視頻教程分布式爬蟲(chóng)打造搜索引擎

    本文檔的主要內(nèi)容詳細(xì)介紹的是python爬蟲(chóng)入門(mén)教程之python爬蟲(chóng)視頻教程分布式爬蟲(chóng)打造搜索引擎
    發(fā)表于 08-28 15:32 ?29次下載

    Python爬蟲(chóng) 真的會(huì)寫(xiě)爬蟲(chóng)嗎?

    以為真的會(huì)寫(xiě)爬蟲(chóng)了嗎?快來(lái)看看真正的爬蟲(chóng)架構(gòu)!
    的頭像 發(fā)表于 05-02 17:02 ?3776次閱讀
    <b class='flag-5'>Python</b><b class='flag-5'>爬蟲(chóng)</b> <b class='flag-5'>你</b>真的<b class='flag-5'>會(huì)寫(xiě)</b><b class='flag-5'>爬蟲(chóng)</b>嗎?

    python實(shí)現(xiàn)簡(jiǎn)單爬蟲(chóng)的資料說(shuō)明

    本文檔的主要內(nèi)容詳細(xì)介紹的是python實(shí)現(xiàn)簡(jiǎn)單爬蟲(chóng)的資料說(shuō)明。
    發(fā)表于 11-02 17:53 ?21次下載
    <b class='flag-5'>python</b>實(shí)現(xiàn)<b class='flag-5'>簡(jiǎn)單</b><b class='flag-5'>爬蟲(chóng)</b>的資料說(shuō)明

    利用Python編寫(xiě)簡(jiǎn)單網(wǎng)絡(luò)爬蟲(chóng)實(shí)例

    利用 Python編寫(xiě)簡(jiǎn)單網(wǎng)絡(luò)爬蟲(chóng)實(shí)例2 實(shí)驗(yàn)環(huán)境python版本:3.3.5(2.7下報(bào)錯(cuò)
    發(fā)表于 02-24 11:05 ?14次下載

    如何解決Python爬蟲(chóng)中文亂碼問(wèn)題?Python爬蟲(chóng)中文亂碼的解決方法

    Python爬蟲(chóng)中文亂碼問(wèn)題。 、了解字符編碼 在解決亂碼問(wèn)題之前,我們首先需要了解些基本的字符編碼知識(shí)。常見(jiàn)的字符編碼有ASCII、UTF-8和GBK等。 1. ASCII:是
    的頭像 發(fā)表于 01-12 15:11 ?1578次閱讀