南開21春學(xué)期《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-1(標(biāo)準(zhǔn)答案)

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2021/8/27 21:02:35來源:admin瀏覽: 54 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請(qǐng)?zhí)砑観Q:3230981406      微信:aopopenfd777



21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)
試卷總分:100    得分:100
第1,通常使用()工具來模擬瀏覽器進(jìn)行爬蟲請(qǐng)求
A、Selenium
B、Chrome
C、ChromeDriver
D、WebDriver
正確答案:


第2題,下面代碼一共執(zhí)行循環(huán)多少次():
for i in range(10):print(i ** i)
A、9
B、10
C、11#0
正確答案:


第3題,Redis是()數(shù)據(jù)庫
A、關(guān)系數(shù)據(jù)庫
B、鍵值數(shù)據(jù)庫
C、列存數(shù)據(jù)庫
D、圖數(shù)據(jù)庫
正確答案:


第4題,Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()
A、break
B、continue
C、exit
D、return
正確答案:


答案來源:(www.),打碼平臺(tái)一般通過()識(shí)別驗(yàn)證碼。
A、人工識(shí)別
B、機(jī)器學(xué)習(xí)識(shí)別
C、光學(xué)字符識(shí)別
D、深度學(xué)習(xí)識(shí)別
正確答案:


第6題,PyMongo中邏輯查詢表示等于的符號(hào)是()
A、$gt
B、$lt
C、$eq$$ne
正確答案:


第7題,帶上通過Chrome瀏覽器從評(píng)論頁面復(fù)制而來的()再發(fā)起請(qǐng)求,可以減少爬蟲被網(wǎng)站封鎖的概率
A、Cookie
B、Html
C、Headers
D、CSS
正確答案:


第8題,Python中以下哪個(gè)容器里的元素不能重復(fù)()
A、列表
B、元組
C、字典
D、集合
正確答案:


第9題,Redis中往集合中讀數(shù)據(jù),使用關(guān)鍵字()
A、pop
B、spop
C、lpop
D、range
正確答案:


答案來源:(www.),Redis是一個(gè)開源的使用()語言編寫
A、ANSI C
B、C++
C、JAVA
D、Python
正確答案:


第11題,可以通過()繞過網(wǎng)站登錄。
A、session
B、cookies
C、moonpies
D、localstorage
正確答案:


答案來源:(www.),使用了RedisSpider作為爬蟲的父類以后,爬蟲會(huì)直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。
A、Redis
B、RedisSpider
C、Spider
D、MongoDB
正確答案:


第13題,HTTP常用狀態(tài)碼表明服務(wù)器上沒有請(qǐng)求的資源的是()
A、500
B、503
C、403
D、404
正確答案:


第14題,Redis中從集合中查看有多少個(gè)值,用關(guān)鍵字()
A、scard
B、card
C、count
D、distinct
正確答案:


答案來源:(www.),采用以下()技術(shù)可以實(shí)現(xiàn)異步加載
A、HTML
B、AJAX
C、CSS
D、HTTP
正確答案:


第16題,當(dāng)爬蟲創(chuàng)建好了之后,可以使用"scrapy()" 命令運(yùn)行爬蟲。
A、startup
B、starwar
C、drawl
D、crawl
正確答案:


第17題,使用UI Automatorr輸入文字的操作是得到相應(yīng)控件后使用命令()
A、settext
B、set
C、set_text
D、text
正確答案:


第18題,要使用Python來操作UI Automator從而控制手機(jī),需要安裝一個(gè)第三方庫()
A、uiautomator
B、automator
C、ui_automator
D、pyautomator
正確答案:


第19題,使用xpath方法的返回類型是()
A、列表
B、元組
C、字典
D、集合
正確答案:


答案來源:(www.),Python中列表可以用()方法在末尾添加元素
A、add
B、append
C、plus
D、+
正確答案:


第21題,Redis中的值可以支持()
A、列表
B、哈希
C、集合
D、有序集合
正確答案:,B,C,D


第22題,以下哪些方法屬于Python寫CSV文件的方法()
A、writeheaders
B、writeheader
C、writerrows
D、writerow
正確答案:,C,D


第23題,下列關(guān)于mitmproxy的使用說法正確的是()
A、mitmproxy的端口為8080端口。
B、設(shè)置好代理以后,在手機(jī)上打開一個(gè)App或者打開一個(gè)網(wǎng)頁,可以看到mitmproxy上面有數(shù)據(jù)滾動(dòng)。
C、用鼠標(biāo)在終端窗口上單擊其中的任意一個(gè)請(qǐng)求,可以顯示這個(gè)數(shù)據(jù)包的詳情信息。
D、如果要訪問HTTPS網(wǎng)站,還需要安裝mitmproxy的證書
正確答案:,B,C,D


第24題,如果爬蟲爬取的是商業(yè)網(wǎng)站,并且目標(biāo)網(wǎng)站使用了反爬蟲機(jī)制,那么強(qiáng)行突破反爬蟲機(jī)制可能構(gòu)成()
A、非法侵入計(jì)算機(jī)系統(tǒng)罪
B、非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪
C、非法獲取計(jì)算機(jī)數(shù)據(jù)罪
D、非法獲取系統(tǒng)罪
正確答案:,B


答案來源:(www.),Python中一個(gè)函數(shù)可以有()個(gè)return語句
A、0
B、1
C、多個(gè)
D、2
正確答案:,B,C,D


第26題,HTTP常用狀態(tài)碼表明表明服務(wù)器本身發(fā)生錯(cuò)誤的有()
A、403
B、404
C、500
D、503
正確答案:,D


第27題,如果目標(biāo)網(wǎng)站有反爬蟲聲明,那么對(duì)方在被爬蟲爬取以后,可以根據(jù)()來起訴使用爬蟲的公司
A、服務(wù)器日志
B、數(shù)據(jù)庫日志記錄
C、程序日志記錄
D、服務(wù)器監(jiān)控
正確答案:,B,C,D


第28題,常用的會(huì)話跟蹤技術(shù)是
A、session
B、cookies
C、moonpies
D、localstorage
正確答案:,B


第29題,Python中()與元組由類似的數(shù)據(jù)讀取方式
A、字符串
B、列表
C、字典
D、集合
正確答案:,B


答案來源:(www.),cookies的缺點(diǎn)是
A、實(shí)現(xiàn)自動(dòng)登錄
B、跟蹤用戶狀態(tài)
C、http中明文傳輸
D、增加http請(qǐng)求的流量
正確答案:,D


第31題,Python中列表生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第32題,Redis的列表是一個(gè)單向隊(duì)列
T、對(duì)
F、錯(cuò)
正確答案:


第33題,requests中g(shù)et請(qǐng)求方法的使用為requests.get('網(wǎng)址', data=data)
T、對(duì)
F、錯(cuò)
正確答案:


第34題,scrapy與selenium結(jié)合可以實(shí)現(xiàn)直接處理需要異步加載的頁面
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第35題,為了在安卓手機(jī)上安裝證書,需要先發(fā)送證書到手機(jī)里面。在Charles中選擇"Help"-"SSL Proxying"-"Save Charles Root Certificate"命令,可以將Charles的證書保存到計(jì)算機(jī)桌面。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第36題,XPath提取出來的內(nèi)容是一個(gè)SelectorList對(duì)象,它的第0個(gè)元素就是網(wǎng)頁的源代碼。
T、對(duì)
F、錯(cuò)
正確答案:F


第37題,當(dāng)Charles抓包以后,在Mac OS系統(tǒng)下可以按Command+F組合鍵,在Windows系統(tǒng)下按Ctrl+F組合鍵打開Charles進(jìn)行搜索
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第38題,Python中直接對(duì)浮點(diǎn)數(shù)進(jìn)行計(jì)算有print(0.1+0.2),則結(jié)果為0.3
T、對(duì)
F、錯(cuò)
正確答案:F


第39題,在對(duì)XPath返回的對(duì)象再次執(zhí)行XPath的時(shí)候,子XPath開頭需要添加斜線
T、對(duì)
F、錯(cuò)
正確答案:F


第40題,Python中寫CSV文件的writerows方法參數(shù)為字典類型
T、對(duì)
F、錯(cuò)
正確答案:F


第41題,網(wǎng)站返回的Headers中經(jīng)常有Cookies,可以用mitmdump腳本使用print函數(shù)把Cookies打印出來。
T、對(duì)
F、錯(cuò)
正確答案:F


第42題,在安裝Scarpy的依賴庫時(shí),由于Visual C++ Build Tools的安裝速度很慢,為了節(jié)省時(shí)間,可以和安裝Twisted同時(shí)進(jìn)行
T、對(duì)
F、錯(cuò)
正確答案:F


第43題,Charles和Chrome開發(fā)者工具相比,只是多了一個(gè)搜索功能。
T、對(duì)
F、錯(cuò)
正確答案:F


第44題,Scrapy的工程名字不能使用"scrapy",否則爬蟲會(huì)無法運(yùn)行。除此以外工程名不受限制。
T、對(duì)
F、錯(cuò)
正確答案:F


第45題,在發(fā)送請(qǐng)求時(shí)需要注意requests提交的請(qǐng)求頭不能與瀏覽器的請(qǐng)求頭一致,因?yàn)檫@樣才能隱藏好自己達(dá)到獲取數(shù)據(jù)的目的
T、對(duì)
F、錯(cuò)
正確答案:F


第46題,Cookies一般包含在請(qǐng)求頭Headers中
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第47題,Python中相比于findall方法,search方法對(duì)于從超級(jí)大的文本里面只找第1個(gè)數(shù)據(jù)特別有用,可以大大提高程序的運(yùn)行效率。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)


第48題,當(dāng)使用Scarpy創(chuàng)建爬蟲時(shí),當(dāng)爬取網(wǎng)易云音樂首頁信息時(shí),scrapy genspider的第二個(gè)參數(shù)直接輸入"163.com"就可以了
T、對(duì)
F、錯(cuò)
正確答案:F


第49題,chrome開發(fā)者工具沒法對(duì)數(shù)據(jù)進(jìn)行搜索。如果想知道一個(gè)特定的異步加載內(nèi)容來自哪個(gè)請(qǐng)求,必須在"Network"選項(xiàng)卡里面一個(gè)請(qǐng)求一個(gè)請(qǐng)求地進(jìn)行查看.
T、對(duì)
F、錯(cuò)
正確答案:


答案來源:(www.),插入數(shù)據(jù)時(shí),MongoDB會(huì)自動(dòng)添加一列"_id",也就是自增ID,每次自動(dòng)加1
T、對(duì)
F、錯(cuò)
正確答案:F














  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部