23秋學期(僅限-高起專1909、專升本1909)《網絡爬蟲與信息提取》在線作業(yè)-00002
試卷總分:100 得分:100
一、單選題 (共 20 道試題,共 40 分)
1.當需要把Python里面的數據發(fā)送給網頁時,應先將其轉換成()
A.Json字符串
B.GET
C.POST
D.Request
2.Scrapy中使用Xpath獲得的結果調用了.extract方法,結果以()形式生成
A.列表
B.元組
C.字典
D.集合
3.Python中Object={'obj_1':'1','obj_2':'2'},則Objcet是()
A.列表
B.元組
C.字典
D.集合
4.當需要把Python里面的數據發(fā)送給網頁時,需要先轉換成()字符串
A.Python
B.Json
C.正則表達式
D.Ajax
5.Python正則表達式模塊的findall方法提取內容包含多個,則返回結果的列表中會包含()
A.列表
B.元組
C.字典
D.集合
6.HTTP常用狀態(tài)碼表明服務器不允許訪問那個資源的是()
A.500
B.503
C.403
D.405
7.Python中退出循環(huán)應用關鍵字()
A.break
B.continue
C.exit
D.return
8.使用python定制mitmproxy,下面的語句請求的是()。{req.headers["User-Agent"]}
A.headers
B.文本內容
C.目標網站
D.user-agent
9.requests中post請求方法的使用為requests.post('網址', data=data)中的data為()
A.列表
B.元組
C.字典
D.集合
10.在Scrapy的目錄下,哪個文件負責存放爬蟲的各種配置信息?()
A.spiders文件夾
B.item.py
C.pipeline.py
D.settings.py
11.通常使用()工具來模擬瀏覽器進行爬蟲請求
A.Selenium
B.Chrome
C.ChromeDriver
D.WebDriver
12.當爬蟲運行到yield scrapy.Request()或者yield item的時候,下列哪個爬蟲中間件的方法被調用?
A.process_spider_output()
B.process_spider_exception()
C.process_spider_input()
D.process_start_ requests()
13.下面代碼一共執(zhí)行循環(huán)多少次(): i=0 while i<10: i+=1
A.9
B.10
C.11#0
14.使用UI Automator獲滾動屏幕的操作是得到相應控件后使用命令()
A.scroll
B.scroll_up
C.scroll_forword
D.scroll_back
15.某些網站在發(fā)起Ajax請求時會攜帶()字符串用于身份驗證
A.Token
B.Cookie
C.ReqTime
D.sum
16.Python中以下哪個容器里的元素不能重復()
A.列表
B.元組
C.字典
D.集合
17.Python操作CSV文件可通過()容器的方式操作單元格
A.列表
B.元組
C.字典
D.集合
18.以下哪個命令是利用URL語法在命令行下工作的文件傳輸工具()
A.curl
B.tar -zxvf
C.mkdir
D.cp
19.Python中若定義object="12345",則print(object[::-1])輸出()
A.1
B.5
C.54321
D.程序報錯
20.在Mac OS下安裝MongoDB使用命令() install mongodb
A.brew
B.apt-get
C.sudo
D.apt
二、多選題 (共 10 道試題,共 20 分)
21.網絡爬蟲的用途有()
A.收集數據
B.盡職調查
C.提高流量
D.攻擊服務器
22.以下HTTP狀態(tài)碼表示服務器沒有正常返回結果的是
A.200
B.301
C.404
D.500
23.requests中post請求方法的第二個參數可以為()
A.字典
B.列表
C.json數據
D.字符串
24.HTTP常用狀態(tài)碼表明表明服務器本身發(fā)生錯誤的有()
A.403
B.404
C.500
D.503
25.MongoDB中獲取名字為db的庫的語句為()
A.client.db
B.client('db')
C.client['db']
D.client{'db'}
26.使用BeautifulSoup對象后可以使用()來查找內容
A.find_all
B.find
C.search
D.search_all
27.Python中的容器有()
A.列表
B.元組
C.字典
D.集合
28.PyMongo刪除操作有()
A.delete
B.delete_all
C.delete_one
D.delete_many
29.PyMongo更新操作有()
A.update
B.update_all
C.update_one
D.update_many
30.Redis中的值可以支持()
A.列表
B.哈希
C.集合
D.有序集合
三、判斷題 (共 20 道試題,共 40 分)
31.使用UI Automatorr操作實體鍵的命令為device.press.實體按鍵名稱()
32.當Charles抓包以后,在Mac OS系統下可以按Command+F組合鍵,在Windows系統下按Ctrl+F組合鍵打開Charles進行搜索
33.XPath提取出來的內容是一個SelectorList對象,它的第0個元素就是網頁的源代碼。
34.Python中寫CSV文件的writerow方法參數為包含字典的列表類型
35.Python中相比于findall方法,search方法對于從超級大的文本里面只找第1個數據特別有用,可以大大提高程序的運行效率。
36.process_spider_output(response, result, output)是在下載器中間件處理完成后,馬上要進入某個回調函數parse_xxx()前調用
37.Redis中寫數據命令lpush中l(wèi)代表list
38.為了保證數據插入效率,在內存允許的情況下,應該一次性把數據讀入內存,盡量減少對MongoDB的讀取操作。
39.HTTP狀態(tài)碼503表示服務器內部故障。
40.Robo 3T與RoboMongo是完全不一樣的軟件
41.使用AJAX技術,可以在不刷新網頁的情況下更新網頁數據
42.Python中條件語句在使用and連接的多個表達式中,只要有一個表達式不為真,那么后面的表達式就不會執(zhí)行。
43.UI Automator Viewer與Python uiautomator可以同時使用
44.在默認情況下,Scrapyd可以從外網訪問
45.需要實名認證的打碼網站更加安全可靠。
46.requests中post請求方法的使用為requests.post('網址', data=data)
47.HTTP狀態(tài)碼中303狀態(tài)碼明確表示客戶端應當采用POST方法獲取資源
48.自己能查看的數據,允許擅自拿給第三方查看
49.chrome開發(fā)者工具沒法對數據進行搜索。如果想知道一個特定的異步加載內容來自哪個請求,必須在“Network”選項卡里面一個請求一個請求地進行查看.
50.在請求頭中設置User-Agent即可正常請求網站
奧鵬,國開,廣開,電大在線,各省平臺,新疆一體化等平臺學習
詳情請咨詢QQ : 3230981406或微信:aopopenfd777

