可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請(qǐng)?zhí)砑観Q:3230981406 微信:aopopenfd777
[南開大學(xué)]20秋學(xué)期(1709、1803、1809、1903、1909、2003、2009 )《數(shù)據(jù)科學(xué)導(dǎo)論》在線作業(yè)
試卷總分:100 得分:100
第1題,某商品的產(chǎn)量(X,件)與單位成本(Y,元/件)之間的回歸方程為^Y=100-1.2X,這說明()。
A、產(chǎn)量每增加一臺(tái),單位成本增加100元
B、產(chǎn)量每增加一臺(tái),單位成本減少1.2元
C、產(chǎn)量每增加一臺(tái),單位成本平均減少1.2元
D、產(chǎn)量每增加一臺(tái),單位平均增加100元
正確答案:
第2題,置信度(confidence)是衡量興趣度度量( )的指標(biāo)。
A、簡潔性
B、確定性
C、實(shí)用性
D、新穎性
正確答案:
第3題,實(shí)體識(shí)別屬于以下哪個(gè)過程()
A、數(shù)據(jù)清洗
B、數(shù)據(jù)集成
C、數(shù)據(jù)規(guī)約
D、數(shù)據(jù)變換
正確答案:
第4題,在一元線性回歸模型中,殘差項(xiàng)服從()分布。
A、泊松
B、正態(tài)
C、線性
D、非線性
正確答案:
答案來源:(www.),手肘法的核心指標(biāo)是()。
A、SES
B、SSE
C、RMSE
D、MSE
正確答案:
第6題,單層感知機(jī)模型屬于()模型。
A、二分類的線性分類模型
B、二分類的非線性分類模型
C、多分類的線性分類模型
D、多分類的非線性分類模型
正確答案:
第7題,某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()
A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)
B、聚類
C、分類
D、自然語言處理
正確答案:
第8題,下列兩個(gè)變量之間的關(guān)系中,哪個(gè)是函數(shù)關(guān)系()。
A、人的性別和他的身高
B、人的工資與年齡
C、正方形的面積和邊長
D、溫度與濕度
正確答案:
第9題,聚類是一種()。
A、有監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、強(qiáng)化學(xué)習(xí)
D、半監(jiān)督學(xué)習(xí)
正確答案:
答案來源:(www.),以下哪些不是缺失值的影響()
A、數(shù)據(jù)建模將丟失大量有用信息
B、數(shù)據(jù)建模的不確定性更加顯著
C、對(duì)整體總是不產(chǎn)生什么作用
D、包含空值的數(shù)據(jù)可能會(huì)使建模過程陷入混亂,導(dǎo)致異常的輸出
正確答案:
第11題,多層感知機(jī)是由()層神經(jīng)元組成。
A、二
B、三
C、大于等于二層
D、大于等于三層
正確答案:
答案來源:(www.),以下哪一項(xiàng)不屬于數(shù)據(jù)變換()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性合并
D、連續(xù)屬性離散化
正確答案:
第13題,以下哪一項(xiàng)不是特征工程的子問題()
A、特征創(chuàng)建
B、特征提取
C、特征選擇
D、特征識(shí)別
正確答案:
第14題,哪一項(xiàng)不屬于規(guī)范化的方法()
A、最小-最大規(guī)范化
B、零-均值規(guī)范化
C、小數(shù)定標(biāo)規(guī)范化
D、中位數(shù)規(guī)范化
正確答案:
答案來源:(www.),在k近鄰法中,選擇較小的k值時(shí),學(xué)習(xí)的"近似誤差"會(huì)(),"估計(jì)誤差"會(huì)()。
A、減小,減小
B、減小,增大
C、增大,減小
D、增大,增大
正確答案:
第16題,在回歸分析中,自變量為(),因變量為()。
A、離散型變量,離散型變量
B、連續(xù)型變量,離散型變量
C、離散型變量,連續(xù)型變量
D、連續(xù)型變量,連續(xù)型變量
正確答案:
第17題,具有偏差和至少()個(gè)S型隱含層加上一個(gè)()輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。
A、1,線性
B、2,線性
C、1,非線性
D、2,非線性
正確答案:
第18題,以下屬于關(guān)聯(lián)分析的是( )
A、CPU性能預(yù)測
B、購物籃分析
C、自動(dòng)判斷鳶尾花類別
D、股票趨勢建模
正確答案:
第19題,通過構(gòu)造新的指標(biāo)-線損率,當(dāng)超出線損率的正常范圍, 則可以判斷這條線路的用戶可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()
A、簡單函數(shù)變換
B、規(guī)范化
C、屬性構(gòu)造
D、連續(xù)屬性離散化
正確答案:
答案來源:(www.),我們需要對(duì)已生成的樹()進(jìn)行剪枝,將樹變得簡單,從而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正確答案:
第21題,多層感知機(jī)的學(xué)習(xí)過程包含()。
A、信號(hào)的正向傳播
B、信號(hào)的反向傳播
C、誤差的正向傳播
D、誤差的反向傳播
正確答案:,D
第22題,下面例子屬于分類的是()
A、檢測圖像中是否有人臉出現(xiàn)
B、對(duì)客戶按照貸款風(fēng)險(xiǎn)大小進(jìn)行分類
C、識(shí)別手寫的數(shù)字
D、估計(jì)商場客流量
正確答案:,B,C
第23題,距離度量中的距離可以是()
A、歐式距離
B、曼哈頓距離
C、Lp距離
D、Minkowski距離
正確答案:,B,C,D
第24題,Apriori算法的計(jì)算復(fù)雜度受()影響。
A、支持度閾值
B、項(xiàng)數(shù)
C、事務(wù)數(shù)
D、事務(wù)平均寬度
正確答案:,B,C,D
答案來源:(www.),下列選項(xiàng)是BFR的對(duì)象是()
A、廢棄集
B、臨時(shí)集
C、壓縮集
D、留存集
正確答案:,C,D
第26題,系統(tǒng)日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可擴(kuò)展性
D、高效率
正確答案:,B,C
第27題,一元回歸參數(shù)估計(jì)的參數(shù)求解方法有()。
A、最大似然法
B、距估計(jì)法
C、最小二乘法
D、歐式距離法
正確答案:,B,C
第28題,k近鄰法的基本要素包括()。
A、距離度量
B、k值的選擇
C、樣本大小
D、分類決策規(guī)則
正確答案:,B,D
第29題,K-means聚類中K值選取的方法是()。
A、密度分類法
B、手肘法
C、大腿法
D、隨機(jī)選取
正確答案:,B
答案來源:(www.),聚類的主要方法有()。
A、劃分聚類
B、層次聚類
C、密度聚類
D、距離聚類
正確答案:,B,C
第31題,決策樹分類時(shí)將該結(jié)點(diǎn)的實(shí)例強(qiáng)行分到條件概率大的那一類去
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第32題,獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。
T、對(duì)
F、錯(cuò)
正確答案:F
第33題,階躍函數(shù)具有不光滑、不連續(xù)的特點(diǎn)。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第34題,sigmoid函數(shù)屬于階躍函數(shù),是神經(jīng)網(wǎng)絡(luò)中常見的激活函數(shù)。
T、對(duì)
F、錯(cuò)
正確答案:F
第35題,選擇較小的k值,相當(dāng)于用較小的鄰域中的訓(xùn)練實(shí)例進(jìn)行預(yù)測,學(xué)習(xí)的"近似誤差"會(huì)減小,"估計(jì)誤差"會(huì)增大,預(yù)測結(jié)果會(huì)對(duì)近鄰的點(diǎn)實(shí)例點(diǎn)非常敏感。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第36題,子集產(chǎn)生本質(zhì)上是一個(gè)搜索過程,該過程可以從空集、隨機(jī)產(chǎn)生的一個(gè)特征子集或者整個(gè)特征集開始。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第37題,決策樹內(nèi)部結(jié)點(diǎn)表示一個(gè)類,葉結(jié)點(diǎn)表示一個(gè)特征或?qū)傩?br/>T、對(duì)
F、錯(cuò)
正確答案:F
第38題,樸素貝葉斯分類器有簡單、高效、健壯的特點(diǎn),但某些屬性可能會(huì)降低分類器的性能
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第39題,信息熵越小,樣本結(jié)合的純度越低
T、對(duì)
F、錯(cuò)
正確答案:F
第40題,決策樹學(xué)習(xí)的算法通常是一個(gè)遞歸地選擇最優(yōu)特征,并根據(jù)該特征對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分割,使得各個(gè)子數(shù)據(jù)集有一個(gè)最好的分類的過程,這一過程對(duì)應(yīng)著特征空間的劃分,也對(duì)應(yīng)著決策樹的構(gòu)建
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第41題,當(dāng)維度增加時(shí),特征空間的體積增加得很快,使得可用的數(shù)據(jù)變得稠密。
T、對(duì)
F、錯(cuò)
正確答案:F
第42題,數(shù)據(jù)分析師的任務(wù):用模型來回答具體問題,了解數(shù)據(jù),其來源和結(jié)構(gòu)
T、對(duì)
F、錯(cuò)
正確答案:F
第43題,集中趨勢能夠表明在一定條件下數(shù)據(jù)的獨(dú)特性質(zhì)與差異
T、對(duì)
F、錯(cuò)
正確答案:F
第44題,對(duì)于分類數(shù)據(jù),經(jīng)常使用表格,來統(tǒng)計(jì)各種類別的數(shù)據(jù)出現(xiàn)的頻率。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第45題,一般而言,信息增益越大,則意味著使用屬性a來進(jìn)行劃分所獲得的"純度提升越大",因此我們可用信息增益來進(jìn)行決策樹的最優(yōu)特征選擇。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第46題,關(guān)聯(lián)規(guī)則可以被廣泛地應(yīng)用于通信、金融、交通、健康醫(yī)療和Web用戶行為分析等領(lǐng)域。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第47題,當(dāng)訓(xùn)練集較大的時(shí)候,標(biāo)準(zhǔn)BP算法通常會(huì)更快的獲得更好的解。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
第48題,增加神經(jīng)元的個(gè)數(shù),無法提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練精度。
T、對(duì)
F、錯(cuò)
正確答案:F
第49題,K-means算法采用貪心策略,通過迭代優(yōu)化來近似求解。
T、對(duì)
F、錯(cuò)
更多答案下載:(www.)
答案來源:(www.),使用SVD方法進(jìn)行圖像壓縮不可以保留圖像的重要特征。
T、對(duì)
F、錯(cuò)
正確答案:F

