




版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能模擬練習(xí)題含答案一、單選題(共103題,每題1分,共103分)1.在pytorch中,若網(wǎng)絡(luò)模型變量名為model,對(duì)model.eval()的說(shuō)法正確的是()A、model.eval()在模型驗(yàn)證、模型測(cè)試階段都可以使用B、model.eval()在模型訓(xùn)練、模型驗(yàn)證、模型測(cè)試階段都可以使用C、model.eval()可以在模型訓(xùn)練階段使用D、model.eval()只能在模型測(cè)試階段使用正確答案:A2.二十世紀(jì)五十年代后期初,基于()的“連接主義”開(kāi)始出現(xiàn),代表性工作有感知機(jī)和Adaline。A、神經(jīng)網(wǎng)絡(luò)B、機(jī)器學(xué)習(xí)C、邏輯表示D、深度學(xué)習(xí)正確答案:A3.在卷積操作過(guò)程中計(jì)算featuremap的尺寸:設(shè)圖像大小為300*300,卷積核大小為3*3,卷積窗口移動(dòng)的步長(zhǎng)為1,則featuremaps的大小是()個(gè)元素?A、88804B、91204C、78400D、$99,856正確答案:A4.為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問(wèn)題屬于數(shù)據(jù)挖掘的哪一類(lèi)任務(wù)?()A、預(yù)測(cè)建模B、探索性數(shù)據(jù)分析C、建模描述D、尋找模式和規(guī)則正確答案:C5.我國(guó)《新一代人工智能發(fā)展規(guī)劃》中規(guī)劃,到()年成為世界主要人工智能創(chuàng)新中心。A、2030B、2020C、2025D、$2,035正確答案:A6.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:()A、logistic回歸B、神經(jīng)網(wǎng)絡(luò)C、樹(shù)形模型D、SVM正確答案:C7.無(wú)監(jiān)督的建模技術(shù)有()、關(guān)聯(lián)分析、預(yù)報(bào)三類(lèi)A、聚類(lèi)B、相關(guān)性分析C、聚合D、離散正確答案:A8.優(yōu)化器是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的重要組成部分,使用優(yōu)化器的目的不包含以下哪項(xiàng):A、加快算法收斂速度B、避過(guò)過(guò)擬合問(wèn)題C、避過(guò)局部極值D、減少手工參數(shù)的設(shè)置難度正確答案:B9.Inception模塊可以并行執(zhí)行多個(gè)具有不同尺度的卷積運(yùn)算或池化操作,下列網(wǎng)絡(luò)運(yùn)用Inception的是()A、VGGB、GoogLeNetC、fast-RCNND、faster-RCNN正確答案:B10.自動(dòng)識(shí)別系統(tǒng)屬于人工智能哪個(gè)應(yīng)用領(lǐng)域?()A、專(zhuān)家系統(tǒng)B、自然語(yǔ)言系統(tǒng)C、機(jī)器學(xué)習(xí)D、人類(lèi)感官模擬正確答案:D11.對(duì)學(xué)習(xí)器的泛化性能進(jìn)行評(píng)估,不僅需要有效可行的實(shí)驗(yàn)估計(jì)方法,還需要有衡量模型泛化能力的評(píng)價(jià)標(biāo)準(zhǔn),這就是()。A、性能度量B、性能衡量C、泛化能力評(píng)估D、性能評(píng)估正確答案:A12.信念傳播算法將變量消去法中的求和操作看作一個(gè)()過(guò)程,較好地解決了求解多個(gè)邊際分布時(shí)的重復(fù)計(jì)算問(wèn)題。A、消息傳遞B、消息累加C、消息分辨D、以上都對(duì)正確答案:A13.“相似度度量”,距離越大,相似度()A、相等B、越小C、無(wú)關(guān)D、越大正確答案:B14.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌伲緼、少于2sB、大于2sC、仍是2sD、說(shuō)不準(zhǔn)正確答案:C15.將數(shù)值類(lèi)型的屬性值(如年齡)用區(qū)間標(biāo)簽(例如0~18、19-44、45~59和60~100等)或概念標(biāo)簽,稱(chēng)為數(shù)據(jù)()處理。A、離散化B、特征構(gòu)造C、標(biāo)準(zhǔn)化D、聚集正確答案:A16.當(dāng)目標(biāo)值的類(lèi)型是()時(shí),人們經(jīng)常將這個(gè)問(wèn)題稱(chēng)為估計(jì)。A、連續(xù)型B、隨機(jī)型C、離散型D、分類(lèi)型正確答案:A17.關(guān)于Elman網(wǎng)絡(luò)描述錯(cuò)誤的是(___)A、作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);B、一些神經(jīng)元的輸出反饋回來(lái)會(huì)作為輸入信號(hào);C、用于處理靜態(tài)模型,即無(wú)法處理與時(shí)間有關(guān)的動(dòng)態(tài)變化;D、可利用BP算法來(lái)進(jìn)行參數(shù)優(yōu)化;正確答案:C18.決策樹(shù)學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個(gè)最有助于分類(lèi)實(shí)例的屬性,而其選擇是以()為依據(jù)的A、聚類(lèi)B、分類(lèi)C、概率D、信息熵正確答案:D19.表達(dá)式list(range(5))的值為_(kāi)_______。A、[1,2,3,4,5]B、[1,2,3,4]C、[0,1,2,3,4]D、[0,1,2,3,4,5]正確答案:C20.下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)量越多B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本的特征多少有關(guān)D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時(shí)間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時(shí)間長(zhǎng)正確答案:C21.下列哪個(gè)模型屬于無(wú)監(jiān)督學(xué)習(xí)A、KNN分類(lèi)B、邏輯回歸C、DBSCAND、決策樹(shù)正確答案:C22.在目標(biāo)檢測(cè)中,以下能產(chǎn)生候選框的算法是()a)SelectiveSearchb)ROIpoolingc)RegionproposallayerA、b)、c)B、a)C、a)、b)D、a)、c)正確答案:D23.輸入圖片大小為200×200,依次經(jīng)過(guò)一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、97B、$98C、95D、96正確答案:A24.numpy中向量轉(zhuǎn)成矩陣使用A、revalB、reshapeC、arangeD、random正確答案:B25.絕大多數(shù)的決策樹(shù)學(xué)習(xí)算法都是基于哪個(gè)核心算法設(shè)計(jì)出來(lái)的()A、Find-S算法B、候選消除算法C、ID3算法D、遺傳算法正確答案:C26.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是A、粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢(xún)質(zhì)量B、粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別C、數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高D、數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高正確答案:C27.模型刷新就是典型的利用新數(shù)據(jù)重新訓(xùn)練模型的方式,其關(guān)鍵是訓(xùn)練前的()A、數(shù)據(jù)挖掘B、數(shù)據(jù)預(yù)處理C、數(shù)據(jù)準(zhǔn)備D、數(shù)據(jù)整理正確答案:C28.以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒(méi)有關(guān)系D、以上都不對(duì)正確答案:A29.人工智能之父是()。A、奧巴B、恰佩克C、諾貝爾D、圖靈正確答案:D30.某超市研究銷(xiāo)售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買(mǎi)啤酒的人很大概率也會(huì)購(gòu)買(mǎi)尿布,這種屬于數(shù)據(jù)挖掘的哪類(lèi)問(wèn)題()A、自然語(yǔ)言處理B、分類(lèi)C、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)D、聚類(lèi)正確答案:C31.昪騰AI處理器的邏輯架構(gòu)不包括以下哪個(gè)選項(xiàng)?A、DVPPB、GPUC、AI計(jì)算引擎D、芯片系統(tǒng)控制CPU正確答案:B32.下面的語(yǔ)句哪個(gè)會(huì)無(wú)限循環(huán)下去:A、a=[3,-1,',']foriina[:]:ifnota:breakB、whileTrue:breakC、while1D、forainrange(10):time.sleep(10)正確答案:C33.使用了興奮劑被檢測(cè)出的概率為95%,沒(méi)有使用興奮劑被誤判的可能性10%,實(shí)際使用興奮劑的概率0.1%,如果只做1次檢測(cè)被檢測(cè)服用興奮劑,真實(shí)服用興奮劑的概率是多少?A、0.90%B、7.90%C、45%D、95%正確答案:A34.關(guān)于Boosting,Bagging和隨機(jī)森林,以下說(shuō)法錯(cuò)誤的是A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機(jī)森林簡(jiǎn)單、容易實(shí)現(xiàn)、計(jì)算開(kāi)銷(xiāo)小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強(qiáng)的集成正確答案:D35.可以對(duì)Pytorch框架進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)可視化的工具是A、VisdomB、FlaskC、VueD、以上選項(xiàng)均不正確正確答案:A36.不屬于人工智能的學(xué)派是A、連接主義B、符號(hào)主義C、機(jī)會(huì)主義D、行為主義正確答案:C37.下列對(duì)LVW算法的說(shuō)法錯(cuò)誤的是(___)A、算法設(shè)置了停止條件控制參數(shù)B、每次特征子集評(píng)價(jià)都需要訓(xùn)練學(xué)習(xí)器,開(kāi)銷(xiāo)很大C、算法中特征子集搜索采用了隨機(jī)策略D、算法可能求不出解正確答案:D38.關(guān)于“與/或”圖表示知識(shí)的敘述,錯(cuò)誤的有()A、用“與/或”圖表示知識(shí)方便使用程序設(shè)計(jì)語(yǔ)言表達(dá),也便于計(jì)算機(jī)存儲(chǔ)處理B、“與/或”圖表示知識(shí)時(shí)一定同時(shí)有“與結(jié)點(diǎn)”和“或結(jié)點(diǎn)”C、“與/或”圖能方便地表示陳述性知識(shí)和過(guò)程性知識(shí)D、能用“與/或”圖表示的知識(shí)不適宜用其他方法表示正確答案:D39.一階規(guī)則的基本成分是(___)A、謂詞B、原子公式C、量詞D、原子命題正確答案:B40.哪個(gè)范數(shù)指向量中各個(gè)元素絕對(duì)值之和?A、2范數(shù)B、0范數(shù)C、p范數(shù)D、1范數(shù)正確答案:D41.關(guān)于Python內(nèi)存管理,下列說(shuō)法錯(cuò)誤的是()。A、變量無(wú)須指定類(lèi)型B、變量不必事先聲明C、可以使用del釋放資源D、變量無(wú)須先創(chuàng)建和賦值而直接使用正確答案:D42.用樹(shù)形結(jié)構(gòu)來(lái)表示實(shí)體之間聯(lián)系的模型稱(chēng)為A、網(wǎng)狀模型B、關(guān)系模型C、數(shù)據(jù)模型D、層次模型正確答案:D43.下列哪一個(gè)不是無(wú)約束算法。A、EM算法B、梯度下降法C、啟發(fā)式優(yōu)化方法D、擬牛頓法正確答案:A44.Map階段的輸入是以()形式的行數(shù)據(jù)。A、字符B、行列式C、鏈表D、鍵值對(duì)正確答案:D45.中心極限定理告訴我們,當(dāng)樣本量足夠大時(shí),樣本均值的分布圍繞總體均值呈現(xiàn)()。A、伯努利分布B、泊松分布C、幾何分布D、正態(tài)分布正確答案:D46.關(guān)于用4V來(lái)表示大數(shù)據(jù)的主要特征,描述錯(cuò)誤的是A、大數(shù)據(jù)的時(shí)間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高B、“如何從海量數(shù)據(jù)中洞見(jiàn)(洞察)出有價(jià)值的數(shù)據(jù)”是數(shù)據(jù)科學(xué)的重要課題之一C、數(shù)據(jù)類(lèi)型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,對(duì)數(shù)據(jù)處理能力提出了更高要求D、數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間存在線(xiàn)性關(guān)系正確答案:D47.人工智能的主要學(xué)派有:符號(hào)主義、連接主義和()A、語(yǔ)義網(wǎng)絡(luò)B、行為主義C、邏輯主義D、以上沒(méi)有正確答案正確答案:B48.()的出現(xiàn),使研究無(wú)限假設(shè)空間的復(fù)雜度成為可能。A、VC維B、Natarajan維C、計(jì)算機(jī)學(xué)習(xí)理論D、Rademacher復(fù)雜度正確答案:A49.2019年,DeepMind開(kāi)發(fā)出一種()來(lái)近似計(jì)算薛定諤方程,在精度和準(zhǔn)確性上都滿(mǎn)足科研標(biāo)準(zhǔn),為深度學(xué)習(xí)在量子化學(xué)領(lǐng)域的發(fā)展奠定了基礎(chǔ),A、深度神經(jīng)網(wǎng)絡(luò)B、費(fèi)米神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)正確答案:B50.交叉驗(yàn)證法將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集,進(jìn)行(___)次訓(xùn)練和測(cè)試。A、k-2B、k-1C、kD、k+1正確答案:C51.下列選項(xiàng)中,是合頁(yè)損失函數(shù)的是()。A、[1-yf(x)]_+B、exp(yf(x))C、log[1+exp(-yf(x))D、exp(-yf(x))正確答案:A52.在使用scikit-learn里面的交叉驗(yàn)證對(duì)回歸模型進(jìn)行評(píng)估時(shí),根據(jù)平均絕對(duì)誤差給模型打分,則下面代碼的劃線(xiàn)處應(yīng)填上(),scores的分?jǐn)?shù)越(),說(shuō)明回歸模型的性能越好。代碼:scores=cross_val_score(lm,X,y,cv=5,scoring='_______________')A、neg_mean_absolute_error,低B、neg_mean_absolute_error,高C、mean_absolute_error,低D、mean_absolute_error,高正確答案:B53.以下哪一個(gè)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法是錯(cuò)誤的A、AlexNet是一個(gè)八層的卷積神經(jīng)網(wǎng)絡(luò)&B、&卷積神經(jīng)網(wǎng)絡(luò)中的建模學(xué)習(xí),學(xué)習(xí)對(duì)象是每一層神經(jīng)元的值&C、&目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的網(wǎng)絡(luò)結(jié)構(gòu)中包含卷積層&D、&典型的卷積神經(jīng)網(wǎng)絡(luò),由卷積層、池化層、激活層、全連接層等組成正確答案:B54.()技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)圖的方式展現(xiàn)出來(lái)。A、數(shù)據(jù)可視化B、數(shù)據(jù)挖掘C、支持向量機(jī)D、神經(jīng)網(wǎng)絡(luò)正確答案:A55.a={2:3},a.get(2,4)返回的值是A、3B、4C、$2D、None正確答案:A56.中心極限定理是指在給定條件下,大量互相獨(dú)立的隨機(jī)變量的值的()趨近于正態(tài)分布。A、標(biāo)準(zhǔn)差B、最大值C、平均值D、最小值正確答案:C57.假設(shè)12個(gè)銷(xiāo)售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?A、第二個(gè)B、第一個(gè)C、第四個(gè)D、第三個(gè)正確答案:A58.CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說(shuō)法,錯(cuò)誤的是()A、學(xué)習(xí)率太小,更新速度慢B、學(xué)習(xí)率過(guò)大,可能跨過(guò)最優(yōu)解C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來(lái)D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過(guò)程中更改正確答案:C59.對(duì)長(zhǎng)度為10的線(xiàn)性表進(jìn)行冒泡排序,最壞情況下需要比較的次數(shù)為.A、45B、$90C、10D、9正確答案:A60.最簡(jiǎn)單的Series是由()的數(shù)據(jù)構(gòu)成A、一個(gè)數(shù)組B、三個(gè)數(shù)組C、兩個(gè)數(shù)組D、四個(gè)數(shù)組正確答案:A61.規(guī)則學(xué)習(xí)的目標(biāo)是產(chǎn)生一個(gè)能覆蓋盡可能多的樣例的規(guī)則集,最直接的做法是()A、預(yù)測(cè)分布B、假設(shè)驗(yàn)證C、剪枝優(yōu)化D、序貫覆蓋正確答案:D62.AI的是哪兩個(gè)英文單詞的縮寫(xiě)A、AutomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation正確答案:B63.計(jì)算智能和感知智能的關(guān)鍵技術(shù)已經(jīng)取得較大突破,弱人工智能應(yīng)用條件基本成熟。但()的算法尚未突破,前景仍不明朗。A、視頻智能B、語(yǔ)音智能C、認(rèn)知智能D、觸覺(jué)智能正確答案:C64.在pytorch中,如果主機(jī)有1塊TitanX顯卡,以下哪個(gè)選項(xiàng)中的代碼都可以將變量名為var的tensor放在GPU上運(yùn)行A、var=var.cuda()、var=var.to("cuda:0")B、var=var.to("cuda:1")C、var=var.cuda()、var=var.to("cuda:1")D、var=var.to("cuda:0")、var=var.to("cuda:1")正確答案:A65.事務(wù)對(duì)數(shù)據(jù)對(duì)象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、種類(lèi)B、狀態(tài)C、屬性D、類(lèi)型正確答案:D66.查看Atlas300(3000)加速卡驅(qū)動(dòng)是否安裝成功應(yīng)該使用哪條命令?A、npusiminfoB、npuinfoC、atlas-DriverinfoD、atlasinfo正確答案:A67.分布式人工智能研究核心領(lǐng)域是()A、專(zhuān)家系統(tǒng)B、分散控制C、Agent(愛(ài)真體)D、互聯(lián)網(wǎng)正確答案:C68.已知x=3,那么執(zhí)行語(yǔ)句x*=6之后,x的值為_(kāi)________。A、9B、3C、18D、$2正確答案:C69.考慮值集{12243324556826},其四分位數(shù)極差是A、31B、3C、24D、55正確答案:A70.以下哪個(gè)關(guān)于監(jiān)督式學(xué)習(xí)的說(shuō)法是正確的?A、監(jiān)督式學(xué)習(xí)不可以使用交叉驗(yàn)證進(jìn)行訓(xùn)練B、決策樹(shù)是一種監(jiān)督式學(xué)習(xí)C、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練D、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法正確答案:B71.作為一家專(zhuān)業(yè)的圖形處理芯片公司,()在1999年發(fā)明圖形處理器GPU。A、高通B、英特爾C、AMDD、英偉達(dá)正確答案:D72.下列哪項(xiàng)是自然語(yǔ)言處理的Python開(kāi)發(fā)包?A、openCVB、jiebaC、sklearnD、XGBoost正確答案:B73.選擇正確的()是最近鄰方法中最重要的一步。A、訓(xùn)練集B、預(yù)測(cè)集C、驗(yàn)證集D、測(cè)試集正確答案:A74.自然語(yǔ)言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)A、機(jī)器翻譯B、理解別人講的話(huà)C、對(duì)自然語(yǔ)言表示的信息進(jìn)行分析概括或編輯D、欣賞音樂(lè)正確答案:D75.VGG-19中卷積核的大小為A、3x3B、5x5C、不確定D、3x3,5x5正確答案:A76.數(shù)據(jù)清洗是指在數(shù)據(jù)審計(jì)活動(dòng)的基礎(chǔ)上,將()清洗成()的過(guò)程。A、“亂數(shù)據(jù)”;“干凈數(shù)據(jù)”B、“臟數(shù)據(jù)”;“干凈數(shù)據(jù)”C、“臟數(shù)據(jù)”;“整齊數(shù)據(jù)”D、“亂數(shù)據(jù)”;“整齊數(shù)據(jù)”正確答案:B77.下列關(guān)于半樸素貝葉斯描述錯(cuò)誤的為(___)A、假設(shè)所以屬性都依賴(lài)于同一個(gè)屬性;B、獨(dú)依賴(lài)估計(jì)為半樸素貝葉斯最常用的策略;C、假設(shè)屬性之間完全獨(dú)立;D、假設(shè)屬性之間部分相關(guān);正確答案:C78.()控制著整個(gè)LSTM單元的狀態(tài)或者記憶,它會(huì)根據(jù)每個(gè)時(shí)刻的輸入進(jìn)行更新。A、隱狀態(tài)向量B、狀態(tài)向量C、顯狀態(tài)向量D、以上都不對(duì)正確答案:B79.()是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法。A、決策樹(shù)B、數(shù)據(jù)挖掘C、軌跡跟蹤D、K近鄰算法正確答案:A80.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?A、否B、看情況C、是D、不知道正確答案:C81.時(shí)間序列分析方法的選擇,主要取決于需要解決的問(wèn)題,以及時(shí)間序列的()。A、聚合度B、離散度C、線(xiàn)性關(guān)系D、特點(diǎn)正確答案:D82.邏輯回歸的損失函數(shù)是下列哪一種?()A、絕對(duì)值損失函數(shù)B、HingeLoss0-1損失函數(shù)C、平方損失函數(shù)D、對(duì)數(shù)損失函數(shù)正確答案:D83.人工智能產(chǎn)業(yè)三大要素是技術(shù)產(chǎn)品、改造提升行業(yè)融合和()。A、算法運(yùn)算B、深度學(xué)習(xí)C、云計(jì)算D、集成應(yīng)用正確答案:D84.若某二叉樹(shù)中的所有結(jié)點(diǎn)值均大于其左子樹(shù)上的所有結(jié)點(diǎn)值,且小于右子樹(shù)上的所有結(jié)點(diǎn)值,則該二叉樹(shù)遍歷序列中有序的是A、前序序列B、中序序列C、后序序列D、以上說(shuō)法均不正確正確答案:B85.跡運(yùn)算返回的是矩陣對(duì)角元素的()。A、和B、積C、差D、平均值正確答案:A86.Docker是通過(guò)()實(shí)現(xiàn)了資源隔離。A、namespaceB、cgroupsC、copy-on-writeD、unionfilesystem正確答案:A87.()表達(dá)式在Python中是非法的。A、x=(y=z+1)B、x=y=z=1C、x,y=y,xD、x?+=?y正確答案:A88.()與材料、能源一個(gè)層次的概念,客觀存在的資源,通常被認(rèn)為是人類(lèi)社會(huì)賴(lài)以生存和發(fā)展的三大資源之一A、信息B、智慧C、知識(shí)D、數(shù)據(jù)正確答案:A89.ONE-HOT-ENCODING可用于什么特征處理A、類(lèi)別型特征B、有序性特征C、數(shù)值型特征D、字符串型特征正確答案:A90.人工智能的概念最早是由哪一位科學(xué)家提出來(lái)的A、約翰·麥卡錫B、明斯基C、馮·諾依曼D、圖林正確答案:A91.回歸任務(wù)最常使用的性能度量是()A、精度B、ROCC、MSED、AUC正確答案:C92.下列關(guān)于python代碼說(shuō)法不正確的是()A、輸入'a'
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 江蘇南京玄武區(qū)南京田家炳高級(jí)中學(xué)2024~2025學(xué)年高二下冊(cè)6月期末考試數(shù)學(xué)試題學(xué)生卷
- 必修二綜合檢測(cè)基礎(chǔ)卷人教A版2019必修第二冊(cè)學(xué)生卷
- 邊緣計(jì)算信托投資與數(shù)字孿生技術(shù)結(jié)合研究考核試卷
- 內(nèi)陸?zhàn)B殖品種選育與推廣考核試卷
- 金屬加工機(jī)械制造智能監(jiān)控與故障預(yù)警系統(tǒng)開(kāi)發(fā)考核試卷
- 派遣用工法律法規(guī)培訓(xùn)課程更新考核試卷
- 2025年中國(guó)PU涂料數(shù)據(jù)監(jiān)測(cè)報(bào)告
- 2025年中國(guó)PET鋁膜數(shù)據(jù)監(jiān)測(cè)報(bào)告
- 2025年中國(guó)J型車(chē)門(mén)防撞條數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025年中國(guó)DVD解碼器數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025年中學(xué)教師資格考試《綜合素質(zhì)》教育法律法規(guī)經(jīng)典案例分析及強(qiáng)化試題集(含答案)
- CGF生長(zhǎng)因子在口腔醫(yī)學(xué)中的應(yīng)用
- 互聯(lián)網(wǎng)新聞信息服務(wù)安全評(píng)估報(bào)告模板(2025年7月修訂)
- 2025年小學(xué)語(yǔ)文期末考試試題及答案
- 發(fā)改委立項(xiàng)用-超薄玻璃項(xiàng)目可行性研究報(bào)告
- 《等腰三角形的性質(zhì)》課件
- 工業(yè)互聯(lián)網(wǎng)與船舶行業(yè)融合應(yīng)用參考指南 2025
- 應(yīng)征公民政治考核表(含示例)
- 2024年浙江省《輔警招聘考試必刷500題》考試題庫(kù)附答案【綜合題】
- 中國(guó)熔融粘合環(huán)氧粉末涂料項(xiàng)目商業(yè)計(jì)劃書(shū)
- 200以?xún)?nèi)加減法-2000題(帶答案)
評(píng)論
0/150
提交評(píng)論