寫在前面
三月面試了好幾輪,寫個(gè)帖子記錄一下問過的問題,為接下來的其他公司的面試查漏補(bǔ)缺一下,也給大家一些準(zhǔn)備的方向。
騰訊
一面(涼)
自我介紹
問做過的項(xiàng)目,同時(shí)在過程中穿插用過的模型的問題,比如
word2vec兩個(gè)模型的損失函數(shù)是什么
cbow和skipgram的比較,為什么skipgram會更好,哪個(gè)的計(jì)算復(fù)雜度高
為什么使用隨機(jī)森林
決策樹的分裂方式是什么,根據(jù)什么變量來決定分裂變量
手撕代碼
給一個(gè)數(shù)N,k,每一輪可以進(jìn)行兩種操作的其中一種:①所有的數(shù)拆分成兩個(gè)更小的數(shù);②所有的數(shù)-1。已知拆分操作只能進(jìn)行k次,問 最少需要多少次把所有數(shù)都消去
給一串?dāng)?shù)列,這串?dāng)?shù)列有正有負(fù),但是總和為0。每個(gè)數(shù)xi代表一個(gè)村莊,正的表示村莊想賣出xi份水果,負(fù)的表示想買入xi份水果。兩相鄰村莊間的距離是相同的,單位距離運(yùn)送一份水果的運(yùn)費(fèi)均相同,每份都是k。問,把每個(gè)村莊的需求和供給都解決掉需要的最少運(yùn)送費(fèi)是多少?
這是第一次面試,涼得很徹底,因?yàn)楹芏?a target="_blank">算法細(xì)節(jié)都沒有好好復(fù)習(xí),而且代碼寫的也不夠整潔快速
阿里螞蟻
一面
面我的是多方安全團(tuán)隊(duì),問了很久他們做的東西,具體還是不太懂,大概意思就是法規(guī)限制了我們獲取的數(shù)據(jù)規(guī)模和維度,要用有限的數(shù)據(jù)進(jìn)行風(fēng)險(xiǎn)評估(比如銀行貸款啊之類的)
問了我們碩士是授課型還是論文型,問了我們現(xiàn)在專業(yè)學(xué)習(xí)的東西和機(jī)器學(xué)習(xí)相關(guān)的部分有哪些,
然后問了我做詞向量的項(xiàng)目,問優(yōu)化方向之類的,有沒有根據(jù)文本特征做定制化的算法調(diào)整
然后問了xgboost和randomforest的區(qū)別。什么場景表現(xiàn)會更好之類的。
然后問了一道邏輯題:兩個(gè)人抽100個(gè)球,你是先手,每次兩個(gè)人只能取1-6個(gè)球,問怎么抽才能使得你是最后一個(gè)把球抽完的
問了一道挺基礎(chǔ)的算法:找出有序數(shù)組中位數(shù),想優(yōu)化時(shí)間復(fù)雜度。
感覺不是很匹配,面試官的意思是想要的是那種潛力型,會融合很多算法,開發(fā)新算法的人才,我太菜了
美團(tuán)
美團(tuán)的筆試還是做的挺差的,五題只做了兩題,兩題都只有27%。。
一面
word2vec
訓(xùn)練過程訓(xùn)練原理
訓(xùn)練的損失函數(shù)
我看到你做多分類情感分析多分類問題的損失函數(shù)是什么
Soft max的計(jì)算公式是什么?為什么使用指數(shù)函數(shù)?
LSTM的信息傳遞機(jī)制是什么?他和RNN相比有什么優(yōu)勢。
Bert
他和普通的Word2Vec模型相比優(yōu)勢在哪里
他為什么會有這樣的優(yōu)勢(優(yōu)勢,指的是他能生成語境化的向量
Bert中的 transformer
注意力機(jī)制的運(yùn)行過程是什么樣的?
注意力機(jī)制中對于每一個(gè)詞的分?jǐn)?shù)會進(jìn)行標(biāo)準(zhǔn)化,請問這一步的目的是什么
你剛剛提到batch normalization
BN的作用是什么?它有四個(gè)公式,每一個(gè)公式分別是什么,有什么各自的作用
我對于每一個(gè)Batch 都計(jì)算出來了他對應(yīng)的均值跟方差這些,它們相互獨(dú)立的嗎?還是會相互影響。
我看你大多數(shù)是自然語言處理的事件,你有做過計(jì)算機(jī)視覺相關(guān)的任務(wù)嗎?回答:有機(jī)器學(xué)習(xí)課上嘗試手寫卷積神經(jīng)網(wǎng)絡(luò)的代碼
卷積神經(jīng)網(wǎng)絡(luò)的權(quán)重是怎么更新的,平均池化和最大持化的反向傳播是怎么運(yùn)作的?
沒有手撕代碼,但是讓我直接實(shí)現(xiàn)kmeans的偽代碼,不用編譯
總結(jié)來說,美團(tuán)一面問的都很基礎(chǔ)的深度學(xué)習(xí)問題,都答出來了,因?yàn)闇?zhǔn)備過,所以說的時(shí)候比較有自信,然后挺流暢的。面試官就說覺得我基礎(chǔ)知識挺扎實(shí)的挺好的(這個(gè)小哥人很nice,也是第一個(gè)這么夸我的面試官,挺受鼓舞的,很謝謝他
二面
大部分問題和一面的很接近,但是面試官好像是一面面試官的老大,會從更多維度來問你
word2vec訓(xùn)練過程的最后一步有什么辦法可以優(yōu)化softmax的計(jì)算,我沒答上來,他就告訴我說是指數(shù)函數(shù)的計(jì)算會用查表來近似代替
你大部分用的神經(jīng)網(wǎng)絡(luò)都是比較淺層的,有沒有試過更深的神經(jīng)網(wǎng)絡(luò)
有做過圖像方面的深度學(xué)習(xí)項(xiàng)目嗎
有沒有在實(shí)踐中應(yīng)用過transformer
最后面試官的評價(jià)是基礎(chǔ)知識比較好,但是實(shí)踐經(jīng)歷和業(yè)界場景有差距emmm,然后面試才剛剛開始,沒這么快能給你答復(fù)(好的我知道我是備胎了55555美團(tuán)是我很想去的公司,我面試的部門是做美團(tuán)外賣的推薦廣告業(yè)務(wù)的,在他們場景中會用到很多的深度學(xué)習(xí)的模型(圖像+nlp)來提取特征和做推薦預(yù)估, 而且關(guān)注了美團(tuán)的技術(shù)博客,他們做的很多東西我都覺得和自己做過的項(xiàng)目很match。
原文標(biāo)題:算法崗面經(jīng)整理!查漏補(bǔ)缺
文章出處:【微信公眾號:算法與數(shù)據(jù)結(jié)構(gòu)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
-
算法
+關(guān)注
關(guān)注
23文章
4709瀏覽量
95351 -
程序員
+關(guān)注
關(guān)注
4文章
954瀏覽量
30402
原文標(biāo)題:算法崗面經(jīng)整理!查漏補(bǔ)缺
文章出處:【微信號:TheAlgorithm,微信公眾號:算法與數(shù)據(jù)結(jié)構(gòu)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
求一份在STM32F407的CS1239的驅(qū)動程序
阿里云升級通義靈碼AI程序員,全面上線
TMS320C55x DSP CPU程序員參考補(bǔ)充

UCD3138A64/UCD3138128程序員手冊

機(jī)械革命發(fā)布CODE AI程序員本
AI編程工具會不會搶程序員飯碗
程序員去面試只需一個(gè)技能征服所有面試官!

第五屆長沙·中國1024程序員節(jié)開幕
請廠家發(fā)一份CS1237和CS1238的C51驅(qū)動程序
麻煩廠家發(fā)一份CS1237-SO的驅(qū)動程序給我STC版本的
京東上萬程序員都AI用它!

評論