以下內容帶有部分提示性答案
無論是查找博客還是翻閱論文
大家還是要參照最全面的講解哦~
一、開發基礎
TCP/IP
C++虛函數
由兩個部分組成的,虛函數指針與虛函數表
C++允許用戶使用虛函數(virtual function)來完成“運行時決議”這一操作,這與一般的“編譯時決定”有著本質的區別
“靜態存儲”和“動態存儲”
靜態存儲:全局變量
動態存儲:函數的形式參數
紅黑樹的原理
并發和并行的區別
https://www.jianshu.com/p/cbf9588b2afb
內存不夠的情況下如何以最快速度進行排序
(海量數據類問題)
二、機器學習方向
講一下LR
(sigmoid)
SVM介紹一下?為什么可以使用對偶來求解原始問題?
核函數了解嗎?核函數解決什么問題?
為什么高斯核函數可以擬合無限維
(無窮泰勒展開)
ID3缺點
(信息增益對可取值數目較多的屬性有所偏好)
樸素貝葉斯公式
抽象一個分類問題[m個樣本,n個特征,k種標簽],問先驗概率后驗概率分別是什么
使用貝葉斯的前提條件
(貝葉斯公式沒有前提條件)
使用樸素貝葉斯的前提條件
(所有特征相互獨立的)
GDBT和RF區別
三、深度學習方向
介紹熟悉的深度學習模型,并介紹優缺點
模型中方差,偏差怎么定義的
偏差,方差和過擬合,欠擬合的關系
怎么解決模型的方差偏大問題
降低模型的復雜度
減少數據維度:降噪
使用驗證集
模型正則化
介紹loss的設計
樣本嚴重不平衡如何處理
BN解決了什么問題,為什么
(梯度消失與梯度爆炸/過擬合)
BN中怎么處理訓練集和測試集中均值,方差
訓練時對每一批的訓練數據進行歸一化,也即用每一批數據的均值和方差
測試時,比如進行一個樣本的預測,沒有batch的概念,因此,這個時候用的均值和方差是全量訓練數據的均值和方差,這個可以通過移動平均法求得
對于BN,當一個模型訓練完成之后,它的所有參數都確定了,包括均值和方差,gamma和bata
normalization方法原理綜述,GN,BN,LN,IN,他們的共性和特性
極大似然與交叉熵有什么區別
四、編程題 & 概率題
一個家庭有兩個孩子,已知有一個是女孩子,全是女孩子的概率是多少
一個商店,1個小時賣出去5個包子,問下一個小時賣出6個的概率
寫個快排
用最快的方法計算2的N次冪
(快速冪,O(logn))
鏈表:
找中點
是否有環,環的入口
是否有交點,找到交點
N個鏈表是否有交點,復雜度分析
Copyright C 2015-2020 All Rights Reserved 版權所有 德清人才網
浙ICP備07508265號-27
網安備案號:33011002012955
地址:浙江省杭州市余杭區博園西路7號8樓 EMAIL:service@hzdqrc.com
ICP經營許可證:浙B2-20200349 人力資源證: 330110202105080088號
Powered by 德清人才網.