本週為第二課的第三週內容,你會發現這周的題目很長,實際上,作為第二課的最後一週內容,這一週是對基礎部分的最後補充。 在整個第一課和第二課部分,我們會了解到最基本的全連接神經網絡的基本結構和一個完整的模型訓練,驗證的各個部分。 之後幾課就會進行更多的實踐和進階內容介紹,從“通用”走向“特化”。
LSTM與圖卷積網絡結合的社交網絡行為預測。 GCN像朋友圈加權平均器,把每個人在當前時刻的狀態,和TA朋友圈(圖的鄰居)的狀態融合起來,得到一個考慮社會影響的時刻表徵。 LSTM像記憶管家,把過去一段時間(多個時刻)的融合表徵傳進記憶單元,學最近是火了還是冷了,有沒有周期性等時間規律。 合體後,相當於先看社交圈,再看時間史,預測下一刻的行為,是不是很酷!~
1.邏輯迴歸相比線性迴歸,有何異同? 區別: 線性迴歸假設響應變量服從正態分佈,邏輯迴歸假設響應變量服從伯努利分佈 線性迴歸優化的目標函數是均方差(最小二乘法),而邏輯迴歸優化的是似然函數(交叉熵) 線性迴歸要求自變量與因變量呈線性關係,而邏輯迴歸研究的是因變量取值的概率與自變量的概率 邏輯迴歸處理的是分類問