Skip to content

We-can-apply-GPU/aMeLiDoSu-HW3

Repository files navigation

Usage : cat Holmes_Training_Data/*.TXT | ./preprocessing.sh > training.txt

ref : https://code.google.com/p/pygoogle

Data preprocessing

./preprocessing <training data 路徑> <training data filename or -a(路徑下所有檔案)

會產生一個train_pro.txt,可以給word2vec使用

Feature extract

output為一個dic,傳入vocab,可以回傳他的feature。import extract之後,extract.extract(dim ,training data, trained),如果已經執行過一次,產生過.bin檔,trained那邊可直接傳入true,word2vec就不用在跑一次了。For example:extract.extract(100, 'train_pro.txt', 'true')

###Issue need to solve :

  1. 目前 outputLayer是以softMax做nonlinearity,但今天她代表的是機率,跟我們從word2vec得到的R^m vector是不同的東西 (看docs上說word2vec是以hierarchical softMax實作,但今天他有正有負(log(prob)??)) 所以...是要照目前的方式,然後再加深層數之類的做deep RNN,還是我們要將所有的word做classification(dim炸裂囧) 不過...可能是需要做regularization

  2. 3D matrix manipulication?? -> tensordot (solved?) 張量內積那邊numpy的docs寫的還蠻清楚的(也沒有啦 例子很懂懂XDD)

  3. nesterov grad不能用吧XD 目前是用rmsprop做為update method (做實驗的好材料?) 可以試試其他方式

  4. Regularization? 不要讓output炸開而是能壓在一定的range以下?(lasagne.regularization有包好~~但我覺得好像也應該是要跟word2vec做match?)

  5. X_train ,Y_train 的給法 e.g. Given wordSeq {w_1,w_2,....w_n} Assume 5-gram : X_train : {w_1,w_2,...w_5} Y_train : {w_2,w_3,...w_6} , another method ?

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published