def transition_model(data, goal, max_state = 10, minimum_volume = 0.8, max_steps = 5): #URL分類のためにCV-UUトラックデータを作成する print "## start making tracking data ##" uu_base = filter_cv(make_uu_base_data(data), goal) print '## end ##' #URLを分類する print '## start classify URL ##' states = sbs.summarize(data = uu_base, goal = goal, max_state = max_state, minimum_volume = minimum_volume, max_steps = max_steps) print '## end ##' #ログデータのURLを張り替える print '## start relabeling ##' data = relabeling(data, states, goal = goal) print '## end ##' #UUトラックデータを作成する print "## start making tracking data ##" uu_base = make_uu_base_data(data) print '## end ##' #UUトラックデータから回遊遷移モデルを作成する print "## start making taransition model ##" model = make_model(data = uu_base, cv = goal) print '## end ##' return model
def transition_model(data, goal, max_state = 10, minimum_volume = 0.8, max_steps = 5): #ゴミURLを除外する(データがよければ必要ないかもしれないので一旦コメントアウト) #print "## start URL check ##" #data = cleaning_url_in_data(data, # cl = urlclass.fisherclassifier(urlclass.GetUrlFeatures)) #print '## end ##' #URL分類のためにCV-UUトラックデータを作成する print "## start making tracking data ##" uu_base = filter_cv(make_uu_base_data(data), goal) print '## end ##' #URLを分類する print '## start classify URL ##' states = sbs.summarize(data = uu_base, goal = goal, max_state = max_state, minimum_volume = minimum_volume, max_steps = max_steps) print '## end ##' #ログデータのURLを張り替える print '## start relabeling ##' data = relabeling(data, states, goal = goal) print '## end ##' #UUトラックデータを作成する print "## start making tracking data ##" uu_base = make_uu_base_data(data) print '## end ##' #UUトラックデータから回遊遷移モデルを作成する print "## start making taransition model ##" model = make_model(data = uu_base, cv = goal) print '## end ##' return model