def extract_features(params): Train_or_Val_dic = {} with open(os.path.join(params['root'],params['root_save'],params['image_lists'],params['split'] + '.txt'),'r') as f: image_list = f.readlines() #Train_files= os.listdir(r'C:\Users\Albert\Documents\UNI\Q-5\GDSA\Projecte\TerrassaBuildings900\Train\images') #Val_files= os.listdir(r'C:\Users\Albert\Documents\UNI\Q-5\GDSA\Projecte\TerrassaBuildings900\Val\images') descriptors = [] if params['split'] == 'train': for img in image_list: im = cv2.imread(os.path.join(params['root'],params['database'],params['split'],'images',img.rstrip())) # Resize image im = resize_image(params,im) des=get_local_features(params,im) if len(descriptors) == 0: descriptors = des else: descriptors = np.vstack((descriptors,des)) code=train_codebook(params,descriptors) # Save to disk pickle.dump(code,open(os.path.join(params['root'],params['root_save'], params['codebooks_dir'],'codebook_' + str(params['descriptor_size']) + "_" + params['descriptor_type'] + "_" + params['keypoint_type'] + '.cb'),'wb')) # Get trained codebook code = pickle.load(open(os.path.join(params['root'],params['root_save'], params['codebooks_dir'],'codebook_' + str(params['descriptor_size']) + "_" + params['descriptor_type'] + "_" + params['keypoint_type'] + '.cb'),'rb')) for img in image_list: im = cv2.imread(os.path.join(params['root'],params['database'],params['split'],'images',img.rstrip())) # Resize image im = resize_image(params,im) des=get_local_features(params,im) assign=get_assignments(code,des) Train_or_Val_dic[img] = build_bow(assign,code) # Save dictionary to disk with unique name save_file = os.path.join(params['root'],params['root_save'],params['feats_dir'], params['split'] + "_" + str(params['descriptor_size']) + "_" + params['descriptor_type'] + "_" + params['keypoint_type'] + '.p') pickle.dump(Train_or_Val_dic,open(save_file,'wb'))
def get_features(params): #Obrim el fitxer que conte les ID de les imatges d'entrenament ID=open(os.path.join(params['root'],params['database'],'train','ImageIDs.txt'), 'r') #Extraccio de les caracteristiques de la imatge de la primera linia del ImageIDs.txt nom=str(ID.readline()).replace('\n','') desc_train=get_local_features(params,os.path.join(params['root'],params['database'],'train','images',nom + '.jpg')) #Extraccio de les caracteristiques per a la resta de les imatges d'entrenament dictrain=dict() dictrain[nom]=desc_train for line in ID: nom=str(line).replace('\n','') x=get_local_features(params,os.path.join(params['root'],params['database'],'train','images',nom + '.jpg')) #Concatenar les caracteristiques de cada imatge en una numpy array desc_train=np.concatenate((desc_train,x)) dictrain[nom]=x #Tanquem el fitxer ID.close() #Entrenament del KMeans nomes per a les imatges d'entrenament amb 1024 paraules paraules=1024 codebook=train_codebook(params,desc_train,paraules) #Obrim el fitxer que conte les ID de les imatges d'entrenament ID=open(os.path.join(params['root'],params['database'],'train','ImageIDs.txt'), 'r') for line in ID: nom=str(line).replace('\n','') #Calculem les assignacions per les imatges d'entrenament assignments=get_assignments(dictrain[nom],codebook) #Creacio del BoW per les imatges d'entrenament i emplenament del diccionari dictrain[nom]=build_bow(assignments,codebook,paraules) #Tanquem el fitxer ID.close() #Guardem el diccionari amb el BoW de les imatges d'entrenament en l'arxiu "Features.txt" bow_train = open (os.path.join(params['root'],params['database'],'train','Features.txt'), 'w') pk.dump(dictrain,bow_train) bow_train.close() #Obrim el fitxer que conté les ID de les imatges de validacio ID = open(os.path.join(params['root'],params['database'],'val','ImageIDs.txt'), 'r') #Creacio del diccionari de les imatges de validacio dicval=dict() for line in ID: #Extraccio de les caracteristiques per a les imatges de validacio x=get_local_features(params,os.path.join(params['root'],params['database'],'val','images',str(line).replace('\n','') + '.jpg')) #Calculem les assignacions per les imatges de validacio assignments=get_assignments(x,codebook) #Creacio del BoW per les imatges de validacio i emplenament del diccionari dicval[str(line).replace('\n','')]=build_bow(assignments,codebook,paraules) #Tanquem el fitxer ID.close() #Guardem el diccionari amb el BoW de les imatges de validacio en l'arxiu "Features.txt" bow_val = open (os.path.join(params['root'],params['database'],'val','Features.txt'), 'w') pk.dump(dicval,bow_val) bow_val.close()
def codebook(params): with open(os.path.join(params['root'],params['root_save'],params['image_lists'],'train.txt'),'r') as f: train_image_list = f.readlines() with open(os.path.join(params['root'],params['root_save'],params['image_lists'], 'val.txt'),'r') as f: val_image_list = f.readlines() descriptors = [] #if params['split'] == 'train': for img in train_image_list: im = cv2.imread(os.path.join(params['root'],params['database'],'train','images',img.rstrip())) # Resize image im = resize_image(params,im) des=get_local_features(params,im) if len(descriptors) == 0: descriptors = des else: descriptors = np.vstack((descriptors,des)) print "descriptors train: " print np.shape(descriptors) for img in val_image_list: im = cv2.imread(os.path.join(params['root'],params['database'],'val','images',img.rstrip())) # Resize image im = resize_image(params,im) des=get_local_features(params,im) if len(descriptors) == 0: descriptors = des else: descriptors = np.vstack((descriptors,des)) print "descriptors train + val: " print np.shape(descriptors) code=train_codebook(params,descriptors) # Save to disk pickle.dump(code,open(os.path.join(params['root'],params['root_save'], params['codebooks_dir'],'codebook_train_val' + str(params['descriptor_size']) + "_" + params['descriptor_type'] + "_" + params['keypoint_type'] + '.cb'),'wb'))
params = get_params() # Change to training set params['split'] = 'train' print "Stacking features together..." # Save features for training set t = time.time() X, pca, scaler = stack_features(params) print "Done. Time elapsed:", time.time() - t print "Number of training features", np.shape(X) print "Training codebook..." t = time.time() train_codebook(params, X) print "Done. Time elapsed:", time.time() - t print "Storing bow features for train set..." t = time.time() get_features(params, pca, scaler) print "Done. Time elapsed:", time.time() - t params['split'] = 'val' print "Storing bow features for validation set..." t = time.time() get_features(params) print "Done. Time elapsed:", time.time() - t ''' params['split'] = 'test'
# -*- coding: utf-8 -*- import os from scipy.cluster.vq import vq from get_local_features import get_local_features from train_codebook import train_codebook from sklearn.cluster import MiniBatchKMeans ruta = os.path.dirname( os.path.abspath(__file__) ) # Definim la instrucció principal que busca la ruta absoluta del fitxer def compute_assignments(codebook, desc): assignments = codebook.predict(desc) # calculem els assignaments return assignments if __name__ == "__main__": dsc = [] desc = get_local_features("../imagen_primerscript/people.jpg") desc2 = get_local_features("../imagen_primerscript/tiger.jpg") for feat in desc: dsc.append(feat) for feat in desc2: dsc.append(feat) codebook, _ = train_codebook(5, dsc) # entrenem el codebook clase = compute_assignments(codebook, dsc) # observem els assignaments
if __name__ == "__main__": nfiles = os.listdir( "../imagen_primerscript") #llistem els arxius del directori dsc = [ ] #inicialitzem el vector on aniran tots els descriptors de totes les imatges del directori BoW = dict() #inicialitzem el diccionari dsc_ind = { } #inicialitzem el vector que contindrá tots els descriptors de cada imatge for file in nfiles: filename = file[0:file.index(".")] #obtenim el nom de l'arxiu dsc_ind[filename] = get_local_features( "../imagen_primerscript/" + file) #dessem els descriptors de la imatge corresponent for feat in dsc_ind[filename]: dsc.append( feat ) #dessem tots els descriptors de totes les imatges al vector codebook, k = train_codebook(5, dsc) #entrenem el codebook for file in nfiles: filename = file[0:file.index(".")] clase = compute_assignments( codebook, dsc_ind[filename]) #calculem els assignaments BoW[filename] = construct_bow_vector( clase, k) #dessem els assignaments al vector BoW features = open("../files/features.p", 'w') pickle.dump(BoW, features) #Escribim els assignaments al bow features.close() feat = open("../files/features.p", 'r') p = pickle.load(feat)
import os.path as path #dir = sys.path.insert(0,'./home/PycharmProjects/GDSA/Projecte/') dir = path.dirname(__file__) #dir = sys.path.insert(0,__file__) def get_assignments(codebook, descriptors): #norm_descriptores = whiten(descriptores) # Normaliza descriptores #Con KMeans #assignments,_ = vq(descriptores, codebook) #Con MiniBatchKMeans assignments = codebook.predict(descriptors) return assignments if __name__ == "__main__": descriptor1 = get_local_features( "TerrassaBuildings900/train/images/aaeoeolbth.jpg") codebook = train_codebook(5, descriptor1) descriptor2 = get_local_features( "TerrassaBuildings900/val/images/aalfirydrf.jpg") assig = get_assignments(codebook, descriptor2) print(assig) print "Longitud del assignments= " + str(len(assig))
dictrain[nom] = desc_train for line in ID: nom = str(line).replace('\n', '') x = get_local_features( params, os.path.join(params['root'], params['database'], 'train', 'images', nom + '.jpg')) #Concatenar les caracteristiques de cada imatge en una numpy array desc_train = np.concatenate((desc_train, x)) dictrain[nom] = x #Tanquem el fitxer ID.close() #Entrenament del KMeans nomes per a les imatges d'entrenament amb 1024 paraules paraules = 1024 codebook = train_codebook(params, desc_train, paraules) #Obrim el fitxer que conte les ID de les imatges d'entrenament ID = open( os.path.join(params['root'], params['database'], 'train', 'ImageIDs.txt'), 'r') for line in ID: nom = str(line).replace('\n', '') #Calculem les assignacions per les imatges d'entrenament assignments = get_assignments(dictrain[nom], codebook) #Creacio del BoW per les imatges d'entrenament i emplenament del diccionari dictrain[nom] = build_bow(assignments, codebook, paraules) #Tanquem el fitxer ID.close() #Guardem el diccionari amb el BoW de les imatges d'entrenament en l'arxiu "Features.txt"