Esempio n. 1
0
def extract_features(params):

    Train_or_Val_dic = {}
    
    with open(os.path.join(params['root'],params['root_save'],params['image_lists'],params['split'] + '.txt'),'r') as f:
        image_list = f.readlines()
    
   
    #Train_files= os.listdir(r'C:\Users\Albert\Documents\UNI\Q-5\GDSA\Projecte\TerrassaBuildings900\Train\images')
    #Val_files= os.listdir(r'C:\Users\Albert\Documents\UNI\Q-5\GDSA\Projecte\TerrassaBuildings900\Val\images')
    
    descriptors = []
    
    if params['split'] == 'train':
        
        for img in image_list:
            im = cv2.imread(os.path.join(params['root'],params['database'],params['split'],'images',img.rstrip()))
            
            # Resize image
            im = resize_image(params,im)
        
            des=get_local_features(params,im)
            
            if len(descriptors) == 0:
                descriptors = des
            else:
                descriptors = np.vstack((descriptors,des))
            
        code=train_codebook(params,descriptors)
        
        # Save to disk
        pickle.dump(code,open(os.path.join(params['root'],params['root_save'],
                                        params['codebooks_dir'],'codebook_'
                                        + str(params['descriptor_size']) + "_"
                                        + params['descriptor_type']
                                        + "_" + params['keypoint_type'] + '.cb'),'wb'))
    
    # Get trained codebook
    code = pickle.load(open(os.path.join(params['root'],params['root_save'],
                                     params['codebooks_dir'],'codebook_'
                                     + str(params['descriptor_size']) + "_"
                                     + params['descriptor_type']
                                     + "_" + params['keypoint_type'] + '.cb'),'rb'))
        
    for img in image_list:
        
        im = cv2.imread(os.path.join(params['root'],params['database'],params['split'],'images',img.rstrip()))
        # Resize image
        im = resize_image(params,im)
        des=get_local_features(params,im)
        assign=get_assignments(code,des)
        Train_or_Val_dic[img] = build_bow(assign,code)
        
    # Save dictionary to disk with unique name
    save_file = os.path.join(params['root'],params['root_save'],params['feats_dir'],
                             params['split'] + "_" + str(params['descriptor_size']) + "_"
                             + params['descriptor_type'] + "_" + params['keypoint_type'] + '.p')

    pickle.dump(Train_or_Val_dic,open(save_file,'wb'))
Esempio n. 2
0
def get_features(params):
    #Obrim el fitxer que conte les ID de les imatges d'entrenament
    ID=open(os.path.join(params['root'],params['database'],'train','ImageIDs.txt'), 'r')
    #Extraccio de les caracteristiques de la imatge de la primera linia del ImageIDs.txt
    nom=str(ID.readline()).replace('\n','')
    desc_train=get_local_features(params,os.path.join(params['root'],params['database'],'train','images',nom + '.jpg'))
    #Extraccio de les caracteristiques per a la resta de les imatges d'entrenament
    dictrain=dict()
    dictrain[nom]=desc_train
    for line in ID:
        nom=str(line).replace('\n','')
        x=get_local_features(params,os.path.join(params['root'],params['database'],'train','images',nom + '.jpg'))
        #Concatenar les caracteristiques de cada imatge en una numpy array
        desc_train=np.concatenate((desc_train,x))
        dictrain[nom]=x
    #Tanquem el fitxer
    ID.close()

    #Entrenament del KMeans nomes per a les imatges d'entrenament amb 1024 paraules
    paraules=1024
    codebook=train_codebook(params,desc_train,paraules)
    #Obrim el fitxer que conte les ID de les imatges d'entrenament
    ID=open(os.path.join(params['root'],params['database'],'train','ImageIDs.txt'), 'r')

    for line in ID:
        nom=str(line).replace('\n','')
        #Calculem les assignacions per les imatges d'entrenament
        assignments=get_assignments(dictrain[nom],codebook)
        #Creacio del BoW per les imatges d'entrenament i emplenament del diccionari
        dictrain[nom]=build_bow(assignments,codebook,paraules)
    #Tanquem el fitxer
    ID.close()

    #Guardem el diccionari amb el BoW de les imatges d'entrenament en l'arxiu "Features.txt"
    bow_train = open (os.path.join(params['root'],params['database'],'train','Features.txt'), 'w')
    pk.dump(dictrain,bow_train)
    bow_train.close()

    #Obrim el fitxer que conté les ID de les imatges de validacio
    ID = open(os.path.join(params['root'],params['database'],'val','ImageIDs.txt'), 'r')
    #Creacio del diccionari de les imatges de validacio
    dicval=dict()
    for line in ID:
        #Extraccio de les caracteristiques per a les imatges de validacio
        x=get_local_features(params,os.path.join(params['root'],params['database'],'val','images',str(line).replace('\n','') + '.jpg'))
        #Calculem les assignacions per les imatges de validacio
        assignments=get_assignments(x,codebook)
        #Creacio del BoW per les imatges de validacio i emplenament del diccionari
        dicval[str(line).replace('\n','')]=build_bow(assignments,codebook,paraules)
    #Tanquem el fitxer
    ID.close()

    #Guardem el diccionari amb el BoW de les imatges de validacio en l'arxiu "Features.txt"
    bow_val = open (os.path.join(params['root'],params['database'],'val','Features.txt'), 'w')
    pk.dump(dicval,bow_val)
    bow_val.close()
Esempio n. 3
0
def codebook(params):

    
    with open(os.path.join(params['root'],params['root_save'],params['image_lists'],'train.txt'),'r') as f:
        train_image_list = f.readlines()
    
    with open(os.path.join(params['root'],params['root_save'],params['image_lists'], 'val.txt'),'r') as f:
        val_image_list = f.readlines()
    
     

    descriptors = []
    
    #if params['split'] == 'train':
        
    for img in train_image_list:
        im = cv2.imread(os.path.join(params['root'],params['database'],'train','images',img.rstrip()))
        
        # Resize image
        im = resize_image(params,im)
    
        des=get_local_features(params,im)
        
        if len(descriptors) == 0:
            descriptors = des
        else:
            descriptors = np.vstack((descriptors,des))
            
    print "descriptors train: "
    print np.shape(descriptors)
    for img in val_image_list:
        im = cv2.imread(os.path.join(params['root'],params['database'],'val','images',img.rstrip()))
        
        # Resize image
        im = resize_image(params,im)
    
        des=get_local_features(params,im)
        
        if len(descriptors) == 0:
            descriptors = des
        else:
            descriptors = np.vstack((descriptors,des))

    print "descriptors train + val: "
    print np.shape(descriptors)
    code=train_codebook(params,descriptors)
        
        # Save to disk
    pickle.dump(code,open(os.path.join(params['root'],params['root_save'],
                                        params['codebooks_dir'],'codebook_train_val'
                                        + str(params['descriptor_size']) + "_"
                                        + params['descriptor_type']
                                        + "_" + params['keypoint_type'] + '.cb'),'wb'))
Esempio n. 4
0
    params = get_params()

    # Change to training set
    params['split'] = 'train'

    print "Stacking features together..."
    # Save features for training set
    t = time.time()
    X, pca, scaler = stack_features(params)
    print "Done. Time elapsed:", time.time() - t
    print "Number of training features", np.shape(X)

    print "Training codebook..."
    t = time.time()
    train_codebook(params, X)
    print "Done. Time elapsed:", time.time() - t

    print "Storing bow features for train set..."
    t = time.time()
    get_features(params, pca, scaler)
    print "Done. Time elapsed:", time.time() - t

    params['split'] = 'val'

    print "Storing bow features for validation set..."
    t = time.time()
    get_features(params)
    print "Done. Time elapsed:", time.time() - t
    '''
    params['split'] = 'test'
# -*- coding: utf-8 -*-
import os
from scipy.cluster.vq import vq
from get_local_features import get_local_features
from train_codebook import train_codebook
from sklearn.cluster import MiniBatchKMeans

ruta = os.path.dirname(
    os.path.abspath(__file__)
)  # Definim la instrucció principal que busca la ruta absoluta del fitxer


def compute_assignments(codebook, desc):
    assignments = codebook.predict(desc)  # calculem els assignaments
    return assignments


if __name__ == "__main__":
    dsc = []
    desc = get_local_features("../imagen_primerscript/people.jpg")
    desc2 = get_local_features("../imagen_primerscript/tiger.jpg")
    for feat in desc:
        dsc.append(feat)
    for feat in desc2:
        dsc.append(feat)
    codebook, _ = train_codebook(5, dsc)  # entrenem el codebook
    clase = compute_assignments(codebook, dsc)  # observem els assignaments

if __name__ == "__main__":
    nfiles = os.listdir(
        "../imagen_primerscript")  #llistem els arxius del directori
    dsc = [
    ]  #inicialitzem el vector on aniran tots els descriptors de totes les imatges del directori
    BoW = dict()  #inicialitzem el diccionari
    dsc_ind = {
    }  #inicialitzem el vector que contindrá tots els descriptors de cada imatge
    for file in nfiles:
        filename = file[0:file.index(".")]  #obtenim el nom de l'arxiu
        dsc_ind[filename] = get_local_features(
            "../imagen_primerscript/" +
            file)  #dessem els descriptors de la imatge corresponent
        for feat in dsc_ind[filename]:
            dsc.append(
                feat
            )  #dessem tots els descriptors de totes les imatges al vector
    codebook, k = train_codebook(5, dsc)  #entrenem el codebook
    for file in nfiles:
        filename = file[0:file.index(".")]
        clase = compute_assignments(
            codebook, dsc_ind[filename])  #calculem els assignaments
        BoW[filename] = construct_bow_vector(
            clase, k)  #dessem els assignaments al vector BoW
    features = open("../files/features.p", 'w')
    pickle.dump(BoW, features)  #Escribim els assignaments al bow
    features.close()
    feat = open("../files/features.p", 'r')
    p = pickle.load(feat)
Esempio n. 7
0
import os.path as path

#dir = sys.path.insert(0,'./home/PycharmProjects/GDSA/Projecte/')
dir = path.dirname(__file__)

#dir = sys.path.insert(0,__file__)


def get_assignments(codebook, descriptors):

    #norm_descriptores = whiten(descriptores) # Normaliza descriptores
    #Con KMeans
    #assignments,_ = vq(descriptores, codebook)

    #Con MiniBatchKMeans
    assignments = codebook.predict(descriptors)
    return assignments


if __name__ == "__main__":

    descriptor1 = get_local_features(
        "TerrassaBuildings900/train/images/aaeoeolbth.jpg")
    codebook = train_codebook(5, descriptor1)
    descriptor2 = get_local_features(
        "TerrassaBuildings900/val/images/aalfirydrf.jpg")
    assig = get_assignments(codebook, descriptor2)

    print(assig)
    print "Longitud del assignments= " + str(len(assig))
Esempio n. 8
0
dictrain[nom] = desc_train
for line in ID:
    nom = str(line).replace('\n', '')
    x = get_local_features(
        params,
        os.path.join(params['root'], params['database'], 'train', 'images',
                     nom + '.jpg'))
    #Concatenar les caracteristiques de cada imatge en una numpy array
    desc_train = np.concatenate((desc_train, x))
    dictrain[nom] = x
#Tanquem el fitxer
ID.close()

#Entrenament del KMeans nomes per a les imatges d'entrenament amb 1024 paraules
paraules = 1024
codebook = train_codebook(params, desc_train, paraules)

#Obrim el fitxer que conte les ID de les imatges d'entrenament
ID = open(
    os.path.join(params['root'], params['database'], 'train', 'ImageIDs.txt'),
    'r')
for line in ID:
    nom = str(line).replace('\n', '')
    #Calculem les assignacions per les imatges d'entrenament
    assignments = get_assignments(dictrain[nom], codebook)
    #Creacio del BoW per les imatges d'entrenament i emplenament del diccionari
    dictrain[nom] = build_bow(assignments, codebook, paraules)
#Tanquem el fitxer
ID.close()

#Guardem el diccionari amb el BoW de les imatges d'entrenament en l'arxiu "Features.txt"