def svm(): preprocessor = pp.PreprocessingSE() model = SVC(kernel='rbf', random_state=pp.RANDOM_STATE, C=1, gamma='scale', probability=True) pipeline = Pipeline([("preprocessor", preprocessor), ("model", model)]) return pipeline
from sklearn.linear_model import Perceptron import random seed = 100 np.random.seed(seed) random.seed(seed) X, y = utils.importar_datos() # ### Modelo 1 # - Preprocesamiento con StandardScaler # - Preprocesamiento de variables categoricas con OneHotEncoding # - Perceptron lineal de sklearn pipeline = Pipeline([("preprocessor", pp.PreprocessingSE()), ("model", Perceptron(random_state=pp.RANDOM_STATE))]) # #### Metricas utils.metricas_cross_validation(X, y, pipeline, True) # El mal resultado se puede deber a que los datos no son linealmente separables. # ### Modelo 2 # - Se utiliza el mismo preprocesamiento que en el modelo anterior # - Se buscan hiperparámetros para ver si mejora el score, de lo contrario se descarta el modelo. pipeline = Pipeline([("preprocessor", pp.PreprocessingSE()), ("model",
from sklearn.pipeline import Pipeline import random seed = 100 np.random.seed(seed) random.seed(seed) X, y = utils.importar_datos() # ### Modelo 1 # - Preprocesamiento con StandardScaler # - Estimación de Hiperparametros con GridSearchCV # - Estimación de algortimo con GridSearchCV preprocessor = pp.PreprocessingSE() model = KNeighborsClassifier(n_jobs=-1) pipeline = Pipeline([("preprocessor", preprocessor), ("model", model)]) params = { 'model__n_neighbors': np.arange(1, 50, 5), 'model__weights': ['uniform', 'distance'], 'model__algorithm': ['ball_tree', 'kd_tree', 'brute'] } cv = utils.kfold_for_cross_validation() #rgscv = GridSearchCV( # pipeline, params, scoring='roc_auc', n_jobs=-1, cv=cv, return_train_score=True #).fit(X, y) #print(rgscv.best_score_) #print(rgscv.best_params_)