def test_lm(fit_intercept): X, y = make_regression(n_samples=100, n_features=5, chunksize=10) lr = LinearRegression(fit_intercept=fit_intercept) lr.fit(X, y) lr.predict(X) if fit_intercept: assert lr.intercept_ is not None
def test_lm(fit_intercept, is_sparse, is_cupy): X, y = make_regression(n_samples=100, n_features=5, chunksize=10, is_sparse=is_sparse) if is_cupy and not is_sparse: cupy = pytest.importorskip('cupy') X, y = to_dask_cupy_array_xy(X, y, cupy) lr = LinearRegression(fit_intercept=fit_intercept) lr.fit(X, y) lr.predict(X) if fit_intercept: assert lr.intercept_ is not None
def lasso_reg_daskml(n): mask = np.ones(n_neurons_all, dtype = 'bool') mask[n] = False model = LinearRegression(regularizer='l1') model.fit(X=data_use[:, mask], y=data_use[:, n]) return model.score(X=data_use[:, mask], y=data_use[:, n])#.compute()
XValid=X[idx_valid] XValid_scaler=StandardScaler().fit(XValid) XValid=XValid_scaler.transform(X[~idx_valid]) XValid, Xtest=X_scaled[idx_valid], X_scaled[~idx_valid] yvalid, ytest= y_binaire[idx_valid], y_binaire[~idx_valid] # ---------- Utiliser une librairie usuelle regr=linear_model.LinearRegression() regr.fit(Xtrain, ytrain) # ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory) lr=LinearRegression() lr.fit(Xtrain, ytrain) # Réaliser la régression logistique sur l'échantillon d'apprentissage et en testant plusieurs valeurs # de régularisation (hyperparamètre de la régression logistique) sur l'échantillon de validation. # ---------- Utiliser une librairie usuelle log_reg=LogisticRegression()#modelisation log_reg.fit(Xtrain, ytrain) prediction_logreg=log_reg.predict(XValid) pred_proba_logreg=log_reg.predict_proba(XValid)
Omnibus: 5086820.045 Durbin-Watson: 2.002 Prob(Omnibus): 0.000 Jarque-Bera (JB): 508494903.927 Skew: 4.087 Prob(JB): 0.00 Kurtosis: 49.207 Cond. No. 3.23 ============================================================================== """ # ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory) import dask_ml #import dask from dask_glm.estimators import LinearRegression #dask_ml.linear_model.LinearRegression lr = LinearRegression() lr.fit(X_scaled_bd, y_scaled_bd) #X_scaled: matrice d entree transformee, y_scaled: matrice de sortie transformee #Prediction modele Big Data prediction_biglm = lr.predict(X_scaled_bd) #Visualisation plt.scatter(y_scaled_bd, prediction_biglm, color='black') #y_scaled: valeur reelle, prediction_biglm: valeur predite plt.xticks(()) plt.yticks(()) plt.show() #Diagnostic des modeles prediction_biglm = lr.predict(X_scaled_bd) #on applique le score sur entree X_scaled et sortie y_scaled
# ---------- Utiliser une librairie usuelle regr=linear_model.LinearRegression() regr.fit(var_entree_stand, var_sortie_stand) # ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory) lr=LinearRegression() lr.fit(var_entree_stand, var_sortie_stand) ### Q5.2 - Que pouvez-vous dire des résultats du modèle? Quelles variables sont significatives? REPONSE ECRITE (3 lignes maximum) ### Q5.3 - Prédire le prix de la course en fonction de nouvelles entrées avec une régression linéaire