Esempio n. 1
0
def test_lm(fit_intercept):
    X, y = make_regression(n_samples=100, n_features=5, chunksize=10)
    lr = LinearRegression(fit_intercept=fit_intercept)
    lr.fit(X, y)
    lr.predict(X)
    if fit_intercept:
        assert lr.intercept_ is not None
Esempio n. 2
0
def test_lm(fit_intercept, is_sparse, is_cupy):
    X, y = make_regression(n_samples=100,
                           n_features=5,
                           chunksize=10,
                           is_sparse=is_sparse)
    if is_cupy and not is_sparse:
        cupy = pytest.importorskip('cupy')
        X, y = to_dask_cupy_array_xy(X, y, cupy)
    lr = LinearRegression(fit_intercept=fit_intercept)
    lr.fit(X, y)
    lr.predict(X)
    if fit_intercept:
        assert lr.intercept_ is not None
Esempio n. 3
0
def lasso_reg_daskml(n):
    mask = np.ones(n_neurons_all, dtype = 'bool')
    mask[n] = False
    model = LinearRegression(regularizer='l1')
    model.fit(X=data_use[:, mask], y=data_use[:, n])
    return model.score(X=data_use[:, mask], y=data_use[:, n])#.compute()
XValid=X[idx_valid]
XValid_scaler=StandardScaler().fit(XValid)
XValid=XValid_scaler.transform(X[~idx_valid])

XValid, Xtest=X_scaled[idx_valid], X_scaled[~idx_valid]
yvalid, ytest= y_binaire[idx_valid], y_binaire[~idx_valid]

# ---------- Utiliser une librairie usuelle

regr=linear_model.LinearRegression()
regr.fit(Xtrain, ytrain)


# ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory)

lr=LinearRegression()
lr.fit(Xtrain, ytrain)


# Réaliser la régression logistique sur l'échantillon d'apprentissage et en testant plusieurs valeurs
# de régularisation (hyperparamètre de la régression logistique) sur l'échantillon de validation. 


# ---------- Utiliser une librairie usuelle


log_reg=LogisticRegression()#modelisation
log_reg.fit(Xtrain, ytrain)

prediction_logreg=log_reg.predict(XValid)
pred_proba_logreg=log_reg.predict_proba(XValid)
Omnibus:                  5086820.045   Durbin-Watson:                   2.002
Prob(Omnibus):                  0.000   Jarque-Bera (JB):        508494903.927
Skew:                           4.087   Prob(JB):                         0.00
Kurtosis:                      49.207   Cond. No.                         3.23
==============================================================================
"""

# ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory)

import dask_ml
#import dask
from dask_glm.estimators import LinearRegression

#dask_ml.linear_model.LinearRegression

lr = LinearRegression()
lr.fit(X_scaled_bd, y_scaled_bd)
#X_scaled: matrice d entree transformee, y_scaled: matrice de sortie transformee
#Prediction modele Big Data
prediction_biglm = lr.predict(X_scaled_bd)

#Visualisation
plt.scatter(y_scaled_bd, prediction_biglm, color='black')
#y_scaled: valeur reelle, prediction_biglm: valeur predite
plt.xticks(())
plt.yticks(())
plt.show()

#Diagnostic des modeles
prediction_biglm = lr.predict(X_scaled_bd)
#on applique le score sur entree X_scaled et sortie y_scaled
# ---------- Utiliser une librairie usuelle



regr=linear_model.LinearRegression()
regr.fit(var_entree_stand, var_sortie_stand)




# ---------- Utiliser une librairie 'Big Data' (Dask ou bigmemory)



lr=LinearRegression()
lr.fit(var_entree_stand, var_sortie_stand)




### Q5.2 - Que pouvez-vous dire des résultats du modèle? Quelles variables sont significatives?



REPONSE ECRITE (3 lignes maximum)



### Q5.3 - Prédire le prix de la course en fonction de nouvelles entrées avec une régression linéaire