Esempio n. 1
0
lin_reg_2.predict(poly_reg.fit_transform([[6.5]]))

####USAMOS LA DATA DE TESTEO:
X_poly_test = PolynomialFeatures(degree=5).fit_transform(
    X_test)  #Botará la columna de indepenientes automáticamente

plt.scatter(X_test, Y_test, color="red")
plt.plot(X_grid_train, lin_reg_2.predict(X_poly_grid_train), color="blue")
plt.title("Sueldo vs Años de Experiencia (Conjunto de Testing)")
plt.xlabel("Años de Experiencia")
plt.ylabel("Sueldo (en $)")
plt.show()

#Analizamos la significancia del modelo por OLS, que sería todo lineal
#La constante y análisis sale raro, por eso mejor trabajarlo como polinomio
import statsmodels.api as sm
X_const = sm.add_constant(X)
regression_OLS = sm.OLS(
    endog=Y, exog=X_const.tolist()).fit()  #fit: ajusta, trabajamos con X_opt
regression_OLS.summary()

#Trabajando con variable exógena en forma polinómica, PERO TOMA POR SEPARADO LOS GRADOS
X_poly_2 = PolynomialFeatures(degree=3).fit_transform(
    X
)  #Botará la columna de indepenientes automáticamente más la x y el cuadrado y así...

#X_poly_const = sm.add_constant(X_poly) No séra necesario en este caso
regression_OLS = sm.OLS(
    endog=Y, exog=X_poly_2.tolist()).fit()  #fit: ajusta, trabajamos con X_opt
regression_OLS.summary()