random_state=0) # Normalizando as features X_train = feature_scaling(X_train) X_test = feature_scaling(X_test) # Treinando o modelo de Regressão Logistica com o Conjunto de Treinamento classifier = LogisticRegression(random_state=0) classifier.fit(X_train, y_train) # Prevendo os resultados do modelo criado com o conjunto de testes y_pred = classifier.predict(X_test) # Criando a matriz de confusão com o conjunto de testes tn, fp, fn, tp = confusion_matrix(y_test, y_pred).ravel() # Visualizando a métrica de acurácia através das funções criandas e da bibilioteca sklearn accuracy(tp, fp, fn, tn) classifier.score(X_test, y_test) # Exibindo o f-measure f_measure(tp, fp, fn) f1_score(y_test, y_pred) # Exibindo os resultados do conjunto de treinamento plot_results_class(X_train, y_train, classifier, 'Regressão Logística (Conj. de Treinamento)') # Exibindo os resultados do conjunto de testes plot_results_class(X_test, y_test, classifier, 'Regressão Logística (Conj. de Testes)')
# Normalizando as features X_train = feature_scaling(X_train) X_test = feature_scaling(X_test) # Treinando o modelo Random Forest com o Conjunto de Treinamento classifier = RandomForestClassifier(n_estimators=10, criterion='entropy', random_state=0) classifier.fit(X_train, y_train) # Prevendo os resultados do modelo criado com o conjunto de testes y_pred = classifier.predict(X_test) # Criando a matriz de confusão com o conjunto de testes tn, fp, fn, tp = confusion_matrix(y_test, y_pred).ravel() # Visualizando a métrica de acurácia através das funções criandas e da bibilioteca sklearn accuracy(tp, fp, fn, tn) classifier.score(X_test, y_test) # Exibindo o f-measure f_measure(tp, fp, fn) f1_score(y_test, y_pred) # Exibindo os resultados do conjunto de treinamento plot_results_class(X_train, y_train, classifier, 'Random Forest (Conj. de Treinamento)') # Exibindo os resultados do conjunto de testes plot_results_class(X_test, y_test, classifier, 'Random Forest (Conj. de Testes)')
test_size=0.2, random_state=0) # Normalizando as features X_train = feature_scaling(X_train) X_test = feature_scaling(X_test) # Treinando o modelo de Naive Bayes com o Conjunto de Treinamento classifier = GaussianNB() classifier.fit(X_train, y_train) # Prevendo os resultados do modelo criado com o conjunto de testes y_pred = classifier.predict(X_test) # Criando a matriz de confusão com o conjunto de testes tn, fp, fn, tp = confusion_matrix(y_test, y_pred).ravel() # Visualizando a métrica de acurácia através das funções criandas e da bibilioteca sklearn accuracy(tp, fp, fn, tn) classifier.score(X_test, y_test) # Exibindo o f-measure f_measure(tp, fp, fn) f1_score(y_test, y_pred) # Exibindo os resultados do conjunto de treinamento plot_results_class(X_train, y_train, classifier, 'Naive Bayes (Conj. de Treinamento)') # Exibindo os resultados do conjunto de testes plot_results_class(X_test, y_test, classifier, 'Naive Bayes (Conj. de Testes)')
random_state=0) # Normalizando as features X_train = feature_scaling(X_train) X_test = feature_scaling(X_test) # Treinando o modelo de Árvore de Decisão com o Conjunto de Treinamento classifier = DecisionTreeClassifier(criterion='entropy', random_state=0) classifier.fit(X_train, y_train) # Prevendo os resultados do modelo criado com o conjunto de testes y_pred = classifier.predict(X_test) # Criando a matriz de confusão com o conjunto de testes tn, fp, fn, tp = confusion_matrix(y_test, y_pred).ravel() # Visualizando a métrica de acurácia através das funções criandas e da bibilioteca sklearn accuracy(tp, fp, fn, tn) classifier.score(X_test, y_test) # Exibindo o f-measure f_measure(tp, fp, fn) f1_score(y_test, y_pred) # Exibindo os resultados do conjunto de treinamento plot_results_class(X_train, y_train, classifier, 'Arvore de Decisão (Conj. de Treinamento)') # Exibindo os resultados do conjunto de testes plot_results_class(X_test, y_test, classifier, 'Arvore de Decisão (Conj. de Testes)')