コード例 #1
0
predict = [
    u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"1"', u'"1"', u'"1"',
    u'"0"', u'"1"', u'"0"', u'"1"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"1"', u'"0"',
    u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"1"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"',
    u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"',
    u'"1"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"1"'
]
actual = [
    u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"',
    u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"1"', u'"1"', u'"1"',
    u'"1"', u'"0"', u'"0"', u'"1"', u'"1"', u'"1"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"1"', u'"1"', u'"0"',
    u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"',
    u'"1"', u'"0"', u'"1"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"0"', u'"0"', u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"',
    u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"1"',
    u'"0"', u'"1"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"', u'"0"',
    u'"1"'
]

Measures.confusion_matrix(actual, predict)
コード例 #2
0
rf = RandomForestRegressor(max_depth=20, n_estimators=50)

# Train model
rf.fit(X=x, y=y)

# Get prediction results
result = rf.predict(tX)

print "Result"
print "------"
print result

# Analyze performance
print "Performance"
print "-----------"
print "Root Mean Squared Error", mean_squared_error(tY, np.array(result)) ** 0.5
print "Mean Absolute Error", mean_absolute_error(tY, np.array(result))
print "R2", Measures.r2(tY, np.array(result))
# Dump pickle files
print df_mapper.features
print rf.get_params()

joblib.dump(df_mapper, mapper_pkl, compress = 3)
joblib.dump(rf, estimator_pkl, compress = 3)

# # Build pmml
# command = "java -jar converter-executable-1.1-SNAPSHOT.jar --pkl-mapper-input mapper.pkl --pkl-estimator-input estimator.pkl --pmml-output mapper-estimator.pmml"
# os.system(command)


コード例 #3
0
ファイル: test.py プロジェクト: byhyu/prognostics-ml
from dataprocessor import ProcessData
from featureeng import Measures

train = ProcessData.trainData()

training_columns = list(train.columns)
training_columns.remove('RUL')

for column in training_columns:
    print(column,
          Measures.correlation(train[column].values, train['RUL'].values))
コード例 #4
0
def function():
    # AutoEncoder anomaly removal process
    p_train = ProcessData.trainData(moving_median_centered_average=True,
                                    standard_deviation=True,
                                    probability_distribution=True,
                                    bin_classification=True)
    p_test = ProcessData.testData(moving_median_centered_average=True,
                                  standard_deviation=True,
                                  probability_from_file=True,
                                  bin_classification=True)

    # Converting to h2o frane
    h_test = h2o.H2OFrame(p_test)
    h_test.set_names(list(p_test.columns))

    h_train = h2o.H2OFrame(p_train)
    h_train.set_names(list(p_train.columns))

    # Define autoencoder
    anomaly_model = H2OAutoEncoderEstimator(activation="Rectifier",
                                            hidden=[25, 12, 25],
                                            sparse=True,
                                            l1=1e-4,
                                            epochs=100)

    # Select relevant features
    anomaly_train_columns = list(p_train.columns)
    print(anomaly_train_columns)
    anomaly_train_columns.remove('RUL')
    anomaly_train_columns.remove('BIN')
    anomaly_train_columns.remove('UnitNumber')
    anomaly_train_columns.remove('Time')
    anomaly_train_columns.remove('Setting1')
    anomaly_train_columns.remove('Setting2')
    anomaly_train_columns.remove('Setting3')

    # Train model
    anomaly_model.train(x=anomaly_train_columns, training_frame=h_train)

    # Get reconstruction error
    reconstruction_error = anomaly_model.anomaly(test_data=h_train,
                                                 per_feature=False)
    error_str = reconstruction_error.get_frame_data()
    err_list = list(map(float, error_str.split("\n")[1:-1]))
    err_list = np.array(err_list)

    # Threshold
    threshold = np.amax(err_list) * 0.97

    print("Max Reconstruction Error       :", reconstruction_error.max())
    print("Threshold Reconstruction Error :", threshold)

    # Filter anomalies based on reconstruction error
    p_filter = Filter.filterDataAutoEncoder(panda_frame=p_train,
                                            reconstruction_error=err_list,
                                            threshold=threshold)

    # Drop features
    del p_filter['Setting3']
    del p_filter['Sensor1']
    del p_filter['Sensor5']
    del p_filter['Sensor10']
    del p_filter['Sensor16']
    del p_filter['Sensor18']
    del p_filter['Sensor19']

    h_filter = h2o.H2OFrame(p_filter)
    h_filter.set_names(list(p_filter.columns))

    h_test = h2o.H2OFrame(p_test)
    h_test.set_names(list(p_test.columns))

    training_columns = list(p_filter.columns)
    training_columns.remove('UnitNumber')
    training_columns.remove('Time')
    training_columns.remove('RUL')
    training_columns.remove('BIN')

    h_filter['BIN'] = h_filter['BIN'].asfactor()
    h_test['BIN'] = h_test['BIN'].asfactor()

    model = H2ODeepLearningEstimator(variable_importances=True)
    model.train(x=training_columns,
                y='BIN',
                training_frame=h_filter,
                nfolds=10)

    predict = model.predict(test_data=h_test)
    predict = DataFrameParser.h2oToList(predict['predict'])
    actual = DataFrameParser.h2oToList(h_test['BIN'])

    Measures.confusion_matrix(actual, predict)
    print(predict)
    print(actual)