def prepareDataSet(self): columnas=self.dataSet.columns.tolist() x=columnas[len(columnas)-1] targetResponse=self.dataSet[x]#clases y=columnas[0:len(columnas)-1] dataValues=self.dataSet[y]#atributos #transformamos la clase si presenta atributos discretos transformData = transformDataClass.transformClass(targetResponse) self.target = transformData.transformData self.dictTransform = transformData.dictTransform #ahora transformamos el set de datos por si existen elementos discretos... transformDataSet = transformFrequence.frequenceData(dataValues) dataSetNewFreq = transformDataSet.dataTransform #ahora aplicamos el procesamiento segun lo expuesto applyNormal = ScaleNormalScore.applyNormalScale(dataSetNewFreq) self.data = applyNormal.dataTransform #manejo de los nuevos ejemplos.... #ahora transformamos el set de datos por si existen elementos discretos... transformDataSetNew = transformFrequence.frequenceData(self.dataSetNew) dataSetNewFreqNew = transformDataSetNew.dataTransform applyNormalNew = ScaleNormalScore.applyNormalScale(dataSetNewFreqNew) self.dataNew = applyNormalNew.dataTransform
def prepareDataSet(self): self.target = self.dataSet[self.featureResponse]#respuestas dataValues=self.dataSet del dataValues[self.featureResponse] #generamos la codificacion encoding = encodingFeatures.encodingFeatures(dataValues, 20) encoding.evaluEncoderKind() dataEncoding = encoding.dataSet #aplicamos la normalizacion applyNormal = ScaleNormalScore.applyNormalScale(dataEncoding) self.data = applyNormal.dataTransform
def createDataSet(self): targetResponse = self.dataSet[self.featureClass] dictData = {} for key in self.dataSet: if key != self.featureClass: arrayFeature = [] for i in self.dataSet[key]: arrayFeature.append(i) dictData.update({key: arrayFeature}) #formamos el nuevo set de datos... dataSetNew = pd.DataFrame(dictData) #ahora evaluamos si la clase tiene valores discretos o continuos y los modificamos en caso de que sean discretos transformData = transformDataClass.transformClass(targetResponse) self.target = transformData.transformData self.dictTransform = transformData.dictTransform #formamos el class array... self.classArray = list(set(self.target)) #ahora transformamos el set de datos por si existen elementos discretos... transformDataSet = transformFrequence.frequenceData(dataSetNew) dataSetNewFreq = transformDataSet.dataTransform #ahora aplicamos el procesamiento segun lo expuesto if self.optionNormalize == 1: #normal scale applyNormal = ScaleNormalScore.applyNormalScale(dataSetNewFreq) self.data = applyNormal.dataTransform if self.optionNormalize == 2: #min max scaler applyMinMax = ScaleMinMax.applyMinMaxScaler(dataSetNewFreq) self.data = applyMinMax.dataTransform if self.optionNormalize == 3: #log scale applyLog = ScaleDataSetLog.applyLogScale(dataSetNewFreq) self.data = applyLog.dataTransform if self.optionNormalize == 4: #log normal scale applyLogNormal = ScaleLogNormalScore.applyLogNormalScale( dataSetNewFreq) self.data = applyLogNormal.dataTransform
def prepareDataSet(self): self.target = self.dataSet[self.featureResponse]#respuestas dataValues=self.dataSet del dataValues[self.featureResponse] #generamos la codificacion encoding = encodingFeatures.encodingFeatures(dataValues, 20) encoding.evaluEncoderKind() dataEncoding = encoding.dataSet #aplicamos la normalizacion applyNormal = ScaleNormalScore.applyNormalScale(dataEncoding) self.data = applyNormal.dataTransform #transformamos la clase si presenta atributos discretos transformData = transformDataClass.transformClass(self.target) self.target = transformData.transformData self.dictTransform = transformData.dictTransform self.data = dataValues print self.data
dataSet.drop(outliers) #procesamos el set de datos para obtener los atributos y las clases... targResponse=dataSet[featureResponse]#clases #generamos una copia y eliminamos la respuesta de los atributos dataValues = dataSet del dataValues[featureResponse] #generamos la codificacion encoding = encodingFeatures.encodingFeatures(dataValues, 20) encoding.evaluEncoderKind() dataEncoding = encoding.dataSet #aplicamos la normalizacion applyNormal = ScaleNormalScore.applyNormalScale(dataEncoding) data = applyNormal.dataTransform #generamos una lista con los valores obtenidos... header = ["Algorithm", "Params", "R_Score", "Pearson", "Spearman", "Kendalltau"] matrixResponse = [] #comenzamos con las ejecuciones... #AdaBoost for loss in ['linear', 'square', 'exponential']: for n_estimators in [10,50,100,200,500,1000,1500,2000]: try: print "Excec AdaBoostRegressor with %s - %d" % (loss, n_estimators) AdaBoostObject = AdaBoost.AdaBoost(data, targResponse, n_estimators, loss) AdaBoostObject.trainingMethod()