for clase in instances.getClases(): sumaAux = float(erroresPorClase[clase] + aciertosPorClase[clase]) print '\t' + clase + ': ' + str( erroresPorClase[clase]) + ' aciertos: ' + str( aciertosPorClase[clase]) + ' porcentaje: ' + str( erroresPorClase[clase] / sumaAux) """pruebas unitarias""" if __name__ == '__main__': lector = LectorNeuro() instances = lector.leerFichero('../data/nand.txt') porcentajeParticionado = 1.0 particionado = DivisionPorcentual() particionado.setPortcentajeTrain(porcentajeParticionado) particion = particionado.generaParticionesProporcional(instances) print "Adaline" clasificador = Adaline() clasificador.setDebug(True) clasificador.buildClassifier(particion.getTrain()) print "Error TRAIN:" calculaError(clasificador, particion.getTrain()) if porcentajeParticionado != 1.0: print "Error TEST:" calculaError(clasificador, particion.getTest()) print "Perceptron" clasificador = Perceptron() clasificador.setDebug(True)
from Clasificadores.NaiveBayes import NaiveBayes from Clasificadores.RedNeuronal import RedNeuronal from Particionado.DivisionPorcentual import DivisionPorcentual from Particionado.Particion import Particion from RW.LectorARFF import LectorARFF from Instance import Instance from Instances import Instances import json """pruebas unitarias""" if __name__ == '__main__': lector = LectorARFF() instances = lector.leerFichero('test.arff') particionado = DivisionPorcentual() particionado.setPortcentajeTrain(0.7) particion = particionado.generaParticionesProporcional(instances) clasificador = RedNeuronal() clasificador.buildClassifier(particion.getTrain()) error = 0 erroresPorClase = {} aciertosPorClase = {} for clase in instances.getClases(): erroresPorClase[clase] = 0 aciertosPorClase[clase] = 0 for instance in particion.getTest().getListInstances(): clase = instance.getClase() if clasificador.classifyInstance(instance) != clase: