from eyeTracker import EyeTrack from direcao import Direction from videocaptureasync import VideoCaptureAsync import pyautogui import pyttsx3 from gui import Interface if __name__ == '__main__': eyeTrack = EyeTrack() int2Text = ['zero', 'um', 'dois', 'tres', 'quatro', 'cinco'] contadorOlhosFechados = 0 gui = Interface() gui.speech_assistant( 'Olá estou aqui para ajudar você a expressar algumas necessidades. Por favor, olhe em direção ao cartão que expressa a sua necessidade' ) video = VideoCaptureAsync(0) video.start() pyautogui.press('tab') while True: (grabed, frame) = video.read() if not grabed: break coords, frame = eyeTrack.getCoordenada(frame, debug=False) if coords: direcao = eyeTrack.getEyeDirection(coords)