La documentación detallada del proyecto MyEyes, desarrollado en el HackForGood Valladolid de 2016, está recogida en unblind-doc.
Es necesario conseguir un token de Google Cloud Vision API y del Microsoft Project Oxford, y exportarlas como variables de entorno en vuestra Raspberry Pi.
export GOOGLE_VISION_API_TOKEN=<your-token>
export MS_VISION_FACE_API_TOKEN=<your-token>
export MS_VISION_EMOTION_API_TOKEN=<your-token>
export MS_VISION_COMPUTER_API_TOKEN=<your-token>
La mayor parte del código está desarrollado con nodejs 4. Recomendamos usar nvm, un gestor de versiones de node para instalar la versión 4 de nodejs. A continuación, clona el repositorio e instala las dependencias.
git clone git@github.com:unblind/unblind.git
cd unblind
npm install
# Alsa
sudo apt-get install libasound2-dev
# For text-to-speech
sudo apt-get install festival festvox-kallpc16k
sudo apt-get install festlex-cmu festlex-poslex libestools1.2 festvox-ellpc11k
# Enable analog output (not needed in my raspbian in RPi B+)
amixer cset numid=3 1 # 0=auto, 1=analog, 2=hdmi
Sigue las instrucciones oficiales del proyecto Jasper. Nosotros utilizamos Raspbian.
Para incluir voces en español, edita el fichero ~/.festivalrc
y añade la siguiente línea:
(set! voice_default 'voice_el_diphone)
La Raspberry se puede controlar tanto por voz (con Jasper) o a través de botones hardware conectados a los pines gpio 17 y 18 de la Raspberry. Arranca el proceso Python que controla esos botones:
python ./buttons.py
node ./messenger.js
Ver LICENSE