- python3
- Pipenv
のある環境で
pipenv install
を使用することで環境は自動で構築されます
2layer_voice_reco上で
pipenv run python run-CPU/learning.py
を実行することで、実行時間のフォルダが生成されその中に様々な出力データが追加されていきます。
色々なプログラムが詰まっているフォルダ
文章音声の音声データ
各単音節のデータ
出力データの1例
STDP学習済みの1-2層シナプス
対応付け済みリスト
各単音節の類似度の評価(割合表記)
なにこれ?
初期シナプスの状態
nohupコマンドで実行した際に生成されるやつ。プリント出力の内容が全て表示されています。
nohupコマンドについてはこちら
実行時のパラメーター。ちょくちょく変えていた値のみ表示してる
各コードの最終目的と単体での実行方法があるものは実行方法と出力を書いていく。
中心部分
実行方法は2. 実行方法に記載済み
興奮性ニューロンと、そのニューロンが示す音響特徴の対応づけ
pipenv run python run-CPU/mapping.py
出力:各単音節によって、どのニューロンが発火していたのかをプリント
コサイン類似度による分類
- 学習(test)
pipenv run python run-CPU/third_layer.py -t 対象のフォルダ
入力:1-2synapse 出力:2-3synapse
- 精度の確認(check)
pipenv run python run-CPU/third_layer.py -c 対象のフォルダ
入力:1-2synapse、2-3synapse 出力:end、answer
- カラーマップの生成・出力を行う
pipenv run python run-CPU/color_map.py 対象のフォルダ
出力:カラーマップのpngファイル
これを使うとプリントの速度が上がるらしい。何となく関数化してある
各パラメーターの出力
音声データのパスを読み込む
pipenv run python run-CPU/get_current_directory.py
出力:音声データのパスをプリント
メル周波数スペクトル係数を得る
pipenv run python run-CPU/get_logmelspectrum.py
出力:女性音声1の単音節「あ」の中心部分から抽出したメル周波数スペクトル係数を表示
単音節ラベルによるソート
積分発火モデルのニューロンクラス
各種パラメーターの設定
シナプスの出力と読み込みに関わる関数セット
STDP学習則
レートコーディング方法
pipenv run python run-CPU/spike_train.py
出力:女性音声1の単音節「が」の中心部分の特徴値から生成されたスパイク
ニューロンの膜電位の設定
音声の分割
- 静的分割:0.04s毎の分割
- 動的分割:単音節を14分割
learning.py単体で運用すると推論の部分でエラーが発生しますが、出力済みの1-2synapseからthird_layer.py -t および -cを使えば動きます。