Skip to content

ruizewang/Looking-to-Listen

 
 

Repository files navigation

Looking to Listen at the Cocktail Party

(English contents is below)

Overview

Googleにより発表されたLooking to Listen at the Cocktail Partyの実装を試みている。 今までのstate-of-the-artな音源分離の手法では、音源のみの情報を用いた分離が多いが、この提案手法では、動画の情報も用いることで、従来手法よりも 高い精度での音源分離を実現している。また、あらゆる話者の混ざった音声に関して分離が可能となっている。

完成までにはいくつか改良・検討する必要がある。

  • GPUへの対応
  • Multi GPUへの対応
  • バッチサイズへの対応(現在はバッチサイズが1の場合のみに対応)
  • Bi-LSTM層についての調査
  • 3人以上の話者の混ざった音声の分離
  • アウトプットの形

なにかしらのご意見があれば、ぜひとも参考にさせていただきたいと思っております。

Description

このニューラルネットワークは、動画内の話者の顔情報と、音声情報を使用して学習されている。モデル図は以下のようになる(論文より抜粋)。

はじめは音源のストリームと、動画のストリームに分かれており、それぞれdilated convolution層が配置されている。それぞれのストリームの結果を 結合した後にはBidirectionalLSTM、そして全結合層が続く。


Looking to Listen at the Cocktail Party

Overview

We are trying to make the network called "Looking to Listen at the Cocktail Party", which is developed by Google. Regardless of speekers, this network can isolate speeches from mixtures of sounds. Its results are better than any state-of-the-art methods with audio only data because of using both of audio and visual data.

Points to be improved are:

  • GPU calculation
  • Multi GPU calculation
  • plural batch size
  • research of Bi-LSTM layer
  • separating mixtures of 3 or more speeches
  • output shape

If you have some opinions or advices, let me know. We will be waiting for them.

Description

This neural network is trained with visual and audio data. Model diagram is as shown below.

First there are audio stream and visual streams. These streams have some dilated convolution layers, and then there are created the concatenating layer followed by Bi-directionalLSTM layer and 3 fully connected layers.

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%