ELU(Exponential Linear Units:指数線形ユニット)は、Kerasにおける活性化関数の一つです。ELUは、負の値に対しても指数関数的にカバーすることにより、ニューラルネットワークの学習を高速化することができます。また、ELUはReLUと比較して勾配消失問題を軽減する効果があり、ニューラルネットワークの性能向上に寄与することができます。ELUは、Kerasのlayersモジュール内にあるELUクラスで提供されており、多くの畳み込みニューラルネットワークや全結合ニューラルネットワークで活用されています。