公開日: 11/25/2021

隠れ層の構造

メモ: JMPの標準バージョンでは、活性化関数としてTanH関数しか使用できず、また、隠れ層が1つのニューラルネットワークしかあてはめられません。

「ニューラル」プラットフォームでは、1層または2層のニューラルネットワークをあてはめることができます。第1層のノード数を増やすか、第2層を追加すると、ニューラルネットワークの柔軟性が増します。各層に含めるノードの数には制限がありません。第2層のノードは、X変数の関数です。第1層のノードは、第2層のノードの関数です。Y変数は、第1層のノードの関数です。

注意: ブースティングは、2層のニューラルネットワークには使用できません。第2層に0以外の値を指定し、さらにブースティングも指定すると、第2層は無視されます。

隠れ層の各ノードで使われる関数を、「活性化関数」といいます。活性化関数は、X変数の線形結合を変換したものです。以下の活性化関数を使用できます。

TanH

TanH関数(双曲正接関数)は、シグモイド関数です。TanH関数は、結果が-1~1の範囲に収まるように尺度化されたロジスティック関数です。TanH関数は次式で表されます。

Equation shown here

xはX変数の線形結合です。

線形

恒等関数です。X変数の線形結合を、そのまま変換しないで用います。

この線形関数は、非線形関数と併用するのが普通です。線形関数を第2層の活性化関数とし、非線形関数を第1層の活性化関数として配置すると、X変数の次元を減らしてからY変数の非線形モデルを作成できます。

線形の活性化関数だけを使用すると、Y変数が連続尺度の場合には、Y変数に対するモデルは、X変数の線形結合で表されるので、通常の線形回帰モデルとなります。また、Y変数が順序尺度や名義尺度の場合には、通常のロジスティック回帰モデルとなります。

Gauss

Gauss関数です。動径基底関数ネットワークにする場合、または応答曲面の形状がGauss分布(正規分布)の密度関数である場合にこのオプションを使用します。Gauss関数は次式で表されます。

Equation shown here

xはX変数の線形結合です。

より詳細な情報が必要な場合や、質問があるときは、JMPユーザーコミュニティで答えを見つけましょう (community.jmp.com).