[行列解析5.6.P4]

5.6.問題4

5.6.P4

(5.6.1) では同じノルムが2つの異なる方法で使われている。すなわち、\(x\) の大きさと \(Ax\) の大きさを測る場合である。より一般に、次のように定義することを考える。

\lVert \!|A|\! \rVert_{\alpha,\beta} = \max_{\lVert x \rVert_{\alpha} = 1} \lVert Ax \rVert_{\beta}

ここで \( \lVert \cdot \rVert_{\alpha}, \lVert \cdot \rVert_{\beta} \) は(異なる可能性のある)ベクトルノルムである。このとき \(\lVert \!|\cdot|\! \rVert_{\alpha,\beta}\) は行列ノルムになるだろうか。この考え方は \( m \times n \) 行列上のノルムを定義する際に使える可能性がある。なぜなら、\(\lVert \cdot \rVert_{\alpha}\) を \(\mathbb{C}^n\) 上のノルム、\(\lVert \cdot \rVert_{\beta}\) を \(\mathbb{C}^m\) 上のノルムと考えることができるからである。誘導行列ノルムと同様の性質を、この \(\lVert \!|\cdot|\! \rVert_{\alpha,\beta}\) は持つだろうか。


行列解析の総本山

[行列解析]総本山
行列解析の総本山。行列解析の内容を網羅的かつ体系的に整理しています。線形代数の学習を一通り終えた方が、次のステップとして取り組むのに最適です。行列に関する不等式を研究するには、行列解析の知識が欠かせません。

コメント

タイトルとURLをコピーしました