Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ЛинСйная Π°Π»Π³Π΅Π±Ρ€Π° для исслСдоватСлСй Π΄Π°Π½Π½Ρ‹Ρ…

«Наша [Π˜Ρ€Π²ΠΈΠ½Π³Π° Капланского ΠΈ Пола Π₯алмоша] общая философия Π² ΠΎΡ‚Π½ΠΎΡˆΠ΅Π½ΠΈΠΈ Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎΠΉ Π°Π»Π³Π΅Π±Ρ€Ρ‹ Ρ‚Π°ΠΊΠΎΠ²Π°: ΠΌΡ‹ Π΄ΡƒΠΌΠ°Π΅ΠΌ Π² бСзбазисных Ρ‚Π΅Ρ€ΠΌΠΈΠ½Π°Ρ…, пишСм Π² бСзбазисных Ρ‚Π΅Ρ€ΠΌΠΈΠ½Π°Ρ…, Π½ΠΎ ΠΊΠΎΠ³Π΄Π° Π΄ΠΎΡ…ΠΎΠ΄ΠΈΡ‚ Π΄ΠΎ ΡΠ΅Ρ€ΡŒΠ΅Π·Π½ΠΎΠ³ΠΎ Π΄Π΅Π»Π°, ΠΌΡ‹ запираСмся Π² офисС ΠΈ вовсю считаСм с ΠΏΠΎΠΌΠΎΡ‰ΡŒΡŽ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Β».

Для ΠΌΠ½ΠΎΠ³ΠΈΡ… Π½Π°Ρ‡ΠΈΠ½Π°ΡŽΡ‰ΠΈΡ… исслСдоватСлСй Π΄Π°Π½Π½Ρ‹Ρ… линСйная Π°Π»Π³Π΅Π±Ρ€Π° становится ΠΊΠ°ΠΌΠ½Π΅ΠΌ прСткновСния Π½Π° ΠΏΡƒΡ‚ΠΈ ΠΊ Π΄ΠΎΡΡ‚ΠΈΠΆΠ΅Π½ΠΈΡŽ мастСрства Π² Π²Ρ‹Π±Ρ€Π°Π½Π½ΠΎΠΉ ΠΈΠΌΠΈ профСссии.

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтричнаkdnuggets

Π’ этой ΡΡ‚Π°Ρ‚ΡŒΠ΅ я попытался ΡΠΎΠ±Ρ€Π°Ρ‚ΡŒ основы Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎΠΉ Π°Π»Π³Π΅Π±Ρ€Ρ‹, Π½Π΅ΠΎΠ±Ρ…ΠΎΠ΄ΠΈΠΌΡ‹Π΅ Π² повсСднСвной Ρ€Π°Π±ΠΎΡ‚Π΅ спСциалистам ΠΏΠΎ ΠΌΠ°ΡˆΠΈΠ½Π½ΠΎΠΌΡƒ ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΡŽ ΠΈ Π°Π½Π°Π»ΠΈΠ·Ρƒ Π΄Π°Π½Π½Ρ‹Ρ….

ΠŸΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΡ Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ²

Для Π΄Π²ΡƒΡ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x, y ∈ ℝⁿ ΠΈΡ… скалярным ΠΈΠ»ΠΈ Π²Π½ΡƒΡ‚Ρ€Π΅Π½Π½ΠΈΠΌ ΠΏΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΠ΅ΠΌ xα΅€y

называСтся ΡΠ»Π΅Π΄ΡƒΡŽΡ‰Π΅Π΅ вСщСствСнноС число:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как ΠΌΠΎΠΆΠ½ΠΎ Π²ΠΈΠ΄Π΅Ρ‚ΡŒ, скалярноС ΠΏΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΠ΅ являСтся особым частным случаСм произвСдСния ΠΌΠ°Ρ‚Ρ€ΠΈΡ†. Π’Π°ΠΊΠΆΠ΅ Π·Π°ΠΌΠ΅Ρ‚ΠΈΠΌ, Ρ‡Ρ‚ΠΎ всСгда справСдливо тоТдСство

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Для Π΄Π²ΡƒΡ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x ∈ ℝᡐ, y ∈ ℝⁿ (Π½Π΅ ΠΎΠ±ΡΠ·Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΎΠ΄Π½ΠΎΠΉ размСрности) Ρ‚Π°ΠΊΠΆΠ΅ ΠΌΠΎΠΆΠ½ΠΎ ΠΎΠΏΡ€Π΅Π΄Π΅Π»ΠΈΡ‚ΡŒ внСшнСС ΠΏΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΠ΅ xyα΅€ ∈ ℝᡐˣⁿ. Π­Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π°, значСния элСмСнтов ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠΉ ΠΎΠΏΡ€Π΅Π΄Π΅Π»ΡΡŽΡ‚ΡΡ ΡΠ»Π΅Π΄ΡƒΡŽΡ‰ΠΈΠΌ ΠΎΠ±Ρ€Π°Π·ΠΎΠΌ: (xyα΅€)α΅’β±Ό = xα΅’yβ±Ό, Ρ‚ΠΎ Π΅ΡΡ‚ΡŒ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Π‘Π»Π΅Π΄ΠΎΠΌ ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝⁿˣⁿ, ΠΎΠ±ΠΎΠ·Π½Π°Ρ‡Π°Π΅ΠΌΡ‹ΠΌ tr(A) (ΠΈΠ»ΠΈ просто trA), Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ сумму элСмСнтов Π½Π° Π΅Π΅ Π³Π»Π°Π²Π½ΠΎΠΉ Π΄ΠΈΠ°Π³ΠΎΠ½Π°Π»ΠΈ:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Π‘Π»Π΅Π΄ ΠΎΠ±Π»Π°Π΄Π°Π΅Ρ‚ ΡΠ»Π΅Π΄ΡƒΡŽΡ‰ΠΈΠΌΠΈ свойствами:

Для любой ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝⁿˣⁿ: trA = trAα΅€.

Для любой ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝⁿˣⁿ ΠΈ любого числа t ∈ ℝ: tr(tA) = t trA.

Для Π»ΡŽΠ±Ρ‹Ρ… ΠΌΠ°Ρ‚Ρ€ΠΈΡ† A,B, Ρ‚Π°ΠΊΠΈΡ…, Ρ‡Ρ‚ΠΎ ΠΈΡ… ΠΏΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΠ΅ AB являСтся ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π΅ΠΉ: trAB = trBA.

Для Π»ΡŽΠ±Ρ‹Ρ… ΠΌΠ°Ρ‚Ρ€ΠΈΡ† A,B,C, Ρ‚Π°ΠΊΠΈΡ…, Ρ‡Ρ‚ΠΎ ΠΈΡ… ΠΏΡ€ΠΎΠΈΠ·Π²Π΅Π΄Π΅Π½ΠΈΠ΅ ABC являСтся ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π΅ΠΉ: trABC = trBCA = trCAB (ΠΈ Ρ‚Π°ΠΊ Π΄Π°Π»Π΅Π΅ β€” Π΄Π°Π½Π½ΠΎΠ΅ свойство справСдливо для любого числа ΠΌΠ°Ρ‚Ρ€ΠΈΡ†).

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтричнаTimoElliott

Нормы

Норму βˆ₯xβˆ₯ Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x ΠΌΠΎΠΆΠ½ΠΎ Π½Π΅Ρ„ΠΎΡ€ΠΌΠ°Π»ΡŒΠ½ΠΎ ΠΎΠΏΡ€Π΅Π΄Π΅Π»ΠΈΡ‚ΡŒ ΠΊΠ°ΠΊ ΠΌΠ΅Ρ€Ρƒ Β«Π΄Π»ΠΈΠ½Ρ‹Β» Π²Π΅ΠΊΡ‚ΠΎΡ€Π°. НапримСр, часто ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΡƒΠ΅Ρ‚ΡΡ Π΅Π²ΠΊΠ»ΠΈΠ΄ΠΎΠ²Π° Π½ΠΎΡ€ΠΌΠ°, ΠΈΠ»ΠΈ Π½ΠΎΡ€ΠΌΠ° lβ‚‚:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Π‘ΠΎΠ»Π΅Π΅ Ρ„ΠΎΡ€ΠΌΠ°Π»ΡŒΠ½ΠΎΠ΅ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½ΠΈΠ΅ Ρ‚Π°ΠΊΠΎΠ²ΠΎ: Π½ΠΎΡ€ΠΌΠΎΠΉ называСтся любая функция f : ℝn β†’ ℝ, ΡƒΠ΄ΠΎΠ²Π»Π΅Ρ‚Π²ΠΎΡ€ΡΡŽΡ‰Π°Ρ Ρ‡Π΅Ρ‚Ρ‹Ρ€Π΅ΠΌ условиям:

Для всСх Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x ∈ ℝⁿ: f(x) β‰₯ 0 (Π½Π΅ΠΎΡ‚Ρ€ΠΈΡ†Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΡŒ).

f(x) = 0 Ρ‚ΠΎΠ³Π΄Π° ΠΈ Ρ‚ΠΎΠ»ΡŒΠΊΠΎ Ρ‚ΠΎΠ³Π΄Π°, ΠΊΠΎΠ³Π΄Π° x = 0 (ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½Π°Ρ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΡΡ‚ΡŒ).

Для Π»ΡŽΠ±Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x ∈ ℝⁿ ΠΈ числа t ∈ ℝ: f(tx) = |t|f(x) (ΠΎΠ΄Π½ΠΎΡ€ΠΎΠ΄Π½ΠΎΡΡ‚ΡŒ).

Для Π»ΡŽΠ±Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x, y ∈ ℝⁿ: f(x + y) ≀ f(x) + f(y) (нСравСнство Ρ‚Ρ€Π΅ΡƒΠ³ΠΎΠ»ΡŒΠ½ΠΈΠΊΠ°)

Π”Ρ€ΡƒΠ³ΠΈΠΌΠΈ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π°ΠΌΠΈ Π½ΠΎΡ€ΠΌ ΡΠ²Π»ΡΡŽΡ‚ΡΡ Π½ΠΎΡ€ΠΌΠ° l₁

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ВсС Ρ‚Ρ€ΠΈ прСдставлСнныС Π²Ρ‹ΡˆΠ΅ Π½ΠΎΡ€ΠΌΡ‹ ΡΠ²Π»ΡΡŽΡ‚ΡΡ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π°ΠΌΠΈ Π½ΠΎΡ€ΠΌ сСмСйства lp, ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΈΠ·ΡƒΠ΅ΠΌΡ‹Ρ… вСщСствСнным числом p β‰₯ 1 ΠΈ опрСдСляСмых ΠΊΠ°ΠΊ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Нормы Ρ‚Π°ΠΊΠΆΠ΅ ΠΌΠΎΠ³ΡƒΡ‚ Π±Ρ‹Ρ‚ΡŒ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Ρ‹ для ΠΌΠ°Ρ‚Ρ€ΠΈΡ†, Π½Π°ΠΏΡ€ΠΈΠΌΠ΅Ρ€ Π½ΠΎΡ€ΠΌΠ° ЀробСниуса:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ЛинСйная Π½Π΅Π·Π°Π²ΠΈΡΠΈΠΌΠΎΡΡ‚ΡŒ ΠΈ Ρ€Π°Π½Π³

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎ зависимы, Ρ‚Π°ΠΊ ΠΊΠ°ΠΊ x₃ = βˆ’2xβ‚™ + xβ‚‚.

Π‘Ρ‚ΠΎΠ»Π±Ρ†ΠΎΠ²Ρ‹ΠΌ Ρ€Π°Π½Π³ΠΎΠΌ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ число элСмСнтов Π² максимальном подмноТСствС Π΅Π΅ столбцов, ΡΠ²Π»ΡΡŽΡ‰Π΅ΠΌΡΡ Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎ нСзависимым. Упрощая, говорят, Ρ‡Ρ‚ΠΎ столбцовый Ρ€Π°Π½Π³ β€” это число Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎ нСзависимых столбцов A. Аналогично строчным Ρ€Π°Π½Π³ΠΎΠΌ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ являСтся число Π΅Π΅ строк, ΡΠΎΡΡ‚Π°Π²Π»ΡΡŽΡ‰ΠΈΡ… максимальноС Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎ нСзависимоС мноТСство.

ΠžΠΊΠ°Π·Ρ‹Π²Π°Π΅Ρ‚ΡΡ (здСсь ΠΌΡ‹ Π½Π΅ Π±ΡƒΠ΄Π΅ΠΌ это Π΄ΠΎΠΊΠ°Π·Ρ‹Π²Π°Ρ‚ΡŒ), Ρ‡Ρ‚ΠΎ для любой ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ столбцовый Ρ€Π°Π½Π³ Ρ€Π°Π²Π΅Π½ строчному, поэтому ΠΎΠ±Π° этих числа Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ просто Ρ€Π°Π½Π³ΠΎΠΌ A ΠΈ ΠΎΠ±ΠΎΠ·Π½Π°Ρ‡Π°ΡŽΡ‚ rank(A) ΠΈΠ»ΠΈ rk(A); Π²ΡΡ‚Ρ€Π΅Ρ‡Π°ΡŽΡ‚ΡΡ Ρ‚Π°ΠΊΠΆΠ΅ обозначСния rang(A), rg(A) ΠΈ просто r(A). Π’ΠΎΡ‚ Π½Π΅ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ основныС свойства Ρ€Π°Π½Π³Π°:

Для любой ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ: rank(A) ≀ min(m,n). Если rank(A) = min(m,n), Ρ‚ΠΎ A Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π΅ΠΉ ΠΏΠΎΠ»Π½ΠΎΠ³ΠΎ Ρ€Π°Π½Π³Π°.

Для любой ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ: rank(A) = rank(Aα΅€).

Для Π»ΡŽΠ±Ρ‹Ρ… ΠΌΠ°Ρ‚Ρ€ΠΈΡ† A ∈ ℝᡐˣⁿ, B ∈ ℝnΓ—p: rank(AB) ≀ min(rank(A),rank(B)).

ΠžΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½Ρ‹Π΅ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹

Π”Π²Π° Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x, y ∈ ℝⁿ Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ΡΡ ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½Ρ‹ΠΌΠΈ, Ссли xα΅€y = 0. Π’Π΅ΠΊΡ‚ΠΎΡ€ x ∈ ℝⁿ называСтся Π½ΠΎΡ€ΠΌΠΈΡ€ΠΎΠ²Π°Π½Π½Ρ‹ΠΌ, Ссли ||x||β‚‚ = 1. ΠšΠ²Π°Π΄Ρ€Π°Ρ‚Π½Π°Ρ ΠΌ

Π°Ρ‚Ρ€ΠΈΡ†Π° U ∈ ℝⁿˣⁿ называСтся ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½ΠΎΠΉ, Ссли всС Π΅Π΅ столбцы ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½Ρ‹ Π΄Ρ€ΡƒΠ³ Π΄Ρ€ΡƒΠ³Ρƒ ΠΈ Π½ΠΎΡ€ΠΌΠΈΡ€ΠΎΠ²Π°Π½Ρ‹ (Π² этом случаС столбцы Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ ΠΎΡ€Ρ‚ΠΎΠ½ΠΎΡ€ΠΌΠΈΡ€ΠΎΠ²Π°Π½Π½Ρ‹ΠΌΠΈ). Π—Π°ΠΌΠ΅Ρ‚ΠΈΠΌ, Ρ‡Ρ‚ΠΎ понятиС ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ ΠΈΠΌΠ΅Π΅Ρ‚ Ρ€Π°Π·Π½Ρ‹ΠΉ смысл для Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² ΠΈ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†.

НСпосрСдствСнно ΠΈΠ· ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½ΠΈΠΉ ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ ΠΈ нормированности слСдуСт, Ρ‡Ρ‚ΠΎ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Π”Ρ€ΡƒΠ³ΠΈΠΌΠΈ словами, Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚ΠΎΠΌ транспонирования ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ являСтся ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π°, обратная исходной. Π—Π°ΠΌΠ΅Ρ‚ΠΈΠΌ, Ρ‡Ρ‚ΠΎ Ссли U Π½Π΅ являСтся ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π΅ΠΉ (U ∈ ℝᡐˣⁿ, n Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

для Π»ΡŽΠ±Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x ∈ ℝⁿ ΠΈ ΠΎΡ€Ρ‚ΠΎΠ³ΠΎΠ½Π°Π»ΡŒΠ½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ U ∈ ℝⁿˣⁿ.

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтричнаTimoElliott

ΠžΠ±Π»Π°ΡΡ‚ΡŒ Π·Π½Π°Ρ‡Π΅Π½ΠΈΠΉ ΠΈ Π½ΡƒΠ»ΡŒ-пространство ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ΠžΠ±Π»Π°ΡΡ‚ΡŒΡŽ Π·Π½Π°Ρ‡Π΅Π½ΠΈΠΉ R(A) (ΠΈΠ»ΠΈ пространством столбцов) ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ называСтся линСйная ΠΎΠ±ΠΎΠ»ΠΎΡ‡ΠΊΠ° Π΅Π΅ столбцов. Π”Ρ€ΡƒΠ³ΠΈΠΌΠΈ словами,

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ΠΡƒΠ»ΡŒ-пространством, ΠΈΠ»ΠΈ ядром ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝᡐˣⁿ (ΠΎΠ±ΠΎΠ·Π½Π°Ρ‡Π°Π΅ΠΌΡ‹ΠΌ N(A) ΠΈΠ»ΠΈ ker A), Π½Π°Π·Ρ‹Π²Π°ΡŽΡ‚ мноТСство всСх Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ², ΠΊΠΎΡ‚ΠΎΡ€Ρ‹Π΅ ΠΏΡ€ΠΈ ΡƒΠΌΠ½ΠΎΠΆΠ΅Π½ΠΈΠΈ Π½Π° A ΠΎΠ±Ρ€Π°Ρ‰Π°ΡŽΡ‚ΡΡ Π² Π½ΡƒΠ»ΡŒ, Ρ‚ΠΎ Π΅ΡΡ‚ΡŒ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

ΠšΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½Ρ‹Π΅ Ρ„ΠΎΡ€ΠΌΡ‹ ΠΈ ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ»ΡƒΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½Ρ‹Π΅ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹

Для ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝⁿˣⁿ ΠΈ Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x ∈ ℝⁿ ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΠΎΠΉ Ρ„ΠΎΡ€ΠΌΠΎΠΉ называСтся скалярноС Π·Π½Π°Ρ‡Π΅Π½ΠΈΠ΅ xα΅€ Ax. РаспишСм это Π²Ρ‹Ρ€Π°ΠΆΠ΅Π½ΠΈΠ΅ ΠΏΠΎΠ΄Ρ€ΠΎΠ±Π½ΠΎ:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

БиммСтричная ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° A ∈ π•ŠβΏ называСтся ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ, Ссли для всСх Π½Π΅Π½ΡƒΠ»Π΅Π²Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x ∈ ℝⁿ справСдливо нСравСнство xα΅€Ax > 0. ΠžΠ±Ρ‹Ρ‡Π½ΠΎ это обозначаСтся ΠΊΠ°ΠΊ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

(ΠΈΠ»ΠΈ просто A > 0), Π° мноТСство всСх ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½Ρ‹Ρ… ΠΌΠ°Ρ‚Ρ€ΠΈΡ† часто ΠΎΠ±ΠΎΠ·Π½Π°Ρ‡Π°ΡŽΡ‚

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

БиммСтричная ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° A ∈ π•ŠβΏ называСтся ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ»ΡƒΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ, Ссли для всСх Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² справСдливо нСравСнство xα΅€ Ax β‰₯ 0. Π­Ρ‚ΠΎ записываСтся ΠΊΠ°ΠΊ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

(ΠΈΠ»ΠΈ просто A β‰₯ 0), Π° мноТСство всСх ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ»ΡƒΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½Ρ‹Ρ… ΠΌΠ°Ρ‚Ρ€ΠΈΡ† часто ΠΎΠ±ΠΎΠ·Π½Π°Ρ‡Π°ΡŽΡ‚

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Аналогично симмСтричная ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° A ∈ π•ŠβΏ называСтся ΠΎΡ‚Ρ€ΠΈΡ†Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

, Ссли для всСх Π½Π΅Π½ΡƒΠ»Π΅Π²Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x ∈ ℝⁿ справСдливо нСравСнство xα΅€Ax Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

), Ссли для всСх Π½Π΅Π½ΡƒΠ»Π΅Π²Ρ‹Ρ… Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠ² x ∈ ℝⁿ справСдливо нСравСнство xα΅€Ax ≀ 0.

НаконСц, симмСтричная ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° A ∈ π•ŠβΏ называСтся Π½Π΅ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ, Ссли ΠΎΠ½Π° Π½Π΅ являСтся Π½ΠΈ ΠΏΠΎΠ»ΠΎΠΆΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ»ΡƒΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ, Π½ΠΈ ΠΎΡ‚Ρ€ΠΈΡ†Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎ ΠΏΠΎΠ»ΡƒΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½Π½ΠΎΠΉ, Ρ‚ΠΎ Π΅ΡΡ‚ΡŒ Ссли ΡΡƒΡ‰Π΅ΡΡ‚Π²ΡƒΡŽΡ‚ Π²Π΅ΠΊΡ‚ΠΎΡ€Ρ‹ x₁, xβ‚‚ ∈ ℝⁿ Ρ‚Π°ΠΊΠΈΠ΅, Ρ‡Ρ‚ΠΎ

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

БобствСнныС значСния ΠΈ собствСнныС Π²Π΅ΠΊΡ‚ΠΎΡ€Ρ‹

Для ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚Π½ΠΎΠΉ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρ‹ A ∈ ℝⁿˣⁿ комплСксноС Π·Π½Π°Ρ‡Π΅Π½ΠΈΠ΅ Ξ» ∈ β„‚ ΠΈ Π²Π΅ΠΊΡ‚ΠΎΡ€ x ∈ ℂⁿ Π±ΡƒΠ΄ΡƒΡ‚ соотвСтствСнно ΡΠ²Π»ΡΡ‚ΡŒΡΡ собствСнным Π·Π½Π°Ρ‡Π΅Π½ΠΈΠ΅ΠΌ ΠΈ собствСнным Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠΌ, Ссли выполняСтся равСнство

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

На ΠΈΠ½Ρ‚ΡƒΠΈΡ‚ΠΈΠ²Π½ΠΎΠΌ ΡƒΡ€ΠΎΠ²Π½Π΅ это ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½ΠΈΠ΅ ΠΎΠ·Π½Π°Ρ‡Π°Π΅Ρ‚, Ρ‡Ρ‚ΠΎ ΠΏΡ€ΠΈ ΡƒΠΌΠ½ΠΎΠΆΠ΅Π½ΠΈΠΈ Π½Π° ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Ρƒ A Π²Π΅ΠΊΡ‚ΠΎΡ€ x сохраняСт Π½Π°ΠΏΡ€Π°Π²Π»Π΅Π½ΠΈΠ΅, Π½ΠΎ ΠΌΠ°ΡΡˆΡ‚Π°Π±ΠΈΡ€ΡƒΠ΅Ρ‚ΡΡ с коэффициСнтом Ξ». Π—Π°ΠΌΠ΅Ρ‚ΠΈΠΌ, Ρ‡Ρ‚ΠΎ для любого собствСнного Π²Π΅ΠΊΡ‚ΠΎΡ€Π° x ∈ ℂⁿ ΠΈ скалярного значСния с ∈ β„‚ справСдливо равСнство A(cx) = cAx = cΞ»x = Ξ»(cx). Π’Π°ΠΊΠΈΠΌ ΠΎΠ±Ρ€Π°Π·ΠΎΠΌ, cx Ρ‚ΠΎΠΆΠ΅ являСтся собствСнным Π²Π΅ΠΊΡ‚ΠΎΡ€ΠΎΠΌ. ΠŸΠΎΡΡ‚ΠΎΠΌΡƒ, говоря ΠΎ собствСнном Π²Π΅ΠΊΡ‚ΠΎΡ€Π΅, ΡΠΎΠΎΡ‚Π²Π΅Ρ‚ΡΡ‚Π²ΡƒΡŽΡ‰Π΅ΠΌ собствСнному Π·Π½Π°Ρ‡Π΅Π½ΠΈΡŽ Ξ», ΠΌΡ‹ ΠΎΠ±Ρ‹Ρ‡Π½ΠΎ ΠΈΠΌΠ΅Π΅ΠΌ Π² Π²ΠΈΠ΄Ρƒ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·ΠΎΠ²Π°Π½Π½Ρ‹ΠΉ Π²Π΅ΠΊΡ‚ΠΎΡ€ с Π΄Π»ΠΈΠ½ΠΎΠΉ 1 (ΠΏΡ€ΠΈ Ρ‚Π°ΠΊΠΎΠΌ ΠΎΠΏΡ€Π΅Π΄Π΅Π»Π΅Π½ΠΈΠΈ всС Ρ€Π°Π²Π½ΠΎ сохраняСтся нСкоторая Π½Π΅ΠΎΠ΄Π½ΠΎΠ·Π½Π°Ρ‡Π½ΠΎΡΡ‚ΡŒ, Ρ‚Π°ΠΊ ΠΊΠ°ΠΊ собствСнными Π²Π΅ΠΊΡ‚ΠΎΡ€Π°ΠΌΠΈ Π±ΡƒΠ΄ΡƒΡ‚ ΠΊΠ°ΠΊ x, Ρ‚Π°ΠΊ ΠΈ –x, Π½ΠΎ Ρ‚ΡƒΡ‚ ΡƒΠΆ Π½ΠΈΡ‡Π΅Π³ΠΎ Π½Π΅ подСлаСшь).

ΠŸΠ΅Ρ€Π΅Π²ΠΎΠ΄ ΡΡ‚Π°Ρ‚ΡŒΠΈ Π±Ρ‹Π» ΠΏΠΎΠ΄Π³ΠΎΡ‚ΠΎΠ²Π»Π΅Π½ Π² ΠΏΡ€Π΅Π΄Π΄Π²Π΅Ρ€ΠΈΠΈ старта курса «ΠœΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠ° для Data Science». Π’Π°ΠΊΠΆΠ΅ ΠΏΡ€ΠΈΠ³Π»Π°ΡˆΠ°Π΅ΠΌ всСх ΠΆΠ΅Π»Π°ΡŽΡ‰ΠΈΡ… ΠΏΠΎΡΠ΅Ρ‚ΠΈΡ‚ΡŒ бСсплатный Π΄Π΅ΠΌΠΎΡƒΡ€ΠΎΠΊ, Π² Ρ€Π°ΠΌΠΊΠ°Ρ… ΠΊΠΎΡ‚ΠΎΡ€ΠΎΠ³ΠΎ рассмотрим понятиС Π»ΠΈΠ½Π΅ΠΉΠ½ΠΎΠ³ΠΎ пространства Π½Π° ΠΏΡ€ΠΈΠΌΠ΅Ρ€Π°Ρ…, ΠΏΠΎΠ³ΠΎΠ²ΠΎΡ€ΠΈΠΌ ΠΎ Π»ΠΈΠ½Π΅ΠΉΠ½Ρ‹Ρ… отобраТСниях, ΠΈΡ… Ρ€ΠΎΠ»ΠΈ Π² Π°Π½Π°Π»ΠΈΠ·Π΅ Π΄Π°Π½Π½Ρ‹Ρ… ΠΈ ΠΏΠΎΡ€Π΅ΡˆΠ°Π΅ΠΌ Π·Π°Π΄Π°Ρ‡ΠΈ.

Π˜ΡΡ‚ΠΎΡ‡Π½ΠΈΠΊ

Symmetric Matrix

Then Aβ€²A is a p Γ— p symmetric matrix and is decomposed as Aβ€²A = V Ξ› Vβ€², where V is an orthogonal matrix whose columns are eigenvectors of Aβ€²A and Ξ› is a diagonal matrix whose diagonal elements are eigenvalues of Aβ€²A.

Related terms:

Vector and Matrix Operations for Multivariate Analysis

2.6.1 Symmetric Matrices

Figure 2.1 shows, in schematic form, various special matrices of interest to multivariate analysis. The first property for categorizing types of matrices concerns whether they are square (m = n) or rectangular. In turn, rectangular matrices can be either vertical (m > n) or horizontal (m

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

As we shall show in later chapters, square matrices play an important role in multivariate analysis. In particular, the notion of matrix symmetry is important. Earlier, a symmetric matrix was defined as a square matrix that satisfies the relation

That is, a symmetric matrix is a square matrix that is equal to its transpose. For example,

Symmetric matrices, such as correlation matrices and covariance matrices, are quite common in multivariate analysis, and we shall come across them repeatedly in later chapters. 7

A few properties related to symmetry in matrices are of interest to point out:

The product of any (not necessarily symmetric) matrix and its transpose is symmetric; that is, both AAβ€² and Aβ€²A are symmetric matrices.

If A is any square (not necessarily symmetric) matrix, then A + Aβ€² is symmetric.

If A is symmetric and k is a scalar, then kA is a symmetric matrix.

The sum of any number of symmetric matrices is also symmetric.

The product of two symmetric matrices is not necessarily symmetric.

Later chapters will discuss still other characteristics of symmetric matrices and the special role that they play in such topics as matrix eigenstructures and quadratic forms.

Matrix Algebra

Spectral Decomposition

Any symmetric matrix A can be written as

where Ξ› is a diagonal matrix of eigenvalues of A and V is an orthogonal matrix whose column vectors are normalized eigenvectors. This decomposition is called as spectral decomposition.

For example, eigenvalues of a symmetric matrix

are 50 and 25. The corresponding eigenvectors are (4/5, 3/5)β€² and (βˆ’3/5, 4/5)β€². Then, A can be written as

If A is a nonsingular symmetric matrix, A r = VΞ› r Vβ€². If A is a nonsingular symmetric idempotent matrix, eigenvalues of A should be 0 or 1 since A 2 = A leads to Ξ› 2 = Ξ›.

Symmetric Matrix

A matrix S is symmetric if it equals its transpose. Real matrices of the form AA T and A T A are symmetric and have nonnegative eigenvalues.

Illustration

A symmetric matrix

A symmetric matrix of the form S.Transpose[S]

MatrixForm [R1 = S.Transpose[S]]

β–  A symmetric matrix of the form Transpose[S].S

A symmetric matrix of the form (A + A T )

For every square matrix A, the matrix (A + A T ) is symmetric

SymmetricMatrixQ [A + Transpose [A]]

Elements of linear algebra

Theorem 2

A symmetric matrix A of order n is:

positive definite iff all the leading principal (upper-leftmost) minors are positive:

negative definite iff all the leading principal (upper-leftmost) minors alternate in sign, beginning with a negative minor;

positive semidefinite iff all the principal (not necessarily upper-leftmost) minors are β‰₯0, with the minor of order n equal to zero, i.e., |A| = 0;

negative semidefinite iff each one of the principal (not necessarily upper-leftmost) minors of even order is β‰₯ 0, each one of the principal (not necessarily upper-leftmost) minors of odd order is ≀ 0, with the minor of order n equal to zero, i.e., |A| = 0;

indefinite in all the other cases.

Let us see now how we can implement a quadratic form in Excel through the following example.

Krylov Subspace Methods

21.9 The Minres Method

If a symmetric matrix is indefinite, the CG method does not apply. The minimum residual method (MINRES) is designed to apply in this case. In the same fashion as we developed the GMRES algorithm using the Arnoldi iteration, Algorithm 21.8 implements the MINRES method using the Lanczos iteration. In the resulting least-squares problem, the coefficient matrix is tridiagonal, and we compute the QR decomposition using Givens rotations.

MINRES

function minresb(A,b,x0,m,tol,maxiter)

% Solve Ax = b using the MINRES method

% Input: n Γ— n matrix A, n Γ— 1 vector b,

% initial approximation x0, integer m ≀ n,

% error tolerance tol, and the maximum number of iterations, maxiter.

% Output: Approximate solution xm, associated residual r,

% and iter, the number of iterations required.

% iter = βˆ’1 if the tolerance was not satisfied.

while iter ≀ maxiter do

Solve the (m + 1) Γ— m least – squares problem T m Β― y m = Ξ² e 1

using Givens rotations that take advantage of the tridiagonal

if r

end if

end while

end function

MINRES does well when a symmetric matrix is well conditioned. The tridiagonal structure of Tkmakes MINRES vulnerable to rounding errors [69, pp. 84-86], [72]. It has been shown that the rounding errors propagate to the approximate solution as the square of ΞΊ (A). For GMRES, the errors propagate as a function of the ΞΊ (A). Thus, if A is badly conditioned, try mpregmres.

Example 21.11

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Convergence

Like GMRES, there is no simple set of properties that guarantee convergence. A theorem that specifies some conditions under which convergence will occur can be found in Ref. [73, pp. 50-51].

Remark 21.6

If A is positive definite, one normally uses CG or preconditioned CG. If A is symmetric indefinite and ill-conditioned, it is not safe to use a symmetric preconditioner K with MINRES if K βˆ’1 A is not symmetric. Finding a preconditioner for a symmetric indefinite matrix is difficult, and in this case the use of GMRES is recommended.

Congruent Symmetric Matrices

Two symmetric matrices A and B are said to be congruent if there exists an orthogonal matrix Q for which A = Q T BQ.

Illustration

Two congruent symmetric matrices

Q.Transpose [Q] == IdentityMatrix [2]

Congruence and quadratic forms

The previous calculations show that following two matrices are congruent:

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Decomposition of Matrix Transformations: Eigenstructures and Quadratic Forms

5.6.4 Recapitulation

At this point we have covered quite a bit of ground regarding eigenstructures and matrix rank. In the case of nonsymmetric matrices in general, we noted that even if a (square) matrix A could be diagonalized via

the eigenvalues and eigenvectors need not be all real valued. (Fortunately, in the types of matrices encountered in multivariate analysis, we shall always be dealing with real-valued eigenvalues and eigenvectors.)

In the case of symmetric matrices, any such matrix A is diagonalizable, and orthogonally so, via

where Tβ€² = T βˆ’1 since T is orthogonal. 13 Moreover, all eigenvalues and eigenvectors are necessarily real. If the eigenvalues are not all distinct, an orthogonal basis–albeit not a unique one–can still be constructed. Furthermore, eigenvectors associated with distinct eigenvalues are already orthogonal to begin with.

The rank of any matrix A, square or rectangular, can be found from its eigenstructure or that of its product moment matrices. If AnΓ—n is symmetric, we merely count up the number of nonzero eigenvalues k and note that r(A) = k ≀ n. If A is nonsymmetric or rectangular, we can find its minor (or major) product moment and then compute the eigenstructure. In this case, all eigenvalues are real and nonnegative. To find the rank of A, we simply count up the number of positive eigenvalues k and observe that r(A) = k ≀ min(m, n) if A is rectangular or r(A) = k ≀ n if A is square.

Finally, if A is of product-moment form to begin with, or if A is symmetric with nonnegative eigenvalues, then it can be written–although not uniquely so–as A = Bβ€²B. The lack of uniqueness of B was illustrated in the context of axis rotation in factor analysis.

Algorithmic Graph Theory and Perfect Graphs

2 Symmetric Matrices

all pivots are chosen along the main diagonal whose entries are each nonzero

correspond precisely to the perfect vertex elimination schemes of G(M). By Theorem 4.1 we obtain the equivalence of statements (ii) and (iii), first obtained by Rose [1970 ], in the following theorem. We present a generalization due to Golumbic [1978 ].

Theorem 12.1

Let M be a symmetric matrix with nonzero diagonal entries. The following conditions are equivalent:

M has a perfect elimination scheme;

M has a perfect elimination scheme under restriction (R);

G(M) is a triangulated graph.

Before proving the theorem, we must introduce a bipartite graph model of the elimination process. This model will be used here and throughout the chapter.

An edge e = xy of a bipartite graph H = (U, E) is bisimplicial if Adj(x) + Adj(y) induces a complete bipartite subgraph of H. Take note that the bisimpliciality of an edge is retained as a hereditary property in an induced subgraph. Let Οƒ = [e1, e2, …, ek] be a sequence of pairwise nonadjacent edges of H. Denote by Si the set of endpoints of the edges e1, …, ei and let S0 = βˆ…. We say that Οƒ is a perfect edge elimination scheme for H if each edge ei is bisimplicial in the remaining induced subgraph H U βˆ’ S i βˆ’ 1 and H U βˆ’ S n has no edge. Thus, we regard the elimination of an edge as the removal of all edges adjacent to e. For example, the graph in Figure 12.5 has the perfect edge elimination scheme [x1y1, x2y2, x3y3, x4y4]. Notice that initially x2y2 is not bisimplicial. A subsequence Οƒβ€² = [e1, e2, …, ek] of Οƒ(k ≀ n) is called a partial scheme. The notations H – Οƒβ€² and H U βˆ’ S k will be used to indicate the same subgraph.

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Proof of Theorem 12.1

We have already remarked that (ii) and (iii) are equivalent, and since (ii) trivially implies (i), it suffices to prove that (i) implies (iii). Let us assume that M is symmetric with nonzero diagonal entries, and let Οƒ be a perfect edge elimination scheme for B(M).

Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ Ρ„ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π‘ΠΌΠΎΡ‚Ρ€Π΅Ρ‚ΡŒ ΠΊΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΡƒ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. ΠšΠ°Ρ€Ρ‚ΠΈΠ½ΠΊΠ° ΠΏΡ€ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична. Π€ΠΎΡ‚ΠΎ Как Π΄ΠΎΠΊΠ°Π·Π°Ρ‚ΡŒ Ρ‡Ρ‚ΠΎ ΠΌΠ°Ρ‚Ρ€ΠΈΡ†Π° симмСтрична

Corollary 12.2

A symmetric matrix with nonzero diagonal entries can be tested for possession of a perfect elimination scheme in time proportional to the number of nonzero entries.

Proof

Theorem 12.1 characterized perfect elimination for symmetric matrices. Moreover, it says that it suffices to consider only the diagonal entries. Haskins and Rose [1973 ] treat the nonsymmetric case under (R), and Kleitman [1974 ] settles some questions left open by Haskins and Rose. The unrestricted case was finally solved by Golumbic and Goss [1978 ], who introduced perfect elimination bipartite graphs. These graphs will be discussed in the next section. Additional background on these and other matrix elimination problems can be found in the following survey articles and their references: Tarjan [1976 ], George [1977 ], and Reid [1977 ]. A discussion of the complexity of algorithms which calculate minimal and minimum fill-in under (R) can be found in Ohtsuki [1976 ], Ohtsuki, Cheung, and Fujisawa [1976 ], Rose, Tarjan, and Lueker [1976 ], and Rose and Tarjan [1978 ].

Large Sparse Eigenvalue Problems

22.4 Eigenvalue Computation Using the Lanczos Process

As expected, a sparse symmetric matrix A has properties that will enable us to compute eigenvalues and eigenvectors more efficiently than we are able to do with a nonsymmetric sparse matrix. Also, much more is known about convergence properties for the eigenvalue computations. We begin with the following lemma and then use it to investigate approximate eigenpairs of A.

Lemma 22.1

Proof

Taking the norm of the equality and noting that the <pi> are orthonormal, we obtain

Note that βˆ‘ i = 1 n p i p i T = I (Problem 22.4). Let Ξ»k be the eigenvalue closest to ΞΈ, i.e., |Ξ»k βˆ’ ΞΈ| ≀ |Ξ»i βˆ’ ΞΈ| for all i, and we have

Recall that the Lanczos process for a symmetric matrix discussed in Section 21.8 is the Arnoldi process for a symmetric matrix and takes the form

It follows from Lemma 22.1 that there is an eigenvalue Ξ» such that

Example 22.5

The very ill-conditioned (approximate condition number 2.5538Γ—10 17 ) symmetric 60000Γ—60000 matrix Andrews obtained from the Florida sparse matrix collection was used in a computer graphics/vision problem. As we know, even though the matrix is ill-conditioned, its eigenvalues are well conditioned ( Theorem 19.2 ). The MATLAB statements time the approximation of the six largest eigenvalues and corresponding eigenvectors using eigsymb. A call to residchk outputs the residuals.

〉〉 tic;[V, D] = eigssymb(Andrews, 6, 50);toc;

Elapsed time is 5.494509 seconds.

Eigenpair 1 residual = 3.59008e-08

Eigenpair 2 residual = 1.86217e-08

Eigenpair 3 residual = 2.31836e-08

Eigenpair 4 residual = 7.68169e-08

Eigenpair 5 residual = 4.10453e-08

Eigenpair 6 residual = 6.04127e-07

22.4.1 Mathematically Provable Properties

This section presents some theoretical properties that shed light on the use and convergence properties of the Lanczos method.

In Ref. [76, p. 245], Scott proves the following theorem:

Theorem 22.1

This theorem says that if the spectrum of A is such that Ξ΄A/4 is larger than some given convergence tolerance, then there exist poor starting vectors which delay convergence until the nth step. Thus, the starting vector is a critical component in the performance of the algorithm. If a good starting vector is not known, then use a random vector. We have used this approach in our implementation of eigssymb.

The expository paper by Meurant and Stratkos [70, Theorem 4.3, p. 504] supports the conclusion that orthogonality can be lost only in the direction of converged Ritz vectors. This result allows the development of sophisticated methods for maintaining orthogonality such as selective reorthogonalization [2, pp. 565-566], [6, pp. 116-123].

There are significant results concerning the rate of convergence of the Lanczos algorithm. Kaniel [77] began investigating these problems. Subsequently, the finite precision behavior of the Lanczos algorithm was analyzed in great depth by Chris Paige in his Ph.D. thesis [78]; see also Paige [79–81]. He described the effects of rounding errors in the Lanczos algorithm using rigorous and elegant mathematical theory. The results are beyond the scope of this book, so we will assume exact arithmetic in the following result concerning convergence proved in Saad [3, pp. 147-150].

Theorem 22.2

Let A be an n-by-n symmetric matrix. The difference between the ith exact and approximate eigenvalues Ξ»i and Ξ» i ( m ) satisfies the double inequality

Remark 22.3

Error bounds indicate that for many matrices and for relatively small m, several of the largest or smallest of the eigenvalues of A are well approximated by eigenvalues of the corresponding Lanczos matrices. In practice, it is not always the case that both ends of the spectrum of a symmetric matrix are approximated accurately. However, it is generally true that at least one end of the spectrum is approximated well.

Least-Squares Problems

16.2.1 Using the Normal Equations

Solve the Normal Equations Using the Cholesky Decomposition a.

Find the Cholesky decomposition A T A = R T R.

Solve the system R T y = A T b using forward substitution.

Solve the system Rx = y using back substitution.

Example 16.4.

There are three mountains m1, m2, m3 that from one site have been measured as 2474 ft., 3882 ft., and 4834 ft. But from m1, m2 looks 1422 ft. taller and m3 looks 2354 ft. taller, and from m2, m3 looks 950 ft. taller. This data gives rise to an overdetermined set of linear equations for the height of each mountain.

In matrix form, the least-squares problem is

A T A = [ 3 βˆ’ 1 βˆ’ 1 βˆ’ 1 3 βˆ’ 1 βˆ’ 1 βˆ’ 1 3 ] has the Cholesky decomposition

[ 1.7321 βˆ’ 0.5774 βˆ’ 0.5774 0 1.6330 βˆ’ 0.8165 0 0 1.4142 ] x = y

Algorithm 16.1 uses the normal equations to solve the least-squares problem.

Least-Squares Solution Using the Normal Equations

% Solve the overdetermined least-squares problem using the normal equations.

% Input: m Γ— n full-rank matrix A, m β‰₯ n and an m Γ— 1 column vector b.

% Output: the unique least-squares solution to Ax = b and the residual

Use the Cholesky decomposition to obtain A T A = R T R

Solve the lower triangular system R T y = c

Solve the upper triangular system Rx = y

return [ x β€– b βˆ’ A x β€– 2 ]

NLALIB: The function normalsolve implements Algorithm 16.1 by using the functions cholesky and cholsolve.

The efficiency analysis is straightforward.

Cholesky decomposition of A T A : n 3 3 + n 2 + 5 n 3 flops

Forward and back substitution: 2 ( n 2 + n βˆ’ 1 ) flops

The total is n 2 ( 2 m + n 3 ) + 2 m n + 3 n 2 + 11 3 n βˆ’ 2 ≃ n 2 ( 2 m + n 3 ) flops

It must be noted that, although relatively easy to understand and implement, it has serious problems in some cases. β€’

There may be some loss of significant digits when computing A T A. It may even be singular to working precision.

We will see in Section 16.3 that the accuracy of the solution using the normal equations depends on the square of condition number of the matrix. If ΞΊ (A) is large, the results can be seriously in error.

Π˜ΡΡ‚ΠΎΡ‡Π½ΠΈΠΊ

Π”ΠΎΠ±Π°Π²ΠΈΡ‚ΡŒ ΠΊΠΎΠΌΠΌΠ΅Π½Ρ‚Π°Ρ€ΠΈΠΉ

Π’Π°Ρˆ адрСс email Π½Π΅ Π±ΡƒΠ΄Π΅Ρ‚ ΠΎΠΏΡƒΠ±Π»ΠΈΠΊΠΎΠ²Π°Π½. ΠžΠ±ΡΠ·Π°Ρ‚Π΅Π»ΡŒΠ½Ρ‹Π΅ поля ΠΏΠΎΠΌΠ΅Ρ‡Π΅Π½Ρ‹ *