Aplikasi aman dari metode berulang pada matriks dominan diagonal

9

Misalkan sistem linear berikut ini diberikan mana adalah Laplacian tertimbang yang dikenal sebagai semi- pasti positif dengan ruang nol satu dimensi yang dibentang oleh 1_n = (1, \ dots, 1) \ in \ mathbb {R } ^ n , dan variasi terjemahan x \ in \ mathbb {R} ^ {n} , yaitu, x + a1_n tidak mengubah nilai fungsi (yang turunannya adalah (1) ). Satu-satunya entri positif L adalah diagonal, yang merupakan penjumlahan dari nilai absolut entri negatif di-diagonal. Lsemi-1n=(1,,1)RnxRnx+a1n(1)L

(1)Lx=c,
Lsemi1n=(1,,1)RnxRnx+a1n(1)L

Saya menemukan di satu yang sangat dikutip karya akademis di bidangnya bahwa, meskipun L adalah not strictly diagonal dominan, metode seperti Conjugate Gradient, Gauss-Seidl, Jacobi, masih bisa aman digunakan untuk memecahkan (1) . Alasannya adalah bahwa, karena invarian terjemahan, seseorang aman untuk memperbaiki satu titik (misalnya, menghapus baris pertama dan kolom L dan entri pertama dari c ), sehingga mengubah L ke matriks dominan diagonal strictly . Bagaimanapun, sistem asli diselesaikan dalam bentuk penuh (1) , dengan LRn×n .

Apakah asumsi ini benar, dan, jika demikian, apa alasan alternatifnya? Saya mencoba memahami bagaimana konvergensi metode masih berlaku.

Jika metode Jacobi konvergen dengan (1) , apa yang bisa salah satu negara tentang spektral radius ρ dari iterasi matriks D1(DL) , di mana D adalah matriks diagonal dengan entri dari L pada diagonal? Apakah ρ(D1(DL)1 , sehingga berbeda dengan jaminan konvergensi umum untuk ρ(D1(DL))<1 ? Aku bertanya ini karena nilai eigen dari Matriks Laplacian D1L dengan yang ada di diagonal harus dalam kisaran [0,2] .

Dari karya aslinya:

..........................................

Pada setiap iterasi, kami menghitung tata letak baru (x (t +1), y (t + 1)) dengan menyelesaikan sistem linear berikut: Tanpa kehilangan generalitas kita dapat memperbaiki lokasi salah satu sensor-sensor (memanfaatkan tingkat kebebasan penerjemahan dari tekanan yang terlokalisasi) dan memperoleh matriks dominan diagonal yang ketat. Oleh karena itu, kita dapat dengan aman menggunakan iterasi Jacobi untuk menyelesaikan (8)

(8)L·x(t+1)=L(x(t),y(t))·x(t)L·y(t+1)=L(x(t),y(t))·y(t)

.......................................

Dalam hal di atas, gagasan "iterasi" terkait dengan prosedur minimisasi yang mendasarinya, dan tidak harus dikacaukan dengan iterasi Jacobi. Jadi, sistem diselesaikan oleh Jacobi (iteratif), dan kemudian solusi dibeli ke sisi kanan (8), tetapi sekarang untuk iterasi lain dari minimisasi yang mendasarinya. Saya harap ini menjelaskan masalah ini.

Perhatikan bahwa saya menemukan Solver linier iteratif yang menyatu untuk matriks semidefinit positif? , tetapi saya mencari jawaban yang lebih rumit.

usero
sumber
Bisakah Anda memposting tautan atau kutipan ke karya yang sangat dikutip?
Geoff Oxberry
Itu bisa diambil dari: citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.164.1421 Karena Anda tidak diharapkan untuk membaca seluruh pekerjaan, lihat halaman 7 (bawah). Saya kira pilihan pemecah iteratif dibenarkan, tetapi saya merasa alasan yang lebih baik (atau, setidaknya, berbeda) diperlukan.
usero
Saya bertanya-tanya apakah orang-orang ini berasal dari komunitas yang sama dengan prasyarat kombinasi.
shuhalo

Jawaban:

5

Iterasi Jacobi dapat dibuktikan konvergen.

Hal pertama yang harus Anda pastikan adalah , yang merupakan kondisi untuk adanya solusi (saya berasumsi L = L T , jika tidak, Anda perlu c ( K e r L T ) ) karena Anda mengatakan V 0 : = K e r L = s p a n { 1 n } . Kami akan menggunakan konvensi bahwa V 0cT1n=0L=LTc(KerLT)V0:=KerL=span{1n}V0juga merupakan matriks dengan kolom yang menjadi dasar ortonormal. Dalam kasus Anda, .V0:=1n/n

Kemudian, untuk kesalahan iterasi Jacobi pada sistem asli, Anda memiliki mana P : = I -

e1=(ID1L)e0=(ID1L)(Pe0+V0a)=(ID1L)Pe0+V0a,
adalah proyeksi orthogonal ke V 1 : = V 0 . Dari iterasi di atas, kita tahu bahwa P e 1 = P ( I - D - 1 L ) P e 0 , dari mana kita memiliki matriks iterasi S dalam V 1 , S : = P ( I - D - 1 L ) P . TidakP:=IV0V0V1:=V0
Pe1=P(ID1L)Pe0,

SV1
S:=P(ID1L)P.
memiliki spektrum yang sama (kecuali nol) dengan matriks berikut ˜ S : = ( I - D - 1 L ) P P = ( I - D - 1 L ) P = ( I - D - 1 L ) ( I - V 0 V 0 )S Kami ingin jari-jari spektral S kurang dari satu untuk membuktikan konvergensi.
S~:=(ID1L)PP=(ID1L)P=(ID1L)(IV0V0)=ID1LV0V0.
S

Kutipan berikut sudah tua dan disimpan hanya untuk referensi. Lihat setelah untuk bukti baru.

Dalam kasus Anda, Dan Anda dapat memverifikasi bahwaD-1L+V0V0 benar-benar dominan diagonal dengan menggunakan asumsi bahwa entriLpositif pada diagonal dan negatif sebaliknya. Untuk menunjukkan nilai eigen dari D-1L+V0V0 adalah nyata, kami mencatat bahwa matriks adalah self-adjoint di bawah produk dalam<x,y>:=yTDxV0V0=1n1n×n.D1L+V0V0LD1L+V0V0<x,y>:=yTDx.

Jika tidak dalam bentuk spesifik Anda, saya belum menemukan jawaban untuk pertanyaan konvergensi. Bisakah seseorang mengklarifikasi ini?V0

Perhatikan bahwa adalah eigen-vektor yang sesuai dengan nilai eigen 1 dari I - D - 1 L . Berdasarkan pengamatan, kami menyebut Teorema 2.1 dari nilai Eigen dari matriks pembaruan peringkat-satu dengan beberapa aplikasi oleh Jiu Ding dan Ai-Hui Zhou. V01ID1L

Teorema 2.1 Misalkan dan v adalah dua vektor kolom n- dimensi sedemikian rupa sehingga u adalah vektor eigen A yang terkait dengan nilai eigen λ 1 . Kemudian, nilai eigen dari A + u v T yang { λ 1 + u T v , λ 2 , ... , λ n } menghitung banyaknya aljabar.uvnuAλ1A+uvT{λ1+kamuTv,λ2,...,λn}

Kemudian, kita tahu bahwa spektrum sama dengan I - D - 1 L kecuali bahwa nilai eigen 1 pada yang terakhir digeser oleh - 1 ke nilai eigen nol di yang sebelumnya. Karena ρ ( I - D - 1 L ) ( - 1 , 1 ] , kita memiliki ρ ( ˜ S ) ( - 1 , 1 ) .S~saya-D-1L.1-1ρ(saya-D-1L.)(-1,1]ρ(S~)(-1,1)

Hui Zhang
sumber
Terimakasih telah menjawab. Sesuatu yang serupa adalah apa yang saya pertimbangkan: yaitu, dengan Laplacian tertimbang terstruktur sebagai atas, dapat ditunjukkan bahwa nilai eigennya berada dalam [ 0 , 2 ) , maka dengan jari-jari spektral dalam ( 0 , 2 ) (satu nilai eigen lebih besar dari 0 , dan setidaknya satu adalah 0 ). Oleh karena itu, jari-jari spektral dari matriks iterasi I - D - 1 L kurang dari 1 , maka dengan Jacobi konvergen. Mungkin asumsi di atas pada jari - jari spektralD-1L.[0,2)(0,2)00saya-D-1L.1 (tidak termasuk 0 ) tidak aman? saya-D-1L.0
usero
Saya pikir spektrum harus dalam [ 0 , 2 ] , yang ditutup pada 2 . Saya tidak tahu bagaimana Anda bisa mendapatkan 2 pengecualian. Dari sudut pandang saya, (teorema lingkaran Gershgorin) [ en.wikipedia.org/wiki/Gershgorin_circle_theorem] hanya dapat memberikan perkiraan termasuk 2 . Jika demikian halnya, estimasi jari-jari spektral I - D - 1 L adalah 1 dengan kesetaraan yang dapat dicapai dengan vektor-vektor dalam kernel LD-1L.[0,2]222ID1L1L. Saya pikir konvergensi yang Anda inginkan adalah bahwa dalam ruang ortogonal komplemen seperti yang disebutkan dalam 'jawaban' di atas. V1
Hui Zhang
Anda dapat melihat Lemma 1.7 (v) dari math.ucsd.edu/~fan/research/cb/ch1.pdf Matriks dapat dianggap sebagai Laplacian berbobot pada grafik lengkap, karenanya dengan mengecualikan 2 . Saya kira itu adalah argumen yang cukup untuk bukti konvergensi? ........... Apakah pendekatan Anda memerlukan pra / pasca-pemrosesan iterate di luar centering c . Saya bertanya karena Anda memperkenalkan V 0 Dan mengenai spektrum I - D - 1 L - V 0 V 0 : mengingat bahwa jari-jari spektral ( s r ) ID-1L.2cV0saya-D-1L.-V0V0sr adalah ( 0 , 1 ] , penambahan - 1saya-D-1L.(0,1] , akan menghasilkan sr<1. Bukankah ini argumen yang cukup bagus? -1nsr<1
usero
Hai, terima kasih telah menunjukkan buku yang bagus. Tetapi saya menemukan saya tidak dapat melihat dengan cepat. Tentang argumen terakhir Anda, tampaknya hampir sama dengan "jawaban" di atas. Hanya hati-hati, Anda tidak menambahkan tetapi11n1n1n×nsrsaya-D-1L.srsr
V0
5

Metode Krylov tidak pernah secara eksplisit menggunakan dimensi ruang yang mereka ulangi, oleh karena itu Anda dapat menjalankannya pada sistem tunggal selama Anda menyimpan iterasi di subruang non-nol. Ini biasanya dilakukan dengan memproyeksikan ruang nol pada setiap iterasi. Ada dua hal yang bisa salah, yang pertama jauh lebih umum daripada yang kedua.

  1. Prekondisi tidak stabil jika diterapkan pada operator tunggal. Pemecah langsung dan faktorisasi yang tidak lengkap mungkin memiliki sifat ini. Secara praktis, kami hanya memilih prekondisi yang berbeda, tetapi ada lebih banyak cara berprinsip untuk merancang prekondisi untuk sistem tunggal, misalnya Zhang (2010) .
  2. xSEBUAHx

Untuk memecahkan sistem tunggal menggunakan PETSc, lihat KSPSetNullSpace(). Sebagian besar metode dan prekondisi dapat memecahkan sistem tunggal. Dalam praktiknya, ruang nol kecil untuk PDE dengan kondisi batas Neumann hampir tidak pernah menjadi masalah selama Anda memberi tahu pemecah ruang nol Krylov dan memilih prasyarat yang masuk akal.

Ax=bbAb

Jed Brown
sumber
QSEBUAH1=QTSEBUAHQSEBUAH1SEBUAH1Z(saya-Z)P-1SEBUAHx=(saya-Z)P-1b
Hmm, sepertinya saya membalas komentar yang sudah dihapus. Saya akan meninggalkan komentar di sini kalau-kalau itu berguna.
Jed Brown
dsayaSebuahg(SEBUAH)
Xk+1=D-1(b-(SEBUAH-D)Xk)Xk+1Xk
1
N=ZZTZINZN=IZZTadalah proyektornya.)
Jed Brown