Apa prinsip di balik konvergensi metode ruang bagian Krylov untuk menyelesaikan sistem persamaan linear?

24

Seperti yang saya pahami, ada dua kategori utama metode iteratif untuk menyelesaikan sistem persamaan linear:

  1. Metode Alat Tulis (Jacobi, Gauss-Seidel, SOR, Multigrid)
  2. Metode Subruang Krylov (Konjugat Gradien, GMRES, dll.)

Saya mengerti bahwa sebagian besar metode stasioner bekerja dengan iteratif santai (menghaluskan) mode Fourier dari kesalahan. Seperti yang saya pahami, metode Conjugate Gradient (metode ruang Krylov) bekerja dengan "melangkah" melalui serangkaian arahan pencarian yang optimal dari kekuatan matriks yang diterapkan pada residu ke- n . Apakah prinsip ini umum untuk semua metode ruang bagian Krylov? Jika tidak, bagaimana kita mengkarakterisasi prinsip di balik konvergensi metode ruang bagian Krylov, secara umum?

Paul
sumber
2
Analisis Anda terhadap metode stasioner bias oleh masalah model sederhana, karena ini dapat dianalisis dalam hal mode Fourier. Ini juga mengabaikan alternating direction implisit (ADI) dan banyak metode lainnya. Inti dari sebagian besar "Metode Stationary" adalah untuk menggabungkan banyak solver "aproksimasi parsial" sederhana menjadi satu solver iteratif. Inti dari metode Krylov adalah untuk mempercepat (atau bahkan menegakkan) konvergensi iterasi linear stasioner yang diberikan.
Thomas Klimpel
4
Sebuah makalah yang saya pikir ditulis untuk menjawab pertanyaan Anda adalah Ipsen dan Meyer, Gagasan di balik metode Krylov, Amer. Matematika Bulanan 105 (1998) hlm. 889-899. Ini adalah makalah yang ditulis dengan sangat baik dan menjelaskan, tersedia di sini .
Andrew T. Barker
@ AndrewT.Barker: Luar biasa! Andrew terima kasih! :)
Paul

Jawaban:

21

Secara umum, semua metode Krylov pada dasarnya mencari polinomial yang kecil ketika dievaluasi pada spektrum matriks. Secara khusus, sisa ke- dari metode Krylov (dengan nol tebakan awal) dapat ditulis dalam formulirn

rn=Pn(A)b

di mana adalah beberapa polinomial monik tingkat n .Pnn

Jika dapat didiagonalisasi, dengan A = V Λ V - 1 , kita milikiAA=VΛV1

rnVPn(Λ)V1b=κ(V)Pn(Λ)b.

Jika adalah normal (misalnya, simetris atau kesatuan) kita tahu bahwa κ ( V ) = 1. GMRES membangun polinomial melalui iterasi Arnoldi, sedangkan CG membangun polinomial menggunakan produk dalam yang berbeda (lihat jawaban ini untuk detail) . Demikian pula, BiCG membangun polinomialnya melalui proses Lanczos nonsimetrik, sementara iterasi Chebyshev menggunakan informasi sebelumnya tentang spektrum (biasanya estimasi nilai eigen terbesar dan terkecil untuk matriks pasti simetris).Aκ(V)=1.

Sebagai contoh keren (termotivasi oleh Trefethen + Bau), pertimbangkan sebuah matriks yang spektrumnya adalah ini:

Spektrum matriks

Di MATLAB, saya membuat ini dengan:

A = rand(200,200);
[Q R] = qr(A);
A = (1/2)*Q + eye(200,200);

Jika kita mempertimbangkan GMRES, yang membangun polinomial yang sebenarnya meminimalkan residu di atas semua polinomial monik derajat , kita dapat dengan mudah memprediksi riwayat residu dengan melihat kandidat polinomialn

Pn(z)=(1z)n

yang dalam kasus kami memberi

|Pn(z)|=12n

untuk dalam spektrum A .zA

Sekarang, jika kita menjalankan GMRES pada RHS acak dan membandingkan riwayat residu dengan polinomial ini, mereka seharusnya sangat mirip (nilai polinomial kandidat lebih kecil daripada residu GMRES karena ):b2>1

Sisa sejarah

Reid.Atcheson
sumber
Bisakah Anda mengklarifikasi apa yang Anda maksud dengan "kecil pada spektrum matriks"?
Paul
2
Diambil sebagai polinomial kompleks, polinomial memiliki modulus kecil di wilayah bidang kompleks yang mencakup spektrum A . Bayangkan plot kontur yang ditumpangkan pada sebaran plot nilai eigen. Seberapa kecil itu kecil? Tergantung pada masalahnya, apakah A normal, dan sisi kanan b . Namun ide dasarnya adalah bahwa urutan polinomial ( P n ) berusaha untuk semakin kecil pada spektrum sehingga estimasi residual dalam jawaban saya cenderung 0 . PnAAb.(Pn)0
Reid.Atcheson
@ Reid.Atcheson: Sangat bagus. Bolehkah saya merekomendasikan menulis sebagai κ ( V ) dan menyebutkan bahwa itu adalah satu untuk matriks normal? VV1κ(V)
Jack Poulson
Laplacian yang dikondisikan oleh SOR optimal memiliki spektrum yang sangat mirip dengan matriks contoh ini. Detail di sini: scicomp.stackexchange.com/a/852/119
Jed Brown
Sebenarnya, CGNE tidak tergantung pada spektrum karena hanya bergantung pada nilai-nilai singular.
Jed Brown
17

Pada norma

nthPn2

rn=Axnb=(Pn(A)1)bb=Pn(A)b.

AAA1

rnA1=rnTA1rn=(Aen)TA1Aen=enTAen=enA

tempat kami menggunakan kesalahan

en=xnx=xnA1b=A1rn

AA1A2SEBUAHTSEBUAHSEBUAH

Ketajaman batas konvergensi

Akhirnya, ada literatur yang menarik mengenai berbagai metode Krylov dan seluk-beluk konvergensi GMRES, terutama untuk operator yang tidak normal.

Jed Brown
sumber
Anda meninggalkan buku yang bagus oleh Olavi Nevanlinna: books.google.com/...
Matt Knepley
11

Singkatnya metode berulang:

  1. Ax=bC

    x=x+CbCAx
    ICA<1CC=D1DA
  2. U,VCnx~UbAx~VUAVV=UV=AU

    Vx~UU

    UAx~

    Ini dijelaskan dengan baik dalam buku Youcef Saad tentang metode berulang .

Christian Clason
sumber