Seperti yang saya pahami, berturut-turut daripada relaksasi bekerja dengan memilih parameter dan menggunakan kombinasi linear dari iterasi (kuasi) Gauss-Seidel dan nilai pada catatan waktu sebelumnya ... yaitu
Saya nyatakan 'kuasi' karena termasuk informasi terbaru yang diperbarui sesuai dengan aturan ini, di setiap catatan waktu. (perhatikan bahwa pada , ini persis gauss-seidel). ω=1
Dalam setiap kasus, saya telah membaca bahwa pada pilihan optimal untuk (sehingga iterasi konvergen lebih cepat daripada yang lain) mendekati 2 untuk masalah poisson sebagai resolusi spasial mendekati nol. Apakah ada kecenderungan yang serupa untuk masalah simetris, dominan diagonal lainnya? Artinya, apakah ada cara untuk memilih omega secara optimal tanpa menyematkannya ke dalam skema optimasi adaptif? Apakah ada heuristik lain untuk jenis masalah lain? Jenis masalah apa yang akan di bawah relaksasi ( ) menjadi optimal?
Jawaban:
Jacobi basah
Misalkan matriks memiliki diagonal . Jika spektrum terletak pada interval dari sumbu nyata positif, maka matriks iterasi Jacobi dengan faktor redaman memiliki spektrum dalam kisaran , jadi meminimalkan jari-jari spektrum dengan memberikan faktor konvergensi dari Jika , maka faktor konvergensi ini sangat buruk, seperti yang diharapkan. Perhatikan bahwa relatif mudah untuk memperkirakanD D - 1 A [ a , b ] ω B Jacobi = I - ω D - 1 A [ 1 - ω b , 1 - ω a ] ω opt = 2SEBUAH D D- 1SEBUAH [ a , b ] ω
Successive over-relaxation (SOR)
Muda (1950) membuktikan hasil yang optimal untuk SOR diterapkan untuk matriks dengan apa yang disebut properti A , pemesanan konsisten , dan nilai eigen real positif dari . Diberi nilai eigen maksimal dari matriks iterasi Jacobi yang tidak ( dijamin oleh asumsi dalam kasus ini), faktor peredam optimal untuk SOR adalah yang menghasilkan tingkat konvergensi dari Perhatikan bahwa mendekati 2 ketika .D- 1SEBUAH μmaks saya- D- 1SEBUAH μmaks< 1
Komentar
Ini bukan tahun 1950 lagi dan itu benar-benar tidak masuk akal untuk menggunakan metode berulang stasioner sebagai pemecah. Sebagai gantinya, kami menggunakannya sebagai smoothers untuk multigrid. Dalam konteks ini, kami hanya peduli untuk menargetkan ujung atas spektrum. Mengoptimalkan faktor relaksasi dalam SOR menyebabkan SOR menghasilkan sangat sedikit redaman frekuensi tinggi (dengan imbalan konvergensi yang lebih baik pada frekuensi yang lebih rendah), jadi biasanya lebih baik menggunakan standar Gauss-Seidel, sesuai dengan di SOR. Untuk masalah nonsimetris dan masalah dengan koefisien yang sangat bervariasi, SOR yang kurang santai ( ) mungkin memiliki sifat redaman yang lebih baik.ω = 1 ω < 1
Memperkirakan kedua nilai eigen itu mahal, tetapi nilai eigen terbesar dapat diperkirakan dengan cepat menggunakan beberapa iterasi Krylov. Polinomial smoothers (prekondisi dengan Jacobi) lebih efektif daripada beberapa iterasi Jacobi teredam dan lebih mudah dikonfigurasikan, sehingga lebih disukai. Lihat jawaban ini untuk informasi lebih lanjut tentang pasangan polinomial.D- 1SEBUAH
Kadang-kadang diklaim bahwa SOR tidak boleh digunakan sebagai prekondisi untuk metode Krylov seperti GMRES. Ini berasal dari pengamatan bahwa parameter relaksasi optimal harus menempatkan semua nilai eigen dari matriks iterasi pada lingkaran berpusat pada titik asal. Spektrum operator prakondisi(1
sumber