Pertimbangkan, Anda memiliki masalah dalam ruang Hilbert atau Banach dimensi tak terbatas (pikirkan PDE atau masalah optimisasi dalam ruang seperti itu) dan Anda memiliki algoritme yang konvergennya lemah ke suatu solusi. Jika Anda mendiskritisasi masalah dan menerapkan algoritma diskretisasi terkait untuk masalah, maka konvergensi yang lemah adalah konvergensi di setiap koordinat dan karenanya juga kuat. Pertanyaanku adalah:
Apakah konvergensi yang kuat ini terasa atau terlihat berbeda dari konvergensi yang diperoleh dari konvergensi kuat lama yang baik dari algoritma infinite asli?
Atau, lebih konkret:
Perilaku buruk apa yang dapat terjadi dengan "metode konvergensi lemah yang didiskritisasi"?
Saya sendiri biasanya tidak begitu senang ketika saya hanya bisa membuktikan lemahnya konvergensi tetapi sampai sekarang saya tidak bisa mengamati beberapa masalah dengan hasil dari metode bahkan jika saya skala masalah diskritisasi masalah ke dimensi yang lebih tinggi.
Perhatikan bahwa saya tidak tertarik dengan masalah "diskrit pertama daripada mengoptimalkan" vs. "optimisasi pertama daripada diskritisasi" dan saya menyadari masalah yang dapat terjadi jika Anda menerapkan algoritme ke masalah yang didiskreditkan yang tidak berbagi semua properti dengan masalah tersebut untuk yang algoritma dirancang untuk.
Pembaruan: Sebagai contoh nyata pertimbangkan masalah optimisasi dengan variabel dalam dan menyelesaikannya dengan sesuatu seperti (inersia) forward-backward splitting atau metode lain yang hanya diketahui konvergensi lemah dalam yang diketahui. Untuk masalah diskritisasi Anda dapat menggunakan metode yang sama dan dengan diskritisasi yang benar Anda mendapatkan algoritma yang sama adalah jika Anda mendiskritisasi algoritme secara langsung. Apa yang salah ketika Anda meningkatkan akurasi diskritisasi?L 2
sumber
Jawaban:
Memang benar bahwa lemah konvergensi adalah yang paling penting dalam batas kontinum sebagai (misalnya, dengan tidak dapat mengamati setiap tingkat konvergensi). Setidaknya dalam ruang Hilbert, itu juga terkait erat dengan non-keunikan batas dan karenanya hanya konvergensi berikutnya (misalnya, di mana Anda dapat bergantian antara mendekati titik batas yang berbeda, lagi-lagi menghancurkan tingkat), dan sulit untuk memisahkan pengaruh dari keduanya pada konvergensi.h → 0
Khususnya untuk konvergensi yang lemah di , Anda juga memiliki fakta bahwa konvergensi tidak perlu secara langsung, dan ini Anda benar-benar dapat mengamati dalam diskretisasi (cukup baik). Berikut adalah contoh dari urutan minimizer { u ε } ε > 0 yang menyatu dengan ε → 0 hingga u ( x ) = { - 1 x < 1L.2 { uε}ε > 0 ε → 0
mana konvergensi lemah tetapi tidak searah pada[1
Fenomena ini dikenal sebagai "chittering" dalam perkiraan masalah bang-bang control untuk persamaan diferensial (yaitu, masalah dengan kendala kotak di mana solusi hampir di mana-mana mencapai batas bawah atau atas).
(Contoh khusus ini diambil dari makalah kami tentang kontrol multi-bang sistem elips , Ann. Henri Poincaré (C) 2014, 1109-1130, Komentar 4.2.)
sumber
Pertanyaan yang Anda ajukan seringkali tidak terlalu memprihatinkan karena konvergensi yang lemah dalam satu norma dapat menyiratkan konvergensi yang kuat di norma lain, untuk urutan solusi yang sama.
Untuk memberi Anda satu contoh, mari kita asumsikan kita menyelesaikan persamaan Laplace dengan sisi kanan yang cukup halus pada domain poligon cembung dengan elemen hingga standar. Maka solusinyakamu H2 kamuh H1 kamuh→ u L.2 H1 h → 0 ∥ kamu - kamuh∥L.2≤ Ch2 ∥ kamu - kamuh∥H1≤ Ch
Tapi yang jelas kita tidak bisa mengharapkan kuat di H 2kamuh→ u H2 kamuh H1 kamuh⇀ kamu H2
Intinya adalah bahwa pertanyaan konvergensi lemah vs kuat biasanya merupakan pertanyaan tentang norma apa yang Anda lihat, dan bukan properti dari urutan solusi yang Anda dapatkan dari metode Anda.
sumber