Menurut Wikipedia , laju konvergensi dinyatakan sebagai rasio spesifik dari norma-norma vektor. Saya mencoba memahami perbedaan antara tingkat "linear" dan "kuadrat", pada titik waktu yang berbeda (pada dasarnya, "di awal" dari iterasi, dan "di akhir"). Mungkinkah dinyatakan bahwa:
dengan konvergensi kuadrat, norma kesalahan dari iterate dibatasi oleh
Interpretasi seperti itu akan berarti bahwa, dengan beberapa (sejumlah kecil) iterasi dari algoritma linear konvergen A1 (diasumsikan inisialisasi acak), kesalahan yang lebih kecil akan dicapai bahwa dengan beberapa iterasi algoritma kuadratatik konvergen A2. Namun, karena kesalahan berkurang, dan karena mengkuadratkan, kemudian beralih berarti kesalahan yang lebih kecil dengan A2.
Apakah interpretasi di atas valid? Perhatikan bahwa ini mengabaikan koefisien laju .
Jawaban:
Dalam latihan, ya. Meskipun masih besar, koefisien laju akan mendominasi kesalahan daripada laju-q. (Perhatikan bahwa ini adalah tingkat asimptotik , jadi pernyataan yang Anda tautkan hanya berlaku untuk batas sebagai .)ek λ k→∞
Misalnya, untuk metode urutan pertama dalam pengoptimalan, Anda sering mengamati penurunan kesalahan yang awalnya cepat, yang kemudian naik level. Untuk metode Newton, di sisi lain, perlu beberapa saat sebelum konvergensi superlinear (atau kuadratik) dimulai (konvergen hanya superlinear secara lokal). Untuk alasan itu, adalah umum untuk memulai dengan beberapa langkah gradien untuk mulai sebelum beralih ke metode Newton, atau menggunakan metode homotopy atau quasi-Newton yang berperilaku sebagai metode urutan pertama pada awalnya dan berubah menjadi metode Newton saat Anda mendekati target.
sumber
Selain jawaban Christian, perlu juga dicatat bahwa untuk konvergensi linier Anda memiliki mana Anda memiliki jika metode ini menyatu. Di sisi lain, untuk konvergensi kuadratik Anda memilikiek+1≤λ1ek λ1<1 ek+1≤λ2e2k λ2 λ2e1<1 - yaitu, bahwa tebakan awal Anda cukup dekat. Ini adalah perilaku umum yang diamati: bahwa algoritma konvergen kuadratik perlu dimulai "cukup dekat" dari solusi untuk menyatu sedangkan algoritma konvergen linear biasanya lebih kuat. Ini adalah alasan lain mengapa seseorang sering memulai dengan beberapa langkah dari algoritma konvergensi linier (misalnya, metode penurunan paling curam) sebelum beralih ke yang lebih efisien (misalnya, metode Newton).
sumber
Penafsirannya secara kualitatif benar.
Perhatikan bahwa konvergensi linier dan kuadratik berkaitan dengan kasus terburuk, situasi dalam algoritma tertentu bisa lebih baik daripada yang Anda dapatkan dari analisis kasus terburuk yang diberikan oleh Wolfgang Bangerth, meskipun situasi kualitatif biasanya sesuai dengan analisis ini.
Dalam algoritma konkret (misalnya, dalam optimasi) sering masuk akal untuk pertama-tama beralih dengan metode yang murah tetapi hanya konvergen linear sampai kemajuan menjadi lambat, dan kemudian selesai dengan metode konvergen kuadratik (atau setidaknya superlinearly). Dalam prakteknya, konvergensi superlinear cenderung sebagus konvergensi kuadrat hanya karena bagian awal, konvergen perlahan cenderung mendominasi keseluruhan pekerjaan.
sumber