Saya mendapat dataset vektor lama dengan poligon yang mencakup benua. Data pertama kali diterbitkan di atas kertas pada skala 1: 5 000 000 dan kemudian didigitalkan. Saya tidak memiliki data asli dan tidak ada informasi tentang vektorisasi atau metadata apa pun. Saya kira jarak antar simpul dan bukannya ketepatan membatasi resolusi.
Vertikal disimpan dengan resolusi tinggi (mis. "Nnn.nnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnnn"). Dataset memiliki beberapa titik yang dapat di-georeferensi atau setiap node yang didefinisikan sebagai koordinat (misalnya pada derajat genap atau koordinat UTM). Ketika saya membandingkan beberapa bagian garis pantai, kesalahannya mencapai +/- 20km.
Saya ingin mencari rumus untuk memperkirakan kesalahan maksimum berdasarkan distribusi simpul. Saya memiliki akses ke setiap aplikasi GIS tapi lebih suka referensi statistik yang kuat.
Bagaimana saya bisa menghitung kesalahan maksimum dataset, dengan asumsi bahwa semua simpul sudah benar? Atau dengan kata lain: Metode apa yang dapat saya gunakan untuk menemukan resolusi set data terbesar?
Saya mencoba merasterisasi dataset pada ukuran sel yang berbeda dan kemudian melakukan oversample ke ukuran sel kecil untuk mendeteksi rasterisasi sekecil mungkin tanpa kehilangan resolusi, tetapi itu memakan waktu dan tidak terlalu pendekatan matematis.
sumber
Jawaban:
Pertanyaan besar - Saya telah melihat pertanyaan semacam ini muncul berkali-kali dan sayangnya, banyak orang yang melakukan analisis GIS kuantitatif mengabaikan komponen KRITIS dalam menghitung ketidakpastian dalam dataset spasial. Ada konsep dan terminologi penting yang perlu diklarifikasi sebelum jenis tugas ini dapat diringkas menjadi hasil kuantitatif.
Menghitung kesalahan dalam dataset spasial mengasumsikan pengetahuan sebelumnya tentang garis keturunan dataset. Karena metadata tidak tersedia dari setiap langkah proses, jenis kuantifikasi ini tidak dimungkinkan. The presisi dari koordinat dalam vektor dataset tidak menjamin klaim bahwa dataset yang akurat untuk tingkat apapun. Rasterisasi suatu dataset akan mewarisi tingkat kesalahan dan ketidakpastian dalam datanya sendiri.
Tanpa metadata dan perhitungan kesalahan dan ketidakpastian yang sedang berlangsung, dataset dapat dianggap sebagai gambaran yang cantik. Meskipun mungkin tampak seperti proses sederhana untuk menggunakan skala peta asli dan sifat tepat dari koordinat vektor poligon, konsep dasar geografi akan dilanggar jika kesalahan dan ketidakpastian tidak dihitung pada setiap langkah pembuatan dataset dari:
Meskipun ini mungkin bukan jawaban yang Anda cari, ini adalah tempat yang baik untuk memulai bagi siapa pun dalam situasi yang sama:
Jika Anda tugas untuk menghitung representasi kuantitatif yang akurat dari ketidakpastian model spasial, saya sarankan untuk meneliti topik "Ketidakpastian dan penyebaran kesalahan dalam data spasial" karena topiknya mendalam, matematis, dan padat secara statistik.
Jika Anda menggunakan dataset sebagai gambar cantik, maka mulailah memetakan.
sumber
Saya setuju dengan Alex, Karena tidak ada metadata yang tersedia dan aliran data tidak diketahui, menilai kesalahan itu sulit. Kesalahan harus diukur pada lokasi yang diketahui secara tepat jika ada dalam hte extent set data.
sumber