Halaman ini membandingkan kamera dan sebutan Canon EOS 550D dan Canon EOS 500D
18,7 juta piksel efektif
untuk 550D. Namun resolusi terbaik yang mungkin menggunakan kamera ini adalah
5184 * 3456 = 17915904 ~ 17.9 million pixels
Apa itu piksel efektif, dan mengapa angka itu lebih besar dari 17,9 juta dalam kasus ini?
Jawaban:
Bagian dari apa yang kami lihat di sini adalah (saya cukup yakin) tidak lebih dari kesalahan ketik sederhana (atau sesuatu pada urutan itu) pada bagian dari DPReview.com. Menurut Canon , [PDF, halaman 225] jumlah sumur pada sensor adalah "Kira-kira 18,00 megapiksel".
Itu kemudian dikurangi menjadi sekitar 17,9 megapiksel ketika input pola Bayer diubah menjadi apa yang sebagian besar dari kita anggap sebagai piksel. Perbedaannya cukup sederhana: masing-masing sumur pada sensor hanya merasakan satu warna cahaya, tetapi satu piksel seperti yang biasanya Anda harapkan dalam output (misalnya, file JPEG atau TIFF) memiliki tiga warna untuk setiap piksel. Pada pandangan pertama, itu mungkin tampak seperti itu berarti suatu file hanya akan memiliki sekitar sepertiga piksel karena ada sumur sensor dalam input. Jelas, bukan itu masalahnya. Inilah (tampilan yang disederhanakan) tentang cara kerja:
Setiap huruf mewakili satu sumur pada sensor. Setiap kotak mewakili satu piksel tri-warna karena akan masuk dalam file output.
Pada bagian "interior" sensor, setiap piksel output bergantung pada input dari empat sumur sensor, tetapi setiap sumur sensor digunakan sebagai input ke empat piksel output yang berbeda, sehingga jumlah input dan jumlah output tetap sama.
Namun, di sekitar tepian, kami memiliki sumur sensor yang hanya berkontribusi dua piksel, bukan empat. Di sudut-sudut, masing-masing sumur sensor hanya berkontribusi pada satu piksel keluaran.
Itu berarti jumlah total piksel keluaran lebih kecil dari jumlah sumur sensor. Secara khusus, hasilnya lebih kecil satu baris dan satu kolom dibandingkan dengan input (misalnya, dalam contoh, kami memiliki sensor 8x3, tetapi 7x2 piksel output).
sumber
Saya tidak tahu mengapa istilah "efektif" digunakan oleh DPReview, tetapi ada beberapa alasan untuk perbedaan antara jumlah photosite (piksel) pada chip dan ukuran dalam piksel dari gambar yang dihasilkan.
Beberapa sensor kamera memiliki strip piksel bertopeng di setiap sisi. Pixel ini identik dengan sebagian besar piksel pada sensor kecuali tidak menerima cahaya. Mereka digunakan untuk mendeteksi gangguan dan mengurangi dari sinyal yang dihasilkan oleh piksel sensitif cahaya.
Algoritma demosaicing [baik] kedua menggunakan banyak "operasi lingkungan" ini berarti nilai piksel agak tergantung pada nilai piksel tetangganya. Piksel di tepi ekstrem gambar tidak memiliki tetangga, jadi berkontribusi pada piksel lain tetapi jangan tambahkan ke dimensi gambar.
Mungkin juga kamera memotong sensor untuk alasan lain (mis. Lingkaran gambar lensa tidak cukup menutupi sensor) meskipun saya ragu ini adalah kasus dengan 550D.
sumber
Ada dua alasan mengapa piksel efektif kurang dari jumlah piksel sensor aktual (elemen penginderaan, atau sensor.) Pertama, sensor Bayer terdiri dari "piksel" yang merasakan satu warna cahaya. Biasanya, ada sensor merah, hijau, dan biru, disusun berpasangan dalam bentuk:
Satu "piksel" seperti yang kita kenal, piksel gaya RGB dari layar komputer, dihasilkan dari sensor Bayer dengan menggabungkan empat sensor, kuartet RGBG:
Karena kotak 2x2 dari empat sensor RGBG digunakan untuk menghasilkan satu piksel komputer RGB, tidak selalu ada cukup piksel di sepanjang tepi sensor untuk membuat piksel penuh. Batas "ekstra" piksel biasanya ada pada sensor Bayer untuk mengakomodasi hal ini. Perbatasan tambahan piksel juga dapat hadir hanya untuk mengimbangi desain penuh sensor, berfungsi sebagai piksel kalibrasi, dan mengakomodasi komponen sensor ekstra yang biasanya mencakup filter IR dan UV, filter anti-aliasing, dll. Yang dapat menghalangi jumlah penuh cahaya dari mencapai bagian luar sensor.
Akhirnya, sensor Bayer harus "didemosa" untuk menghasilkan gambar RGB normal dari piksel komputer. Ada berbagai cara berbeda untuk mendemosikan sensor Bayer, namun sebagian besar algoritma mencoba memaksimalkan jumlah piksel RGB yang dapat diekstraksi dengan memadukan piksel RGB dari setiap set kuartet 2x2 RGBG yang mungkin tumpang tindih:
Untuk sensor dengan total 36 sensor warna tunggal, total 24 piksel RGB dapat diekstraksi. Perhatikan sifat algoritma demosaicing yang tumpang tindih dengan menonton animasi GIF di atas. Perhatikan juga bagaimana selama lintasan ketiga dan keempat, baris atas dan bawah tidak digunakan. Ini menunjukkan bagaimana piksel batas sensor mungkin tidak selalu digunakan saat mendososkan array Bayer sensel.
Adapun halaman DPReview, saya percaya mereka mungkin salah informasi. Saya percaya jumlah total sensor (piksel) pada sensor Canon 550D Bayer adalah 18.0mp, sedangkan piksel efektif, atau jumlah piksel komputer RGB yang dapat dihasilkan dari basis 18mp, adalah 5184x3456 atau 17.915.904 (17.9mp). Perbedaannya akan mengarah ke piksel batas yang tidak dapat membentuk kuartet penuh, dan mungkin beberapa piksel perbatasan tambahan untuk mengimbangi desain filter dan perangkat keras pemasangan yang dipasang di depan sensor.
sumber
Maaf mengecewakan, tapi tidak ada penjelasan yang benar. Pada setiap sensor ada wilayah di luar area pencitraan yang juga berisi photosites. Beberapa di antaranya dimatikan, beberapa dihidupkan sepenuhnya, dan beberapa digunakan untuk tujuan pemantauan lainnya. Ini digunakan untuk mengatur level amp dan white-balance, sebagai "set kontrol" terhadap mereka yang melakukan pencitraan sebenarnya.
Jika Anda mengambil data sensor RAW dari salah satu kamera Powershot yang kompatibel dengan CHDK, dan menggunakan dcraw untuk mengonversinya, Anda dapat memperoleh gambar sensor penuh termasuk 100% wilayah hitam dan 100% putih ini.
Yang menarik adalah, resolusi ukuran gambar RAW dalam kamera selalu lebih besar daripada hasil JPG dalam kamera. Alasannya, metode interpolasi yang lebih sederhana dan lebih cepat yang digunakan dalam kamera untuk beralih dari RAW ke JPG membutuhkan RGB photosites sekitarnya untuk menentukan warna akhir setiap piksel. Fotosit tepi dan sudut tidak memiliki referensi warna di sekeliling ini untuk melakukannya. Melakukan proses ini di komputer dengan perangkat lunak interpolasi RAW yang lebih baik, akan memungkinkan Anda untuk mendapatkan kembali resolusi ukuran gambar yang sedikit lebih banyak daripada apa yang dapat diperoleh dari JPG dalam kamera.
ps DPReview pengulas dan penulis artikel tidak boleh dianggap sebagai Injil oleh siapa pun. Saya telah menemukan begitu banyak lubang dalam pengujian mereka dan contoh-contoh terang-terangan di mana para penguji bahkan tidak tahu cara menggunakan kamera, sehingga saya telah mengabaikan saran mereka bertahun-tahun yang lalu.
sumber