Mengapa piksel efektif lebih besar dari resolusi sebenarnya?

16

Halaman ini membandingkan kamera dan sebutan Canon EOS 550D dan Canon EOS 500D

18,7 juta piksel efektif

untuk 550D. Namun resolusi terbaik yang mungkin menggunakan kamera ini adalah

5184 * 3456 = 17915904 ~ 17.9 million pixels

Apa itu piksel efektif, dan mengapa angka itu lebih besar dari 17,9 juta dalam kasus ini?

Lazer
sumber
1
Perlu diketahui juga bahwa "resolusi" memiliki dua arti. Di komputer, kami menggunakannya untuk merujuk pada dimensi piksel layar atau gambar. Dan dalam gambar komputer atau gambar yang dihasilkan, yang biasanya memang sesuai dengan resolusi "nyata" - jumlah detail sebenarnya diselesaikan dalam gambar. Namun dalam sebuah foto, itu belum tentu demikian.
mattdm
1
Itu tidak apa yang terjadi di sini - hanya sebuah tambahan sumber kebingungan.
mattdm

Jawaban:

9

Bagian dari apa yang kami lihat di sini adalah (saya cukup yakin) tidak lebih dari kesalahan ketik sederhana (atau sesuatu pada urutan itu) pada bagian dari DPReview.com. Menurut Canon , [PDF, halaman 225] jumlah sumur pada sensor adalah "Kira-kira 18,00 megapiksel".

Itu kemudian dikurangi menjadi sekitar 17,9 megapiksel ketika input pola Bayer diubah menjadi apa yang sebagian besar dari kita anggap sebagai piksel. Perbedaannya cukup sederhana: masing-masing sumur pada sensor hanya merasakan satu warna cahaya, tetapi satu piksel seperti yang biasanya Anda harapkan dalam output (misalnya, file JPEG atau TIFF) memiliki tiga warna untuk setiap piksel. Pada pandangan pertama, itu mungkin tampak seperti itu berarti suatu file hanya akan memiliki sekitar sepertiga piksel karena ada sumur sensor dalam input. Jelas, bukan itu masalahnya. Inilah (tampilan yang disederhanakan) tentang cara kerja:

Pola Bayer yang disederhanakan

Setiap huruf mewakili satu sumur pada sensor. Setiap kotak mewakili satu piksel tri-warna karena akan masuk dalam file output.

Pada bagian "interior" sensor, setiap piksel output bergantung pada input dari empat sumur sensor, tetapi setiap sumur sensor digunakan sebagai input ke empat piksel output yang berbeda, sehingga jumlah input dan jumlah output tetap sama.

Namun, di sekitar tepian, kami memiliki sumur sensor yang hanya berkontribusi dua piksel, bukan empat. Di sudut-sudut, masing-masing sumur sensor hanya berkontribusi pada satu piksel keluaran.

Itu berarti jumlah total piksel keluaran lebih kecil dari jumlah sumur sensor. Secara khusus, hasilnya lebih kecil satu baris dan satu kolom dibandingkan dengan input (misalnya, dalam contoh, kami memiliki sensor 8x3, tetapi 7x2 piksel output).

Jerry Coffin
sumber
+1 terutama untuk diagram. Tapi saya masih bingung, karena ini akan menjelaskan tidak adanya 2 (5184-1 + 3456-1) = sekitar 17K piksel, yang hanya akan hilang dalam pembulatan dalam komputasi 18,0 - 17,9 = 0,1M piksel. Tampaknya setidaknya tiga kali lebih banyak piksel harus dilepas dari batas (karena apa pun yang kurang dari 50K harus dibulatkan menjadi 0,0M). Mungkin demosaicing menggunakan lingkungan yang lebih besar daripada yang 2 x 2 ditunjukkan di sini: mungkin menggunakan sekitar 7 x 7 lingkungan?
whuber
1
@whuber: Begitu saja, saya tidak yakin saya bisa langsung menjelaskan sisanya. Tentunya dimungkinkan untuk menggunakan lebih banyak sensor untuk menghasilkan piksel output tunggal, tetapi saya tidak memiliki cara nyata untuk mengetahui bahwa itulah yang dilakukan Canon dalam kasus ini. File mentah dari kamera akan memberikan jumlah sumur sensor yang tepat, tetapi masih tidak tahu persis bagaimana Canon mendapatkan dari input X ke output Y.
Jerry Coffin
3
Dalam algoritma demosaicing yang baik (mis. Homogenitas adaptif yang diarahkan), masing-masing sensor memberikan kontribusi lebih dari empat piksel keluaran sehingga lebih dari satu baris atau kolom yang hilang. Cukup mudah untuk mengambil output undemosaiced dari dcraw dan membandingkan dimensi gambar dengan output DPP Canon untuk mendapatkan jawaban yang pasti, saya akan mencobanya ketika saya punya waktu.
Matt Grum
@Matt Grum: Menoleh ke belakang, komentar saya sebelumnya agak buruk. Apa yang saya coba maksudkan adalah bahwa ada beberapa algoritma yang dapat (dan akan) kehilangan / membuang ~ 3 baris / kolom piksel, tetapi jumlah piksel saja tidak akan memberi tahu Anda yang mana yang mereka gunakan. Menggunakan algoritma yang lebih canggih yang menggunakan lebih banyak sensor per output pixel adalah hal yang wajar.
Jerry Coffin
5

Saya tidak tahu mengapa istilah "efektif" digunakan oleh DPReview, tetapi ada beberapa alasan untuk perbedaan antara jumlah photosite (piksel) pada chip dan ukuran dalam piksel dari gambar yang dihasilkan.

Beberapa sensor kamera memiliki strip piksel bertopeng di setiap sisi. Pixel ini identik dengan sebagian besar piksel pada sensor kecuali tidak menerima cahaya. Mereka digunakan untuk mendeteksi gangguan dan mengurangi dari sinyal yang dihasilkan oleh piksel sensitif cahaya.

Algoritma demosaicing [baik] kedua menggunakan banyak "operasi lingkungan" ini berarti nilai piksel agak tergantung pada nilai piksel tetangganya. Piksel di tepi ekstrem gambar tidak memiliki tetangga, jadi berkontribusi pada piksel lain tetapi jangan tambahkan ke dimensi gambar.

Mungkin juga kamera memotong sensor untuk alasan lain (mis. Lingkaran gambar lensa tidak cukup menutupi sensor) meskipun saya ragu ini adalah kasus dengan 550D.

Matt Grum
sumber
Apakah piksel batas digunakan untuk menghilangkan gangguan, atau hanya untuk mengatur titik hitam?
mattdm
1
Baik saya kira, jika tidak ada gangguan (termasuk respons termal) titik hitam akan menjadi 0
Matt Grum
Deskripsi DPReview . Bagiku seolah-olah bolak-balik di antara dua konsep yang berlawanan, dan aku tidak melihatnya mendefinisikan istilah itu, kecuali secara implisit. Jawaban Anda saya pikir sedikit membantu, tetapi masih membuat saya bertanya-tanya mengapa piksel "efektif" akan lebih dari situs foto nyata, meskipun halaman dpreview memang memberikan beberapa kemungkinan. Efektif: digunakan untuk mempengaruhi data gambar? Atau tanggal gambar akhirnya jadi terpengaruh? (note: effect verb dengan e: menciptakan keberadaan.) Saya masih bertanya-tanya yang artinya.
lindes
5

Ada dua alasan mengapa piksel efektif kurang dari jumlah piksel sensor aktual (elemen penginderaan, atau sensor.) Pertama, sensor Bayer terdiri dari "piksel" yang merasakan satu warna cahaya. Biasanya, ada sensor merah, hijau, dan biru, disusun berpasangan dalam bentuk:

RGRGRGRG
GBGBGBGB

Satu "piksel" seperti yang kita kenal, piksel gaya RGB dari layar komputer, dihasilkan dari sensor Bayer dengan menggabungkan empat sensor, kuartet RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Karena kotak 2x2 dari empat sensor RGBG digunakan untuk menghasilkan satu piksel komputer RGB, tidak selalu ada cukup piksel di sepanjang tepi sensor untuk membuat piksel penuh. Batas "ekstra" piksel biasanya ada pada sensor Bayer untuk mengakomodasi hal ini. Perbatasan tambahan piksel juga dapat hadir hanya untuk mengimbangi desain penuh sensor, berfungsi sebagai piksel kalibrasi, dan mengakomodasi komponen sensor ekstra yang biasanya mencakup filter IR dan UV, filter anti-aliasing, dll. Yang dapat menghalangi jumlah penuh cahaya dari mencapai bagian luar sensor.

Akhirnya, sensor Bayer harus "didemosa" untuk menghasilkan gambar RGB normal dari piksel komputer. Ada berbagai cara berbeda untuk mendemosikan sensor Bayer, namun sebagian besar algoritma mencoba memaksimalkan jumlah piksel RGB yang dapat diekstraksi dengan memadukan piksel RGB dari setiap set kuartet 2x2 RGBG yang mungkin tumpang tindih:

Bayer Demosaicing

Untuk sensor dengan total 36 sensor warna tunggal, total 24 piksel RGB dapat diekstraksi. Perhatikan sifat algoritma demosaicing yang tumpang tindih dengan menonton animasi GIF di atas. Perhatikan juga bagaimana selama lintasan ketiga dan keempat, baris atas dan bawah tidak digunakan. Ini menunjukkan bagaimana piksel batas sensor mungkin tidak selalu digunakan saat mendososkan array Bayer sensel.

Adapun halaman DPReview, saya percaya mereka mungkin salah informasi. Saya percaya jumlah total sensor (piksel) pada sensor Canon 550D Bayer adalah 18.0mp, sedangkan piksel efektif, atau jumlah piksel komputer RGB yang dapat dihasilkan dari basis 18mp, adalah 5184x3456 atau 17.915.904 (17.9mp). Perbedaannya akan mengarah ke piksel batas yang tidak dapat membentuk kuartet penuh, dan mungkin beberapa piksel perbatasan tambahan untuk mengimbangi desain filter dan perangkat keras pemasangan yang dipasang di depan sensor.

jrista
sumber
Saya hanya memperhatikan bahwa saya menghitung sensor yang salah dalam gambar animasi saya. Dalam dua langkah pertama, itu tidak menggabungkan 8 sensor ... itu menggabungkan 28 sensor menjadi 8 piksel. Dalam dua langkah terakhir, ini menggabungkan 14 sensor menjadi 4 piksel. Maaf atas perbedaannya. Saya akan mencoba memperbaikinya segera.
jrista
-3

Maaf mengecewakan, tapi tidak ada penjelasan yang benar. Pada setiap sensor ada wilayah di luar area pencitraan yang juga berisi photosites. Beberapa di antaranya dimatikan, beberapa dihidupkan sepenuhnya, dan beberapa digunakan untuk tujuan pemantauan lainnya. Ini digunakan untuk mengatur level amp dan white-balance, sebagai "set kontrol" terhadap mereka yang melakukan pencitraan sebenarnya.

Jika Anda mengambil data sensor RAW dari salah satu kamera Powershot yang kompatibel dengan CHDK, dan menggunakan dcraw untuk mengonversinya, Anda dapat memperoleh gambar sensor penuh termasuk 100% wilayah hitam dan 100% putih ini.

Yang menarik adalah, resolusi ukuran gambar RAW dalam kamera selalu lebih besar daripada hasil JPG dalam kamera. Alasannya, metode interpolasi yang lebih sederhana dan lebih cepat yang digunakan dalam kamera untuk beralih dari RAW ke JPG membutuhkan RGB photosites sekitarnya untuk menentukan warna akhir setiap piksel. Fotosit tepi dan sudut tidak memiliki referensi warna di sekeliling ini untuk melakukannya. Melakukan proses ini di komputer dengan perangkat lunak interpolasi RAW yang lebih baik, akan memungkinkan Anda untuk mendapatkan kembali resolusi ukuran gambar yang sedikit lebih banyak daripada apa yang dapat diperoleh dari JPG dalam kamera.

ps DPReview pengulas dan penulis artikel tidak boleh dianggap sebagai Injil oleh siapa pun. Saya telah menemukan begitu banyak lubang dalam pengujian mereka dan contoh-contoh terang-terangan di mana para penguji bahkan tidak tahu cara menggunakan kamera, sehingga saya telah mengabaikan saran mereka bertahun-tahun yang lalu.

Andy yang berguna
sumber
5
Terlepas dari komentar Anda bahwa "tidak ada penjelasan yang benar", jawaban lain sebenarnya sudah mencakup hal ini.
mattdm