Mengapa sensor kamera tidak bisa berfungsi seperti mata manusia? Yang saya maksud adalah, mengapa sebagian gambar harus over / underpose jika kita mengkompensasi masing-masing area gelap dan terang ketika mengambil foto dan memutuskan pengaturan aperture dan kecepatan rana.
Saya mengerti bahwa cahaya yang masuk tergantung pada aperture dan kecepatan rana tetapi karena DSLR adalah digital, tidak dapatkah ada teknologi yang akan memungkinkan setiap sel sensor menggunakan pengukurannya sendiri dan oleh karena itu mereka tidak semua akan dikenakan jumlah yang sama cahaya tetapi tergantung pada pengukuran, CPU kamera akan mematikan sel-sel tertentu agar tidak mengekspos mereka secara berlebihan.
Saya harap saya tidak mengatakan omong kosong. Bagi saya itu sepertinya ide yang masuk akal.
Jawaban:
Siapa yang memutuskan piksel mana yang mendapatkan jumlah keuntungan? Banyak hal yang terjadi dalam sistem visual manusia terjadi di korteks, bukan pada mata, dan tergantung pada apa yang kita anggap penting untuk dilihat berdasarkan kombinasi keputusan intelektual dan dorongan instingtual (yang agaknya mampu) untuk mempertahankan diri. . Meskipun dalam satu sisi kita benar-benar melihat apa yang ada di sana, namun sama benarnya dalam arti lain bahwa kita melihat apa yang ingin kita (atau perlu) lihat.
Itu akan hampirsepele untuk membuat sensor kerapatan piksel yang relatif rendah dengan photosites besar yang memungkinkan untuk rentang dinamis yang sangat besar dan (dengan asumsi teknologi tipe CCD, karena teknologi sensor CMOS saat ini tidak dapat bekerja dengan cara ini) rana elektronik per-piksel selain rana mekanik. Jadi, apa yang membuatmu begitu? Gambar datar dengan banyak kedalaman bit dan kontras lokal sangat rendah (jika seluruh kedalaman bit dikonversi apa adanya untuk tampilan atau cetak) bersama dengan sejumlah piksel yang hampir, tetapi tidak cukup, terpotong oleh saturasi sensor ( meskipun mereka, pada kenyataannya, terpotong oleh aksi pembatas shutter elektronik tepat sebelum titik saturasi). Katakanlah demi argumen, bahwa sensor ini dan komputer yang terkait dapat merekam data kliping (alasan mengapa ia berhenti merekam di sensor itu, yang bisa sesederhana merekam durasi eksposur aktual di situs itu). Itu akan memungkinkan elektronik kamera untuk merekonstruksi berapa angkanya seandainya photosite bisa tetap berada dalam permainan sampai peluit akhir. Jadi sekarang kita memiliki gambar yang lebih rata dengan kedalaman bit yang lebih besar. Dan di mana Anda menggambar garis? 32 bit? 64?
Sekarang sampai pada bagian yang sulit - mengubah data gambar yang rata dan dinamis ini menjadi foto yang menarik. Pendekatan paling sederhana adalah dengan mengambil delapan bit (atau apa pun kedalaman bit keluaran) yang mewakili gambar meteran utama dan membuang sisanya. Mungkin tidak akan jauh lebih sulit untuk mencocokkan data ke kurva S, mengompresi bayangan ekstrim dan / atau highlight - yang kurang lebih seperti yang dilakukan pengaturan rentang dinamis pada kamera baru. Tetapi hanya ada begitu banyak bit output yang tersedia per pixel, dan sebagian besar nilai highlight yang diperluas akan dibulatkan menjadi putih (atau setidaknya campuran 254 dan 255). Jadi, Anda mendapat sangat sedikit dengan menyulitkan sistem secara dramatis.
Tetapi masih ada satu opsi pemetaan area terbuka - selektif. Mengapa tidak membawa langit, katakanlah, atau hanya awan di langit itu, turun nilainya sehingga dapat mempertahankan detail, sambil mempertahankan kontras yang diinginkan di latar depan? Di sinilah masalah sulit hidup. Apa yang penting Haruskah kamera memutuskan untuk Anda? Jika kamera memutuskan, maka kita memiliki kemajuan besar dalam penglihatan mesin dan kecerdasan buatan untuk bergerak lebih dulu. Jika tidak, apakah Anda benar-benar ingin membuat tingkat pengambilan foto setelah pengambilan gambar ini untuk setiap gambar yang Anda potret? Ya, saya tahu akan ada beberapa foto-techno-weinies yang benar-benar ingin seperti itu, tetapi dapatkah kita menerima bahwa ini adalah kondisi patologis, dan bahwa para profesional tertarik pada waktu perputaran dan sebagian besar konsumen tidak seperti itu?
Jadi Anda memerlukan sensor baru, elektronik yang jauh lebih rumit di sekitar sensor, file gambar yang sangat besar untuk data mentah yang diproyeksikan (yang membutuhkan kartu yang lebih besar dan waktu menulis yang lebih lama / frame rate yang lebih lambat), semua untuk mengumpulkan data yang sebagian besar akan dibuang. waktu sehingga Anda kadang-kadang dapat mengambil gambar HDR satu-shot yang memerlukan banyak intervensi manusia dalam posting (atau lompatan besar dalam MV / AI). Anda mungkin bisa menjual beberapa di antaranya, tapi saya berharap pasar terlihat jauh lebih mirip pasar format sedang daripada pasar 35mm / APS-C yang ada. Yaitu, Anda akan menjual kepada sekelompok fotografer terpilih yang benar-benar membutuhkan kemampuan untuk alasan profesional atau untuk memenuhi visi seni rupa mereka, dan beberapa yang hanya mendapatkan tendangan yang cukup besar dari pasca pemrosesan untuk membayar pajak teknologi.
sumber
Ada satu hal yang hanya sedikit orang sebutkan, dan itu adalah adegan yang tidak akan terlihat sama jika area yang berbeda berbeda dengan area lain. Sebuah pemandangan terlihat seperti itu karena ada variasi. Ya, itu bisa menjadi cara untuk menyelamatkan highlight dan bayangan dorongan, tetapi pada akhirnya, apa yang Anda benar-benar inginkan adalah lebih besar rentang dinamis yang dapat menangkap rentang dinamis dalam adegan menggunakan salah satu pengaturan exposure.
Mata kami hebat dalam memberikan kami rentang dinamis yang jauh lebih besar daripada teknologi kamera konsumen saat ini. Saya dapat melihat sekeliling dengan cepat dan melihat detail yang akurat di daerah yang teduh dan daerah yang diterangi matahari secara bersamaan.
Salah satu cara produsen kamera mengatasi masalah ini adalah dengan menggunakan piksel sensitivitas tinggi dan rendah di satu sensor lalu menggabungkan hasilnya per piksel. Kamera bioskop digital RED yang lebih baru memiliki matriks piksel sensor normal dan sensitivitas rendah yang disebut HDRx. Pixel sensor sensitivitas kecil dan rendah digabungkan ke dalam highlight piksel cerah untuk meningkatkan rentang dinamis.
sumber
Pertama, rentang dinamis mata manusia tidak terlalu bagus. Tampaknya hanya lebih baik daripada kamera kelas atas saat ini, karena otak kita terus-menerus menggabungkan "foto" yang diambil menggunakan pengaturan pencahayaan yang berbeda. Mata kita tidak dapat mendaftarkan objek yang sangat terang dan sangat gelap secara bersamaan (meskipun otak bisa). Keajaiban pemrosesan gambar, tetapi hanya perangkat optik / pencitraan yang biasa-biasa saja.
Ada beberapa proposal / prototipe yang menunjukkan bagaimana rentang dinamis sensor gambar dapat sangat ditingkatkan:
Modulo Camera oleh MIT
setiap fotodioda mengatur ulang keadaannya setelah mencapai biaya maksimum dan mengingat berapa kali itu terjadi
Sensor Gambar Quanta oleh Eric Fossum
menggunakan piksel penghitungan foton yang jauh lebih kecil dan lebih cepat daripada wadah muatan "analog" + konverter A / D
sumber
Anda melewatkan beberapa fisika dasar di sini. Masalah utama adalah bahwa adegan nyata memiliki rasio kontras yang besar. Mata kita telah berevolusi untuk menghadapinya dengan merasakan tingkat cahaya secara logaritmik bukannya linier. Sayangnya, teknologi sensor saat ini secara inheren mengukur cahaya secara linear. Atau lebih tepatnya, kebisingan diperbaiki pada skala cahaya linier.
Dengan teknologi saat ini, batas kontras maksimum pada dasarnya adalah fungsi dari tingkat kebisingan. Demi argumen, mari gunakan skala cahaya 0-1000, yang berarti sensor dapat memberi tahu Anda tingkat cahaya dari 0 hingga 1000. Berapa rasio tertinggi yang bisa diukur? Itu tergantung pada tingkat kebisingan. Tingkat kebisingan pada dasarnya adalah apa yang Anda dapatkan, bukan true black, yang akan menjadi 0 dalam contoh ini. Secara kasar, jika tingkat kebisingannya 2, maka Anda mendapatkan sekitar 1000: 2 = rasio kecerahan 500: 1. Selama adegan tidak melebihi itu (hampir semua akan melakukannya, pada kenyataannya 500: 1 tidak banyak), Anda dapat melakukan pemetaan logaritmik apa pun yang Anda inginkan nanti.
Jadi strategi saat ini, mengingat bahwa sensor arus secara inheren linier, adalah mencoba untuk meningkatkan rasio sinyal terhadap noise, dan untuk menyediakan bit yang cukup sehingga noise kuantisasi berada di bawah noise acak yang melekat. Semakin rendah derau sensor, adegan rentang dinamis yang lebih luas yang dapat Anda tangkap tanpa memotong sorotan atau mengerakkan bayangan.
Ada teknologi sensor yang sama sekali berbeda yang secara inheren mengukur log kecerahan. Kadang-kadang ini disebut sensor "CMOS", karena mereka sangat mirip dengan CMOS dynamic RAM dengan penutupnya dilepas (saya terlalu menyederhanakan, tetapi tes pertama di lab sebenarnya dilakukan dengan cara ini). Anda mendapatkan tegangan yang sebanding dengan log cahaya, tetapi saat ini memiliki sinyal yang lebih rendah untuk rasio noise. Mitsubishi adalah yang pertama kali mengkomersilkan sensor-sensor ini, tetapi belum cukup baik untuk kamera kelas atas.
Tidak ada keraguan akan ada kemajuan di berbagai bidang, dan saya yakin kita akan melihat kemajuan yang stabil selama bertahun-tahun yang akan datang. Namun, ada alasan bagus mengapa keadaan seperti sekarang, bukan hanya karena tidak ada yang bisa membayangkan sesuatu yang lebih baik. Jika seseorang memiliki teknologi yang dapat mengukur rentang dinamis yang luas secara akurat dan dengan harga yang bersedia dibayar oleh orang, mereka akan menjadi kaya di luar sana.
sumber
Saya percaya itu terlalu rumit.
Pada dasarnya akan ada dua pendekatan yang mungkin; baik setiap fotosensor dapat melacak waktu dan mematikannya sendiri, atau CPU dapat melacak data dari fotosensor dan mematikannya.
Untuk pendekatan pertama, itu berarti setiap fotosensor akan memerlukan sinyal jam dan penghitung, sehingga dapat melacak berapa lama waktu yang diperlukan hingga foto mati sendiri. Itu lebih banyak sirkuit agar sesuai dengan chip, dan lebih banyak listrik yang diperlukan untuk menjalankannya, yang meningkatkan kebisingan sinyal. Mungkin sangat banyak sehingga rentang dinamis yang meningkat tidak ada gunanya.
Untuk pendekatan kedua, CPU perlu membaca semua data dari sensor sekitar 1/10000 detik. Itu sekitar 1000 kali lebih cepat daripada yang bisa dicapai teknologi saat ini, jadi itu dekade ke depan, jika memungkinkan.
Juga, ada komplikasi lain dengan solusi seperti itu, sehingga setiap piksel akan mendapatkan waktu pencahayaan yang berbeda. Anda akan mendapatkan artefak yang sangat aneh jika Anda memotret apapun yang bergerak.
sumber
Meskipun benar bahwa DSLR adalah digital, lensa tidak. Semua sensor sel akan tunduk pada bukaan yang sama, tidak peduli seberapa pintar tubuh DSLR, karena bukaan diatur pada lensa. Jadi saya pikir memvariasikan bukaan per sel sensor, setidaknya dengan teknologi lensa saat ini.
Sejauh kecepatan rana, yang dikendalikan oleh kamera, tetapi jika kita membayangkan kamera yang dapat memvariasikan kecepatan rana pada bagian gambar yang berbeda untuk mengontrol eksposur / under exposure, Anda akan berakhir dengan blur gerakan yang tidak merata. Bagian-bagian yang lebih gelap dari adegan harus diekspos lebih lama dan akan lebih buram daripada bagian yang lebih terang. Saya pikir solusi yang mengubah kecepatan rana tidak akan berfungsi karena alasan ini.
Jadi satu-satunya yang tersisa adalah ISO. Memvariasikan ISO berarti tingkat kebisingan yang berbeda di berbagai bagian gambar. Ini kedengarannya tidak terlalu buruk, mengingat Anda akan mendapatkan rentang dinamis yang jauh lebih tinggi sebagai balasannya. Saya tidak tahu banyak tentang cara kerja sensor, tetapi saya akan membayangkan bahwa pengaturan ISO diimplementasikan dalam sensor sebagai semacam "penyetelan" menuju subset tertentu dari skala kecerahan. Kedengarannya bagi saya itu akan sangat mahal untuk memiliki pengukuran independen dan kontrol ISO di setiap sel sensor, tetapi mungkin gambar dapat dibagi dalam area, dan setiap area diukur secara terpisah. Maka kamera harus memiliki semacam algoritma untuk memadukan area yang berbeda-beda, semacam apa yang "digabungkan" dengan apa yang dilakukan saat merakit panorama di mana setiap gambar memiliki eksposur yang berbeda. Ini kedengarannya bisa dilakukan bagi saya.
Pilihan lain adalah memiliki kamera dengan banyak sensor, masing-masing dikonfigurasikan ke ISO yang berbeda. Dalam teknologi video ada 3 kamera CCD, di mana setiap CCD merekam satu merah, hijau dan biru. Saya tidak mengerti mengapa tidak ada konsep serupa untuk DSLR, di mana banyak sensor mengambil gambar pada level ISO yang berbeda, menghasilkan gambar HDR.
sumber
Saya tidak dapat menemukan informasi saat ini, tetapi saya sepertinya ingat membaca deskripsi dari teknologi yang sama. Idenya kira-kira begini: satu-satunya hal yang perlu dijaga adalah sorotan berlebihan. Jika Anda dapat mencegahnya, area gelap dapat diatasi dengan meningkatkan eksposur ke seluruh gambar. Jadi, untuk mencegah sorotan yang berlebihan, setiap sensor akan melacak akumulasi cahaya, dan jika mendekati maksimum, sensor akan mati. Itu dengan sendirinya tidak akan memperbaiki apa pun, itu justru akan memperburuk keadaan, alih-alih memiliki beberapa highlight putih terang yang berlebihan, seseorang akan berakhir dengan highlight yang bahkan sedikit lebih gelap. Jadi, alih-alih hanya mematikan, sel juga akan mematikan sel di beberapa lingkungan, yang akan mempertahankan beberapa detail di area terang.
Ketika saya menulis, saya tidak dapat menemukan teks sekarang, tetapi entah bagaimana itu ada dalam pikiran saya terkait dengan kamera digital HP.
sumber
Hal ini dapat dilakukan secara matematis (secara teoritis): http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.64.9692&rep=rep1&type=pdf
sumber