Tidak yakin seberapa tidak terdidiknya pertanyaan ini, tapi saya tertarik untuk belajar, jadi terima kasih sebelumnya atas kesenangan Anda.
Film berubah secara fisik selama periode waktu pemaparannya. Namun, sensor digital tidak; hanya membaca data. Apakah ada alasan mengapa kamera tidak dapat "mengingat" apa bacaan sensor pada setiap titik paparan? Itu hanya data. Mungkin banyak data, tetapi ada kalanya kita ingin melakukan itu, bukan? Memberikan jauh lebih banyak fleksibilitas dalam pemrosesan pos.
Jika penyimpanan data tidak menjadi masalah, apakah ada alasan mengapa hal ini tidak menjadi norma, setidaknya untuk fotografi profesional dan seni?
Jawaban:
Sensor digital tidak benar-benar digambarkan sebagai "membaca data". Cara yang lebih baik untuk menggambarkannya adalah "mengumpulkan foton" yang kemudian dikonversi menjadi data dengan mengukur muatan listrik mikroskopis yang mereka hasilkan setelah periode pengumpulan berakhir . Mereka tidak memiliki kemampuan untuk secara terus-menerus merekam perubahan kondisi setiap piksel dengan baik saat mereka mengumpulkan cahaya. Dan tergantung pada seberapa kecil atau seberapa banyak cahaya yang jatuh pada sensor, mungkin butuh waktu yang lama untuk foton yang cukup untuk menyerang sensor sebelum sesuatu yang lebih dari data acak dihasilkan. Di sisi lain, dalam cahaya yang sangat terang kadang-kadang semua sumur piksel dapat terisi sangat cepat sehingga foton tambahan yang jatuh pada sensor hilang.
Dalam skenario pertama tidak cukup foton dikumpulkan untuk membuat pola yang dapat dilihat melalui "noise" yang dihasilkan oleh energi yang mengalir melalui sensor yang digunakan untuk mengumpulkan tegangan yang dibuat oleh foton yang jatuh ke dalam sumur pixel. Dengan demikian tidak ada informasi yang dapat digunakan dikumpulkan. Seluruh foto Anda gelap dengan bintik-bintik acak warna dan cahaya.
Dalam skenario kedua begitu banyak foton dikumpulkan sehingga setiap piksel dibaca pada nilai maksimum yang sama, yang disebut saturasi penuh, dan karena setiap piksel dalam gambar memiliki nilai yang sama tidak ada informasi yang dapat digunakan telah disimpan. Seluruh foto Anda berwarna putih cerah.
Hanya ketika foton yang cukup menyerang sensor maka area dengan foton lebih banyak per unit waktu memiliki nilai pembacaan yang lebih tinggi daripada area dengan foton yang lebih sedikit menyerang mereka per unit waktu. Hanya kemudian sensor mengumpulkan informasi yang bermakna yang dapat membedakan antara area dengan kecerahan yang berbeda-beda.
Alasan kami mengubah pencahayaan di kamera digital adalah untuk mencoba mengumpulkan cukup cahaya sehingga area yang paling terang hampir, tetapi tidak cukup, jenuh.Idealnya ini terjadi dengan kamera pada sensitivitas ISO dasar. Namun, kadang-kadang, tidak ada cukup cahaya untuk melakukan ini. Bahkan pada aperture terbesar yang tersedia, kami tidak dapat mengumpulkan cukup cahaya dalam waktu terlama, kami berani membiarkan rana terbuka (karena gerakan subjek kami). Apa yang kami lakukan dalam kasus ini adalah menyesuaikan pengaturan ISO di kamera kami sehingga semua nilai yang keluar dari sensor dikalikan pada faktor yang membawa nilai tertinggi ke titik di mana mereka hampir, tetapi tidak cukup jenuh. Sayangnya, ketika kita memperkuat sinyal (tegangan yang dibuat oleh foton mendarat di sumur piksel) kami juga memperkuat kebisingan (tegangan acak tidak rata yang dihasilkan oleh arus yang digunakan untuk mengumpulkan tegangan dari masing-masing sumur piksel). Ini menghasilkan rasio signal-to-noise yang lebih rendah yang mengurangi jumlah detail yang dapat kita buat dari data yang telah kami kumpulkan dari sensor.
Ada batasan teknis lainnya yang mencegah kamera dari menjaga "running total" dari jumlah foton yang dikumpulkan pada berbagai interval saat rana terbuka. Lemparkan cukup uang pada masalah dan beberapa dari batasan itu dapat diatasi, setidaknya sebagian. Tetapi baik hukum fisika perlu diubah atau kita perlu benar-benar mengubah cara sensor menghitung foton sebelum batasan lain itu dapat diatasi. Akhirnya teknologi di beberapa atau semua perangkat ini mungkin menggantikan cara kami saat ini menangkap gambar berkualitas sangat tinggi, tapi kami belum ada di dekat sana.
sumber
Kami sudah memiliki beberapa teknologi untuk ini. Istilah kami untuk mengingat pembacaan sensor di setiap titik paparan adalah "video", dan yang Anda minta adalah rekonstruksi gambar foto yang optimal dari beberapa frame video.
Untuk tinjauan umum dari pekerjaan Microsoft Research tentang ini, mulai di sini: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/
Untuk contoh yang tersedia, lihat aplikasi Synthcam, yang dapat digunakan untuk mengurangi noise dalam cahaya rendah dengan menggabungkan bingkai video yang diambil dengan kamera ponsel: https://sites.google.com/site/marclevoy/
Ini jauh dari praktis untuk fotografi sehari-hari, tetapi bisa dibayangkan bahwa kamera masa depan akan merekam banyak frame video definisi tinggi, frame-rate tinggi yang memungkinkan fotografer mencapai hasil yang diinginkan dengan memilih dan menggabungkannya nanti.
Pembaruan akhir 2016: Ketika saya menulis jawaban asli, ini agak jauh dari pasar. Di akhir 2016 sepertinya jauh lebih dekat. Aplikasi "See In The Dark" karya Marc Levoy mengintegrasikan banyak bingkai video dengan stabilisasi pada smartphone konsumen untuk menghasilkan gambar yang dapat digunakan dari cahaya bulan. Lihat juga kamera Light L16 , yang mengintegrasikan beberapa sensor kecil ke dalam satu gambar.
sumber
Pertanyaan asli didasarkan pada asumsi yang salah (tentang sensor digital tidak berubah keadaan selama paparan) tetapi konsep ini terkait dengan ide Sensor Gambar Quanta (QIS) yang diteliti oleh Eric Fossum .
http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/
Perangkat seperti itu akan (mengutip pertanyaan)
dan dengan memiliki kumpulan data lengkap, misalnya kita dapat "mengubah" waktu pemaparan efektif setelah "foto" ditangkap.
Hari ini ini dapat diperkirakan dengan merekam video dan menggabungkan bingkai dalam postprocess untuk mensimulasikan waktu bukaan yang lebih lama (dibatasi oleh kinerja kamera, resolusi mode video dan kecepatan rana, tetapi ini menunjukkan ide)
Jika QIS berfungsi seperti yang dijanjikan, QIS juga akan memperkenalkan fitur-fitur keren lainnya, seperti kinerja cahaya rendah yang lebih baik, peningkatan rentang dinamis, tanpa aliasing, sensitivitas yang sepenuhnya dapat disesuaikan (misalnya film-like), tidak ada pengaturan ISO, resolusi yang dapat disesuaikan vs derau
Pengumuman terbaru: http://phys.org/news/2015-09-09-breakthrough-photography.html
sumber
Itu sangat tergantung pada jenis sensornya. Jenis sensor CMOS yang digunakan dalam DSLR saat ini mengakumulasi muatan listrik di setiap piksel dari waktu ke waktu, sehingga mereka, pada kenyataannya, berubah seiring waktu seperti halnya film. Jika tidak berfungsi seperti itu, gambar akan ada hanya selama rana terbuka. Sensor CCD (teknologi umum lainnya untuk sensor gambar di kamera) juga bekerja dengan cara ini, mengumpulkan cahaya dari waktu ke waktu.
Itulah tepatnya yang dilakukan kamera saat merekam gambar. Saya pikir apa yang Anda maksud adalah, jika sensor dapat membaca intensitas cahaya sesaat, maka Anda dapat menyesuaikan pencahayaan setelah fakta dengan nilai apa pun yang Anda inginkan. Seperti yang dijelaskan di atas, sebenarnya ini bukan cara kerja sebagian besar sensor gambar. Di sisi lain, kita dapat dan sering melakukan menyesuaikan eksposur sedikit di pos-pengolahan.
Sejauh "mengingat" data dari sensor, itu adalah norma bagi banyak fotografer. Sebagian besar kamera memungkinkan Anda merekam gambar dalam format "RAW", dan ini adalah data yang cukup banyak karena dibaca dari sensor plus sedikit lebih banyak data tentang pengaturan kamera saat itu. Gambar RAW membutuhkan lebih banyak ruang daripada format lain seperti JPEG, tetapi mereka memberikan kebebasan kepada fotografer untuk menginterpretasi ulang data nanti, sehingga Anda dapat dengan mudah mengubah pengaturan seperti suhu warna dan white balance di pasca pemrosesan.
sumber
Yang lain sudah menjelaskan mengapa ini tidak akan berhasil, secara teknis. Saya ingin menyentuh mengapa itu tidak akan berhasil secara praktis .
Pertimbangkan besarnya berbagai kondisi pencahayaan yang mungkin ingin kita ambil foto. Bahkan mengabaikan hal-hal ekstrem seperti astrophotography (di mana Anda sering memotret bintik-bintik kecil cahaya yang dikelilingi oleh hampir seluruhnya hitam), Anda masih memiliki fotografi terestrial malam atau malam, dan lanskap musim dingin yang tertutup salju yang diterangi cahaya. Saya akan menggunakan dua yang terakhir sebagai contoh.
Juga, saya akan berasumsi bahwa untuk secara akurat menciptakan setiap eksposur yang diinginkan, kita harus mengekspos sensor untuk titik jenuh penuh.
Juga, saya akan berasumsi bahwa kita dapat membaca nilai sensor dengan cara yang tidak merusak. (Ini mungkin salah satu masalah yang masuk dalam kategori "membuang cukup uang untuk masalah dan mungkin bisa dipecahkan".)
Dalam kasus fotografi malam, kita akan perlu untuk mengekspos sensor untuk sangat lama jenuh semua piksel, yang berarti bahwa foto apapun, tidak peduli apa yang sebenarnya kita inginkan gambar, akan mengambil kepalang lama untuk mengambil. Gambar turis klasik para penari di bar di luar ruangan menjadi hampir mustahil karena, yah, Anda mungkin dapat mengambil beberapa dari mereka selama satu malam penuh. Tidak baik. Jadi kita tidak bisa terpapar pada kejenuhan, setidaknya tidak sembarangan. (Mengekspos beberapa persentase piksel yang jenuh sama-sama tidak berguna, tetapi untuk alasan yang berbeda; cobalah untuk mendapatkan pencahayaan yang tepat ketika mengambil foto perapian dengan api yang menyala di dalamnya. Itu hampir mustahil; tidak peduli seberapa keras Anda mencoba, beberapa piksel akan terlalu banyak atau petak besar gambar akan terlalu gelap.)
Saat memotret lanskap tertutup salju yang terang benderang, seperti pemandangan musim dingin di siang hari saat matahari terbenam, eksposur yang ditujukan oleh sistem eksposur otomatis kamera ("18% abu-abu") sangat tidak memadai. Inilah sebabnya mengapa Anda sering melihat foto-foto salju yang gelap, dan di mana salju muncul lebih banyak abu-abu terang daripada putih. Karena itu, kami sering menggunakan pengaturan kompensasi eksposur positif yang menghasilkan salju yang terekspos sebagai putih hampir jenuh. Namun, ini berarti bahwa kita tidak dapat mengandalkan sistem AE kamera untuk menentukan kapan harus mengakhiri eksposur: jika kita melakukannya, gambar seperti itu akan selalu kurang terang .
Dengan kata lain, paparan ke saturasi penuh tidak praktis dalam banyak kasus, dan paparan untuk membuat sistem AE bahagia tidak memadai dalam banyak kasus. Ini berarti bahwa fotografer masih harus membuat semacam pilihan, dan pada saat itu, kita setidaknya cukup baik dengan apa yang kita miliki dan fotografer sudah terbiasa, membuat sistem AE lebih baik dan memberikan fotografer mudah ( lebih mudah?) akses ke pengaturan kompensasi eksposur. Dengan meningkatkan rentang dinamis praktis yang dapat digunakan sensor, kami dapat memungkinkan (bahkan) mengubah perubahan paparan pasca-pemrosesan; SLR digital asli harganya sangat mahal, namun benar-benar mengerikan dalam hal ini dibandingkan dengan model entry-level saat ini.
Semua itu bisa dilakukan sepenuhnya dalam kerangka apa yang sudah kita miliki. Ini bukan untuk mengatakan bahwa secara dramatis meningkatkan rentang dinamis yang dapat digunakan dari sensor itu mudah , tetapi mungkin jauh lebih mudah daripada apa yang Anda usulkan, dan itu adalah masalah yang dialami oleh vendor.
Profesional, hampir secara definisi, tahu cara menggunakan peralatan perdagangan mereka. Tidak ada bedanya jika mereka adalah fotografer atau pilot pesawat ulang-alik . Terutama ketika hal itu dapat dilakukan tanpa menyebabkan kelebihan informasi, biasanya lebih baik memberi pengguna kendali penuh atas peralatan profesional. Menurut pendapat saya, DSLR high-end saat ini cukup bagus untuk mencapai sweet spot dalam hal ini.
sumber
Mari sederhanakan masalahnya untuk memahami mengapa kita harus selalu berkompromi.
Mari kita ciptakan kamera yang Anda inginkan, tetapi hanya dengan satu piksel monokrom. Ini harus dapat menerima dan memberi tahu prosesor penerimaan dari foton tunggal. Ini juga harus dapat menerima dan memberi tahu prosesor penerimaan, secara praktis, foton tak terbatas yang tak terhitung jumlahnya.
Kasus pertama dalam situasi di mana tidak ada cahaya. Yang kedua dalam kasus bahkan jumlah cahaya moderat.
Masalah utamanya adalah kita tidak memiliki teknologi untuk membuat sensor dengan rentang dinamis yang luas. Kita akan selalu harus berkompromi, dan saat ini kita berkompromi dengan memilih rentang yang lebih tinggi di mana sensor dapat menerima foton yang hampir tak terbatas dan memberi kita bacaan yang menunjukkan jumlah relatif cahaya yang mengenai sensor. Itu tidak menghitung mereka sama sekali, tetapi bertindak seperti mata kita - mereka hanya memberikan output yang relatif terhadap jumlah foton yang mengenai mereka, tanpa berusaha menghitung foton.
Ini semakin rumit oleh fakta bahwa ini dikumpulkan dari waktu ke waktu.
Sensor ideal sebenarnya akan lebih mirip penghitung geiger - mengukur waktu antara foton untuk memberi kita pengukuran yang hampir seketika jumlah cahaya yang jatuh pada sensor, dengan asumsi bahwa foton relatif berjarak secara merata (yang tidak benar, tetapi adalah asumsi yang nyaman, dan mengapa penghitung geiger rata-rata seiring waktu seperti halnya kamera).
Sensor kuantum pada dasarnya memiliki masalah yang sama. Tentu, mereka dapat merasakan foton individu, tetapi pada beberapa titik mereka datang cukup cepat sehingga Anda tidak dapat mengukur waktu di antara mereka, atau bahkan menghitung berapa banyak yang datang per periode paparan.
Jadi kami memiliki kompromi ini yang mengharuskan kami mengambil beberapa gambar dari beberapa eksposur, atau menambahkan beberapa gambar dari eksposur tinggi yang sama bersama-sama untuk mengusir area cahaya rendah, atau membagi cahaya yang masuk menjadi dua atau lebih jalur dengan sensor yang berbeda dari dinamika yang berbeda rentang, atau membangun sensor yang dapat mengelompokkan piksel bersama atau menumpuk sensor cahaya, atau, atau, - ada ribuan cara fotografer mengatasi masalah dasar ini selama beberapa dekade dengan berbagai media.
Ini adalah batasan fisika yang tidak mungkin diatasi. Kami tidak akan pernah memiliki kamera * tanpa masukan dari fotografer yang memungkinkan semua keputusan dibuat dalam pemrosesan pos.
* Tentu saja, jika Anda mengubah definisi kamera, maka Anda mungkin puas dengan beberapa hasil proses lain, tetapi ini sebagian besar subjektif. Kenyataannya adalah bahwa jika Anda membuat gambar adegan dengan kamera Anda, kemudian menunjukkan adegan itu kepada seseorang, maka gambar yang Anda potret, mereka akan melihat perbedaan karena perbedaan yang melekat antara mata mereka, sensor gambar Anda, dan proses yang Anda gunakan untuk mencetak foto. Fotografi adalah tentang interpretasi dan seni seperti halnya menangkap cahaya, dan fokus fanatik pada "kamera sempurna" mungkin tidak terlalu berguna.
sumber