Bisakah pengaturan "paparan universal" bisa dilakukan secara praktis?

14

Tidak yakin seberapa tidak terdidiknya pertanyaan ini, tapi saya tertarik untuk belajar, jadi terima kasih sebelumnya atas kesenangan Anda.

Film berubah secara fisik selama periode waktu pemaparannya. Namun, sensor digital tidak; hanya membaca data. Apakah ada alasan mengapa kamera tidak dapat "mengingat" apa bacaan sensor pada setiap titik paparan? Itu hanya data. Mungkin banyak data, tetapi ada kalanya kita ingin melakukan itu, bukan? Memberikan jauh lebih banyak fleksibilitas dalam pemrosesan pos.

Jika penyimpanan data tidak menjadi masalah, apakah ada alasan mengapa hal ini tidak menjadi norma, setidaknya untuk fotografi profesional dan seni?

Wombat Pete
sumber
Menariknya, itulah yang persis dilakukan oleh mata kita. HDR dirancang untuk mencoba merekonstruksi algoritma yang dilakukan di dalam sel retina dan korteks visual, dan mengemulasi mereka sebaik mungkin.
Cort Ammon - Reinstate Monica
@CortAmmon Dan bahkan kemudian, mata sederhana yang paling canggih memiliki fitur tambahan dari iris, yang memperluas atau kontrak untuk memungkinkan lebih banyak atau lebih sedikit cahaya melalui murid sebagai komponen tambahan dalam pengaturan intensitas. (Tentu saja, mata juga tidak segera menyesuaikan, seperti yang mudah ditunjukkan ketika pergi dari area cahaya terang ke area dengan sedikit cahaya atau, lebih menyakitkan, sebaliknya.)
JAB
Sebuah sensor digital juga berubah secara fisik karena terkena cahaya (diskusi tentang "fisik" vs "kimia" vs "listrik" dapat dibuat, tapi saya bisa berpendapat mereka adalah hal yang sama). Kamera "sempurna" akan merekam posisi / waktu / sudut setiap foton; cukup sulit (benar-benar sempurna tidak mungkin karena Heisenberg) kecuali Anda membuat pengorbanan: berurusan dengan sangat sedikit foton, dalam pita tertentu ( eksitasi dua-foton , detektor neutrino )
Nick T
@Cort Ammom Saya pikir Anda berada di jalur yang benar dengan menyebutkan HDR, yang menggunakan konsep beberapa pengaturan pencahayaan yang terintegrasi kembali ke gambar definisi tinggi tunggal. Untuk mendapatkan fungsionalitas itu secara real time tanpa perlu mengubah pengaturan, saya pikir perlu memiliki kamera yang memiliki banyak lensa - mungkin 5 cukup untuk gambar level HDR yang layak.
A.Danischewski
Apakah hanya apa yang dilakukan mata kita, Cort? Pemahaman saya adalah bahwa mata kita memindai pemandangan di depan kita, menyesuaikan fokus dan pencahayaan (sangat cepat, tetapi jauh dari instan) ketika mereka bergerak. Dan otak kita merupakan gambaran dari hasilnya. HDR lebih dekat - efektif mem-bracketing adegan dan kemudian menggabungkan bagian-bagian terbaik. Bahkan, sangat dekat - dalam situasi rentang dinamis yang tinggi, mata mungkin sering terpapar sementara, tetapi kita "lupa" saat-saat itu dalam membentuk gambaran pemandangan kita.
Wombat Pete

Jawaban:

20

Sensor digital tidak benar-benar digambarkan sebagai "membaca data". Cara yang lebih baik untuk menggambarkannya adalah "mengumpulkan foton" yang kemudian dikonversi menjadi data dengan mengukur muatan listrik mikroskopis yang mereka hasilkan setelah periode pengumpulan berakhir . Mereka tidak memiliki kemampuan untuk secara terus-menerus merekam perubahan kondisi setiap piksel dengan baik saat mereka mengumpulkan cahaya. Dan tergantung pada seberapa kecil atau seberapa banyak cahaya yang jatuh pada sensor, mungkin butuh waktu yang lama untuk foton yang cukup untuk menyerang sensor sebelum sesuatu yang lebih dari data acak dihasilkan. Di sisi lain, dalam cahaya yang sangat terang kadang-kadang semua sumur piksel dapat terisi sangat cepat sehingga foton tambahan yang jatuh pada sensor hilang.

Dalam skenario pertama tidak cukup foton dikumpulkan untuk membuat pola yang dapat dilihat melalui "noise" yang dihasilkan oleh energi yang mengalir melalui sensor yang digunakan untuk mengumpulkan tegangan yang dibuat oleh foton yang jatuh ke dalam sumur pixel. Dengan demikian tidak ada informasi yang dapat digunakan dikumpulkan. Seluruh foto Anda gelap dengan bintik-bintik acak warna dan cahaya.

Dalam skenario kedua begitu banyak foton dikumpulkan sehingga setiap piksel dibaca pada nilai maksimum yang sama, yang disebut saturasi penuh, dan karena setiap piksel dalam gambar memiliki nilai yang sama tidak ada informasi yang dapat digunakan telah disimpan. Seluruh foto Anda berwarna putih cerah.

Hanya ketika foton yang cukup menyerang sensor maka area dengan foton lebih banyak per unit waktu memiliki nilai pembacaan yang lebih tinggi daripada area dengan foton yang lebih sedikit menyerang mereka per unit waktu. Hanya kemudian sensor mengumpulkan informasi yang bermakna yang dapat membedakan antara area dengan kecerahan yang berbeda-beda.

Bayangkan mengatur sejumlah ember air di halaman Anda untuk mengumpulkan air hujan. Bayangkan bahwa mereka semua memiliki air di dalamnya tetapi Anda membuangnya sebelum Anda menempatkannya. Beberapa ditempatkan di bawah atap atap rumah Anda. Beberapa ditempatkan di bawah pohon besar di halaman Anda. Beberapa ditempatkan di tempat terbuka. Beberapa ditempatkan di bawah cerat yang membuang air dari talang ke halaman. Lalu hujan mulai turun.

Katakanlah hanya hujan untuk waktu yang sangat singkat: 15 detik. Ada beberapa tetes air di setiap ember. Tetapi tidak ada cukup air di setiap ember untuk mengetahui apakah setiap ember mungkin memiliki lebih banyak air hujan jatuh di dalamnya atau jika mungkin hanya ada beberapa tetes tersisa di ember ketika Anda membuang air sebelum Anda meletakkan ember. di lapangan. Karena Anda tidak memiliki cukup data untuk dapat menentukan berapa banyak hujan yang jatuh di bagian halaman yang mana, Anda membuang semua ember dan menunggu hujan lagi.

Kali ini hujan selama beberapa hari. Pada saat hujan berhenti, setiap ember di halaman sudah meluap. Meskipun Anda cukup yakin beberapa ember terisi lebih cepat daripada ember lainnya, Anda tidak memiliki cara untuk mengetahui ember mana yang paling cepat diisi dan ember mana yang terisi terakhir. Jadi, Anda perlu membuang ember lagi dan menunggu lebih banyak hujan.

Pada upaya ketiga Anda, hujan selama tiga jam dan kemudian berhenti hujan. Anda pergi ke halaman dan memeriksa ember Anda. Ada yang hampir penuh! Beberapa orang hampir tidak memiliki air sama sekali! Sebagian besar memiliki jumlah air yang bervariasi di antara kedua ekstrem. Sekarang Anda dapat menggunakan lokasi setiap ember untuk menentukan berapa banyak hujan yang jatuh di setiap area halaman Anda.

Alasan kami mengubah pencahayaan di kamera digital adalah untuk mencoba mengumpulkan cukup cahaya sehingga area yang paling terang hampir, tetapi tidak cukup, jenuh.Idealnya ini terjadi dengan kamera pada sensitivitas ISO dasar. Namun, kadang-kadang, tidak ada cukup cahaya untuk melakukan ini. Bahkan pada aperture terbesar yang tersedia, kami tidak dapat mengumpulkan cukup cahaya dalam waktu terlama, kami berani membiarkan rana terbuka (karena gerakan subjek kami). Apa yang kami lakukan dalam kasus ini adalah menyesuaikan pengaturan ISO di kamera kami sehingga semua nilai yang keluar dari sensor dikalikan pada faktor yang membawa nilai tertinggi ke titik di mana mereka hampir, tetapi tidak cukup jenuh. Sayangnya, ketika kita memperkuat sinyal (tegangan yang dibuat oleh foton mendarat di sumur piksel) kami juga memperkuat kebisingan (tegangan acak tidak rata yang dihasilkan oleh arus yang digunakan untuk mengumpulkan tegangan dari masing-masing sumur piksel). Ini menghasilkan rasio signal-to-noise yang lebih rendah yang mengurangi jumlah detail yang dapat kita buat dari data yang telah kami kumpulkan dari sensor.

Ada batasan teknis lainnya yang mencegah kamera dari menjaga "running total" dari jumlah foton yang dikumpulkan pada berbagai interval saat rana terbuka. Lemparkan cukup uang pada masalah dan beberapa dari batasan itu dapat diatasi, setidaknya sebagian. Tetapi baik hukum fisika perlu diubah atau kita perlu benar-benar mengubah cara sensor menghitung foton sebelum batasan lain itu dapat diatasi. Akhirnya teknologi di beberapa atau semua perangkat ini mungkin menggantikan cara kami saat ini menangkap gambar berkualitas sangat tinggi, tapi kami belum ada di dekat sana.

Michael C
sumber
2
Itu bukan kutipan. Itu adalah ilustrasi saya sendiri. Pemformatan kutipan blok digunakan untuk membedakannya dari sisa jawaban. Saya memilih untuk melakukannya karena saya merasa bahwa, di antara opsi pemformatan yang tersedia, itu adalah pilihan terbaik.
Michael C
1
Satu hal yang perlu diperhatikan adalah bahwa kita berpotensi menangkap eksposur yang lebih pendek dari eksposur yang lebih lama, jika kita mengembangkan sensor yang dapat kita polling dengan cukup cepat - misalnya kita dapat menggunakan eksposur 1 detik tetapi menangkap 1/250, 1/125, 1/60, 1/30 dll dari itu dengan membaca sensor berulang kali selama waktu itu dan menjaga "berjalan total" macam. Kita sudah bisa melakukan ini, tetapi itu tidak berkembang dengan baik dan memiliki batas seberapa pendek paparan yang bisa kita tangkap
Jon Story
1
Pembacaan terlalu lama pada sensor beresolusi tinggi. Dan banyak tembakan tidak bertahan selama satu detik. Terkadang 1/1000 tidak cukup cepat.
Michael C
2
Itu tidak lebih dari tanda kurung yang dimuliakan. Yang sulit dilakukan ketika Anda menembak atlet kelas dunia pada 10+ fps. Dengan garis lintang, file mentah saat ini memberi kami setiap fotografer yang berharga, garamnya harus dapat mengekspos cukup baik untuk mendapatkan hasil yang diinginkan. Dan ingat, dengan shutter pesawat fokus, TV mana pun yang lebih pendek dari kecepatan sinkronisasi masih membutuhkan waktu yang sama dengan kecepatan sinkronisasi untuk dua tirai untuk mengirim sensor. Dan kemudian ada waktu pembacaan yang dibutuhkan sebelum sensor dapat dihapus untuk frame berikutnya.
Michael C
2
Michael, itu jawaban yang fantastis. Apalagi dengan pembahasan berikut. Beberapa pertanyaan sebagai tindak lanjut - pertama: "Idealnya ini terjadi dengan kamera pada sensitivitas ISO dasar." Mengapa?
Wombat Pete
13

Kami sudah memiliki beberapa teknologi untuk ini. Istilah kami untuk mengingat pembacaan sensor di setiap titik paparan adalah "video", dan yang Anda minta adalah rekonstruksi gambar foto yang optimal dari beberapa frame video.

Untuk tinjauan umum dari pekerjaan Microsoft Research tentang ini, mulai di sini: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/

Untuk contoh yang tersedia, lihat aplikasi Synthcam, yang dapat digunakan untuk mengurangi noise dalam cahaya rendah dengan menggabungkan bingkai video yang diambil dengan kamera ponsel: https://sites.google.com/site/marclevoy/

Ini jauh dari praktis untuk fotografi sehari-hari, tetapi bisa dibayangkan bahwa kamera masa depan akan merekam banyak frame video definisi tinggi, frame-rate tinggi yang memungkinkan fotografer mencapai hasil yang diinginkan dengan memilih dan menggabungkannya nanti.

Pembaruan akhir 2016: Ketika saya menulis jawaban asli, ini agak jauh dari pasar. Di akhir 2016 sepertinya jauh lebih dekat. Aplikasi "See In The Dark" karya Marc Levoy mengintegrasikan banyak bingkai video dengan stabilisasi pada smartphone konsumen untuk menghasilkan gambar yang dapat digunakan dari cahaya bulan. Lihat juga kamera Light L16 , yang mengintegrasikan beberapa sensor kecil ke dalam satu gambar.

Adrian Cox
sumber
1
Jenis mana yang termasuk dalam kategori "Lemparkan cukup uang pada masalah". Bayangkan berapa biaya 4.000 fps pada 50MP!
Michael C
Saya bekerja dengan 1000fps sekitar lima tahun yang lalu, dan beratnya beberapa kg. Saat ini saya membawa kamera 120fps di saku. Ini mungkin praktis dalam 5 hingga 10 tahun. Tentu saja tidak untuk fotografi umum sekarang, dan Anda selalu dapat menemukan situasi yang gelap di mana tidak ada cukup foton untuk diolah.
Adrian Cox
10

Pertanyaan asli didasarkan pada asumsi yang salah (tentang sensor digital tidak berubah keadaan selama paparan) tetapi konsep ini terkait dengan ide Sensor Gambar Quanta (QIS) yang diteliti oleh Eric Fossum .

http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/

QIS adalah perubahan revolusioner dalam cara kami mengumpulkan gambar dalam kamera yang ditemukan di Dartmouth. Dalam QIS, tujuannya adalah untuk menghitung setiap foton yang menyerang sensor gambar, dan untuk memberikan resolusi 1 miliar atau lebih elemen foto khusus (disebut jots) per sensor, dan untuk membacakan jot bit pesawat ratusan atau ribuan kali per detik yang dihasilkan dalam terabit / detik data.

Perangkat seperti itu akan (mengutip pertanyaan)

"ingat" bacaan sensor apa yang ada di setiap titik pencahayaan

dan dengan memiliki kumpulan data lengkap, misalnya kita dapat "mengubah" waktu pemaparan efektif setelah "foto" ditangkap.

Hari ini ini dapat diperkirakan dengan merekam video dan menggabungkan bingkai dalam postprocess untuk mensimulasikan waktu bukaan yang lebih lama (dibatasi oleh kinerja kamera, resolusi mode video dan kecepatan rana, tetapi ini menunjukkan ide)

Jika QIS berfungsi seperti yang dijanjikan, QIS juga akan memperkenalkan fitur-fitur keren lainnya, seperti kinerja cahaya rendah yang lebih baik, peningkatan rentang dinamis, tanpa aliasing, sensitivitas yang sepenuhnya dapat disesuaikan (misalnya film-like), tidak ada pengaturan ISO, resolusi yang dapat disesuaikan vs derau

Pengumuman terbaru: http://phys.org/news/2015-09-09-breakthrough-photography.html

szulat
sumber
"Jika QIS bekerja seperti yang dijanjikan, itu juga akan memperkenalkan fitur keren lainnya, seperti kinerja cahaya rendah yang lebih baik, peningkatan rentang dinamis, tidak ada aliasing, sensitivitas sepenuhnya dapat disesuaikan (misalnya film-suka), tidak ada pengaturan ISO, resolusi disesuaikan vs kebisingan" - Itu apa yang saya pikirkan, itu sebabnya saya mengajukan pertanyaan di tempat pertama!
Wombat Pete
1
Terabit per detik? Menjadi dermawan, itu 1 GB untuk eksposur 1/125 detik, atau 2 GB untuk eksposur 1/60 detik. (Anda pikir file RAW 25-50 MB dari DSLR cukup high-end, sebagian besar terlepas dari waktu pemaparan, besar?) Pada kinerja menulis 1000 MB / s, yang merupakan cara di sana, Anda 100x terlalu lambat . Saya pikir pada level ini, penyimpanan adalah pertimbangan yang sangat nyata.
CVn
2

Film berubah secara fisik selama periode waktu pemaparannya. Namun, sensor digital tidak; hanya membaca data.

Itu sangat tergantung pada jenis sensornya. Jenis sensor CMOS yang digunakan dalam DSLR saat ini mengakumulasi muatan listrik di setiap piksel dari waktu ke waktu, sehingga mereka, pada kenyataannya, berubah seiring waktu seperti halnya film. Jika tidak berfungsi seperti itu, gambar akan ada hanya selama rana terbuka. Sensor CCD (teknologi umum lainnya untuk sensor gambar di kamera) juga bekerja dengan cara ini, mengumpulkan cahaya dari waktu ke waktu.

Apakah ada alasan mengapa kamera tidak dapat "mengingat" apa bacaan sensor pada setiap titik paparan?

Itulah tepatnya yang dilakukan kamera saat merekam gambar. Saya pikir apa yang Anda maksud adalah, jika sensor dapat membaca intensitas cahaya sesaat, maka Anda dapat menyesuaikan pencahayaan setelah fakta dengan nilai apa pun yang Anda inginkan. Seperti yang dijelaskan di atas, sebenarnya ini bukan cara kerja sebagian besar sensor gambar. Di sisi lain, kita dapat dan sering melakukan menyesuaikan eksposur sedikit di pos-pengolahan.

Jika penyimpanan data tidak menjadi masalah, apakah ada alasan mengapa hal ini tidak menjadi norma, setidaknya untuk fotografi profesional dan seni?

Sejauh "mengingat" data dari sensor, itu adalah norma bagi banyak fotografer. Sebagian besar kamera memungkinkan Anda merekam gambar dalam format "RAW", dan ini adalah data yang cukup banyak karena dibaca dari sensor plus sedikit lebih banyak data tentang pengaturan kamera saat itu. Gambar RAW membutuhkan lebih banyak ruang daripada format lain seperti JPEG, tetapi mereka memberikan kebebasan kepada fotografer untuk menginterpretasi ulang data nanti, sehingga Anda dapat dengan mudah mengubah pengaturan seperti suhu warna dan white balance di pasca pemrosesan.

Caleb
sumber
2
Saya akan mengatakan jawaban Anda adalah satu-satunya yang berisi titik kunci: Sensor tidak menghasilkan pembacaan berkelanjutan yang akan diperlukan untuk apa yang diinginkan OP. Jika seseorang menginginkan eksposur terus menerus, ia akan memerlukan output data kontinu pada langkah waktu yang sangat kecil (lebih kecil dari "Live View" dan sejenisnya).
DetlevCM
2
@DetlevCM Sudahkah Anda membaca jawaban saya dengan cermat? Ini mencakup informasi itu dalam paragraf pertama dan terakhir.
Michael C
1
@MichaelClark Memang - itu memang berisi ketika saya membaca kembali sekarang (tidak ada suntingan yang direkam). Jadi saya kira itu hilang dalam kebisingan ketika saya melihat jawaban ...
DetlevCM
Saya telah mengeditnya untuk membuatnya lebih jelas.
Michael C
"Jika seseorang menginginkan paparan terus menerus, ia akan memerlukan output data kontinu pada langkah waktu yang sangat kecil (lebih kecil dari" Live View "dan sejenisnya)" ... yang merupakan gagasan "tanda kurung yang dimuliakan" dalam diskusi di atas, kan? Pertanyaan baru, ketika saya mulai memahami hal ini, mengarah pada kepraktisan / ketersediaan hal semacam ini.
Wombat Pete
1

Yang lain sudah menjelaskan mengapa ini tidak akan berhasil, secara teknis. Saya ingin menyentuh mengapa itu tidak akan berhasil secara praktis .

Jika penyimpanan data tidak menjadi masalah, apakah ada alasan mengapa hal ini tidak menjadi norma, setidaknya untuk fotografi profesional dan seni?

Pertimbangkan besarnya berbagai kondisi pencahayaan yang mungkin ingin kita ambil foto. Bahkan mengabaikan hal-hal ekstrem seperti astrophotography (di mana Anda sering memotret bintik-bintik kecil cahaya yang dikelilingi oleh hampir seluruhnya hitam), Anda masih memiliki fotografi terestrial malam atau malam, dan lanskap musim dingin yang tertutup salju yang diterangi cahaya. Saya akan menggunakan dua yang terakhir sebagai contoh.

Juga, saya akan berasumsi bahwa untuk secara akurat menciptakan setiap eksposur yang diinginkan, kita harus mengekspos sensor untuk titik jenuh penuh.

Juga, saya akan berasumsi bahwa kita dapat membaca nilai sensor dengan cara yang tidak merusak. (Ini mungkin salah satu masalah yang masuk dalam kategori "membuang cukup uang untuk masalah dan mungkin bisa dipecahkan".)

Dalam kasus fotografi malam, kita akan perlu untuk mengekspos sensor untuk sangat lama jenuh semua piksel, yang berarti bahwa foto apapun, tidak peduli apa yang sebenarnya kita inginkan gambar, akan mengambil kepalang lama untuk mengambil. Gambar turis klasik para penari di bar di luar ruangan menjadi hampir mustahil karena, yah, Anda mungkin dapat mengambil beberapa dari mereka selama satu malam penuh. Tidak baik. Jadi kita tidak bisa terpapar pada kejenuhan, setidaknya tidak sembarangan. (Mengekspos beberapa persentase piksel yang jenuh sama-sama tidak berguna, tetapi untuk alasan yang berbeda; cobalah untuk mendapatkan pencahayaan yang tepat ketika mengambil foto perapian dengan api yang menyala di dalamnya. Itu hampir mustahil; tidak peduli seberapa keras Anda mencoba, beberapa piksel akan terlalu banyak atau petak besar gambar akan terlalu gelap.)

Saat memotret lanskap tertutup salju yang terang benderang, seperti pemandangan musim dingin di siang hari saat matahari terbenam, eksposur yang ditujukan oleh sistem eksposur otomatis kamera ("18% abu-abu") sangat tidak memadai. Inilah sebabnya mengapa Anda sering melihat foto-foto salju yang gelap, dan di mana salju muncul lebih banyak abu-abu terang daripada putih. Karena itu, kami sering menggunakan pengaturan kompensasi eksposur positif yang menghasilkan salju yang terekspos sebagai putih hampir jenuh. Namun, ini berarti bahwa kita tidak dapat mengandalkan sistem AE kamera untuk menentukan kapan harus mengakhiri eksposur: jika kita melakukannya, gambar seperti itu akan selalu kurang terang .

Dengan kata lain, paparan ke saturasi penuh tidak praktis dalam banyak kasus, dan paparan untuk membuat sistem AE bahagia tidak memadai dalam banyak kasus. Ini berarti bahwa fotografer masih harus membuat semacam pilihan, dan pada saat itu, kita setidaknya cukup baik dengan apa yang kita miliki dan fotografer sudah terbiasa, membuat sistem AE lebih baik dan memberikan fotografer mudah ( lebih mudah?) akses ke pengaturan kompensasi eksposur. Dengan meningkatkan rentang dinamis praktis yang dapat digunakan sensor, kami dapat memungkinkan (bahkan) mengubah perubahan paparan pasca-pemrosesan; SLR digital asli harganya sangat mahal, namun benar-benar mengerikan dalam hal ini dibandingkan dengan model entry-level saat ini.

Semua itu bisa dilakukan sepenuhnya dalam kerangka apa yang sudah kita miliki. Ini bukan untuk mengatakan bahwa secara dramatis meningkatkan rentang dinamis yang dapat digunakan dari sensor itu mudah , tetapi mungkin jauh lebih mudah daripada apa yang Anda usulkan, dan itu adalah masalah yang dialami oleh vendor.

Profesional, hampir secara definisi, tahu cara menggunakan peralatan perdagangan mereka. Tidak ada bedanya jika mereka adalah fotografer atau pilot pesawat ulang-alik . Terutama ketika hal itu dapat dilakukan tanpa menyebabkan kelebihan informasi, biasanya lebih baik memberi pengguna kendali penuh atas peralatan profesional. Menurut pendapat saya, DSLR high-end saat ini cukup bagus untuk mencapai sweet spot dalam hal ini.

sebuah CVn
sumber
1
Terima kasih telah menunjukkan masalah praktis dengan ide ini. Saya membayangkan sebuah kamera yang secara cerdik dan mandiri rata-rata setiap piksel untuk menciptakan pencahayaan yang seimbang akan menghasilkan gambar yang agak abu-abu.
HamishKL
1

Mari sederhanakan masalahnya untuk memahami mengapa kita harus selalu berkompromi.

Mari kita ciptakan kamera yang Anda inginkan, tetapi hanya dengan satu piksel monokrom. Ini harus dapat menerima dan memberi tahu prosesor penerimaan dari foton tunggal. Ini juga harus dapat menerima dan memberi tahu prosesor penerimaan, secara praktis, foton tak terbatas yang tak terhitung jumlahnya.

Kasus pertama dalam situasi di mana tidak ada cahaya. Yang kedua dalam kasus bahkan jumlah cahaya moderat.

Masalah utamanya adalah kita tidak memiliki teknologi untuk membuat sensor dengan rentang dinamis yang luas. Kita akan selalu harus berkompromi, dan saat ini kita berkompromi dengan memilih rentang yang lebih tinggi di mana sensor dapat menerima foton yang hampir tak terbatas dan memberi kita bacaan yang menunjukkan jumlah relatif cahaya yang mengenai sensor. Itu tidak menghitung mereka sama sekali, tetapi bertindak seperti mata kita - mereka hanya memberikan output yang relatif terhadap jumlah foton yang mengenai mereka, tanpa berusaha menghitung foton.

Ini semakin rumit oleh fakta bahwa ini dikumpulkan dari waktu ke waktu.

Sensor ideal sebenarnya akan lebih mirip penghitung geiger - mengukur waktu antara foton untuk memberi kita pengukuran yang hampir seketika jumlah cahaya yang jatuh pada sensor, dengan asumsi bahwa foton relatif berjarak secara merata (yang tidak benar, tetapi adalah asumsi yang nyaman, dan mengapa penghitung geiger rata-rata seiring waktu seperti halnya kamera).

Sensor kuantum pada dasarnya memiliki masalah yang sama. Tentu, mereka dapat merasakan foton individu, tetapi pada beberapa titik mereka datang cukup cepat sehingga Anda tidak dapat mengukur waktu di antara mereka, atau bahkan menghitung berapa banyak yang datang per periode paparan.

Jadi kami memiliki kompromi ini yang mengharuskan kami mengambil beberapa gambar dari beberapa eksposur, atau menambahkan beberapa gambar dari eksposur tinggi yang sama bersama-sama untuk mengusir area cahaya rendah, atau membagi cahaya yang masuk menjadi dua atau lebih jalur dengan sensor yang berbeda dari dinamika yang berbeda rentang, atau membangun sensor yang dapat mengelompokkan piksel bersama atau menumpuk sensor cahaya, atau, atau, - ada ribuan cara fotografer mengatasi masalah dasar ini selama beberapa dekade dengan berbagai media.

Ini adalah batasan fisika yang tidak mungkin diatasi. Kami tidak akan pernah memiliki kamera * tanpa masukan dari fotografer yang memungkinkan semua keputusan dibuat dalam pemrosesan pos.

* Tentu saja, jika Anda mengubah definisi kamera, maka Anda mungkin puas dengan beberapa hasil proses lain, tetapi ini sebagian besar subjektif. Kenyataannya adalah bahwa jika Anda membuat gambar adegan dengan kamera Anda, kemudian menunjukkan adegan itu kepada seseorang, maka gambar yang Anda potret, mereka akan melihat perbedaan karena perbedaan yang melekat antara mata mereka, sensor gambar Anda, dan proses yang Anda gunakan untuk mencetak foto. Fotografi adalah tentang interpretasi dan seni seperti halnya menangkap cahaya, dan fokus fanatik pada "kamera sempurna" mungkin tidak terlalu berguna.

Adam Davis
sumber
jika Anda mencoba menghitung jumlah foton yang hampir tidak terbatas maka Anda sudah mati ;-) (dibakar oleh sumber cahaya yang kuat), dalam kasus lain kami selalu dapat menemukan beberapa teknologi untuk menangani ini, misalnya -> dpreview.com/ artikel / 5923827506 /…
szulat