Saya memiliki monitor Dell U2312HM yang terhubung ke laptop Dell Latitude E7440. Ketika saya menghubungkan mereka melalui laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(monitor tidak memiliki soket HDMI), gambar jauh lebih tajam daripada dengan laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. Perbedaannya sulit ditangkap dengan kamera, tetapi lihat upaya saya di bawah ini. Saya mencoba bermain dengan pengaturan kecerahan, kontras dan ketajaman, tetapi saya tidak bisa mendapatkan kualitas gambar yang sama. Resolusi adalah 1920x1080, saya menggunakan Ubuntu 14.04.
VGA:
HDMI:
Mengapa kualitasnya berbeda? Apakah ini intrinsik dengan standar ini atau haruskah saya mencurigai kabel VGA rusak atau adaptor mDP-VGA?
Jawaban:
VGA adalah satu-satunya sinyal analog dari yang disebutkan di atas sehingga sudah menjadi penjelasan untuk perbedaan. Menggunakan adaptor lebih lanjut dapat memperburuk situasi Anda.
beberapa bacaan lebih lanjut: http://www.digitaltrends.com/computing/hdmi-vs-dvi-vs-displayport-vs-vga/
sumber
Dengan asumsi kecerahan, kontras dan ketajaman sama dalam kedua kasus, mungkin ada 2 alasan lain mengapa teks lebih tajam dengan DVI / HDMI:
Yang pertama telah dinyatakan, VGA adalah analog sehingga perlu melalui konversi analog ke digital di dalam monitor, ini secara teoritis akan menurunkan kualitas gambar.
Kedua, dengan asumsi Anda menggunakan Windows ada teknik yang disebut ClearType (dikembangkan oleh Microsoft) yang meningkatkan tampilan teks dengan memanipulasi sub-pixel dari monitor LCD. VGA dikembangkan dengan mempertimbangkan monitor CRT dan gagasan sub pixel tidak sama. Karena persyaratan untuk ClearType untuk menggunakan layar LCD dan fakta bahwa standar VGA tidak memberi tahu tuan rumah spesifikasi layar ClearType akan dinonaktifkan dengan koneksi VGA.
Sumber: Saya ingat pernah mendengar tentang ClearType dari salah satu penciptanya di podcast untuk This (). Developers (). Life () IIRC, tetapi http://en.wikipedia.org/wiki/ClearType juga mendukung teori saya. Juga HDMI kompatibel dengan DVI dan DVI mendukung Electronic Display Identification (EDID)
sumber
Yang lain membuat beberapa poin bagus, tetapi alasan utamanya adalah ketidakcocokan jam dan fase yang jelas. VGA ini analog dan mengalami gangguan serta ketidakcocokan sisi pengirim dan penerima analog. Biasanya orang akan menggunakan pola seperti ini:
http://www.lagom.nl/lcd-test/clock_phase.php
Dan sesuaikan jam dan fase monitor untuk mendapatkan kecocokan terbaik dan gambar paling tajam. Namun, karena analog, penyesuaian ini dapat bergeser dari waktu ke waktu, dan karenanya Anda idealnya hanya menggunakan sinyal digital.
sumber
Ada beberapa jawaban yang menunjukkan sinyal digital vs analog yang benar. Tetapi itu tidak menjawab mengapa? Beberapa lapisan terjemahan yang disebutkan, ini agak benar juga, konversi A / D mainstream dapat menyebabkan hilangnya kesetiaan, tetapi Anda harus mengukur ini karena sulit untuk melihat perbedaan dengan mata telanjang. Konversi murah dan semua taruhan dimatikan.
Jadi mengapa digital lebih baik daripada analog?
Sinyal RGB analog (seperti VGA) menggunakan amplitudo sinyal (.7 Volt puncak ke puncak dalam hal VGA). Ini seperti semua sinyal memiliki noise yang jika cukup besar akan menyebabkan level diterjemahkan secara tidak benar.
Refleksi pada kabel (ketidaksesuaian impedansi) sebenarnya adalah kejatuhan terbesar dari sinyal video analog. Ini menimbulkan noise tambahan dan semakin parah dengan kabel yang lebih panjang (atau yang lebih murah), semakin tinggi resolusi video juga meningkatkan rasio sinyal terhadap noise. Menariknya, Anda seharusnya tidak dapat melihat perbedaan dalam sinyal 800x600 kecuali kabel VGA terlalu panjang.
Bagaimana sinyal digital menghindari jebakan itu? Nah untuk satu level tidak lagi relevan. Juga DVI-D / HDMI menggunakan sinyal diferensial serta koreksi kesalahan untuk memastikan yang satu dan nol ditransmisikan dengan benar. Ada juga pengkondisian tambahan ditambahkan ke sinyal digital yang tidak praktis menambah sinyal video analog.
Maaf untuk kotak sabunnya, tapi itu faktanya.
sumber
Masalah lainnya adalah banyak kabel VGA yang sampah. Jika kabel VGA tebal kurang dari 1/4 ", Anda akan mungkin melihat ghosting pada monitor yang lebih besar (Semakin tinggi rez, kemungkinan ghosting). Saya bahkan melihat ghosting pada kabel VGA yang terpasang pada beberapa 19 "montitor CRT. Kabel VGA saya sekitar 1/3" tebal dan itu sangat membantu dengan ketajaman (kabel lebih tebal, lebih melindungi)
sumber
HDMI dan DVI sangat mirip. Keduanya digital; perbedaan utamanya adalah bahwa HDMI mendukung audio dan HDCP. Saat beralih antara HDMI dan DVI, ada sedikit konversi yang sebenarnya, tetapi menghubungkan pin yang cocok pada konektor. Display Port adalah protokol digital, tetapi VGA adalah analog, dan konverter kemungkinan memperkenalkan kekurangan kecil dan pengurangan ketajaman pada sinyal. Monitor mungkin mengubah sinyal kembali ke digital, menimbulkan konversi lain yang mempengaruhi kualitas.
Secara keseluruhan, monitor komputer & gt; HDMI- & gt; DVI & gt; memiliki konversi aktual lebih sedikit daripada monitor komputer & gt; DisplayPort- & gt; VGA- & gt; dan tidak pernah mengubah sinyal menjadi analog, memberikan gambar yang lebih tajam.
sumber
HDMI dan DVI sebenarnya satu dan sama (setidaknya dalam konteks Anda). Konektor DVI sebenarnya hanya konektor HDMI dengan pinout yang berbeda (baris pin), ditambah konektor VGA dengan pinout yang berbeda (pin disusun mengelilingi bentuk silang). Jika Anda melihat konverter HDMI-ke-DVI Anda, Anda mungkin akan melihat bahwa bagian yang berbentuk silang tidak ada.
Jadi Anda membandingkan gambar HDMI dengan gambar VGA, dan, seperti yang ditunjukkan oleh @Josh, yang melibatkan konversi sebenarnya.
Sebenarnya ada perbedaan antara HDMI dan DVI, tetapi itu tidak relevan untuk Anda. HDMI dapat membawa sinyal tambahan, termasuk sinyal enkripsi untuk perlindungan konten, suara, Ethernet, dll.
sumber