Ketika mempelajari tentang arsitektur komputer dan cara kerjanya, kami berpikir bahwa bahasa terendah yang dapat kami temukan yang dipahami oleh mesin adalah biner sebagai 1 & 0. Dan apa pun yang kita masukan harus diubah / dikonversi ke biner, tetapi menjadi angka binerbukankah itu berarti bahwa kita memerlukan juru bahasa lain / kompiler untuk mengubah biner menjadi bahasa mesin yang sebenarnya? Kita semua tahu dari elektronik bahwa komputer terutama terdiri dari cpu yang merupakan IC yang karena itu terbuat dari transistor dll, dan satu-satunya hal yang dipahami oleh alat-alat itu adalah listrik, oleh karena itu listrik akan menjadi bahasa yang dimengerti terendah untuk komputer. Jadi kekhawatiran saya adalah, apakah biner benar-benar 1s & 0s atau 1s & 0s hanya digunakan untuk mewakili tidak adanya dan atau adanya listrik? Seandainya itu hanya representasi untuk tidak adanya atau adanya listrik, bukankah akan ada bahasa perantara atau bahkan lebih rendah antara perintah yang kita input dan biner, sehingga sirkuit akan tahu ke mana harus mengirim arus ke dan ke mana tidak?
sumber
Jawaban:
Komputer digital bekerja sehingga (hampir) pada suatu titik waktu tertentu, setiap kawat membawa (kira-kira) satu dari dua tegangan yang mungkin, satu menandakan0 dan yang lainnya menandakan 1 . Tegangan tergantung pada konvensi yang digunakan. Dalam hal ini, komputasi digital bekerja dengan baik0 dan 1 s. Namun, bahkan komputer digital berinteraksi dengan perangkat analog, seperti penyimpanan fisik dan jaringan. Cara data dikodekan dalam jaringan bisa agak berbeda, karena beberapa bit dapat dikodekan sekaligus, tergantung pada pengkodeannya.
Biarkan saya menjelaskan kualifikasi saya dalam kalimat pertama di atas. "Hampir" mengacu pada kenyataan bahwa ketika kabel beralih dari0 untuk 1 atau sebaliknya, akan ada tegangan menengah. Sakelar ini disinkronkan di semua kabel sehingga setiap kali kabel "dibaca", sakelar (jika ada) sudah terjadi. "Kasar" mengacu pada fakta bahwa voltase tidak tepat. Ada dua rentang kecil voltase yang sesuai0 dan 1 . Perangkat harus dapat "membaca" bit di seluruh rentang ini, tetapi biasanya "menulis" mereka lebih ketat.
sumber
pertanyaannya tidak terlalu jelas & memiliki beberapa kesalahpahaman atau penerapan istilah yang salah (misalnya "bahasa yang lebih rendah") tetapi menafsirkannya dengan cara yang lebih umum / metaforis / analogis / longgar, ya :
sumber
Anda menanyakan beberapa hal berbeda menjadi satu pertanyaan. Mungkin ide yang bagus untuk mengurai masalah untuk diri sendiri. Anda berbicara tentang fisika, definisi industri dan arsitektur perangkat lunak / komputer.
Mari kita lakukan bagian ini dulu. Komputer modern didasarkan pada sirkuit listrik. Misalnya sebagian besar prosesor ARM dapat berjalan pada 5 volt. Karena cara prosesor ARM dibangun di pabrik, prosesor memahami sinyal ~ 0 volt sebagai 0 bit dan ~ 5 volt sebagai 1 bit. Itu adalah definisi yang dipilih oleh seseorang.
Saya tidak sepenuhnya mengerti apa yang Anda tanyakan di sini. Tetapi katakanlah Anda mencari dari perspektif perangkat lunak. Kemudian, program akhirnya akan ditransformasikan dalam garis bit aktual dan garis bit yang memberi tahu CPU apa yang harus dilakukan dengan bit tersebut. Ini dimasukkan ke dalam CPU (unit pemrosesan) dan berdasarkan pada arsitektur prosesor tindakan akan dilakukan pada data.
Seperti yang saya sebutkan sedikit di atas, ini adalah cara komputer dibangun. Anda dapat menjalankan prosesor pada voltase lain tetapi tidak berfungsi (saya pikir). Karena definisi tertentu dibuat tentang pada tegangan berapa bit adalah 0 atau 1.
Yup, pada dasarnya sinyal analog. Tetapi perlu diingat sebagian besar waktu ini dikonversi oleh ADC (analog digital converter) menjadi nilai bit yang mewakili tegangan yang telah ditentukan pada saluran itu.
sumber