Ini agak "satu megabyte harus cukup untuk siapa pun", tetapi ...
Ruang alamat datar 64-bit memungkinkan hingga 4,3 miliar kali lebih banyak ruang daripada ruang alamat 32-bit. Itu 17.179.869.184 GiB.
Jelas, transisi dari 8 bit ke 16 bit cukup cepat (Saya melihat segala sesuatu dengan cara remaja-selama-80-an, mengabaikan semua mainframe dan mini karena mereka tidak dapat menjalankan port Elite). Transisi dari 16 bit ke 32 bit butuh waktu lebih lama, dan 32 bit sebenarnya bertahan cukup lama.
Sekarang kita memiliki 64 bit, apakah akan bodoh untuk mengatakan "17.179.869.184 GiB harus cukup untuk siapa pun"?
Ini adalah pertanyaan programmer karena saya benar-benar memiliki sudut pandang pemrograman dalam pikiran. Bahkan jika suatu hari komputer memiliki jumlah memori kerja yang tampaknya tak terbatas, itu tidak berarti bahwa aplikasi perlu melihat ruang alamat datar yang tampaknya tak terbatas.
Pada dasarnya, bisakah kita programmer mendesah lega dan berkata "baiklah, apa pun bilangan bulat atau mengapung, setidaknya saya tidak perlu khawatir tentang pointer saya tumbuh lagi?".
sumber
Jawaban:
Saya tidak berpikir kita akan memiliki mesin dengan lebih dari 2 ^ 64 byte RAM di masa mendatang, tapi itu tidak semua ruang alamat berguna untuk.
Untuk beberapa tujuan, penting untuk memetakan hal-hal lain ke dalam ruang alamat, file menjadi contoh penting. Jadi, apakah masuk akal untuk memiliki lebih dari 2 ^ 64 byte dari segala jenis penyimpanan yang terpasang ke komputer di masa mendatang?
Saya harus mengatakan ya. Harus ada lebih dari 2 ^ 64 byte penyimpanan di luar sana, karena itu hanya sekitar 17 juta orang dengan hard disk terabyte. Kami telah memiliki beberapa database petabyte selama beberapa tahun sekarang, dan 2 ^ 64 hanya sekitar 17 ribu petabyte.
Saya pikir kita cenderung menggunakan ruang alamat> 2 ^ 64 dalam beberapa dekade mendatang.
sumber
Kecuali jika komputer mulai menggunakan beberapa teknologi terobosan yang belum ada bahkan di laboratorium, memiliki lebih dari 2 64 ruang yang dapat dialamatkan secara fisik tidak mungkin dilakukan dengan teknologi silikon saat ini . Teknologi ini mencapai batas fisik . Batas kecepatan (GHz) telah mencapai beberapa tahun yang lalu. Batas miniaturisasi juga sangat dekat. Saat ini teknologi paling maju dalam produksi adalah 20nm, di laboratorium 4nm dengan transistor yang terbuat dari 7 atom.
Singkatnya, berapa lama waktu yang dibutuhkan untuk mengembangkan teknologi baru: komputer saat ini didasarkan pada transistor yang diciptakan pada tahun 1925, dan teknologi silikon saat ini berasal dari tahun 1954.
Adapun teknologi alternatif:
sumber
for(unsigned __int128 i=0; i<2^128; i++){}
. Dengan teknologi saat ini tidak ada banyak penggunaan bilangan bulat 128 bit. Selain mungkin kembali ke ruang alamat yang tidak terlindungi, karena secara tidak sengaja menginjak memori aplikasi lain dalam ruang alamat 128 bit akan sangat mustahil untuk dilakukan, bahkan jika Anda menulis ke alamat acak secara acak.Komputer super Thorbjoern yang terhubung memiliki sekitar 2 ^ 47 B memori fisik.
Dengan asumsi Hukum Moore berlaku untuk memori komputer super, itu akan menjadi 2 ^ 64 B memori fisik hanya dalam 34 tahun. Ini seperti "OMG, kita akan hidup untuk melihat itu !!!!". Mungkin. Dan memang, itu menarik. Tapi sama tidak relevannya.
Pertanyaannya adalah, apakah saya perlu ruang alamat 128 bit untuk menggunakan memori fisik 2 ^ 65 B?
Jawabannya adalah TIDAK . Saya perlu ruang alamat 128 bit untuk mengatasi 2 ^ 65 B memori virtual dari satu proses .
Itu adalah poin kunci dari pertanyaan Anda, "Apakah aplikasi dunia nyata akan membutuhkan ruang alamat datar 128-bit ?". " Perlu ", tidak sepenuhnya, Anda bisa bertahan dengan lebih sedikit, membuat ruang alamat dipetakan (tidak datar); tapi kemudian Anda tidak akan memiliki "ruang alamat 128-bit datar".
Sebagai contoh, anggaplah Anda ingin memberikan atom pada alamat fisik memori Bumi (untuk alasan apa pun, sebagian besar untuk memberikan contoh sederhana ini ), mulai dari nol dan terus menghitung (kembalilah kepada saya ketika Anda selesai). Sekarang orang lain ingin melakukan hal yang sama pada Kepler-10c (yang berjarak 568 detik).
Anda tidak ingin bentrokan alamat sehingga orang lain mengalokasikan alamat memori tinggi di ruang memori datar yang tersedia, yang memungkinkan Anda, mereka, dan orang-orang berikutnya untuk ditangani secara langsung , tanpa memetakan memori. Jika Anda tidak akan melakukan itu atau bisa bertahan tanpa hubungan satu-ke-satu antara memori Anda dan alamatnya (Anda bersedia menerapkan array jarang) maka Anda bisa bertahan dengan memori 64 bit yang sangat sedikit, atau kurang.
Setiap kali seseorang mengusulkan " X jumlah Y akan cukup " prediksi seperti itu sering kali berumur pendek.
Jadi pertanyaannya adalah: Seberapa cepat kita akan memiliki satu proses , yang menggunakan 2 ^ 65 B memori. Saya harap tidak pernah.
Masalah besar waktu kita adalah bahwa kekuatan pemrosesan satu CPU terbatas. Ada batas dalam ukuran yang ditentukan oleh ukuran atom, dan untuk ukuran tertentu, ada batas dalam laju jam, yang diberikan oleh kecepatan cahaya, kecepatan di mana informasi tentang perubahan medan magnet disebarkan di alam semesta kita.
Dan sebenarnya, batas tersebut telah dicapai beberapa tahun yang lalu dan kami telah menetapkan pada tingkat jam di bawah sebelumnya. Kekuatan CPU tidak akan lagi naik secara linear. Kinerja sekarang ditingkatkan melalui eksekusi yang tidak sesuai pesanan, prediksi cabang, cache yang lebih besar, kode op yang lebih banyak, operasi vektor dan yang tidak. Telah ada optimasi arsitektur .
Dan ide penting adalah paralelisasi. Masalah dengan paralelisasi adalah, itu tidak meningkat. Jika Anda menulis kode lambat 20 tahun yang lalu, itu bekerja jauh lebih cepat 10 tahun yang lalu. Jika Anda menulis kode lambat sekarang, itu tidak akan jauh lebih cepat dalam 10 tahun.
Proses yang menggunakan memori 2 ^ 65 B adalah tanda kebodohan maksimal. Ini menunjukkan, bahwa belum ada optimasi arsitektur . Untuk memproses data ini secara masuk akal, Anda memerlukan sekitar 10 juta core, yang sebagian besar akan menghabiskan waktu menunggu sumber daya tersedia, karena core yang benar-benar memperoleh sumber daya tersebut menggunakan memori fisik melalui ethernet pada mesin yang sama sekali berbeda. Kunci untuk menangani masalah besar dan kompleks adalah menguraikannya menjadi masalah kecil yang sederhana dan tidak membangun sistem yang semakin besar dan semakin kompleks. Anda perlu partisi horizontal, ketika berhadapan dengan sh * tload data.
Tetapi bahkan dengan asumsi, kegilaan ini harus berlanjut, yakinlah 128 bit sudah cukup :
Untuk menggunakan ruang alamat 128 bit, kita membutuhkan 2 ^ 133 bit, jadi 2 ^ 152 atom yang kita butuhkan . Dengan asumsi distribusi atom yang sama di bumi, Mari kita lihat berapa banyak kerak yang harus kita ambil untuk mendapatkannya:
Jadi Anda harus menempuh jarak 130 meter di seluruh permukaan (termasuk 80% air, pasir, atau es). Itu tidak akan terjadi. Bahkan dengan asumsi Anda dapat menggali (lol) dan semua hal ini cocok untuk diproses menjadi keripik, di mana Anda akan mendapatkan energinya?
sumber
Yah, kita pasti bisa menggunakan ruang alamat yang besar.
Bayangkan ini:
Ruang alamat tidak terbatas pada satu komputer. Sebaliknya, alamat secara unik mengidentifikasi sel memori dalam ruang alamat universal. Jadi Anda dapat memiliki pointer ke sel memori di komputer mana pun di dunia. Perlu ada beberapa protokol untuk mengaktifkan pembacaan dari memori jauh, tetapi itu adalah detail implementasi. :-)
Memori adalah Write Once, Read Many, artinya Anda hanya dapat menulis data ke alamat memori satu kali. Untuk nilai yang bisa berubah, Anda harus mengalokasikan sepotong memori baru setiap kali itu berubah. Kami para pemrogram telah mulai melihat kelebihan dari kekekalan dan memori transaksional, jadi desain perangkat keras yang bahkan tidak memungkinkan memori ditimpa mungkin bukan ide yang mustahil.
Gabungkan kedua ide ini, dan Anda akan membutuhkan ruang alamat yang sangat besar.
sumber
Semakin banyak komputer yang mampu, semakin banyak masalah kompleks yang diminta untuk mereka atasi.
Superkomputer terbesar yang terdaftar di top500.org adalah http://www.top500.org/system/10587 dengan sekitar 220 Tb RAM dan 180000 core. Dengan kata lain, itulah yang bisa digunakan "aplikasi kehidupan nyata" pada platform ini.
Komputer hari ini sekuat superkomputer 10-15 tahun yang lalu (meskipun kekuatan komputasi mungkin tersembunyi di kartu grafis Anda).
Jadi faktor 100 dalam memori dalam 10-15 tahun akan berarti bahwa ruang alamat 64 bit akan menjadi faktor pembatas dalam sekitar 100 tahun (karena log (100 juta) / log (100) sekitar 6) jika tren saat ini berlaku.
sumber
Seluruh utas ini cukup lucu untuk dibaca, pendapat yang sangat kuat untuk dan melawan ...
Sini sesuatu ..
Saya mengerti dari pertanyaan bahwa itu adalah teknologi agnostik dan tidak terikat oleh waktu. Dengan demikian perkembangan saat ini dalam silikon, komputer kuantum atau Infinite Monkey Peddling Abacus pada dasarnya tidak relevan.
Perhitungan dan ekstrapolasi juga cukup lucu, meskipun jawaban dari back2dos bekerja cukup baik untuk menggambarkan ukuran semata-mata dari apa yang angka ini wakili. jadi mari kita bekerja dengan itu.
Tempatkan pikiran Anda di masa depan di mana manusia tidak lagi terikat pada batas planet kecilnya, alat transportasi yang realistis dikembangkan untuk memungkinkan transportasi jarak yang sangat jauh dan struktur sosial (ekonomi, politik dll) telah berevolusi untuk melampaui generasi. Proyek-proyek firaun mencakup telah menjadi tempat umum. Mari kita fokus pada dua aspek dari visi masa depan yang belum jelas ini, jika seseorang ingin menghabiskan waktu untuk menjelaskan setiap detail. Saya cukup yakin seseorang dapat merasionalisasi semua itu melalui serangkaian evolusi yang masuk akal pada teknologi saat ini. Dengan kata lain masa depan yang masuk akal, meskipun tidak mungkin ...
Proyek pertama yang disebut Colossus dalam memori komputer elektronik pertama karena itu adalah komputer planet pertama. Colossus Brotherhood memang menemukan cara untuk menangkap planetoid kecil dan mengubahnya menjadi komputer yang berfungsi. Baru-baru ini ditemukan di sabuk Kuyper yang sangat kaya akan isotop yang melebur sehingga membuatnya sangat otonom, mereka membuat proses konstruksi benar-benar otonom dengan probe, robot, dll membuat sistem komputer memperbaiki sendiri dan membangun sendiri. Dalam kondisi ini dapat dibayangkan bahwa ruang alamat 2 ^ 64 agak terbatas untuk proyek ini karena mereka ingin mendapatkan ruang alamat terus menerus untuk dengan mudah port aplikasi yang sudah ada untuk proyek lain juga sedang berlangsung.
Proyek lain lebih merupakan percobaan dalam jaringan daripada sistem fisik, namun, dengan cepat menunjukkan bahwa ruang alamat yang lebih besar diperlukan. 540 tahun yang lalu seorang peretas muda bermain-main dengan ide menciptakan jaring bot raksasa. Internet telah meluas hingga mencakup koloni-koloni yang baru lahir di sekitar tata surya yang membangun kemajuan besar yang dibuat dalam kekuatan fusi. Idenya pada dasarnya adalah untuk memiliki sedikit bot yang tersebar di seluruh jaringan tetapi muatannya ditakdirkan untuk menyediakan mesin virtual terpadu di mana kode akan ditulis dengan asumsi semua kekuatan semua bot digabungkan. Upaya besar dimasukkan ke dalam kompiler dan penyebaran yang berusaha mengoptimalkan kelambatan dan algoritme canggih yang dirancang untuk memperhitungkan ketidakterandalan yang melekat dari medium yang mendasarinya. Bahasa ditulis khusus untuk menargetkan yang baru ini " hacker kami malah menciptakan perusahaan payung dan menjual daya komputasi kepada penawar tertinggi. Ketika dia meninggal dia menyumbangkan botnet ini dan semua teknologi untuk yayasan. Pada saat itu botnet sudah berjalan selama 64 tahun dan sudah melampaui ruang alamat 2 ^ 64 beberapa waktu yang lalu menghancurkan prakonsepsi berusia 1000 tahun bahwa kita tidak akan pernah membutuhkan ruang alamat yang lebih besar. Saat ini 2 ^ 128 adalah norma dan apa yang akan digunakan untuk Colossus tetapi sudah ada rencana untuk memperluas ini menjadi 2 ^ 256. hacker kami malah menciptakan perusahaan payung dan menjual daya komputasi kepada penawar tertinggi. Ketika dia meninggal dia menyumbangkan botnet ini dan semua teknologi untuk yayasan. Pada saat itu botnet sudah berjalan selama 64 tahun dan sudah melampaui ruang alamat 2 ^ 64 beberapa waktu yang lalu menghancurkan prakonsepsi berusia 1000 tahun bahwa kita tidak akan pernah membutuhkan ruang alamat yang lebih besar. Saat ini 2 ^ 128 adalah norma dan apa yang akan digunakan untuk Colossus tetapi sudah ada rencana untuk memperluas ini menjadi 2 ^ 256.
Saya mungkin bisa datang dengan skenario yang lebih masuk akal yang menggambarkan bahwa ya ... sangat mungkin, bahkan hampir pasti, bahwa suatu hari kita akan memerlukan ruang alamat yang lebih besar dari ini.
Yang mengatakan namun saya tidak berpikir saya akan kehilangan tidur, jika aplikasi Anda memerlukan ruang alamat tertentu untuk bekerja dengan benar maka kemungkinan besar itu akan hidup dalam VM yang memberikan semua yang dibutuhkan ...
Demikian ... jawaban singkat ...
YA, Kemungkinan besar
tapi
Mengapa tidak berurusan dengan ini ketika masalah muncul ... Secara pribadi saya tidak pernah membuat asumsi dalam program saya sehingga tidak pernah mendapatkan kejutan.
sumber
Lokasi alamat memiliki biaya logaritmik berkenaan dengan lebar alamat sehingga kami dapat mempertimbangkan batas atas berdasarkan parameter yang dimaksud:
Kita dapat mengasumsikan konfigurasi yang mungkin sebagai batas atas untuk alamat memori konstruktif terbesar yang mungkin secara fisik.
sumber
Yah, saya pikir bahwa untuk beberapa tahun yang akan datang Anda mungkin bisa menarik napas lega. Jika Anda melihat kecepatan inovasi dalam perangkat keras, dapat diamati bahwa selama beberapa tahun terakhir tidak ada terobosan signifikan yang terjadi. CPU dengan frekuensi 2,x GHz telah ada untuk sementara waktu sekarang dan setiap peningkatan daya pemrosesan saat ini berasal dari pengepakan lebih banyak core pada chip. Kapasitas drive masih naik, tetapi tidak pada kecepatan yang sama dengan 10 tahun yang lalu.
Saya pikir teknologi kami saat ini mendekati batas fisika.
Apa artinya itu untuk masa depan? Saya pikir bahwa untuk mendapatkan lompatan kuantum baru dalam pemrosesan informasi, sepenuhnya teknologi baru harus digunakan. Teknologi ini kemungkinan akan menggunakan "perangkat lunak", meskipun mungkin dalam konteks yang sangat asing dengan sekarang. Dan siapa yang tahu apa persyaratan ruang alamat yang mereka miliki atau dapat berikan? Atau apakah address space bahkan merupakan konsep yang bermakna dalam teknologi itu?
Jadi jangan pensiun dulu.
sumber
Ya akan ada. (Game? Hal-hal yang berhubungan dengan Kecerdasan Buatan?)
Namun, pertanyaan yang lebih tepat adalah apakah itu akan diperhitungkan oleh programmer biasa. Pikirkan bagaimana Ruby secara otomatis mengkonversi angka dari FixNum ke BigNum dan kembali ketika diperlukan. Saya akan terkejut jika bahasa lain (setidaknya yang dinamis) pada akhirnya tidak melakukan hal yang sama.
sumber
Menyimpan jumlah informasi ini adalah satu hal dan melakukan sesuatu yang bermanfaat dengannya adalah hal lain. Dari sudut pandang saya, saya melihat tidak perlu untuk penyimpanan ini kecuali kita memiliki kekuatan pemrosesan untuk menggunakannya. Mungkin caching basis data besar adalah satu hal tetapi untuk pemrosesan numerik saya pikir kita perlu prosesor terlebih dahulu.
sumber
Akankah aplikasi membutuhkan banyak memori? Cukup mungkin. Aplikasi seperti ramalan cuaca, simulasi fisik secara umum atau kriptografi mungkin akan selalu mendapat manfaat dari lebih banyak memori dan lebih banyak kekuatan pemrosesan. Dan siapa yang tahu apa aplikasi pembunuh dalam 50-100 tahun ke depan? Menampilkan holografik? Tabel pelangi untuk setiap kemungkinan kata sandi 100 karakter?
Apakah mungkin secara fisik untuk mewakili memori sebanyak itu? Sangat mungkin. Sebagai contoh, komputer kuantum 100-qubit dapat mewakili jumlah status yang sama dengan komputer klasik 2 ^ 100 bit. Jauh lebih dari 2 ^ 67 bit ruang alamat yang kita miliki sekarang. (Saya tahu, komputer kuantum 100 qubit kedengarannya seperti fiksi ilmiah. Saya tidak yakin itu akan mungkin untuk membangun satu. Tetapi di sisi lain, hal yang sama mungkin bisa dikatakan tentang teknologi apa pun yang akan digunakan 50 atau 100 tahun dari sekarang.)
Tetapi saya sangat ragu bahwa "ruang alamat datar" akan menjadi kekhawatiran utama saat itu. Mungkin kita akan mengembangkan algoritma kuantum saat itu, di mana konsep "ruang alamat" tidak masuk akal. Bahkan jika komputer tetap "klasik" kita mungkin harus berurusan dengan sejumlah unit pemrosesan menakutkan dengan memori tidak seragam yang menyertainya.
sumber
Apa yang akan terjadi jika setiap lokasi memori memiliki alamat unik secara global?
FILE
,fopen()
dllsumber
Hanya "berpikir keras" di sini, tetapi terpikir oleh saya bahwa seseorang dapat melakukan hal-hal semantik yang menarik dengan 64 bit yang tersisa pada, katakanlah, komputer 128 bit. Lih cara IP bekerja.
Saya yakin orang-orang bisa menggunakan hal-hal yang menyenangkan untuk hal seperti ini. :) Adakah yang tahu untuk apa PS3 menggunakan alamat 128 bitnya? Tentunya Anda tidak akan menyia-nyiakan semua memori ekstra (dan saya berbicara hanya tentang memori untuk alamat yang sebenarnya, bukan apa yang menunjuk ke alamat tersebut). Alamat sebagai data. Anda bahkan dapat menyandikan cabang di alamat itu sendiri ... yaitu, 0x [ifAddress] [elseAddress] Sistem multi-core mungkin mendapat manfaat dari jenis segmentasi ini juga. Dan dan...
sumber
Apakah ada alasan untuk melampaui arsitektur 64 bit? (18.444.744.073.709.551.615 byte memori beralamat)
Menggunakan standar IEEE 1541-2002 mengenai penggunaan awalan untuk kelipatan biner dari unit pengukuran yang terkait dengan elektronik digital dan komputasi, kita melihat bahwa:
1 Byte = 8 Bit, 1 Kilobyte = 1024 Bytes, 1 Megabyte = 1024 KB, 1 Gigabyte = 1024 MB, 1 Terabyte = 1024 GB, 1 Petabyte = 1024 TB, 1 Exabyte = 1024 PB
Dan seterusnya untuk Zettabyte, Yottabyte, Xenottabyte, Shilentnobyte, Domegemegrottebyte, Icosebyte, dan Monoicosebyte.
Total penyimpanan drive Earth diperkirakan sekitar 2.500 Exabytes pada 2016.
Register 64 bit dapat mengakses 15 Exabytes memori secara langsung. Register 128 bit dapat langsung mengakses 3,40282367 × 10 ^ 35 Zettabytes. Atau 295.147.905.247.928.000 Monoicosebytes.
Jadi kita dapat melihat bahwa register 128 bit akan berada dalam posisi yang baik untuk mengakses semua memori Bumi, semua yang pernah dikirim di internet, setiap kata yang pernah diucapkan atau ditulis, setiap film, dan banyak lagi, untuk beberapa waktu ke depan .
Jadi jawabannya adalah ya , sambil menunggu kerangka kerja yang dapat menunjuk ke hal digital apa pun yang pernah atau akan pernah ada .
sumber
Perkiraan terbaik yang dapat saya temukan untuk jumlah neuron dalam otak manusia rata-rata adalah sekitar 86 miliar. Kami tidak dapat secara langsung membandingkan RAM dengan neuron secara umum tetapi dalam jaringan saraf Anda bisa. Dibutuhkan sejumlah alamat untuk mewakili keadaan neuron atau sinaps. Jadi saya akan mengeluarkan dugaan liar dan mengatakan kita melihat sesuatu seperti trilyun alamat untuk membuat jaringan saraf yang dapat dibandingkan dengan otak manusia. Jadi jika itu bisa dilakukan, saya tidak melihat mengapa itu tidak akan lebih jauh dari itu. Jenis-jenis masalah yang mungkin dapat direnungkan oleh jaringan semacam itu akan berada di luar kemampuan kita untuk memahami dan juga mengapa mereka harus sedemikian besar untuk melakukannya.
sumber
Ini ruang alamat. Katakanlah kita mengubah standar C sehingga realloc tidak diizinkan untuk mengubah pointer yang digunakan. Saya dapat mengalokasikan 2 ^ 33 blok memori hari ini (akan membutuhkan 192GB RAM pada Mac saya, 8 miliar kali 8 byte pointer dan 16 byte dialokasikan ruang, jadi saya tidak bisa melakukan ini sekarang, tapi saya bisa membeli Mac yang bisa melakukan tanpa mengambil hipotek baru).
Dan saya dapat merealokasi salah satu pointer ini untuk menampung 2 ^ 33 byte. Namun tidak banyak pada saat yang sama :-) Jika realloc tidak memungkinkan pointer bergerak, dan 2 ^ 33 byte diizinkan, pointer asli harus terpisah 2 ^ 33 byte, artinya diperlukan memori 2 ^ 66 byte.
sumber
Tentu, saya tidak melihat alasan mengapa jumlah ruang itu tidak diperlukan di masa depan. Jika Anda mempertimbangkan pengembangan game, tidak ada batasan seberapa realistis atau rumitnya sebuah game dapat dibuat, bukan? (Detail grafik / jumlah poligon yang digunakan dan algoritma yang mendefinisikan interaksi dan perilaku objek)?
Siapa tahu, dalam waktu 10 tahun kita mungkin akan bermain game 10TB dengan persyaratan minimal ram 12GB dan prosesor 8 inti. : P
sumber
20 tahun lalu, ada 2 miliar lebih sedikit orang di planet ini dan sebagian besar sistem komputer memiliki memori yang dapat dialamatkan yang dapat diukur dalam kilobyte. Saat ini, populasi dunia meningkat pada tingkat yang sama dan jumlah pengguna komputer meningkat secara eksponensial setiap tahun.
Memang benar bahwa sangat sedikit sistem yang membutuhkan ruang alamat 64 byte penuh. Namun, beberapa sistem menyimpan terabyte informasi setiap hari. Ini dimungkinkan karena peningkatan pengguna komputer dan kecepatan internet. Kami sudah dapat mendukung kecepatan internet 10 GB / s setelah hanya 23 tahun setelah HTTP ditemukan. Pada tingkat ini saya pikir bodoh untuk tidak mengharapkan 1 TB / s atau kecepatan internet yang lebih tinggi dalam 50 tahun. Ketika kita semua dapat memindahkan data secepat ini, akan ada lebih banyak data yang akan disimpan sementara lebih banyak orang akan ada untuk menyimpan data ini dan hampir tidak dapat dihindarkan bahwa akan ada transisi meluas ke sistem 128 bit, dan akhirnya 256 dan 512 bit.
sumber
ya aplikasi tidak mengisi setiap byte ruang virtual. address space layout randomization akan mendapatkan manfaat terbesar.
sumber