CACHE DISKET
Istilah dari memori cache biasanya digunakan untuk
menerapkan ke sebuah memori yang lebih kecil dan lebih cepat dibandingkan
memori utama dan yang dihubungkan dengan memori utama dan prosesor. Cache memori
mengurangi waktu akses memori dengan memperdalam prinsip lokalitas.
Prinsip yang sama dapat diterapkan ke memori disket. Khususnya,
sebuah cache memeri merupakan sebuah buffer dalam memori utama untuk sektor
disket. Cache mengandung sebuah kopi dari beberapa sektor dalam disket. Ketika sebuah
permintaan I/O dibuat untuk sebuah sektor tertentu, sebuah pemeriksaan dibuat
untuk menentukan bila sektor berada dalam cache disket. Jika demikian, maka
permintaan dipenuhi melalui cache. Jika tidak, permintaan sektor dibaca ke
dalam disket cache dari disket. Karena lokalitas referensi, ketika sebuah clock
data di fetch dalam cache untuk memenuhi permintaan I/O tunggal, yang sepertinya
akan direferensikan ke masa depan untuk blok yang sama.
DESAIN
Pertama, ketika sebuah permintaan I/O dipenuhi cache disket,
data dalam sebuah disket cache harus dikirimkan ke proses yang diinginkan. Ini dapat
dilakukan dengan mentrasnfer blok data dalam memori cache ke memori yang
dinyatakan ke proses user atau cukup dengan menggunakan sebuah kemampuan memori
share dan melewatkan sebuah pointer ke slot yang sesuai dalam disket cache.
Algoritma
- Least Recently Used (LRU)
Menggantikan blok yang telah ada dalam
stock blok dengan cache paling panjang tanpa referensi ke dirinya. Karena cache
itu mempunyai sebuah stack blok dengan referensi yang paling sering
direferensikan dalam bagian atas dari stack. Ketika sebuah blok dalam cache
direferensikan, akan berpindah dalam bagian atas dari stack. ketika sebuah blok
dibawa memori kedua(secondary), mengeluarkan blok yang berada dalam bagian
bawah dari stack dan memasukkan ke blok yang akan datang dalam bagian atas dari
stack.
Inti dari algoritma ini adalah membuang dokumen
yang sudah lama tidak digunakan. Idenya adalah, dokumen yang sudah lama tidak
digunakan, akan lebih kecil kemungkinannya untuk diambil kembali, sehingga tempatnya dapat digantikan
oleh dokumen baru yang kemungkinan akan diperlukan
kemudian. Algoritma ini dianggap mendekati
agoritma yang optimal.
- Least Frequently Used (LFU)
Algoritma ini akan mengganti dokumen yang
mempunyai jumlah frekuensi penggunaan yang kecil. Jumlah dokumen yang aktif
digunakan dianggap memiliki peluang paling besar untuk digunakan kembali.Algoritma
ini memiliki kelemahan, karena dokumen yang pada awalnya aktif, tetapi lama
tidak digunakan akan tetap dalam cache
walau sudah jarang penggunaannya.
- First In First Out (FIFO)
Dasar dari algoritma ini adalah
penggantian dokumen yang sudah lama berada dalam cache. Dokumen yang sudah awal dianggap tidak
akan
diambil lagi, sehingga digantikan oleh
dokumen yang lebih baru . Kelemahannya adalah, algoritma ini akan membuang
dokumen jika
waktunya telah habis, walaupun ia masih
aktif digunakan .
- Largest Size Used
Dalam algortima ini, dokumen yang memiliki
ukuran paling besar akan dibuang terlebih dahulu. Idenya adalah memasukkan sebanyak
mungkin dokumen ke dalam cache sehingga kemungkinan hit akan lebih
sering. Kelemahan algoritma ini jika ada dokumen yang populer namun ukurannya
besar, maka dokumen itu akan terus tergantikan dalam cache. Cache memiliki mekanisme untuk menentukan apakah
suatu pencarian sudah pernah dilakukan atau belum. Cara yang umum digunakan adalah
dengan mencocokkan apakah query yang sama sudah pernah dilakukan sebelumnya
atau belum. Jika sudah pernah dilakukan, maka terjadi cache hit, lalu hasil
penelusuran di dalam cacheakan
dikembalikan ke pengguna. Sementara, jika query belum pernah dilakukan, akan
terjadi cache miss, dan system akan
mencari dokumen- dokumen hasil pencarian ke system.
Tidak ada komentar:
Posting Komentar