Jumat, 25 Mei 2012

CACHE DISKET

CACHE DISKET

Istilah dari memori cache biasanya digunakan untuk menerapkan ke sebuah memori yang lebih kecil dan lebih cepat dibandingkan memori utama dan yang dihubungkan dengan memori utama dan prosesor. Cache memori mengurangi waktu akses memori dengan memperdalam prinsip lokalitas.
Prinsip yang sama dapat diterapkan ke memori disket. Khususnya, sebuah cache memeri merupakan sebuah buffer dalam memori utama untuk sektor disket. Cache mengandung sebuah kopi dari beberapa sektor dalam disket. Ketika sebuah permintaan I/O dibuat untuk sebuah sektor tertentu, sebuah pemeriksaan dibuat untuk menentukan bila sektor berada dalam cache disket. Jika demikian, maka permintaan dipenuhi melalui cache. Jika tidak, permintaan sektor dibaca ke dalam disket cache dari disket. Karena lokalitas referensi, ketika sebuah clock data di fetch dalam cache untuk memenuhi permintaan I/O tunggal, yang sepertinya akan direferensikan ke masa depan untuk blok yang sama.
DESAIN
Pertama, ketika sebuah permintaan I/O dipenuhi cache disket, data dalam sebuah disket cache harus dikirimkan ke proses yang diinginkan. Ini dapat dilakukan dengan mentrasnfer blok data dalam memori cache ke memori yang dinyatakan ke proses user atau cukup dengan menggunakan sebuah kemampuan memori share dan melewatkan sebuah pointer ke slot yang sesuai dalam disket cache.
Algoritma
  • Least Recently Used (LRU)

Menggantikan blok yang telah ada dalam stock blok dengan cache paling panjang tanpa referensi ke dirinya. Karena cache itu mempunyai sebuah stack blok dengan referensi yang paling sering direferensikan dalam bagian atas dari stack. Ketika sebuah blok dalam cache direferensikan, akan berpindah dalam bagian atas dari stack. ketika sebuah blok dibawa memori kedua(secondary), mengeluarkan blok yang berada dalam bagian bawah dari stack dan memasukkan ke blok yang akan datang dalam bagian atas dari stack.
Inti dari algoritma ini adalah membuang dokumen yang sudah lama tidak digunakan. Idenya adalah, dokumen yang sudah lama tidak digunakan, akan lebih kecil kemungkinannya untuk diambil  kembali, sehingga tempatnya dapat digantikan oleh dokumen baru yang kemungkinan akan diperlukan
kemudian. Algoritma ini dianggap mendekati agoritma yang optimal.
  • Least Frequently Used (LFU)

Algoritma ini akan mengganti dokumen yang mempunyai jumlah frekuensi penggunaan yang kecil. Jumlah dokumen yang aktif digunakan dianggap memiliki peluang paling besar untuk digunakan kembali.Algoritma ini memiliki kelemahan, karena dokumen yang pada awalnya aktif, tetapi lama tidak digunakan akan tetap dalam  cache walau sudah jarang penggunaannya.
  • First In First Out (FIFO)

Dasar dari algoritma ini adalah penggantian dokumen yang sudah lama berada dalam  cache. Dokumen yang sudah awal dianggap tidak akan
diambil lagi, sehingga digantikan oleh dokumen yang lebih baru . Kelemahannya adalah, algoritma ini akan membuang dokumen jika
waktunya telah habis, walaupun ia masih aktif digunakan .
  • Largest Size Used

Dalam algortima ini, dokumen yang memiliki ukuran paling besar akan dibuang terlebih dahulu. Idenya adalah  memasukkan sebanyak
mungkin dokumen ke dalam  cache sehingga kemungkinan hit akan lebih sering. Kelemahan algoritma ini jika ada dokumen yang populer namun ukurannya besar, maka dokumen itu akan terus tergantikan dalam cache. Cache  memiliki mekanisme untuk menentukan apakah suatu pencarian sudah pernah dilakukan atau belum. Cara yang umum digunakan adalah dengan mencocokkan apakah query yang sama sudah pernah dilakukan sebelumnya atau belum. Jika sudah pernah dilakukan, maka terjadi cache hit, lalu hasil penelusuran di dalam  cacheakan dikembalikan ke pengguna. Sementara, jika query belum pernah dilakukan, akan terjadi  cache miss, dan system akan mencari dokumen- dokumen hasil pencarian ke system.




Tidak ada komentar:

Posting Komentar