Search Engine adalah situs khusus di Web yang dirancang untuk membantu orang menemukan informasi yang disimpan di situs lain. disanalah perbedaan dalam cara berbagai Search Engine yang bekerja, tetapi mereka semua melakukan tiga tugas dasar: Mereka mencari di Internet - atau pilih potongan Internet - berdasarkan kata-kata penting,Mereka menjaga indeks dari kata-kata yang mereka temukan, dan di mana mereka menemukan mereka, dan Mereka memungkinkan pengguna untuk mencari kata atau kombinasi kata yang ditemukan dalam Indeks itu. Search Engine awal diadakan indeks beberapa ratus ribu situs/halaman, dan menerima mungkin satu atau dua ribu permintaan setiap hari. Hari ini, Search Engine atas akan mengindeks ratusan juta halaman, dan menanggapi puluhan juta query per hari.
Sebelum Search Engine dapat memberitahu Anda di mana sebuah file atau dokumen, harus
ditemukan. Untuk menemukan informasi tentang ratusan jutaan halaman Web yang ada, Search Engine mempekerjakan robot software khusus, yang disebut laba-laba, untuk membangun daftar kata-kata yang ditemukan di situs Web.
Ketika spidering sedang membangun daftar, proses ini disebut merangkak web. Dalam rangka membangun dan memelihara daftar pengguna kata-kata/keyword, Search Engine yang harus menelusuri banyak halaman. Bagaimana robot laba-laba memulai perjalanan nya menelusuri melalui Web? Titik awal yang biasa adalah daftar server sering digunakan dan sangat populer halaman.
Robot laba-laba akan mulai dengan sebuah situs populer, pengindeksan kata-kata di halaman-halamannya dan mengikuti setiap link yang ditemukan di dalam situs. Dengan cara ini, spidering dengan kemampuan sistemnya dengan cepat mulai perjalanan, menyebar di seluruh yang paling banyak digunakan pada bagian dari Web.
Setelah laba-laba/ spidering telah menyelesaikan tugas mencari informasi di halaman Web , Search Engine harus menyimpan informasi tersebut dengan cara yang membuat web tersebut terindex.
ditemukan. Untuk menemukan informasi tentang ratusan jutaan halaman Web yang ada, Search Engine mempekerjakan robot software khusus, yang disebut laba-laba, untuk membangun daftar kata-kata yang ditemukan di situs Web.
Ketika spidering sedang membangun daftar, proses ini disebut merangkak web. Dalam rangka membangun dan memelihara daftar pengguna kata-kata/keyword, Search Engine yang harus menelusuri banyak halaman. Bagaimana robot laba-laba memulai perjalanan nya menelusuri melalui Web? Titik awal yang biasa adalah daftar server sering digunakan dan sangat populer halaman.
Robot laba-laba akan mulai dengan sebuah situs populer, pengindeksan kata-kata di halaman-halamannya dan mengikuti setiap link yang ditemukan di dalam situs. Dengan cara ini, spidering dengan kemampuan sistemnya dengan cepat mulai perjalanan, menyebar di seluruh yang paling banyak digunakan pada bagian dari Web.
Setelah laba-laba/ spidering telah menyelesaikan tugas mencari informasi di halaman Web , Search Engine harus menyimpan informasi tersebut dengan cara yang membuat web tersebut terindex.
Ada dua komponen kunci yang sering diakses oleh pengguna data :
Informasi yang disimpan dengan data, dan Metode informasi yang diindeks.
Dalam kasus yang paling sederhana, sebuah Search Engine bisa menyimpan kata dan URL di mana web/blog ditemukan. Pada kenyataannya, ini akan membuat kinerja mesin spidering terbatas, karena tidak akan ada cara untuk mengatakan apakah kata ini digunakan penting atau tidak pada halaman, apakah kata itu digunakan sekali atau banyak kali atau apakah halaman itu berisi link ke halaman lain
yang mengandung kata tersebut.
Dengan kata lain, tidak akan ada cara untuk membangun daftar peringkat yang mencoba untuk menyajikan halaman yang paling berguna di bagian atas daftar hasil pencarian.
Untuk membuat hasil yang lebih berguna, Search Engine yang paling banyak menyimpan lebih dari sekedar kata dan URL. Pencarian A Mesin mungkin menyimpan sejumlah banyak kata kunci yang muncul di halaman. Mesin spidering dapat menentukan seberapa bermanfaat bobot untuk setiap entri, dengan nilai peringkat untuk kata-kata seperti yang muncul di dekat bagian atas dokumen, di sub-judul, di link, dalam tag META atau dalam judul halaman.
Setiap Search Engine komersial memiliki formula berbeda untuk menugaskan bobot pada kata-kata dalam indeksnya. Ini adalah salah satu alasan bahwa mesin pencarian untuk kata yang sama di Search Engine yang berbeda akan menghasilkan daftar yang berbeda, dengan halaman disajikan dalam urutan yang berbeda pula.
Indeks memiliki satu tujuan : memungkinkan informasi yang akan ditemukan secepat mungkin. Ada beberapa cara untuk indeks yang akan dibangun, tapi salah satu cara yang paling efektif adalah membangun tabel hash. Dalam hashing, formula yang diterapkan untuk melampirkan nilai numerik untuk setiap kata.
Rumus ini dirancang untuk mendistribusikan entri di sebuah web/blog secara merata yang telah ditetapkan sejumlah divisi. Distribusi ini numerik berbeda dari distribusi kata-kata di seluruh alfabet, dan itu adalah kunci untuk sebuah tabel hash yang efektivitas.
Ketika seseorang meminta pencarian pada kata kunci atau frase, Cari Software mesin mencari indeks untuk informasi yang relevan. Perangkat lunak ini kemudian memberikan laporan kembali ke pencari dengan web yang paling relevan halaman tercantum pertama.
Informasi yang disimpan dengan data, dan Metode informasi yang diindeks.
Dalam kasus yang paling sederhana, sebuah Search Engine bisa menyimpan kata dan URL di mana web/blog ditemukan. Pada kenyataannya, ini akan membuat kinerja mesin spidering terbatas, karena tidak akan ada cara untuk mengatakan apakah kata ini digunakan penting atau tidak pada halaman, apakah kata itu digunakan sekali atau banyak kali atau apakah halaman itu berisi link ke halaman lain
yang mengandung kata tersebut.
Dengan kata lain, tidak akan ada cara untuk membangun daftar peringkat yang mencoba untuk menyajikan halaman yang paling berguna di bagian atas daftar hasil pencarian.
Untuk membuat hasil yang lebih berguna, Search Engine yang paling banyak menyimpan lebih dari sekedar kata dan URL. Pencarian A Mesin mungkin menyimpan sejumlah banyak kata kunci yang muncul di halaman. Mesin spidering dapat menentukan seberapa bermanfaat bobot untuk setiap entri, dengan nilai peringkat untuk kata-kata seperti yang muncul di dekat bagian atas dokumen, di sub-judul, di link, dalam tag META atau dalam judul halaman.
Setiap Search Engine komersial memiliki formula berbeda untuk menugaskan bobot pada kata-kata dalam indeksnya. Ini adalah salah satu alasan bahwa mesin pencarian untuk kata yang sama di Search Engine yang berbeda akan menghasilkan daftar yang berbeda, dengan halaman disajikan dalam urutan yang berbeda pula.
Indeks memiliki satu tujuan : memungkinkan informasi yang akan ditemukan secepat mungkin. Ada beberapa cara untuk indeks yang akan dibangun, tapi salah satu cara yang paling efektif adalah membangun tabel hash. Dalam hashing, formula yang diterapkan untuk melampirkan nilai numerik untuk setiap kata.
Rumus ini dirancang untuk mendistribusikan entri di sebuah web/blog secara merata yang telah ditetapkan sejumlah divisi. Distribusi ini numerik berbeda dari distribusi kata-kata di seluruh alfabet, dan itu adalah kunci untuk sebuah tabel hash yang efektivitas.
Ketika seseorang meminta pencarian pada kata kunci atau frase, Cari Software mesin mencari indeks untuk informasi yang relevan. Perangkat lunak ini kemudian memberikan laporan kembali ke pencari dengan web yang paling relevan halaman tercantum pertama.
0 komentar:
Post a Comment