Laman

Jumat, 09 November 2012

Cara Kerja Mesin Pencarian

Sebelumnya Saya telah merincikan tentang 5 Web Browser dan 5 Search Engine. 
Nah, sekarang saya akan merimcikam tetang cara kerja mesin pencarain.  
   Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.
Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan. 
   Indexing, Komponen ini melakukan aktifitas untuk menguraikan masing-masing halaman dan meneliti berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan, tag HTML khusus, dll. Selain itu, Indexing adalah Mesin pencari yang mengindeks mengumpulkan, parse, dan menyimpan data untuk memudahkan pencarian informasi yang cepat dan akurat. Desain indeks menggabungkan konsep interdisipliner dari linguistik, psikologi kognitif, matematika, informatika, fisika, dan ilmu komputer. Nama alternatif untuk proses dalam konteks mesin pencari yang dirancang untuk menemukan halaman web di Internet adalah pengindeksan web.   
     Searching, Komponen ini melakukan aktifitas berupa hasil dari tampilan pencarian dari Web Crawel maupun Indexing. Hasil yang ditampilkan dapat berupa teks,gambar,video,dll. 

Itulah beberapa penjelasan tentang "Cara Kerja Mesin Pencarian" dari saya. Semoga bermanfaat bagi kita semua :)