Sabtu, 13 Agustus 2011

Cara Menghapus Crawl Error di Google Webmaster Tool

Cara Menghapus Crawl Error di Google Webmaster Tool
Pernahkan sahabat blogger yang telah mendaftar sitemap di Google Webmaster Tool menemukan ada halaman – halaman blog yang not found ? Dimana halaman ini mengalami error saat spider bot mengcrawl blog kita. Bila kita mengalami hal ini, jangan pernah biarkan, segeralah kita hapus url halaman yang error tersebut di Webmaster Tool Google agar proses crawl search engine google tidak terhambat.

Berikut beberapa cara yang harus ditempuh untuk menghapus crawl error di Google Webmaster Tool :


A. Menghapus url not found di Google Webmaster Tool :

1. Pertama kita masuk ke halaman Dashboard Google Webmaster Tool.
Cara Menghapus Crawl Error di Google Webmaster Tool
2. Setelah berhasil masuk di halaman Dashboard Google Webmaster Tool, segera kita klik link Not Found.
Cara Menghapus Crawl Error di Google Webmaster Tool
3. Pada halaman Crawl Errors, kita copy url yang ditunjukkan pada halaman ini. Url tersebut adalah semua url error yang menuju blog kita.


4. Kemudian pada link menu Google Webmaster Tool, kita klik menu Site Configuration lalu pilih submenu Crawler Access.
Cara Menghapus Crawl Error di Google Webmaster Tool

5. Proses selanjutnya adalah kita akan di bawa menuju halaman Crawler Access, di halaman ini kita harus klik link Remove URL .
6. Kita klik tombol New Removal Request lalu paste url yang telah kita copy pada langkah nomor 3 tadi. Kemudian klik tombol Continue untuk melakukan langkah berikutnya.
Cara Menghapus Crawl Error di Google Webmaster Tool
7. Pada langkah ini, kita akan diberi 3 pilihan menghapus url yang error dan pilih salah satunya.
Remove page from search results and cache : menghapus url error dari halaman hasil search engine google dan proses cache.
Remove page from chace only : menghapus url error dari proses cache saja.
Remove directory : menghapus url error dari directori google.
Cara Menghapus Crawl Error di Google Webmaster Tool
8. Terakhir klik Submit Request.
Catatan : Kita lakukan cara yang sama seperti uraian di atas apabila ada url lainnya yang not found pada Google Webmaster Tool . Proses remove membutuhkan waktu yang lama jadi biasanya url yang kita remove tersebut akan pending lebih dulu.

B. Menghapus broken link di blog.

Bila kita telusuri dimana sebuah spider bot menemukan url blog yang terindikasi error saat di crawl maka kita bisa mengeceknya menggunakan Google Webmaster Tool. Caranya :
1. Pertama kita masuk ke halaman Dashboard Google Webmaster Tool.
Cara Menghapus Crawl Error di Google Webmaster Tool
2. Setelah berhasil masuk di halaman Dashboard Google Webmaster Tool, segera kita klik link Not Found.
Cara Menghapus Crawl Error di Google Webmaster Tool
3. Pada halaman Crawl Errors, kita klik link yang ada di bawah Linked From pada masing - masing url yang terindikasi not found tersebut.
Cara Menghapus Crawl Error di Google Webmaster Tool
4. Pada halaman selanjutnya, kita akan di beri tahu dimana kita menaruh broken link yang mengakibatkan proses crawl menjadi error. Segeralah kita hapus broken link tersebut agar spider bot tidak lagi menemui url yang rusak ini. Bila link rusak itu ada di blog orang lain, sebaiknya kita minta pada pemilik blog tersebut untuk menghapusnya demi kebaikan bersama.

Karena lamanya proses penghapusan url yang mengalami crawl error pada Google Webmaster Tool maka kita harus menghindari terjadinya hal - hal yang menyebabkan url not found.

Berikut cara menghindari terjadinya url not found di Google Webmaster Tool :

1. Kita hindari penghapusan posting yang telah terpublish.
Posting yang telah terpubish oleh spider bot akan di crawling, apabila kita menghapusnya maka spider bot tidak akan menemui posting tersebut dan mencatatnya pada Google Webmaster Tool sebagai url not found.
Spider bot secara rutin selalu mengunjungi blog kita. Url yang telah kita hapus ini akan terus di crawl oleh spider bot google meskipun sebelumnya telah di crawl dan menghasilkan not found, untuk menghindari crawl yang menghambat lancarnya proses crawling blog maka kita hindari penghapusan konten - konten yang telah kita publikasikan..
2. Hapus broken link pada blog.
Spider bot selain mengcrawl text yang ada dalam halaman posting kita juga menelusuri seluruh link yang ada pada halaman posting. Jadi sebaiknya kita cek segala link yang ada pada blog kita dan pastikan tidak ada broken link baik itu dari link yang kita buat maupun link yang pengunjung buat di kotak komentar blog. Bila kita temukan ada link yang rusak maka segeralah kita hapus link tersebut.
3. Jangan membuat broken link.
Pastikan pula agar kita tidak membuat broken link / link yang rusak, baik itu pada halaman blog kita sendiri maupun halaman blog lain saat kita membuat backlink untuk blog kita.

Semoga ulasan tentang Cara menghapus crawl error di google webmaster tool bisa memberi manfaat bagi sahabat blogger ...

35 komentar:

nico mengatakan...

saya sudah coba.. dan akhirnya berhasil... tp efeknya adalah indek google menurun dikit..


oh iya, link kamu udah tak pasang di sidebar.. tolong pasang disini ya

Rina As mengatakan...

@nico : Yang menurun jumlah index google ya? mungkin karena url yang error tersebut di hapus dari webmaster tool jadi jumlah halaman index-nya akan berkurang. Tapi untuk proses crawl-nya akan semakin cepat dan lebih baik.
link kamu sudah saya pasang, terima kasih sudah mengajak saya untuk bertukar link...

Iskaruji dot com mengatakan...

+1 dulu....
kebetulan punyaku ada juga crawl error..langsung ke TKP untuk mencoba..Nice tips banget and happy blogging!

livejurnal69 mengatakan...

Salam Kenal sobat.
berhubung tidak bisa komentar di halaman tukar link jadi saya berkomentar disini.
link sobat sudah saya pasang di blog saya silakan ke TKP di halama tukar link untuk mengecek.
pasang juga link blog saya

tittle:JurnalSecience
link :http://jurnalsecience.blogspot.com

terima kasih

Rina As mengatakan...

@Iskaruji dot com : Semoga sukses ya..
@Livejurnal69 : konfirmasi juga bisa dilakukan melalui halaman kontak..
Link anda sudah saya pasang, terima kasih sudah mengajak saya untuk bertukar link.

ahmad fauzi mengatakan...

Terimakasih atas ulasannya...ternyata ada 4 crawl error...tinggal mengontrol statusnya yg masih pending tersebut..kita tunggu kira kira berapa lama ya google menghapusnya...

Rina As mengatakan...

@Ahmad fauzi : lama penghapusannya sepertinya tidak menentu...
Sekitar 2 bulan yang lalu saya me-remove url yang error sampai saat ini belum terhapus juga masih ada dalam daftar not found sedang satu url lagi yang telah saya remove satu bulan yang lalu kini sudah berhasil terhapus di Google Webmaster Tool

Mahardhieka mengatakan...

Jadi begininya teh --" makasihnya teh, aku kita gak begitu penting hehehe... :)

berguna banget teh, btw isinya tentang seo semua. sekali-sekali publish tentang diri tetehlah {_

aldio mengatakan...

kemarin ane juga baru nulis artikel seperti ini ni, mantap deh N semangaaaat teruus :)

Naughtyric mengatakan...

terimakasih tip nya kebetulan punyaku banyak yg error nih :)

Rina As mengatakan...

@Mahardhieka : terima kasih buat sarannya..

kurt mengatakan...

Terima kasih sudah berkunjung ke tempatku
kunjungan balik neh..
saya blm pernah dapat tips, dan saya akan coba tip menarik ini.. thanks ya

TispUnik mengatakan...

mungkin banyaknya link yang rusak dapat berakibat buruk pada blog kita ya gan

id290 mengatakan...

info yang sangat bermanfaat...sudah saya coba di blog saya http://id290.blogspot.com/2011/10/tips-untuk-menghindari-link-yang-putus.html
Terima kasih telah berbagi...sukses selalu...

piouswino mengatakan...

artikelnya bagus mbak, penjelasannya singkat dan padat, terimakasih pencerahannya yah :)

Anonim mengatakan...

mba, kalo yg di Restricted by robots.txt ‎(9)‎ Unreachable ‎(1)‎, itu perlu di hapus tak?
mohon pencerahannya.

Rina As mengatakan...

@Anonim : restricted by robots.txt merupakan laporan yang menyatakan spider bot google tidak mengcrawl halaman yang ada dalam list tersebut, ini semua atas perintah yang kita sampaikan melalui file robots.txt. Menurut saya tidak masalah bila kita tidak menghapusnya.
Unreachable berisi list halaman blog yang mengalami 100% kegagalan crawling, saya pernah mengalaminya. Kalau dari blog saya, alasannya karena saat itu ukuran halamannya terlalu besar sehingga menyebabkan halaman lambat di akses dan ini menimbulkan kegagalan proses crawl yang dilakukan oleh spider bot google. ada baiknya kita perkecil loading blog agar ringan dicrawling. Bila spider bot mengunjungi halaman ini dan dapat mengcrawlnya kembali pasti laporan ini akan hilang dengan sendirinya.

Uzumaki-Lover mengatakan...

Wah, bagus sekali artikelnya sangat bermanfaat bagi newbie seperti saya. Memang punya saya ada beberapa yg crawl error.. :D
Thanks

Anonim mengatakan...

itu cara hapusnya satu-persatu ya?, klo yg errornya dikit sih gpp, gmna kalo errornya banyak... bsa keriting nie jari kalo hapus atu2.
ada saran?

makasih..

onlinegames mengatakan...

ia error di websiteku lebih dari 1000 page, gimana ya cara menghapus semua yang error?

Rina As mengatakan...

@Anonim, @onlinegames : sepertinya.. caranya masih harus dilakukan satu per satu seperti yang diuraikan di atas. Kita Berharap saja nanti Webmaster Tool dapat memberikan fasilitas penghapusan crawl error secara massal. Beberapa blog/web self hosting dapat menyiasatinya dengan mensetting halaman 404 error yang dialihkan pada halaman penting blog seperti halaman posting dll

Uzumaki Lovers mengatakan...

Mohon dijelaskan bagaimana caranya menghapus broken link di blog (langkah B yang nomor 4). Saya masih kurang paham dengan point tersebut (cara menghapusnya dari mana ?). Maaf ya, karena saya masih newbie..
Terima kasih,, :D

Rina As mengatakan...

@Uzumaki Lovers : Langkah B tersebut kita pergunakan untuk mencari tahu dimana lokasi broken link blog berada. Jadi seluruh url yang ada dalam list nomor 4 di atas adalah halaman - halaman yang memasang broken link blog kita. Bila itu halaman blog kita sebaiknya broken link tersebut kita hapus dari halaman itu namun apabila letaknya pada blog lain segeralah kita meminta tolong pada pemilik blog untuk menghapuskannya.

Berbagi Kreativitas mengatakan...

Cocok banget nih artikelnya. ketebetulan lagi belajar webmaster tools thanks ya infonya, jika berkenan main-main lah ke blog saya bagus untuk optimalisasi ini :D

Berbagi Kreativitas | Free Tutorial Blog, SEO | Mudah Dan Cepat mengatakan...

Hah.. Gimana kasusnya ini? kok crawl error url blog saya gak juga bersih.. Waktu yang dibutuhkan sendiri untuk Webmaster tools delete itu url berapa lama ya? Soalnya sudah lama ada kurang lebih 1 minggu tetep juga masih ada. Ada solusi mungkin?? :)

Anonim mengatakan...

crawl error di blog saya udah 2 minnggu muter2 selesain ini tapi lum nongol juga iklannya !

tangki mengatakan...

Nice info... Memang benar proses request delete url memakan waktu yang lama. Saya sudah lakukan requset delete, tapi setiap saya cek google webmaster, masih ada saja url yang mau saya delete tersebut...

tangki mengatakan...

Mbak Rina, saya sudah berhasil mendelete url error nya. Tapi saya masih bingung dalam menentukan ke-3 pilihan Remove page from search result and cache, Remove page from cache only, atau Remove directory... Khususnya kegunaan spesifik dari masing2 pilihan tersebut... Sebaiknya menggunakan yang mana ya mbak?

Terimakasih atas bantuannya...
Sukses selalu,

Rina As mengatakan...

@tangki : silahkan baca langkah A.7, saya telah menjelaskan fungsi tentang ke-3 opsi tersebut. Bila ada yang kurang jelas, silahkan ditanyakan lagi melalui kotak komentar

arie5758 mengatakan...

Jadi semakin terbuka wawasan nih, ternyata penyebab broken link juga karena komentator salah nulis link. Terima kasih sist tips-nya.. segera melakukan pengecekan dulu.

Happy blogging ya :)

Wahid Sahidu mengatakan...

wah ane mau ke tkp dolo ni gan mau cek berapa banayk errornya

adjeng mengatakan...

gimana cara nya hapus crawl error..nih..pusing..

Rina As mengatakan...

@adjeng : silahkan ikuti langkah - langkah di atas, bila ada yang kurang jelas bisa anda tanyakan melalui kotak komentar di bawah ini.

Miftah mengatakan...

kan di dashboard webmaster klik yang not pound, tapi kalau not poundnya tidak dapat di klik, apakah link not pound tersebut sudah dihapus???

Rina As mengatakan...

@Miftah : silahkan klik menu Diagnostics lalu pilih crawl errors.