Solusi sitemap tidak dapat di temukan oleh google search console

sitemap blogger tidak di index

Gea Putrix - Domain dengan ekstensi my.id dan .web.id sudah jarang muncul di pencarian google, banyak dari teman-teman berfikir kalau penggunaan domain seperti ini sudah tidak bisa lagi bersaing di mesin pencari. Pengguna baru juga berfikir dua kali sebelum memutuskan beli domain ekstensi dua dot ini.

Sebenarnya apa sih yang terjadi? Begini, domain dengan ekstensi my.id dan domain web.id merupakan domain murah. Harga jual domain ini kisaran 10 ribu hingga 60 ribu per tahun. Karena harganya yang relatif murah, siapa saja bisa membeli domain ini sebanyak-banyaknya.

Orang kalau buat web sekali buat ada 5 web, mereka fikir bisa lah beli domain banyak-banyak mengingat harganya yang relatif murah. Faktor ini membuat domain dengan harga murah jadi tidak berharga, banyak developer yang fokus hanya untuk meningkatkan jumlah kuantitas di banding kualitas.

Dampaknya domain sangat jarang muncul di penelusuran, baik mesin pencarian paling poluler sekelas google maupun mesin pencarian lain. Pengguna domain merasa kebingungan, dan juga ragu. Sehingga mereka tidak mau ber-investasi lebih dalam untuk mengembangkan website yang menggunakan domain dua dot ini.

Banyak website yang di buat dengan ekstension domain murah tidak profesional, sisi ini juga di nilai oleh visitor atau calon audiens. Karena pengguna domain my.id jarang memperhatikan kualitas konten mereka, orang jadi enggan mengklik tautan ke website kita walaupun berada di halaman pertama mesin pencari.

Keheboan domain ekstension dobel id menjadi lebih panas ketika ada seorang blogger yang beranggapan kalau domain ini sudah di tendang oleh Google, dengan memberikan keterangan beberapa website yang dimana tautan sitemap nya tidak terdeteksi atau tidak bisa di crawl oleh web master.

Padahal bukan di situ masalahnya, penyebab utama tautan sitemap tidak bisa di crawl adalah karena bugs dari produk Google. Bugs webmaster search console, dan juga bugs yang ada di blogspot.

Selagi URL sitemap bisa di akses, tidak memblokir robots spinder dengan file robots.txt, website kita berjalan dalam keadaan normal. Tidak perlu panik, karena mesin pencari google jarang sekali mengindeks URL baru yang berasal dari rujukan sitemap.

Banyak kreator artikel berpendapat kalau yang mempercepat index search engine adalah sitemap. Kalau masih berfikiran seperti itu kamu sudah salah besar, index mesin pencari umumnya lehbih banyak bersumber dari backlink.

Jika kamu punya sebuah halaman yang sudah diindex oleh Google, dan kamu meletakan backlink internal ke halaman lain. Beberapa saat crawling google akan bekerja melihat perubahan yang ada pada laman kamu, begitu ketika Google menemukan URL baru maka ia akan melakukan scraping lagi dan proses indexing untuk halaman baru kamu.

Mesin scrape akan terus merayapi semua URL yang berada dalam satu halaman menuju ke halaman lain tanpa henti. Untuk menghentikan proses perayapan, kamu bisa menambahkan metatag robots.txt guna memberitahukan kepada robot perayap untuk tidak mengakses halaman tersebut.

Karena backlink sangat berpengaruh terhadap proses indexing, makanya perbanyak jumlah backlink daripada submit URL sitemap di berbagai mesin web master pencarian.

Untuk memperkuat pembuktian, coba deh kamu buat 2 buah blog lagi. Yang pertama, kamu share tautan blog ke sosial media, yang kedua jangan. Tunggu 1-3 minggu, sudah pasti blog pertama terindex, dan blog kedua tidak terindex.

Mesin web master Google ( Search console ) memang sering sekali bermasalah. Google membuat ini untuk melalukan analisiss terhadap tautan yang bermasalah di Google.

Adapun masalah yang terjadi adalah Halaman tidak di temukan, akses perayapan di blokir, terdapat susunan schema markup yang salah, dan masih banyak lagi.

Dengan adanya search console, google mengharapkan pemilik situs bisa melacak dan memperbaiki masalah. Jika kamu merasa tidak ada masalah sama sekali, tinggal klik saja minta tinjauan manual dan perbaiki masalah.

Ada banyak situs mesin pencari lain yang tidak menyediakan fitur web master, misalnya Yahoo, Yandex, Duckduckgo, Brave Search. Situs pencari tersebut hanya memanfaatkan robot crawler untuk menemukan halaman web baru.

Proses rangking dan indexing masih tetap sama, yakni berdasarkan jumlah rujukan dari backlink serta bounce rate suatu halaman. Bounce rate adalah nilai pantulan dihitung berdasarkan persentase, seberapa banyak halaman yang di buka oleh visitor * jumlah visitor / 100%.

Semakin kecil nilai bounce rate nya semakin bagus kualitas halaman web. Kenapa? Karena dari sekian banyak visitor mereka tertarik dengan artikel lain, sehingga mengklik halaman yang lain juga.

Mesin Google juga menghitung durabiliti waktu baca (session time) dari sebuah website untuk menentukanya apakah berkualitas atau tidak. Setelah itu barulah proses perangkingan.

Kalau halaman kamu tidak kuat dalam segi backlink, keyword, dan bounce rate jangan berharap banyak. Bahkan halaman web yang baru saja kamu terbitkan hanya akan di abaikan oleh mesin pencari.

Mari kita kembali pada intinya, inti permasalahanya adalah terjadi masalah pada mesin pencari Google sehingga tidak mampu merayapi URL sitemap. Sebagai bukti kongkrit, masalah ini terjadi bukan cuma 1-2 orang tapi banyak orang.

Jadi kamu tidak perlu berharap penuh terhadap tautan sitemap yang tidak diindex. Cukup tingkatkan saja jumlah backlink, dijamin bisa cepat ter-index. Coba periksa URL kamu di Search Console Google.

Di sana ada catatan, situs perujuk. Tahukah kamu apa itu perujuk? Perujuk adalah tempat dimana Google menemukan halaman baru kita. Dari total keseluruhan URL hanya 95% yang di index melalui URL sitemap. Sisanya, diindex karena di backlink oleh halaman lain.

Gea Putri
Gea Putri Content Writter & sekaligus marketer di GEA.MY.ID, mencari pengalaman baru dengan membaca, menulis dan berkreasi lewat konten.