Banyak blogger atau pemilik website yang kebingungan bagaimana cara mengatasi crawled – currently not indexed di Google Search Console. Karena masalah ini membuat situs tidak bisa terindeks oleh Google.
Jika kita definisikan ke dalam Bahasa Indonesia, maka maksud dari “crawled currently not indexed” adalah dirayapi, saat ini belum diindeks. Jadi, yang maksudnya adalah Google baru merayapi website, belum sampai tahap indeks.
Padahal indeks merupakan tahapan penting sebelum website muncul di pencarian Google. Website yang tidak diindeks oleh Google tidak mungkin akan muncul di search engine.
Biasanya keterangan itu muncul ketika kamu melakukan inspect URL di Google Search Console. Kadang langsung muncul, kadang beberapa hari kemudian baru muncul.
Penyebab Crawled – Currently Not Indexed di Google Search Console
Setidaknya ada beberapa hal yang menyebabkan munculnya pesan kesalahan crawled, currently not indexed dan harus segera kamu atasi yaitu.
1. Konten Tidak Berkualitas
Google tidak mau mengindeks suatu web atau artikel salah satu alasannya adalah karena artikel di dalamnya berkualitas buruk. Apalagi jika artikelnya copas, pastinya website akan sulit terindeks.
Selain itu jika di dalam artikel terlalu banyak memasukkan keyword utama sehingga terjadi keyword stuffing, biasanya Google akan menganggap kualitasnya tidak bagus sehingga sulit terindeks.
2. Update Algoritma
Terkadang masalah pengindeksan terjadi bukan karena masalah pada website atau konten yang ada di dalamnya, melainkan karena Google yang sedang mengalami update Algoritma.
Jika memang hal ini yang terjadi, seharusnya teman kamu juga mengalami hal yang sama. Tetapi, jika indeks webmu bermasalah sedangkan website milik temanmu tidak ada masalah, berarti penyebabnya bukan ini.
3. Server Website Down
Saat kamu sudah melakukan inspeksi URL dan submit sitemap di Google Search Console ternyata artikelnya tidak terindeks Google, salah satu hal yang menjadi penyebabnya yaitu server website yang down.
Google tidak akan pernah mengindeks website yang servernya down karena dianggap tidak aktif. Itulah alasan mengapa kamu harus memilih server hosting atau VPS yang bagus untuk membuat website supaya hal demikian tidak terjadi.
Jagoan Hosting menyediakan layanan hosting terbaik bergaransi dengan uptime mencapai 99,99% dan sistem keamanan yang sangat canggih. Hal ini membuat website kamu menjadi lebih aman dan cepat untuk diakses.
4. Kesalahan Konfigurasi Robots.txt
Robots.txt adalah file berisi sintaks untuk mengatur halaman mana saja yang bisa dicrawl oleh Google Bot. Secara default, pasti file robots.txt mengizinkan Googlebot untuk merayapi artikel yang ada di dalamnya.
Apabila sebelumnya dengan sengaja ataupun tanpa sengaja kamu sudah mengutak atik konfigurasi robots.txt, bisa saja ada kesalahan sehingga membuat web kamu tidak dirayapi. Kalau sudah tidak dirayapi, secara otomatis tidak akan terindeks.
Cara Mengatasi Crawled – Currently Not Indexed
Setelah kamu mengetahui apa saja hal-hal yang menjadi pemicunya, sekarang saatnya kamu mengatasi masalah-masalah pengindeksan dengan cara sebagai berikut.
1. Buat Artikel yang Bagus
Pertama, pastikan artikel yang kamu buat benar-benar berkualitas. Tidak hanya ramah terhadap mesin pencari, tetapi juga ramah terhadap user atau pengunjung. Kalau lima artikel tidak terindeks, maka perbaiki kelima artikel tersebut.
Karena ketika artikelmu bagus, maka Google akan cepat merayapi dan mengindeks website yang kamu miliki. Alhasil, website tersebut bisa muncul di pencarian Google.
Jangan sekali-kali membuat artikel copas karena membuat Google semakin tidak mau merayapi konten itu. Tidak hanya itu saja, terlalu banyak artikel copy paste di dalamnya membuat website kamu masuk ke dalam daftar hitam.
Selain itu, perhatikan juga keyword-keyword yang ada di dalam artikel jangan sampai jumlahnya terlalu banyak. Tambahkan LSI atau keyword turunan, link yang mengandung keyword, dan meta deskripsi yang mengandung keyword.
Jika kamu berhasil membuat artikel SEO friendly yang berkualitas, maka Google akan mudah merayapi dan mengindeks situs web.
2. Gunakan Robots.txt Default
Cara mengatasi crawled – currently not indexed bisa dengan menggunakan robots.txt default. Metode ini bisa kamu lakukan jika memang sumber masalahnya adalah robots.txt.
Tidak perlu mengubah robots.txt. cukup gunakan saja defaultnya karena settingannya sudah cukup membuat website terindeks di Google.
3. Submit Kembali Artikel di Google Search Console
Setelah kamu memastikan artikel sudah bagus dan memenuhi kaidah SEO serta konfigurasi robots.txt tidak mengalami masalah, cobalah kembali melakukan inspeksi URL di Google Search Console.
Apabila ada 5 artikel yang mengalami masalah pengindeksan, maka kamu harus 5 kali inspeksi URL. Alangkah lebih baik tidak melakukannya dalam waktu berdekatan, tetapi kasih jarak waktu 5-10 menit per artikel.
Selain itu, jangan lupa untuk submit sitemap kembali. Kamu hanya perlu melakukannya satu kali saja, tidak perlu sampai lima kali.
4. Validasi Kesalahan di Google Search Console
Pada bagian pengindeksan halaman di Google Search Console, silakan klik validasi sekarang untuk memberitahu Google bahwasanya kamu tidak memperbaiki masalah pengindeksan.
Selanjutnya Google mulai akan melakukan pemeriksaan antara satu minggu hingga dua minggu. Jadi, setelah melakukan validasi tunggu saja dan tetap update artikel berkualitas seperti biasanya.
Dengan rajin update artikel dapat memberikan nilai lebih untuk website kamu di mata Google. Demikian penjelasan cara mengatasi crawled – currently not indexed di Google Search Console, silakan dicoba.
FAQ
Apa itu indeks Google?
Indeks Google adalah pencantuman semua halaman web yang diketahui Google di mesin pencari.
Berapa lama proses pengindeksan setelah melakukan semuanya?
Jawabannya bisa lama dan bisa sebentar tergantung antrian.
Apakah cara tersebut berlaku untuk CMS Blogger maupun WordPress?
Ya, cara di atas dapat dilakukan baik oleh pengguna Blogger maupun WordPress.