Dalam video YouTube yang diunggah 5 Desember lalu, Martin Splitt, developer advocate di Google menjelaskan perbedaan antara perintah tag “noindex” di tag meta robot dan “disallow” di file robots.txt.

Splitt memberitahu kita bahwa kedua metode dapat digunakan untuk membantu mengontrol cara kerja search engine crawler (perayap mesin pencari) dengan website.

Dikarenakan keduanya memiliki tujuan yang berbeda, maka kita tidak boleh menggunakan keduanya sebagai alternatif pengganti antara satu dan yang lainnya.

Kapan Anda Harus Menggunakan Noindex?

Perintah “noindex” memberitahu mesin pencari untuk tidak memasukkan halaman tertentu dalam hasil pencarian mereka.

Teman-teman dapat menambahkan instruksi ini di bagian kepala HTML menggunakan tag meta robots atau header HTTP X-Robots.

Gunakan “noindex” bila Anda ingin agar halaman tidak muncul di hasil pencarian, namun tetap mengizinkan mesin pencari membaca konten halaman.

Perintah ini berguna untuk halaman yang dapat dilihat pengguna tetapi teman-teman tidak ingin mesin pencari menampilkannya di Search Engine Results Page (SERP), contohnya seperti pada Thank you page atau halaman hasil pencarian internal.

Kapan Anda Harus Menggunakan Disallow?

Perintah “disallow” dalam file robots.txt website melarang atau menghentikan perayap mesin pencari mengakses URL tertentu di dalam website.

Ketika sebuah halaman di-disallow, maka mesin pencari tidak akan meng-crawl atau mengindeks kontennya.

Splitt menyarankan kita untuk menggunakan “disallow” ketika kita ingin memblokir mesin pencari secara total agar mereka tidak mengambil atau memproses halaman.

Perintah ini cocok digunakan untuk informasi sensitif, seperti data pribadi pengguna, url login admin, atau untuk halaman yang tidak relevan dengan mesin pencari.

Baca Juga:   Apa Itu Robots.txt & Seperti Apa Perannya untuk Website?

Kesalahan Umum yang Perlu Dihindari

Salah satu kesalahan umum yang dilakukan oleh para webmaster adalah menggunakan perintah “noindex” dan “disallow” untuk satu halaman yang sama.

Splitt menyarankan agar kita tidak melakukan hal ini, karena penggunaan kedua perintah untuk halaman yang sama tersebut dapat menimbulkan masalah.

Jika suatu halaman di-disallow di file robots.txt, mesin pencari tidak dapat melihat perintah “noindex” di tag meta halaman atau header X-Robots.

Akibatnya, halaman tersebut mungkin masih terindeks, meskipun dengan informasi terbatas.

Untuk menghentikan suatu halaman agar tidak muncul di hasil pencarian, Splitt merekomendasikan penggunaan perintah “noindex” tanpa melakukan disallow pada halaman tersebut di file robots.txt.

Google sendiri menyediakan laporan robots.txt di Google Search Console untuk menguji dan memantau bagaimana file robots.txt memengaruhi pengindeksan website teman-teman di Google Search.

Kesimpulan

Memahami penggunaan perintah “noindex” dan “disallow” yang tepat sangat penting bagi para praktisi SEO.

Mengikuti saran Google dan menggunakan testing tool (alat pengujian) yang tersedia akan membantu memastikan konten Anda tampil di hasil pencarian sebagaimana mestinya.

Demikianlah tulisan mengenai saran Google tentang penggunaan noindex dan disallow pada file robots.txt ini, jika Anda memiliki pertanyaan silakan tuliskan di kolom komentar di bawah atau bisa gabung ke grup Telegram DailySEO ID di sini.

Teman-teman juga bisa ajukan topik selanjutnya untuk kami bahas! Jika ingin belajar SEO dari ahlinya, yuk belajar di course-nya DailySEO ID!

Sumber:

Google On Robots.txt: When To Use Noindex vs. Disallow

Dapatkan berita terbaru seputar SEO Gratis!
Subscribe Sekarang!

Baca Juga:   Google: Status Discovered – Currently Not Indexed (Ditemukan - saat ini tidak diindeks) di Search Console bisa Bertahan Selamanya!
Author

I began my SEO journey in 2017 and deepened my expertise in 2019. Since then, I’ve managed SEO for Farmaku.com, DokterSehat.com, and Impulse Digital Agency, while also contributing to DailySEO ID. Now, as a full-time freelancer, I focus on helping B2B companies improve their search visibility and achieve their goals.

Write A Comment