Optimisasi SEO dengan Blogger Custom Robots.txt

Robots.txt (terletak di http://.../robots.txt / http://www.hadacircle.com/robots.txt) adalah file yang merupakan pemberi izin situs Search Engine untuk mengindeks atau tidak atau mengindeks bagian mana saja yang anda bolehkan dari situs/Blog anda. Anda bisa mengoptimalkan dengan mempersingkat atau memangkas tag didalam Robots.txt default blogger.

Tutorial Webmaster, Blogger

Automation Robots


Caranya

1. Dashboard > Setting > Search Preferences > Crawlers and Indexing > Custom Robots.txt

2. Hapus dan ganti Robots.txt dengan

User-agent: *
Disallow:
Disallow: /search
Allow: /search/label

Sitemap: http://www.hadacircle.com/sitemap.xml

3. Ganti www.hadacircle.com dengan situs anda

4. Simpan

Keterangan

User-agent: * (Mengizinkan semua situs pencari mengindeks situs anda)
Disallow: (Karena kosong berarti tidak ada konten yang tidak boleh diindeks, dalam arti seluruh konten situs bisa diindeks dengan pengecualian tag di bawah ini/ di bawahnya)

Disallow: /search (Tidak boleh mengindex semua url setelah /search,
contoh: http://www.hadacircle.com/search?q=keyakizaka

namun ada pengecualian lagi

Allow: /search/label (Membolehkan mengindex halaman label situs anda,
contoh: http://www.hadacircle.com/search/label/Kuliner

Blogger Google Web Robots

0 komentar

Posting Komentar