Skip to main content

Cara Mengatasi Duplikat Meta Description

Cara mengatasi duplikat konten pada meta description ini erat kaitannya dengan meta tag dan robots txt yang kita pakai, karena kalau kita salah memasang malah akan berakibat terkena duplikat konten.

Berbahayakah kalau sudah terkena duplikat konten ini?

Duplikat content itu sendiri ada banyak jenisnya, dan yang paling berbahaya yang bisa menurunkan kualitas SEO meliputi:
akibat terkena duplikat konten
  • Duplikat isi konten - Ini terjadi akibat dari isi konten yang merupakan hasil copas konten orang lain atau pun konten kita sendiri, dan dampak buruknya akan di blok oleh robot txt. Jadi usahakan buat konten yang unik pada setiap postingan atau halaman.
  • Duplikat Meta Description - Merupakan duplikat yang terjadi akibat URL yang sama pada blog kita terindex mesin telusur. Misalnya www.example.com/search/label, www.example.com/2017/7, dll. Semua Url itu memiliki meta description yang sama seperti url home page. 
Untuk duplikat konten pada meta description ini kita memerlukan kanonikasi url bisa sambil baca disini untuk memperdalam pemahaman Menggunakan URL kanonis .
Meta tag rel canonical ini yang akan menjelaskan kepada robot txt dimana letak URL ASLI sebuah web atau blog, sehingga tidak terjadi kesalahan dalam mengindex.

Dan perlu diperhatikan bahwa banyak beredar meta tag dan template yang mengunkan code ngaur, yang mengatas namakan code ajaib SEO, namun malah membuat bingung googlebot. Jangan langsung percaya sama label meta tag SEO. Ini hanya strategi marketing, yang kadang dipergunakan oleh oknum-oknum yang tidak bertanggung jawab yang sama sekali gak paham SEO.

Hal apa saja yang harus kita lakukan jika sudah terlanjur terkena duplikasi pada blog khusunya untuk blogger?

Bersihkan meta tag antara code <head> dengan < b:skin . lalu gunakan code standar blogger ini:
<meta content='width=device-width, initial-scale=1' name='viewport'/> <title><data:view.title.escaped/></title> <b:include data='blog' name='all-head-content'/>

Cek robots txt sobat dengan membuka http://example.com/robots.txt , untuk code robots txt standar google yang baik seperti contoh dibawah ini:
User-agent: Mediapartners-Google
Disallow: 

User-agent: *
Disallow: /search
Allow: /

Sitemap: http://example.com/sitemap.xml

    cara menganti code robots txt bisa menuju ke setelan > Preferensi penelusuran > Robots.txt Khusus > Edit > Ya > Paste codenya > Simpan.

    setting Robots txt Khusus

    Cara yang terakhir yang biasa orang lakukan adalah memblok url arsip dan label dengan meta tag ataupun melalui setelan Tag tajuk robot khusus, Namun saya pribadi tidak melakukan hal demikian karena saya berspekulasi lain mengenai SEO.

    Ada beberapa artikel yang menurut saya sangat kuat dalam menjelaskan tentang crawl robot google dalam mengindeks laman. Sehingga saya lebih memilih untuk membiarkan kerja googlebot secara maksimal, ketimbang nanti malah dikasih nilai minus untuk kategori crawl.

    Kalau kita bisa sabar sebenarnya dengan menggunkan cara diatas sudah sangat cukup untuk mengatasi duplikat meta description maupun duplikat lainnya. Lambat laun duplikasi akan hilang dengan alami namun ini memerlukan waktu yang lama dan kebanyakan orang selalu tidak sabaran termasuk saya,hehe.


    Comments

    Post a Comment