Tahun 2020-an awal, saya pernah pusing tujuh keliling. Waktu itu, saya mengelola website e-commerce kecil. Website ini punya halaman produk yang sama persis di beberapa kategori. Misalnya, satu baju merah muncul di kategori ‘Baju Pria’ dan ‘Diskon’.

Saya meyakini, ‘Ah, ini kan cuma ngulang deskripsi, Google ngerti kok.’ Pikiran saya waktu itu, ini efisiensi. Ternyata, itu awal mula saya kenalan sama yang namanya masalah on page SEO, khususnya soal duplicate content. Website saya malah dianggap ‘kurang orisinal’. Ranking-nya stagnan, bahkan cenderung turun.
Ketika Saya Pikir Copy-Paste Itu Efisien (dan Awal Mula Masalah Duplicate Content SEO)
Dulu, saya sering mikir, ‘Kenapa harus nulis ulang kalau sudah ada?’ Ini bukan soal malas, tapi lebih ke efisiensi. Contoh paling nyata, deskripsi produk yang sama. Untuk varian warna berbeda, atau ukuran berbeda, teks deskripsinya sama persis. Ini terjadi pada lebih dari 100 produk di toko online saya.
Google punya pandangan lain. Bagi mereka, ini bukan efisiensi. Ini redundansi. Saat bot Google merayapi situs saya, mereka menemukan banyak halaman yang isinya identik. Akibatnya, mereka kesulitan menentukan mana versi ‘utama’ yang harus ditampilkan di hasil pencarian.
Saya ingat, traffic organik situs saya tidak pernah naik signifikan. Padahal, saya sudah coba optimasi kata kunci di judul dan meta deskripsi. Ternyata, masalahnya lebih fundamental. Fondasi kontennya sendiri sudah bermasalah. Ini adalah inti dari masalah duplicate content SEO.
Mitos ‘Pinalti Duplicate Content’ yang Bikin Saya Stress (Bukan Itu Intinya dalam SEO)
Banyak artikel bilang, ‘hati-hati kena pinalti duplicate content’. Saya juga sempat panik. Dalam benak saya, Google akan langsung menghukum situs saya. Akibatnya, situs saya bisa hilang dari hasil pencarian.
Realitanya, ini bukan pinalti langsung. Google tidak sengaja ‘menghukum’ situs Anda. Lebih tepatnya, ini adalah ‘filter’ atau ‘diskriminasi’. Algoritma Google bingung. Mereka tidak tahu mana yang harus di-ranking dari sekian banyak versi konten yang sama.
Sebagai ilustrasi, bayangkan Anda punya lima buku dengan judul dan isi yang sama persis. Ketika orang mencari buku itu, mana yang akan Anda rekomendasikan? Google mengalami dilema serupa. Mereka akan memilih satu versi, atau bahkan tidak menampilkan satupun jika semua terlihat tidak unik. Mereka cenderung menyaring konten duplikat agar tidak membanjiri hasil pencarian dengan informasi yang sama berulang kali. Ini yang sering disalahartikan sebagai pinalti.
Membedah Sumber Duplicate Content yang Sering Terlupakan (Selain Copy-Paste Langsung)
Saya dulu cuma fokus pada copy-paste antar domain. Ternyata, sumber duplicate content yang paling sering terjadi justru dari internal situs sendiri. Ini yang lebih sulit dideteksi tanpa alat bantu.
Beberapa contoh yang sering saya temui:
- Versi HTTP vs HTTPS, WWW vs non-WWW: Jika situs Anda bisa diakses dari semua kombinasi ini, berarti ada empat versi URL untuk setiap halaman. Google melihatnya sebagai halaman berbeda.
- URL dengan parameter: Ini sering terjadi di situs e-commerce. Misalnya,
example.com/produk?sort=priceatauexample.com/kategori?page=2. Kontennya sama, tapi URL-nya beda. Saya pernah menemukan 30% halaman kategori saya punya versi URL dengan parameter yang diindeks. Ini saya cek pakai Google Search Console di bagian Coverage, di laporan ‘Halaman yang Dikecualikan’. - Halaman print-friendly: Beberapa CMS otomatis membuat versi halaman yang ramah cetak. Ini juga bisa terindeks.
- Versi mobile terpisah: Jika Anda masih menggunakan m.domain.com, bukan desain responsif.
Di sinilah peran baca juga: Apa Itu Canonical URL? jadi krusial. Menggunakan tag canonical memberitahu Google versi mana yang utama. Ini seperti memberi catatan kecil kepada Googlebot, ‘Hei, ini yang asli, yang lain itu cuma varian.’ Tanpa ini, bot bisa menghabiskan ‘crawl budget’ Anda untuk merayapi halaman duplikat.
Strategi Mengatasi Masalah Duplicate Content Tanpa Merusak Struktur SEO yang Ada
Mengatasi masalah duplicate content SEO bukan sekadar menghapus atau menempelkan canonical tag. Ada beberapa pendekatan, dan setiap pilihan punya konsekuensi.
Pertama, 301 Redirect. Ini cocok untuk konten yang benar-benar sama. Misalnya, Anda punya dua artikel tentang topik yang persis sama. Salah satunya lebih bagus. Anda bisa mengarahkan URL artikel yang kurang bagus ke artikel yang lebih baik. Ini akan mengkonsolidasikan ‘link equity’ ke satu URL. Namun, ada sedikit ‘kehilangan jus’ (sekitar 1-2%) saat redirect.
Kedua, Canonical Tag. Seperti yang saya sebutkan sebelumnya, ini adalah solusi paling umum. Gunakan tag <link rel="canonical" href="URL_utama"> di bagian <head> halaman duplikat. Ini memberitahu Google, ‘Ini bukan halaman unik, tapi versi utamanya ada di sini.’ Ini mempertahankan semua halaman Anda. Tapi, Google menganggap ini sebagai ‘saran’, bukan perintah mutlak. Jadi, implementasinya harus benar.
Ketiga, Noindex Tag. Untuk halaman seperti hasil pencarian internal, halaman filter, atau halaman kategori yang isinya tipis dan tidak ingin diindeks. Anda bisa menambahkan <meta name="robots" content="noindex">. Halaman ini tidak akan muncul di hasil pencarian. Namun, ini tidak mentransfer ‘link equity’ apapun.
Keempat, Re-writing atau Re-purposing. Ini adalah pendekatan paling proaktif. Jika Anda punya konten duplikat yang sebenarnya bisa diperkaya, ubah menjadi unik. Tambahkan detail, perspektif baru, atau data. Ini mengubah konten duplikat menjadi aset unik. Butuh waktu dan tenaga, tapi hasilnya paling optimal untuk SEO.
Penting untuk diingat, setiap pendekatan punya trade-off. 301 redirect efektif tapi ada potensi kehilangan ‘link equity’ kecil. Canonical tag menjaga halaman tetap ada, tapi Google mungkin saja mengabaikannya jika implementasinya salah atau sinyal lain terlalu kuat. Noindex menghilangkan halaman dari indeks sepenuhnya. Memilih strategi yang tepat tergantung pada konteks dan tujuan Anda. Saya pernah keliru menggunakan noindex pada halaman yang seharusnya di-canonical, dan itu merugikan.
Setelah berbulan-bulan pusing dengan masalah duplicate content di situs saya, akhirnya saya memutuskan untuk audit URL secara manual. Menggunakan Screaming Frog, saya mulai mengidentifikasi setiap URL duplikat, satu per satu. Malam itu, saya membuat spreadsheet, mencatat setiap URL, dan merencanakan implementasi canonical tag untuk 50 URL pertama. Ini bukan cuma tentang SEO, ini tentang membangun fondasi yang kokoh.
