Çok eski bir web tarayıcısı kullanıyorsunuz. Bu veya diğer siteleri görüntülemekte sorunlar yaşayabilirsiniz.. Tarayıcınızı güncellemeli veya alternatif bir tarayıcı kullanmalısınız.
Sorunun özeti
robots.txt dosyasında yapılan hatalar genelde iki şeye yol açar:
Google gibi arama motorlarının siteyi doğru tarayamaması
Önemli sayfaların index dışında kalması veya gereksiz sayfaların indeksi şişirmesi
Aşağıda en sık görülen robots.txt hatalarını ve ne anlama geldiklerini toparladım.
1) Tüm Siteyi Yanlışlıkla Kapatmak
En kritik ve maalesef en sık hata:
Kod:
User-agent: *
Disallow: /
Bu satırlar, bütün sitenin taranmasını yasaklar.
Geliştirme ortamından canlıya geçerken unutulabiliyor.
Sonuç: Sayfaların index’ten düşmesi, organik trafiğin yok olması.
2) Önemli Sayfaları/URL Gruplarını Engellemek
Yanlış desen kullanımıyla şu tip hatalar olabiliyor:
Kod:
User-agent: *
Disallow: /blog
Bu, hem /blog klasörünü hem de içindeki tüm yazıları engeller. Amaç sadece filtre sayfalarını engellemekse fazla geniş bir kural olur.
Sonuç: İçerik sayfaların SERP’ten tamamen kaybolması.
3) noindex ve Robots.txt Etkileşimi
robots.txt ile engellediğin bir sayfaya <meta name="robots" content="noindex"> koyduğunda, bot o sayfaya hiç giremeyeceği için noindex etiketini de göremez.
Yani:
Hem Disallow hem noindex beraber kullanmak genelde mantıksız
Index’ten düşmesini istiyorsan önce noindex, sonra gerekiyorsa Disallow
4) Canonical ve Robots Çakışması
Engellenmiş URL’nin canonical’ı farklı bir sayfaya işaret ediyorsa, Google bu sinyalleri yorumlamakta zorlanabilir.
Örnek sorunlu durum:
/kategori/?sayfa=2 robots.txt ile engelli
Ama sayfada rel="canonical" ile /kategori/ adresine işaret edilmiş
Tarama engelli olduğu için canonical’ı göremez.
5) Sitemap Yolunu Yanlış Göstermek veya Hiç Göstermemek
Doğru kullanım:
Kod:
Sitemap: https://www.siteadi.com/sitemap.xml
Hatalar:
URL yanlış (404 veren sitemap)
HTTP/HTTPS karışıklığı
Alan adı değişmiş, eski domainde kalmış sitemap yolu
Sonuç: Site haritasının tam verimli kullanılmaması, tarama verimsizliği.
6) Yanlış User-Agent Kullanımı
Bazı örneklerde yanlış bot adı yazılıyor:
Kod:
User-agent: GoogleBot
Disallow: /ornek/
Doğrusu:
Kod:
User-agent: Googlebot
Disallow: /ornek/
Büyük/küçük harf ve yazım hataları nedeniyle kural uygulanmıyor.
7) Sentaks / Biçim Hataları
: karakterini unutmak (örn. Disallow /ornek/)
Satır başına bir kural yazmamak
Gereksiz boşluklar, tab karakterleri
Yorum satırlarını # ile başlatmamak
Bu tip hatalarda bazı botlar toleranslı davranır, bazıları davranmaz; tutarsız sonuçlar doğurabilir.
8) Geliştirme Ortamı ile Canlı Ortamı Karışması
Staging/test sitede şu mantıklı:
Kod:
User-agent: *
Disallow: /
Ama bu dosya canlıya kopyalanırsa facia.
Sonuç: Yeni site yayına alınır alınmaz tarama durur, yeni içerikler indexlenmez.
9) Performansla İlgili Yanlış Beklentiler
robots.txt sadece tarama izni/vermemeyi yönetir, kaldırma veya gizleme aracı değildir.
Bazı hatalı beklentiler:
“Disallow verdim, sayfa Google’dan hemen kaybolur” → Yanlış
“Disallow yaptım, kullanıcılar sayfayı göremez” → Yanlış (sadece botlar için)
10) Google Search Console’daki Robots Hatalarını Yok Saymak
Search Console’da:
Tarama istatistiklerinde robots yüzünden engellenmiş çok sayfa
URL Denetleme aracında “Bu sayfanın taranmasına robots.txt engel oluyor” uyarısı
Bunları dikkate almamak, özellikle e-ticaret ve büyük sitelerde ciddi trafik kaybı yaratabilir.
11) Gereksiz Aşırı Engelleme
Bazıları “tarama bütçesini koruyacağım” diyerek çok agresif disallow kuralları yazıyor:
Dünya üzerindeki ilk web sitesi, 1991 yılında Tim Berners-Lee tarafından yayınlandı.
Google, bir sayfanın ilk 100 kelimesine diğer bölümlerden daha fazla önem verir.
Sayfa açılış hızı 3 saniyeyi geçerse kullanıcıların %50’si siteyi terk eder.
HTTPS olmayan siteler Chrome’da “Güvenli Değil” olarak işaretlenir.
Aynı içerik farklı URL’lerde varsa Google bunu kopya içerik sayar.
Başlık etiketi (title) 60 karakteri geçerse Google sonunu keser.
Meta açıklamalar sıralamayı değil, tıklanma oranını (CTR) etkiler.
H1 etiketi bir sayfada yalnızca 1 tane olmalıdır.
Mobil uyumlu olmayan siteler Google’da ciddi sıralama kaybı yaşar.
Robots.txt yanlış ayarlanırsa sitenin tamamı dizinden çıkabilir.
XML sitemap, Google’a “önemli sayfalarım bunlar” demenin yoludur.
404 hataları kullanıcı deneyimini ve SEO’yu olumsuz etkiler.
Backlink sayısından çok, backlink kalitesi önemlidir.
Anahtar kelimeyi URL içinde kullanmak hâlâ etkilidir.
Görsellerin dosya boyutu büyükse site hızını düşürür.
ALT etiketi olmayan görseller SEO açısından eksiktir.
İç linkleme, Google botlarının siteyi daha iyi taramasını sağlar.
Aynı IP’den çok sayıda backlink almak spam olarak algılanabilir.
Domain yaşı tek başına sıralama garantisi değildir.
Uzun içerik ≠ kaliteli içerik; önemli olan kullanıcıyı tatmin etmesi.
Google, kullanıcı sitede ne kadar kalıyor buna dikkat eder.
Sayfa başına tek odak anahtar kelime en sağlıklı yaklaşımdır.
Site haritası güncel değilse yeni sayfalar geç indekslenir.
WWW ve non-WWW yönlendirmesi yapılmazsa kopya sorun oluşur.
Schema (yapısal veri) kullanmak zengin sonuç şansını artırır.
Çok fazla reklam, kullanıcıyı siteden kaçırır.
SSL sertifikası artık SEO için bir “zorunluluktur”.
Google, özgün ama faydasız içeriği de geriye atar.
Forumlarda aktif kullanıcı, pasif üyeden daha değerlidir.
SEO kısa vadeli değil, sabır isteyen uzun vadeli bir süreçtir.
Dikkat!
İçerik sağlayıcı paylaşım sitesi olarak hizmet veren WebmasterForum.NET adresimizde, 5651 Sayılı Kanun’un 8. maddesi ile Türk Ceza Kanunu’nun 125. maddesi uyarınca, üyelerimiz tarafından yapılan tüm paylaşımların hukuki sorumluluğu ilgili üyeye aittir.
WebmasterForum.NET hakkında yapılacak tüm hukuki şikayetler, iletişim bağlantımız üzerinden tarafımıza iletildikten sonra en geç 3 (üç) gün içerisinde ilgili mevzuat çerçevesinde incelenecek, gerekli işlemler yapılacak ve başvuru sahibine bilgi verilecektir.
Bu site çerezler kullanır. Bu siteyi kullanmaya devam ederek çerez kullanımımızı kabul etmiş olursunuz.