Web Analytics Made Easy - Statcounter

Tema düzenleyici

Soru Robots.txt Hataları Nelerdir?

Robots.txt Hataları Nelerdir?

Sorunun özeti
robots.txt dosyasında yapılan hatalar genelde iki şeye yol açar:
  • Google gibi arama motorlarının siteyi doğru tarayamaması
  • Önemli sayfaların index dışında kalması veya gereksiz sayfaların indeksi şişirmesi

Aşağıda en sık görülen robots.txt hatalarını ve ne anlama geldiklerini toparladım.

1) Tüm Siteyi Yanlışlıkla Kapatmak
En kritik ve maalesef en sık hata:

Kod:
User-agent: *
Disallow: /

Bu satırlar, bütün sitenin taranmasını yasaklar.
Geliştirme ortamından canlıya geçerken unutulabiliyor.

Sonuç: Sayfaların index’ten düşmesi, organik trafiğin yok olması.

2) Önemli Sayfaları/URL Gruplarını Engellemek
Yanlış desen kullanımıyla şu tip hatalar olabiliyor:

Kod:
User-agent: *
Disallow: /blog

Bu, hem /blog klasörünü hem de içindeki tüm yazıları engeller. Amaç sadece filtre sayfalarını engellemekse fazla geniş bir kural olur.

Sonuç: İçerik sayfaların SERP’ten tamamen kaybolması.

3) noindex ve Robots.txt Etkileşimi
robots.txt ile engellediğin bir sayfaya <meta name="robots" content="noindex"> koyduğunda, bot o sayfaya hiç giremeyeceği için noindex etiketini de göremez.

Yani:
  • Hem Disallow hem noindex beraber kullanmak genelde mantıksız
  • Index’ten düşmesini istiyorsan önce noindex, sonra gerekiyorsa Disallow

4) Canonical ve Robots Çakışması
Engellenmiş URL’nin canonical’ı farklı bir sayfaya işaret ediyorsa, Google bu sinyalleri yorumlamakta zorlanabilir.

Örnek sorunlu durum:
  • /kategori/?sayfa=2 robots.txt ile engelli
  • Ama sayfada rel="canonical" ile /kategori/ adresine işaret edilmiş

Tarama engelli olduğu için canonical’ı göremez.

5) Sitemap Yolunu Yanlış Göstermek veya Hiç Göstermemek

Doğru kullanım:
Kod:
Sitemap: https://www.siteadi.com/sitemap.xml

Hatalar:
  • URL yanlış (404 veren sitemap)
  • HTTP/HTTPS karışıklığı
  • Alan adı değişmiş, eski domainde kalmış sitemap yolu

Sonuç: Site haritasının tam verimli kullanılmaması, tarama verimsizliği.

6) Yanlış User-Agent Kullanımı
Bazı örneklerde yanlış bot adı yazılıyor:

Kod:
User-agent: GoogleBot
Disallow: /ornek/

Doğrusu:

Kod:
User-agent: Googlebot
Disallow: /ornek/

Büyük/küçük harf ve yazım hataları nedeniyle kural uygulanmıyor.

7) Sentaks / Biçim Hataları
  • : karakterini unutmak (örn. Disallow /ornek/)
  • Satır başına bir kural yazmamak
  • Gereksiz boşluklar, tab karakterleri
  • Yorum satırlarını # ile başlatmamak

Bu tip hatalarda bazı botlar toleranslı davranır, bazıları davranmaz; tutarsız sonuçlar doğurabilir.

8) Geliştirme Ortamı ile Canlı Ortamı Karışması
Staging/test sitede şu mantıklı:

Kod:
User-agent: *
Disallow: /

Ama bu dosya canlıya kopyalanırsa facia.

Sonuç: Yeni site yayına alınır alınmaz tarama durur, yeni içerikler indexlenmez.

9) Performansla İlgili Yanlış Beklentiler
robots.txt sadece tarama izni/vermemeyi yönetir, kaldırma veya gizleme aracı değildir.
Bazı hatalı beklentiler:
  • “Disallow verdim, sayfa Google’dan hemen kaybolur” → Yanlış
  • “Disallow yaptım, kullanıcılar sayfayı göremez” → Yanlış (sadece botlar için)

10) Google Search Console’daki Robots Hatalarını Yok Saymak
Search Console’da:
  • Tarama istatistiklerinde robots yüzünden engellenmiş çok sayfa
  • URL Denetleme aracında “Bu sayfanın taranmasına robots.txt engel oluyor” uyarısı

Bunları dikkate almamak, özellikle e-ticaret ve büyük sitelerde ciddi trafik kaybı yaratabilir.

11) Gereksiz Aşırı Engelleme
Bazıları “tarama bütçesini koruyacağım” diyerek çok agresif disallow kuralları yazıyor:

Kod:
User-agent: *
Disallow: /etiket/
Disallow: /kategori/
Disallow: /yazar/

Halbuki bu URL’ler trafiğin önemli bir kısmını getiriyor olabilir.

Sonuç: Organik giriş kanallarının boğulması.

Özet
Başlıca robots.txt hataları:
  • Tüm siteyi ya da önemli dizinleri yanlışlıkla kapatmak
  • Yanlış desenlerle gereğinden fazla URL’yi engellemek
  • noindex – Disallow – Canonical çakışmaları
  • Sitemap yolunu hatalı/eksik kullanmak
  • User-agent isimlerini yanlış yazmak
  • Sentaks hataları ve staging dosyasını canlıya taşımak

Sonuç olarak robots.txt’yi her değişiklikten sonra:
  • Tarayıcıda https://siteadi.com/robots.txt açıp
  • Google Search Console’daki URL Denetleme aracıyla
kontrol etmek gerekiyor.
 

Sende şimdi bize katılmak ister misin?

Kayıt ol

Bize katılım kolay ve ücretsizdir!

Giriş Yap

Zaten bir hesabınız var mı? Buradan giriş yapın.

← Önceki Konu

Soru  Sitemap Nedir ve Nasıl Oluşturulur?

  • Mert
  • Cevaplar: 1
Sonraki Konu →

Soru  Bios Nedir Ne İşe Yarar?

  • Mert
  • Cevaplar: 1
Foruma git ?

Bu konuyu görüntüleyen kullanıcılar

İpuçları
Geri
Üst