View Categories

Tahmini okuma süresi: 2 dk. ortalama

Robots.txt Nedir, SEO İçin Nasıl Yapılandırılır? #

Robots.txt Nedir? #

Robots.txt, arama motorlarının web sitenizi nasıl tarayacağını belirleyen bir protokol dosyasıdır. Bu dosya, tarayıcılara (web crawlers) hangi sayfalara erişebileceklerini ve hangi sayfaların erişime kapalı olduğunu bildirir.

Robots.txt Neden Önemlidir? #

  • Arama motorlarının tarama bütçesini optimize eder.
  • Hassas veya gereksiz içeriklerin dizine eklenmesini engeller.
  • Kullanıcı deneyimini artırırken SEO performansını iyileştirir.

Örnek Kullanım Senaryosu:
Bir e-ticaret sitesinde ödeme sayfasını arama motorlarının taramasını engellemek isterseniz, robots.txt dosyası bu işlemi kolayca gerçekleştirir:

User-agent: *
Disallow: /checkout/

Robots.txt Dosyasının SEO Üzerindeki Etkisi Nedir? #

SEO Açısından Önemi:

  1. Tarama Bütçesini Yönetir:
    • Arama motorlarının zamanlarını önemli sayfalara odaklamasını sağlar.
  2. Gereksiz İçerikleri Engeller:
    • Kopya içerikler veya geçici sayfalar gibi indekslenmesi gerekmeyen alanları engeller.
  3. Hızlı İndeksleme Sağlar:
    • Sitemap entegrasyonu ile indeksleme süreçlerini hızlandırır.
  4. Güvenlik Sağlar:
    • Özel bilgileri barındıran dizinleri koruma altına alır.

Robots.txt Dosyasının Temel Yapısı Nasıldır? #

Genel Format:

User-agent: *
Disallow: /admin/
Allow: /public/
Sitemap: https://www.siteadi.com/sitemap.xml

Komutların Açıklaması:

  • User-agent: Hangi arama motoruna komut verildiğini belirler.
  • Disallow: Belirli URL’lerin taranmasını engeller.
  • Allow: Taranmasına izin verilen URL’leri belirtir.
  • Sitemap: Sitemap’in konumunu gösterir ve indeksleme hızını artırır.

Robots.txt Nasıl Oluşturulur ve Test Edilir? #

Manuel Oluşturma: #

  1. Bir metin editörü (Notepad, VS Code) açın.
  2. Yukarıdaki temel formatta dosyanızı oluşturun.
  3. Dosyanın adını robots.txt olarak kaydedin.

Dosyayı sitenizin kök dizinine yükleyin:

https://www.siteadi.com/robots.txt

Online Araçlar: #

  • Google Robots.txt Tester: Doğrudan test etmenizi sağlar.
  • SEO Tools Generator: Kullanıcı dostu araçlarla oluşturma sağlar.

Robots.txt Komutları ve Anlamları #

Robots.txt dosyasını oluştururken kullanılacak belli başlı bazı komutlar vardır. Bu komutların her biri farklı bir şekilde arama motoru botlarını yönlendirir.

Aşağıda robots.txt komutlarını ve ne anlama geldiklerini inceleyebilirsiniz:

1. User-agent:
Hangi arama motorlarına (Googlebot, Bingbot) yönelik talimat verileceğini belirtir.

User-agent: Googlebot

2. Disallow:
Belirtilen dizinlerin taranmasını engeller.

Disallow: /private/

3. Allow:
Engellenen bir dizin içindeki belirli dosyalara erişime izin verir.

Allow: /public/images/

4. Sitemap:
Sitenin site haritasını bildirir.

Sitemap: https://www.siteadi.com/sitemap.xml

5. Crawl-delay:
Tarayıcıların gecikme süresini ayarlamak için kullanılır (saniye cinsinden).

Crawl-delay: 10

Farklı CMS ve Sunuculara Göre Robots.txt Nasıl Oluşturulur? #

WordPress’te Robots.txt Nasıl Yapılandırılır? #

Eklentilerle Yönetim:

  1. Yoast SEO Eklentisi:
    • Araçlar > Dosya Düzenleyici yoluyla düzenleyin.
  2. Örnek robots.txt:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://www.siteadi.com/sitemap_index.xml

Shopify’da Robots.txt Yönetimi Nasıl Yapılır? #

Shopify’da robots.txt dosyası otomatik olarak oluşturulur ve doğrudan düzenlenemez. Ancak özel yönlendirmeler için geliştirici araçları kullanılabilir.

Alternatif Çözüm:
Tema düzenleyicisi üzerinden meta etiketler ekleyerek engelleme yapabilirsiniz:

<meta name="robots" content="noindex, nofollow">

Detaylı Rehber için Tıklayın


Apache Sunucusunda Robots.txt Nasıl Konfigüre Edilir? #

.htaccess Dosyası ile Yönlendirme:

Redirect 301 /robots.txt /public/robots.txt

PHP ile Dinamik Robots.txt Dosyası Nasıl Oluşturulur? #

robots.php Dosyası Örneği:

<?php
header("Content-Type: text/plain");
echo "User-agent: *\n";
echo "Disallow: /admin/\n";
echo "Allow: /images/\n";
echo "Sitemap: https://www.siteadi.com/sitemap.xml\n";
?>

ASP.NET ve IIS Sunucularında Robots.txt Nasıl Yönetilir? #

Web.config ile Robots.txt Yönlendirmesi:

<system.webServer>
  <rewrite>
    <rules>
      <rule name="Redirect to Robots" stopProcessing="true">
        <match url="^robots.txt$" />
        <action type="Rewrite" url="/robots-handler.ashx" />
      </rule>
    </rules>
  </rewrite>
</system.webServer>

Robots.txt Dosyasını Optimize Etme İpuçları #

  1. Önemli Sayfaları Korumaya Alın:
    • İndekslenmesini istemediğiniz özel sayfaları engelleyin.
  2. Yinelenen İçerikleri Hariç Tutun:
    • Gereksiz indekslemeyi engelleyin.
  3. Google Search Console ile Test Edin:
    • Hataları anında tespit edin ve düzeltin.

Robots.txt ile İlgili En Sık Sorulan Sorular (FAQ) #

  1. Robots.txt dosyasını her site kullanmalı mı?
    • Evet, tarama bütçesini yönetmek ve SEO kontrolü sağlamak için önerilir.
  2. Bir sayfa hem robots.txt hem de meta robots ile engellenebilir mi?
    • Evet, ancak çelişkilerden kaçınmak için tutarlı bir yapı kullanılmalıdır.
  3. Disallow edilen sayfalar yine de taranabilir mi?
    • Evet, bağlantılar aracılığıyla dolaylı olarak taranabilirler.
Updated on 30 Aralık 2024

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir