Robots.txt Nedir, SEO İçin Nasıl Yapılandırılır? #
Robots.txt Nedir? #
Robots.txt, arama motorlarının web sitenizi nasıl tarayacağını belirleyen bir protokol dosyasıdır. Bu dosya, tarayıcılara (web crawlers) hangi sayfalara erişebileceklerini ve hangi sayfaların erişime kapalı olduğunu bildirir.

Robots.txt Neden Önemlidir? #
- Arama motorlarının tarama bütçesini optimize eder.
- Hassas veya gereksiz içeriklerin dizine eklenmesini engeller.
- Kullanıcı deneyimini artırırken SEO performansını iyileştirir.
Örnek Kullanım Senaryosu:
Bir e-ticaret sitesinde ödeme sayfasını arama motorlarının taramasını engellemek isterseniz, robots.txt dosyası bu işlemi kolayca gerçekleştirir:
User-agent: *
Disallow: /checkout/
Robots.txt Dosyasının SEO Üzerindeki Etkisi Nedir? #
SEO Açısından Önemi:
- Tarama Bütçesini Yönetir:
- Arama motorlarının zamanlarını önemli sayfalara odaklamasını sağlar.
- Gereksiz İçerikleri Engeller:
- Kopya içerikler veya geçici sayfalar gibi indekslenmesi gerekmeyen alanları engeller.
- Hızlı İndeksleme Sağlar:
- Sitemap entegrasyonu ile indeksleme süreçlerini hızlandırır.
- Güvenlik Sağlar:
- Özel bilgileri barındıran dizinleri koruma altına alır.
Robots.txt Dosyasının Temel Yapısı Nasıldır? #
Genel Format:
User-agent: *
Disallow: /admin/
Allow: /public/
Sitemap: https://www.siteadi.com/sitemap.xml
Komutların Açıklaması:
- User-agent: Hangi arama motoruna komut verildiğini belirler.
- Disallow: Belirli URL’lerin taranmasını engeller.
- Allow: Taranmasına izin verilen URL’leri belirtir.
- Sitemap: Sitemap’in konumunu gösterir ve indeksleme hızını artırır.
Robots.txt Nasıl Oluşturulur ve Test Edilir? #
Manuel Oluşturma: #
- Bir metin editörü (Notepad, VS Code) açın.
- Yukarıdaki temel formatta dosyanızı oluşturun.
- Dosyanın adını robots.txt olarak kaydedin.
Dosyayı sitenizin kök dizinine yükleyin:
https://www.siteadi.com/robots.txt
Online Araçlar: #
- Google Robots.txt Tester: Doğrudan test etmenizi sağlar.
- SEO Tools Generator: Kullanıcı dostu araçlarla oluşturma sağlar.
Robots.txt Komutları ve Anlamları #
Robots.txt dosyasını oluştururken kullanılacak belli başlı bazı komutlar vardır. Bu komutların her biri farklı bir şekilde arama motoru botlarını yönlendirir.
Aşağıda robots.txt komutlarını ve ne anlama geldiklerini inceleyebilirsiniz:
1. User-agent:
Hangi arama motorlarına (Googlebot, Bingbot) yönelik talimat verileceğini belirtir.
User-agent: Googlebot
2. Disallow:
Belirtilen dizinlerin taranmasını engeller.
Disallow: /private/
3. Allow:
Engellenen bir dizin içindeki belirli dosyalara erişime izin verir.
Allow: /public/images/
4. Sitemap:
Sitenin site haritasını bildirir.
Sitemap: https://www.siteadi.com/sitemap.xml
5. Crawl-delay:
Tarayıcıların gecikme süresini ayarlamak için kullanılır (saniye cinsinden).
Crawl-delay: 10
Farklı CMS ve Sunuculara Göre Robots.txt Nasıl Oluşturulur? #
WordPress’te Robots.txt Nasıl Yapılandırılır? #
Eklentilerle Yönetim:
- Yoast SEO Eklentisi:
- Araçlar > Dosya Düzenleyici yoluyla düzenleyin.
- Araçlar > Dosya Düzenleyici yoluyla düzenleyin.
- Örnek robots.txt:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Sitemap: https://www.siteadi.com/sitemap_index.xml
Shopify’da Robots.txt Yönetimi Nasıl Yapılır? #
Shopify’da robots.txt dosyası otomatik olarak oluşturulur ve doğrudan düzenlenemez. Ancak özel yönlendirmeler için geliştirici araçları kullanılabilir.
Alternatif Çözüm:
Tema düzenleyicisi üzerinden meta etiketler ekleyerek engelleme yapabilirsiniz:
<meta name="robots" content="noindex, nofollow">
Detaylı Rehber için Tıklayın
Apache Sunucusunda Robots.txt Nasıl Konfigüre Edilir? #
.htaccess Dosyası ile Yönlendirme:
Redirect 301 /robots.txt /public/robots.txt
PHP ile Dinamik Robots.txt Dosyası Nasıl Oluşturulur? #
robots.php Dosyası Örneği:
<?php
header("Content-Type: text/plain");
echo "User-agent: *\n";
echo "Disallow: /admin/\n";
echo "Allow: /images/\n";
echo "Sitemap: https://www.siteadi.com/sitemap.xml\n";
?>
ASP.NET ve IIS Sunucularında Robots.txt Nasıl Yönetilir? #
Web.config ile Robots.txt Yönlendirmesi:
<system.webServer>
<rewrite>
<rules>
<rule name="Redirect to Robots" stopProcessing="true">
<match url="^robots.txt$" />
<action type="Rewrite" url="/robots-handler.ashx" />
</rule>
</rules>
</rewrite>
</system.webServer>
Robots.txt Dosyasını Optimize Etme İpuçları #
- Önemli Sayfaları Korumaya Alın:
- İndekslenmesini istemediğiniz özel sayfaları engelleyin.
- Yinelenen İçerikleri Hariç Tutun:
- Gereksiz indekslemeyi engelleyin.
- Google Search Console ile Test Edin:
- Hataları anında tespit edin ve düzeltin.
Robots.txt ile İlgili En Sık Sorulan Sorular (FAQ) #
- Robots.txt dosyasını her site kullanmalı mı?
- Evet, tarama bütçesini yönetmek ve SEO kontrolü sağlamak için önerilir.
- Bir sayfa hem robots.txt hem de meta robots ile engellenebilir mi?
- Evet, ancak çelişkilerden kaçınmak için tutarlı bir yapı kullanılmalıdır.
- Disallow edilen sayfalar yine de taranabilir mi?
- Evet, bağlantılar aracılığıyla dolaylı olarak taranabilirler.