Robots.txt Dosyası Nedir? Ne İşe Yarıyor?

Merak eden kullanıcılar için Robots.txt hakkında detaylı şekilde açıklama gerçekleştireceğiz. Bu dosyalar arama motoru üzerinden gelen robotlara yol gösteren metinleri olan dosyalar olarak bilinir. Bahsi geçen dosya bünyesinde bulunan bilgiler doğrultusunda arama motorları herhangi bir sitede index alamayacak ya da index alacak noktaları öğrenebiliyor.

Düzgün biçimde ayarlanma işlemi yapılmadığı vakit sitenin Google ve diğer arama motorları sisteminde çıkması tam olarak engellenebiliyor. Arama motorları optimizasyon işlemleri hakkında Robots.txt dosyalarının gayet yüksek değeri bulunuyor. Sözü edilen dosyalar gereksiz gibi gözüküyor olsa bile arama motorlarının site hususunda doğru bilgileri alması açısından gayet gereklidir.

Açıkçası bütün bilgileri kişilere ulaştırılması adına her saniye internet robotları gezintiye çıkıyorlar. Doğru olan bilgilin bulunduğu sayfalar zamanla daha üst sıraya çıkartılıyor. İnternet ağı içerisinde arama gerçekleştiren robotlar, internet siteleri bünyesinde bulunan bilgiler üst sıraya çıkarmadan evvel bu dosyanın varlığını kontrol ediyor.

Kontrol işleminin sonucunda alınan cevap evet şeklinde olduğu anda diğer adım olan içindeki bilgileri kontrolünü gerçekleştirirler. Böylece Robots.txt nedir? Sorusunu siz değerli kullanıcılara yanıtlamış bulunuyoruz.

Robots.txt Dosyası İle Ne Tür Bilgilerin İndekslenmesi Durdurulabiliyor?

Söz konusu dosya doğru olarak düzenleme gördüğü vakit hayat kurtarıcı güce sahip olabiliyor. Siteler genellikle kendilerini hızlıca index aldırma çabasına soksa bile, birçok durumlarda hızlı şekilde gelen index problemlere yol açabiliyor. Bu noktada direkt olarak Robots.txt dosyaları hızlı bir şekilde devreye giriyorlar.

Hangi bilgilerin indekslenmesi önlenebiliyor? Diye düşünenler bilmelidirler ki söz konusu sistem sayesinde site bünyesinden linkler ile erişimi var olmayan özel sayfaların indekslenmesi önlenebiliyor. Gizli şekilde Admin paneli kullanılıyor ve üçüncü şahıslar üzerinden bulunması istenmiyorsa bu sistemin dosyalarında düzenlemeler yapılarak sayfa tam olarak motordan kaldırılabilir.

Robots.txt Kullanımı Nasıl Gerçekleşiyor?

Robots.txt ne işe yarar? Nasıl kullanılır? Sorusuna baktığımızda gayet kolay işlemlerin sizleri beklediğiniz söyleyebiliriz. Kullanım açısından biraz zor gibi görünse de tam tersine ufak kodlar üzerinden gayet basit şekilde kullanılabiliyor. Her site sisteminde ve her panel içerisinde Robots.txt adına özel şekilde bir alan açılmıştır. Bahsettiğimiz bu ayarlar ayrılmış olan alanlar içerisine girilmelidir.

Bütün alanların robotlar vasıtasıyla indekslenmesini gerçekleştirmek için “User-agent: * Disallow: /”

Robotların bütün alanları indekslemesini engellemek için “User-agent: * Disallow: /”

Robotların belirlenmiş olan klasörleri indekslemesini engellemek için “User-agent: * Disallow: / (Klasör Adı)/(Klasör adı)”

Kullanılan bu işlemler söz konusu sistemin komut dosyaları şeklindedir. Kişiler sitelerine göre çeşitli düzenlemeleri bahsettiğimiz oluşturma araçlarından faydalanarak da oluşturma işlemini gerçekleştirebilirler.

blogger robots.txt 

User-agent: Mediapartners-Google

Disallow: 

User-agent: *

Disallow: /search

Allow: /

Sitemap: https://www.ankarapostasi.net/sitemap.xml

3/Yorumlar

  1. Sanırım hiç indekslenmesini istemediğim bir yazı hiç girmedim. Engelleme konusunda bu tür bir komut verdiğimi hatırlamıyorum. Genel olarak txt komutlarıyla aram hiç iyi değil aslında iş kodlama konusuna geldiğinde uzak duruyorum.

    YanıtlaSil
  2. Bloggerların bilmesi gereken faydalı bir içerik, teşekkürler:)

    YanıtlaSil
  3. Yazılarım hemen indeks almıyor. Belki de nedeni budur

    YanıtlaSil

Yorum Gönder