İnsanlar ve botlar benzer şeyler yapacağız, ama botlar insanlar olmadığını şeyler yapacağız. Kullanıcının bu şeyleri tanımlamak için deneyelim. Biz davranış bakmak önce, en yararlı olarak RayQuang's Yorum kabul edelim. Bir ziyaretçinin bir bot kullanıcı aracısı dizesini varsa, muhtemelen bir bot var. Ben bir şey kırma üzerinde çalışıyoruz sürece UA olarak "Google Paletli" (veya benzer bir şey) ile dolaşan görüntü kimseyi olamaz. Ben elle bir listesini güncellemek istemiyorum biliyorum, ama otomatik çekerek bu bir iyi olmalı, ve önümüzdeki 10 yıl boyunca eskiyen kalır bile, yararlı olacaktır.
Bazıları zaten Javascript ve resim yükleme belirtmiştik, ancak Google hem yapacak. Biz orada hem yapacak birkaç botlar şimdi, yani bu artık insan göstergeleri kabul gerekir. Yine benzersiz ne yapacak botlar, ancak bir "görünmez" bağlantısını izleyin. Ben bir kullanıcı olarak göremiyorum çok sinsi bir şekilde bir sayfaya bağlantı. O izledi alırsa, biz bir bot var.
Botlar sık sık, olur, saygı robots.txt ama her zaman değil. Kullanıcılar robots.txt umurumda değil, ve biz muhtemelen robots.txt alınırken herkes bir bot olduğunu varsayabiliriz. Biz de, bir adım daha ileri gitmek ve robots.txt tarafından dışlanmıştır sayfalarımızda için bir kukla CSS sayfa bağlayabilirsiniz. Normal CSS yüklendi ama bizim kukla CSS değildir, kesinlikle bir bot var. Sen IP tarafından yüklerin (muhtemelen bir bellek) tablo oluşturmak ve yapmak zorunda olacak bir maçta yer alan, ama bu gerçekten çok sağlam söylemek olmamalı.
Peki, tüm bu kullanmak için: belki zaman damgası sınırlamalar, ip adresine göre botlara bir veritabanı tablosunu korumak. "Gerçek" CSS yükler ama robots.txt CSS sayar şey eklemek, sizin görünmez linki aşağıda bir şey eklemek. Belki de tüm robots.txt indirenler ekleyin. Son adım olarak kullanıcı aracısı dizesini Filtre ve hızlı bir istatistiklerini analiz yapmak ve bu yöntemleri biz botlara bildiğimiz şeyleri tanımlamak için çalışıyor gibi görünen ne kadar güçlü görmek için bu kullanmayı düşünün.