Godeke doğru, robots.txt indirirken botlara tutmak için yapmanız gereken ilk şey.
Sayma ile ilgili olarak, bu gerçekten bir web analitik sorundur. Eğer www erişim günlüklerini tutmak ve Webalizer veya AWStats (veya Webtrends veya Urchin'den fantezi gibi alternatifler) gibi bir analitik program sayesinde onları yayınlanmıyor? Benim için bu çok kolay ve hiçbir PHP, orada yönlendirmek veya kullanıcının dosyayı indirirken diğer performans vurmak, çünkü bilgi bu tür toplamak için gitmek yoludur. Sen sadece zaten tutuyor Apache günlüklerini kullanarak ediyoruz. (Ve grep -c
size belirli bir dosya veya joker desen hızlı 'n' kirli sayısını verecektir.)
Sen botlara, veya belirli bir kullanıcı ajanlar ve diğer kriterlere göre hit görmezden için istatistikler yazılım yapılandırabilirsiniz (ve daha sonra sizin kriterlerinize değiştirirseniz, sadece eski günlük verilerini yeniden işleme). Tabii ki, bu tüm eski günlükleri var gerektirmez, böylece gibi bir şey ile onları savurma oldum logrotate
herhangi bir tarihsel veri olmadan işe başlamak gerekir.