Biz kendinize benzer bir kullanım durumunun ettik ve biz son zamanlarda oldukça yararlı bulduğum bir seçenek UASParser class user-agent-string.info değil.
Bu kullanıcı aracısı dizesi tanımları son set çeker ve bunları yerel olarak önbelleğe bir PHP sınıfı bulunuyor. Sınıf kadar sık ya da nadiren size uygun gördükleri gibi tanımları çekmek için yapılandırılabilir. Otomatik olarak bu gibi onları getiriliyor Eğer doğru yapmak için UAS.info güvenmek rağmen, bot kullanıcı maddeleri veya piyasaya gelen yeni olanlar için çeşitli değişiklikler üstünde tutmak zorunda değilsiniz demektir.
Sınıf çağrıldığında, geçerli ziyaretçinin kullanıcı ajanı ayrıştırır ve kurucu parçaları söküyor bir ilişkisel dizi, örneğin döner
Array
(
[typ] => browser
[ua_family] => Firefox
[ua_name] => Firefox 3.0.8
[ua_url] => http://www.mozilla.org/products/firefox/
[ua_company] => Mozilla Foundation
........
[os_company] => Microsoft Corporation.
[os_company_url] => http://www.microsoft.com/
[os_icon] => windowsxp.png
)
Alan typ
ayarlanır browser
UA olasılıkla size istatistikleri güncelleme hangi durumda bir insan ziyaretçi, ait olduğu tespit edildiğinde.
Burada uyarılar çift:
- Sen doğru ve güncel olması için sağlanan kullanıcı aracısı dizeleri için UAS.info dayanarak konum
- Google ve yahoo gibi botlar kendi kullanıcı aracısı dizeleri kendilerini beyan, ancak bu yöntem yine de (sahte UAS gönderme) insan ziyaretçiler gibi davranarak botlara ziyaretlerini sayacaktır
- @amdfan Yukarıda belirtildiği gibi, robots.txt yoluyla bot engelleme sayfanızı ulaşmasını çoğu durması gerekir. Eğer endeksli olması içerik gerek ama istatistikleri artırmak değil, o robots.txt yöntem gerçekçi bir seçenek olmayacak