Ben bir veritabanından kayıtları işlemek ve (örn. sürecini bazı görüntülerin bazı satırları güncelleştirmek) onlarla bir şeyler yapmak gerekiyordu SSH ve nohup üzerinden çalışan bir PHP komut dosyası, yazdık.
Belki 10k kayıtlarına kadar, küçük yükler ile çalışıyor. Ben yaklaşık 40k kayıtları işlemek bazı büyük veri setlerine sahiptir (değil bir sürü, ben farkındayım, ancak her kayıt kadar 50 görüntülerin indirme ve işlem gerektirir, bu işin bir sürü kadar ekler).
The larger datasets can take days to process. Sometimes I'll see in my debug logs memory errors, which are clear enough-- but sometimes the script just appears to "die" or go zombie on me. My tail of the debug log just stops, with no error messages, the tail of the nohup log ends with no error, and the process is still showing in a ps list, looking like this--
26075 pts/0 S 745:01 /usr/bin/php ./import.php
but no work is getting done.
Herkes bana bir süreç sadece çıkmak istiyorum neden bazı fikirler verebilir misiniz? (Bir php komut dosyası zaman aşımı ve hafıza sorunları gibi) belirgin şeyler bildiğim kadarıyla söyleyebilirim, bir faktör değildir.
Herhangi bir ipucu için teşekkürler
PS - Bu bir godaddy VDS (seçimim değil) barındırılıyor. Ben tür godaddy böyle set_time_limit gibi kod ((0) ;) koymak geçersiz kılar ne rağmen bana tekme olabilecek sınırlar bir tür olduğundan şüphelenen.