Ben bir forumda benim fikirlerini nakletmek için kullanılan ve kapalı alırsa ben onları gevşek olacağını endişe başladı duyuyorum. Eğer tüm indirmek için iyi bir yoldur bir veritabanına phpBB3 forum (diğer çocuklar fikirlerini de güzel! Olduğunu) biliyor musunuz? Zaten mevcut yazılım var mı, ya da ben kendim yazmak zorunda?
UPDATE1:
Eh, ben kendim yazabilirim - bu o kadar da zor bir sorun değil, öyle değil mi? Ben sadece bisiklet icat üzerinde zaman harcamak istemiyorum.
Update2:
Superuser bir cevabı vardır: How can I download an entire (active) phpbb forum?
Ama forum backuping için bir Ruby komut dosyası yapmak için tercih. Bu tam bir çözüm değil, ama benim için yeterli. Bu kadar endişeli iseniz ve evet, herhangi Maddelerini ihlal etmez.
require :rubygems
require :hpricot
require 'open-uri'
require :uri
require :cgi
#require 'sqlite3-ruby'
class PHPBB
def initialize base_url
@base_url = base_url
@forums, @topics = Array.new(4) { {} }
self.parse_main_page 'main', 'index.php'
@forums.keys.each do |f|
self.parse_forum "forum.#{f}", "viewforum.php?f=#{f}"
end
@topics.keys.each do |t|
self.parse_topic "topic.#{t}", "viewtopic.php?t=#{t}"
end
end
def read_file cached, remote
local = "%s.%s.html" % [__FILE__, cached]
if File.exists? local
return IO.read local
else # download and save
puts "load #{remote}"
File.new(local, "w+") << (content = open(@base_url + remote).read)
return content
end
end
def parse_main_page local, remote
doc = Hpricot(self.read_file(local,remote))
doc.search('ul.forums/li.row').each do |li|
fa = li.search('a.forumtitle').first # forum anchor
f = self.parse_anchor(fa)['f']
@forums[f] = {
forum_id: f,
title: fa.inner_html,
description: li.search('dl/dt').first.inner_html.split('<br />').last.strip
}
ua, pa = li.search('dd.lastpost/span/a') # user anchor, post anchor
q = self.parse_anchor(pa)
self.last_post f, q['p'] unless q.nil?
end
end
def last_post f,p
@last_post = {forum_id: f, post_id: p} if @last_post.nil? or p.to_i > @last_post[:post_id].to_i
end
def last_topic f,t
end
def parse_forum local, remote, start=nil
doc = Hpricot(self.read_file(local,remote))
doc.search('ul.topics/li.row').each do |li|
ta = li.search('a.topictitle').first # topic anchor
q = self.parse_anchor(ta)
f = q['f']
t = q['t']
u = self.parse_anchor(li.search('dl/dt/a').last)['u']
@topics[t] = {
forum_id: f,
topic_id: t,
user_id: u,
title: ta.inner_html
}
end
end
def parse_topic local, remote, start=nil
doc = Hpricot(self.read_file(local,remote))
if start.nil?
doc.search('div.pagination/span/a').collect{ |p| self.parse_anchor(p)['start'] }.uniq.each do |p|
self.parse_topic "#{local}.start.#{p}", "#{remote}&start=#{p}", true
end
end
doc.search('div.postbody').each do |li|
# do something
end
end
def parse_url href
r = CGI.parse URI.parse(href).query
r.each_pair { |k,v| r[k] = v.last }
end
def parse_anchor hp
self.parse_url hp.attributes['href'] unless hp.nil?
end
end