Also ich bezweifel, dass jene die die Wiki für eigene Projekte scrapen, da so einen großen einfluss auf den Traffic haben. Schließlich muss man ja nicht täglich oder gar stündlich scrapen. Einmal im Monat oder halt wenn man weiß dass die Wiki sich aktualisiert hat.
Normalerweise kommen so 2-3 Monate nach der Buch veröffentlichung die Inhalte auch in die Wiki, deswegen kann man es ganz gut abschätzen, wann neue Daten in die Wiki einfließen. Und wie viele bieten jetzt Daten von der Wiki im Scriptorium an? Das ist doch wahrscheinlich nur eine Handvoll. Wenn die jetzt nicht stündlich scrapen, sollte es jeder normale Server aushalten. Schließlich ist die komplette Wiki von der Größe wahrscheinlich mit Bilder so um die 20-30MB.