Regel-Wiki - Alles was nicht an die Befüller / Regelwikinger geht

  • Da immer mal wieder im Regel-Wiki Thread allgemeine Fragen aufkommen, habe ich mir mal gedacht, dass ich hier einen Thread dafür aufmache, um den Regelwikingern ihren eigenen Thread zu geben.

    Ich hätte mal eine Frage (und hoffe, dass die hier richtig aufgehoben ist): Warum ist das Regelwiki häufig ultra langsam?

    Das Laden einer Seite kann schonmal 20-30 Sekunden dauern. Manchmal läuft es aber auch ganz normal (ich kenne mich leider nicht mit Webdesign / Servern aus).

    Es ist langsam, weil zu viele Zugriffe existieren. Dies liegt entweder an zu viel tatsächlichen Zugriffen oder an zu vielen Crawlern, die die Seite maschinell durchlaufen.

    Natürlich sind Zugriffe nicht alleine Schuld, sondern auch die unzureichenden Server.

    Du spürst unterschiedliche Ladezeiten, weil unterschiedlich viele Zugriffe (egal welcher Art) gleichzeitig stattfinden.

    Dies liegt generell daran, dass Ulisses DSA nur einen sehr kleinen Stab von Informatikern hat (ich habe nur einen fest gefunden, aber vermutlich gibt es noch mehr Springer). Die Arbeiten aktuell alle an Projekten, die höher priorisiert sind. Sobald die da mehr Zeit haben, wird man sehen.

    Zitat von Antwort von der Redaktion (Alex) (15.05.2020)

    Einige der Probleme des Wiki (z. B., dass es aktuell etwas langsam ist) haben wir schon von unserem Wiki-Team mitgeteilt bekommen. Die IT wird an einer [Lösung] arbeiten, leider geht es aktuell nicht schnell voran, da die IT mit Projekten größerer Priorität beschäftigt ist.

  • Psiren

    @Sano

    Ich fürchte das wir sonst Threadkaperung betreiben.

    Ich habe ein Programm geschrieben, was automatische Verlinkungen innerhalb von Websiten erstellt. Es hat noch kleine Fehler (hatte es schon komplett lauffähig, aber will die Effizienz erhöhen und bin grade dabei einen anderen Ansatz zu implementieren), schafft aber viele Verweise richtig aufzubauen.

    Problem ist, dass manche Verweise (ß, ä, ö, ü, keine exakten Matches mit mehreren Teilmatches) nicht gefunden werden, außer man fügt weitere Spezialfälle ein.

    Um ein Bild zu haben: Im durchschnitt funktioniert es so bei 1.7/3 Kampfstilsonderfertigkeiten, die dann automatisch verlinkt werden (geschätzt) (die restlichen erfüllen das Kriterium *eindeutiger Match" nicht)

    Das Hauptproblem ist dabei, dass die Seite vermutlich mit einem CMS verwaltet wird. Intelligentes HTML parsing und replacing ist daher nicht wirklich die Lösung, wenn man weiter in dem CMS arbeiten möchte (vermute ich wegen der Integration, falls das CMS sich dadurch nicht stört, ist es kein Problem).

    Mein Arbeitsaufwand ist aktuell ~ 12-16h und ich habe davor nur minimal in Richtung parsing gearbeitet und mich daher größtenteils neu einlesen müssen.

    Es ist also in der Tat nicht unmöglich.

    Die Frage ist, in wie weit eine offizielle komplette Vernetzung erwünscht ist. Das Wiki soll schließlich explizit die Bücher nicht ersetzen.

  • Ich Antworte dann auch mal hier. Die Frage von Psiren war ja "Scheint es dir? Ohne zu wissen mit welchem Programm die Datenbank angelegt wurde und welche Tools zur Verfügung stehen?"


    Meine Antwort: ja, definitiv. Jenachdem wie und was ihr da nutzt mag der Aufwand größer oder kleiner sein, aber prinzipiell machbar ist das garantiert. Alles was du irgendwie am Browser zusammenklickst ist an sich super simpel automatisierbar. Natürlich sinkt mit vernünftigen Schnittstellen der Aufwand stark. Wenn ich direkten Datenbankzugriff habe, ist der Aufwand vermutlich minimal. Einmal ne Verbindung zur Datenbank aufmachen, dafür gibt es für alle normalen DBs Schnittstellen wie zB JDBC oder whatever. Dann rattert man da einmal rüber, liesst die ganzen Seiten ein und deren Links, guckt sich an wie das Ding die Syntax will und dann baut man nen simplen Replacer der irgendwelche Keywords sucht und durch die jeweiligen Links ersetzt und ballert das Ergebnis zurück in die DB. Fertig. Jenachdem wieviel Mühe man sich dabei macht mag es irgendwo ein paar zuviele oder übersehene Verlinkungen geben wenn zB irgendwo nen Tippfehler war oder ein Begriff doppeltdeutig. Aber das wäre dann vermutlich immer noch simpler die paar Fehler auszumerzen als alles komplett händisch zu machen.

    Da ihr alles bisherige händisch gebaut habt haben sich da auch hier und da kleine Strukturfehler eingeschlichen, die definitiv eine simple Verarbeitung erschweren bzw einfach Fehler generieren werden, das ist dann halt so. Saver wäre es gewesen von Anfang an ne strukturierte Datenbank zu befüllen und die ganzen Seiten fürs Wiki dadraus zu autoerzeugen. So könnte man jederzeit die Struktur auf Knopfdruck anpassen und es gäbe eben keine Abweichungen.

    Ich hatte das auch schon mal vor ner ganzen Weile angeboten da zu helfen, da wurde mir aber recht deutlich gesagt das daran kein Interesse besteht. Da paralle meine eigene Gruppe weniger spielte usw hatte ich das ganze Thema auf Eis gelegt. Es hat jedenfalls nicht viel Aufwand gemacht alle Zauber aus dem Wiki zu parsen. Der Hauptaufwand entstand eigentlich nur durch die uneinheitlichen Formatierungen überall.