Kann wiki nicht aktualisieren

Hallo, ich möchte gerne die Seite http://wiki.openstreetmap.org/index.php/Landkreis_Tübingen aktualisieren. Letzte Woche habe ich die angelegt und dann auch noch kleinere Änderungen gemacht, das ging alles einwandfrei. Diese Woche wollte ich dann endlich den Status von ein paar Icons ändern, aber das Speichern der Seite funktioniert nicht. Nach Ewigkeiten (mehr als 30s!) kommt irgendwann die Meldung “Fatal error: Maximum execution time of 30 seconds exceeded in /var/www/wiki.openstreetmap.org/includes/Parser.php on line 363”. Manchmal auch in StringUtils.php, aber gespeichert werden meine Änderungen nicht. Die Vorschau meiner Änderungen ist kein Problem, nach 3 Sekunden kann ich die sehen, nur abspeichern klappt nicht mehr :frowning: Was mich etwas gewundert hat, dass das kleine Captcha (Summe berechnen) diese Woche nicht mehr da ist, aber daran sollte es ja nicht liegen. Anfang der Woche war die Wiki auch elends langsam, dachte schon die Server sind überlastet, aber das Aufrufen der Seiten geht jetzt wieder einigermaßen fix. Jetzt ist nur noch das Abspeichern ein Problem. Ich hoffe hier kennt sich jemand mit der Wiki aus :slight_smile: Wenn nicht, würde ich mich über einen Hinweis freuen, wo ich sonst nachfragen könnte, ich habe leider keine direktere Möglichkeit gefunden. Viele Grüße Stammfunktion

Hallo Stammfunktion, habe gerade mal auf der Tübinger Seite reingeschaut und eine kleine Änderung gemacht. Ging alles problemlos, bei dir inzwischen auch wieder? Es kann ja auch mal ein Aussetzer des WIKI gewesen sein. Georg

Vielen Dank, dass du dir das mal angeschaut hast! Bei mir gehts immer noch nicht :frowning: Ich möchte eigentlich nur bei Oberndorf tr=3 eintragen und ich bekomme schon die ganze Woche lang diese blöde Fehlermeldung

Ich krieg hier noch die Krise :rage: Ich hab testweise auch mal die große Tabelle mit den ganzen Dörfern auf 3 Zeilen geschrumpft, dann gehts auch relativ zügig. Ich kann praktisch zusehen, wie mit jeder Zeile mehr, die ich wieder reinmache, das Abspeichern länger dauert. Und schließlich, wenn die Tabelle wieder komplett ist, kommt der Timeout. Auch mit 3 getrennten Tabellen klappts nicht. Leider weiß ich auch nicht genau, was der wiki-Parser da so macht. Ich hab zwar noch einen Syntaxfehler in der Tabelle gefunden, aber die Korrektur hat nichts weiter gebracht. Das blicke ich einfach nicht… Ich hab das Problem zu Hause, in der Uni gehts genausowenig… Hab schon 5 verschiedene Browser durchprobiert… morgens, abends, nachts, … immer das gleiche… Vielleicht mach ich mir mal nen neuen Account… oder vielleicht sollte ich mir ein neues Auto kaufen?

Hallo Hobby Navigator, wie lange hats denn bei dir das Abspeichern der Änderung gedauert? Ich habe eben testweise mal eine kleine Änderung bei der Seite vom Landkreis Böblingen (die Seite ist nicht ganz so lang) gemacht, und da hat das Abspeichern auch gut 25 Sekunden gedauert. Gruß Stammfunktion

Ja, das war bei mir ähnlich. Hab nicht auf die Uhr geschaut aber so in etwa kommt das hin mit 25 sec.

ok, dann muss ich wenigstens nicht mehr bei mir das Problem suchen. Der wiki-Server ist einfach lahm. Schade. Mal sehen, was ich nun mit der Landkreis-Seite mache. Seiten, die nicht editierbar sind, haben ja keinen Sinn…

Nicht verzagen, dass ist sicher nur vorübergehend. Ist nicht das erste Mal das es Verzögerungen gibt. Ein anderes Mal gehts wieder ruck zuck :slight_smile:

Na hoffentlich :slight_smile:

Der admin des wikis bzw. des servers auf dem das wiki liegt muesste vielleicht mal die laufzeit von php-skripten verlaengern. das problem liegt daran, dass dielaufzeit auf max. 30 sekunden gestellt ist. bei groesseren wikiseiten dauert es aber laenger bis das skript alle daten uebertragen hat, so dass der server es vorzeitig abbricht (ist eine schutzfunktion gegen schlecht geschriebene scripts bzw. um manipulationen und spamscripts etc. zu behindern)

Ich verstehe aber nicht, was bei den 15kB so lange brauchen soll. Das Übertragen dauert mit meinem Anschluss höchstens 1s (und in der Uni noch weniger) und das Parsen sollte ja auch nicht so kompliziert sein, dass es 30s für eine harmlose Tabelle braucht. Wird vielleicht nach toten Links gesucht?

Wahnsinn! Ich habs endlich geschafft meine Änderung einzubauen :smiley: Nun ist die Seite wieder ein Byte größer :smiley: Es war zwar knapp vorm Timeout, aber es hat geklappt. Mal sehen, wie das in Zukunft wird… Achso und nach toten Links wird nicht geschaut.

Gute Frage, weiss auch nicht so genau fuer was er da so lange braucht. Vielleicht uebersetzt er gleich die Tabellen in HTML damnit ers nich bei jedem aufruf der seite uebersetzen muss. Wobeis krass waer wenn er dafuer so lange braucht, es sei denn der server is generell bissi ueberlastet. wie hast du rausbekommen, dass nicht nach toten links geschaut wird?

Wird das denn wirklich in eine fertige HTML-Seite übersetzt? Oder liegt bei der Wiki nur der “Quelltext” vor? Ich hätte vermutet, dass der bei jedem Aufruf neu übersetzt wird. Ich hatte auch schon mal in den Source-Code geschaut, aber um die Code-Struktur zu verstehen muss man sich wohl etwas länger damit auseinandersetzen…

Ganz einfach :slight_smile: Einfach mal einen Link auf eine garantiert nicht vorhandene Adresse eingetragen und es gab nirgends eine Meldung. Sicherer wäre es im Code nachzuschauen, aber so gings deutlich schneller. :wink:

Ja haett ich eigtl. auch so vermutet. war jetzt aber halt die einzige erklaerung fuer mich, weil tabellen wohl am schwersten von allem zu uebersetzen sind (vermute ich jetzt mal, weil ich kein komplexers konstrukt in HTML kenne). Wobei ers beim editiern dann ja auch zurueckuebersetzen muesste … weiss auch nich, alles irgendwie komisch.

hehe, ok,das is auch ne gute methode :slight_smile: