Anfragen zu Bots, Botbetrieb und Botflags, bitte auf dieser Seite stellen. Achtung: Bitte Wikinews:Bot-Richtlinie beachten und hier um Erlaubnis bitten, bevor du einen Bot betreibst!
requests, demandes, consultas, etc.
Please use this page for all requests containig bots. Important:
Please see our Wikinews:Bot policy if you want to run a bot and ask here for permission before you start your bot!
Für den Notfall: Sollte ein Bot plötzlich fehlerhafte Beiträge produzieren, melde dies dem Betreiber des Bots oder einem Administrator (z.B. über unseren Chat). Sollte in einem dringenden Fall kein Administrator erreichbar sein (und bitte auch nur dann!), wende dich in #wikimedia-stewards (IRC) bitte an einen Wikimedia-Steward indem du !steward in das Chatfenster tippst.
The task of my bot is to remove old language links in source of the page, because the language links are now managed centrally in Wikidata. The bot use a script from pywikibot. I made some edit for test and example. --Beta16 (Diskussion) 17:05, 1. Feb. 2016 (CET)[Beantworten]
According to our bot policy, bots placing interwiki links never get bot flags. So the question can only be whether or not you should be allowed to operate the bot. Although interwiki links for news may in some cases be much more complicated than for encyclopedic articles, it seems to be a "general consensus over all projects" that Wikidata should be used for them. You should add to your bot's user page more specifically that your bot is placing interwiki links and uses a script from pywikibot. Regards, --Angela H. (Diskussion) 16:37, 28. Mär. 2016 (CEST)[Beantworten]
Aufgaben Zusammenfassung: Anpassung von externen Links auf eine sichere Übertragung, soweit möglich, d.h.: http → https
Aufgaben Details: Der Bot führt diese Aufgabe auf den 10 größten Wikimedia Seiten bereits seit mehr als 7 Jahren aus mit insgesamt mehr als 4 Millionen Bearbeitungen (siehe hier). Ich möchte dieselbe Aufgabe nun auch hier durchführen.
Der Ablauf ist dabei jeweils wie folgt:
Der Bot extrahiert alle http-Links aus der gerenderten Wikipedia-Seite (nicht aus dem Quelltext)
Der Bot überprüft dabei jeden http-Link, ob dieser und ebenso ein entsprechender https-Link erreichbar ist
Sind beide Links Weiterleitungen auf die gleiche Zielseite, so wir der http-Link durch https-Link ersetzt (der Link wird nicht auf die Weiterleitungsseite geändert, sondern der Linkpfad bleibt erhalten)
Sind beide Links erreichbar, so wird zusätzlich überprüft, ob der Inhalt gleich ist
Ist der Inhalt identisch, so wir der http-Link durch https-Link ersetzt
Ist der Inhalt 99.9% identisch (berechnet über die Levenshtein-Distanz), so wird der http-Link ebenfalls durch den https-Link ersetzt. Dies wurde so implementiert, da viele Homepages dynamische IDs, beispielsweise für Werbeanzeigen oder Container, vergeben um Addblocker zu umgehen.
Ist einer beider Links nicht erreichbar (beispielsweise Code 404), so wird nichts unternommen.