„Wikipedia:Bots/Anfragen“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 9 Jahren von Doc Taxon in Abschnitt 3 Archivlinks
Zur Navigation springen Zur Suche springen
Inhalt gelöscht Inhalt hinzugefügt
K Änderungen von TaxonBot (Diskussion) auf die letzte Version von Doc Taxon zurückgesetzt
→‎3 Archivlinks: in Bearbeitung
Zeile 3.861: Zeile 3.861:


URL-Umsetzungen wie oberhalb siehe [[Wikipedia:WikiProjekt_Weblinkwartung/Botliste]]. 3 unterschiedliche Links auf 912 Seiten. (In diesem Fall würde ich die Webarchivvorlagen nach dem Botlauf per Hand eintragen. Das geht dann ganz gut halbautomatisch mit Hilfe von [[WP:WLC]], mit dem Vorteil, dass da noch mach anderes Kleinzeug bereinigt wird.) Frohes Schaffen — [[Benutzer:Boshomi|Boshomi]] [[BD:Boshomi|☕⌨☺]]  21:16, 16. Okt. 2014 (CEST)
URL-Umsetzungen wie oberhalb siehe [[Wikipedia:WikiProjekt_Weblinkwartung/Botliste]]. 3 unterschiedliche Links auf 912 Seiten. (In diesem Fall würde ich die Webarchivvorlagen nach dem Botlauf per Hand eintragen. Das geht dann ganz gut halbautomatisch mit Hilfe von [[WP:WLC]], mit dem Vorteil, dass da noch mach anderes Kleinzeug bereinigt wird.) Frohes Schaffen — [[Benutzer:Boshomi|Boshomi]] [[BD:Boshomi|☕⌨☺]]  21:16, 16. Okt. 2014 (CEST)

'''Anmerkung''': <u><span style="background-color:yellow;">'''Anfrage zur Erledigung durch [[user:TaxonBot|TaxonBot]] in Bearbeitung!'''</span></u> -- [[Benutzer:Doc Taxon|Doc Taxon]] [[Spezial:E-Mail/Doc Taxon|@]] <small>[[Benutzer Diskussion:Doc Taxon|Disc]]</small> – <b><span style="color:#cc0000;">♥</span> [[WP:BIBR|BIBR]] <span style="color:#cc0000">♥</span></b> – 00:43, 17. Okt. 2014 (CEST)

Version vom 17. Oktober 2014, 00:43 Uhr

Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenen Vorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.

Für Anfragesteller gilt
  1. Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
  2. Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
  3. Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
  4. Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
  5. Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
  6. Ent- oder Umkategorisierungen von Artikeln in die Kategoriendiskussion eintragen, dort diskutieren und dann in die Warteschlange des WikiProjekts Kategorien stellen.
  7. Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
  8. Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
  9. Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
  1. Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
  2. Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
  3. Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
  • Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
  • Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
  • Den Bot bitte sorgfältig beobachten!
  • Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Abkürzung: WP:BA, WP:BOT/A, WP:B/A


Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Die Archivübersicht befindet sich unter Wikipedia:Bots/Anfragen/Archiv.

Auf Diskussion:Freie Wähler#Nomenklatur werden verschiedene Lösungsmöglichkeiten diskutiert, wie die über 1000 bis max 1500 Links auf die derzeitige BKS Freie WählerBKL korrigiert werden können. Eine erste Aufteilung wäre in zwei disjunkte Listen, d.h.

Wie "einfach" eine BKL nach Bundesland aufzulösen ist, kommt auf das Bundesland und natürlich auf den Artikel-Kontext an. Bevor aber jetzt 16 oder gar 32 Listen vom Typ B erzeugt werden, interessiert mich erstmal die Liste A. Wo wäre der richtige Speicherort für diese? --grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2013-01-03T17:31:00.000Z-Vorsortierung von Links auf BKS11Beantworten

Bevor jetzt ein Bot loslegt, müssen die zu bearbeitenden Artikel rausgefunden werden. Weil mich die Spezial:API-Spielwiese schon lange interessiert hat:

  1. Die backlink-Abfrage auf "Freie Wähler" (/w/api.php?action=query & list=backlinks & bltitle=Freie%20W%C3%A4hler & blnamespace=0 &...) liefert etwa 1396 Ergebnisse
  2. Die categorymembers-Abfrage "Kategorie:Gemeinde in Niedersachsen" (/w/api.php?action=query & list=categorymembers & cmtitle=Kategorie%3AGemeinde%20in%20Niedersachsen & cmnamespace=0 &...) bringt insgesamt 100 Eintrage.

Kraft eigener Hausmittel (sort ... | uniq -d) wären als Schnittmenge etwa 24 Artikel zu bearbeiten ... Meine Frage ist jetzt: Können die Abfragen (1) und (2) zusammen durchgeführt (z.B. als "generator") werden? Wenn ja, wie gehts? --grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2013-01-07T12:58:00.000Z-Vorsortierung von Links auf BKS11Beantworten

Nach meiner Kenntnis geht das nicht, da du die Seitentitel der einen Abfrage in einen impliziten titles-Parameter der anderen Abfrage einfüttern müsstest. Du kannst zwar beide Module als Generator verwenden, aber keines akzeptiert als Eingabe einen Generator. Aber du könntest die backlinks als Generator für categoryinfo nehmen, z.B. Es spricht allerdings nichts dagegen, die gewonnen Informationen anderweitig zu verarbeiten und die Schnittmenge daraus zu bilden. – Giftpflanze Wikipedia:Bots/Anfragen#c-Giftpflanze-2013-01-07T13:50:00.000Z-Grixlkraxl-2013-01-07T12:58:00.000Z11Beantworten
Erstmal Danke an Giftpflanze für "Nach meiner Kenntnis geht das nicht ...". Ich habe also gelegentlich mit meinen eigenen "Hausmitteln" gearbeitet, sprich Spezial:API-Spielwiese, libmediawiki-api-perl und MediaWiki::API.pm. In erster Näherung ergibt sich:
  • Aktuell verlinken 1385 Artikel (vorher 1396) auf die BKS,
  • davon sind 989 verschiedenen Bundesländern zuzuordnen.
Für die bisher noch nicht zugeordneten 396 Links sind noch weitere Kategorien zu prüfen. Für ungefähr fünf Kats "Xyzzy (Deutschland)" oder "Xyzzy in Deutschland" ist nach allen Unterkats des jeweiligen(!) Bundeslandes gefragt. Mit dem Toolserver catscan_rewrite.php?... ginge es natürlich schon, allerdings suche ich noch nach einer API-Lösung für:
Zeige mir alle Unterkats einer bestimmten Kategorie Xyzzy. Das wären bei etwa 5 Xyzzy für max. 16 Länder also über 50 zu prüfende Start-Kategorien "Xyzzy pro Bundesland".
Wenn ich es richtig verstehe, liefert mir "? action=query & list=categorymembers & cmtitle='Xyzzy in Land' & cmtype=subcat & ..." nur immer eine Kat-Ebene. Den Baum entlang hangeln muß ich mich aber selber. Sollte ich falsch liegen, bitte beim Widerspruch eine API-Aufruf beigeben.
PS: mit dem Vorschlag "action=query & prop=categoryinfo & f generator=backlinks &..." bin ich nicht weitergekommen, aber das ist egal.
PPS: Noch ist nicht klar, ob und wenn ja welcher Auftrag einem Bot erteilt werden soll ;-)
--grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2013-01-17T12:19:00.000Z-Giftpflanze-2013-01-07T13:50:00.000Z11Beantworten

Vorsortierung Dez. 2013

@Grixlkraxl: Ist diese Anfrage noch aktuell? Was fehlt noch, was genau soll gemacht werden? --Krd Wikipedia:Bots/Anfragen#c-Krd-2013-12-21T15:49:00.000Z-Vorsortierung Dez. 201311Beantworten
<Wischiwaschi>Ich danke Krd für die Nachfrage. Ich versuche es kurz zu machen:</Wischiwaschi>
  1. "Ist diese Anfrage noch aktuell?"
    Zur Zeit verlinken immer noch 1186 Artikel auf die BegriffsklärungBKL. Die gute Nachricht: Das sind immerhin über 200 weniger als zu Beginn der Anfrage, in voraussichtlich fünf bis sechs Jahren hat sich das Problem von selbst erledigt. Die schlechte Nachricht: manche sind damit unzufrieden, daß bspw. im selben(!) Artikel-Abschnitt verschiedene(!) Stadtratsfraktionen auf dieselbe(!) BKL weiterleiten. Dummerweise ist sowohl(!) die Lage in den echten (Vorsicht: real life!) 16 deutschen Bondesländern unübersichtlich, als auch(!) der Artikelbestand der de.WP schwer zuzuordnen. Die inhaltliche(sic!) Problematik wird u.a. auch bei den Parteien-RK besprochen. Das tut technisch(!) allerdings nix zur Sache.
  2. "Was fehlt noch?"
    Ich muss zugeben, meine am 7. Jan. 2013 gestellte Bitte um Bot-Unterstützung war etwas naiv, also ungenau, gestellt. Danach haben sich meine Kenntnisse der Wikimedia-API verbessert, und zusammen mit etwas Perl-Zauberei und Shell-Skripting bin ich in der Lage, so etwas wie Diskussion:Freie Wähler#Zwischenstand 2013-02-04 zu wiederholen. Beim aktuellen code review lese ich z.B. TOOLSERVER => 'http://toolserver.org/~magnus/catscan_rewrite.php'. Die Liste der wesentlichen Kats zur Bundesland-Zuordnung lässt sich sicherlich auch anders gewinnen...
  3. "was genau soll gemacht werden?"
    Die über 1000 Fehlverlinkungen sollen programm-gesteuert auf ein händisch abarbeitbares Maß (kleiner 10%) reduziert werden. Dabei muss(!) die Link-Auflösung je nach Bundesland verschieden sein. JA, eine regex für die 80-90% existiert. NEIN, ein Kommandozeilen-Tool habe ich noch nicht. Irgendwo habe ich allerdings mal einen Screenshot einer python-Lösung gesehen.

Grob gesprochen: Es ist ein Script gesucht, das eine vorgegebene Liste von Artikeln abarbeitet und für jeden Artikel die Entscheidung lässt zwischen:

1) Den Link durch einen definierten andern WP-Artikel ersetzt, lesbarer Text wird beibehalten

2) Link wird gelöscht, sichtbarer Text wird beibehalten

3) Das aktuelle Lemma wird in eine Datei zur weiteren Verarbeitung gespeichert.

4...5) weitere Aktionen, wobei mehr als insgesamt fünf Alternativen dem Sinn und Zweck einer Script-Bearbeitung widersprechen.

Mir ist inzwischen klar, das eine simple technische Lösung ("einfach mal mit einem Programm über alle fraglichen Artikel drüberbügeln") so nicht existiert. Weiterhin werde ich keine Bots mit Python programmieren. Wie soll es in diesem Thread weitergehen? Ist eine andere Stelle geeigneter? Oder führen wir das mal an Hand eines Bundeslandes exemplarisch durch? --grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2013-12-26T21:10:00.000Z-Vorsortierung Dez. 201311Beantworten

@Grixlkraxl: Wenn also ein Artkel beispielsweise auf Freie Wähler verlinkt und unterhalb von Kategorie:Brandenburg einsortiert ist, dann soll [[Freie Wähler|…]] auf [[Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler|…]] geändert werden. Habe ich das richtig verstanden? --Krd Wikipedia:Bots/Anfragen#c-Krd-2013-12-29T18:04:00.000Z-Grixlkraxl-2013-12-26T21:10:00.000Z11Beantworten
Ja, so gefähr. Die Probleme am Beispiel Brandenburg: (1) Bundesverband Freie Wähler Deutschland#Brandenburg meint die kommunalen Gruppen, die sich als (2) Freie Wähler Brandenburg organisiert haben. Dagegen ist (3) Freie Wähler Deutschland eine Partei mit LV in Berlin und Brandenburg. Dann gibt's noch (4)Brandenburger Vereinigte Bürgerbewegungen / Freie Wähler als weitere "sonstige politische Vereinigung" nach EuWG. Und als fünftes könnte auch noch (5)Freie Wählergemeinschaft Die Nationalen (1991-1997) in Frage kommen. Mit Stand 4. Februar 2013 waren das "nur" 81+X Fehlverlinkungen für Brandenburg. Hinter dem X verstecken sich noch "326 Nicht-Zugeordnete Personenartikel aus Kategorie:Politiker (Deutschland) (o.s.ä, die Katsystematik ist hier schwer zu durchschauen" (meine Worte zum damaligen Zwischenstand).
Nur kurz zu den eigentlichen Artikelinhalten: Die ewiggleichen Diskussionen auf LK und zu den Parteien-RK hängen mir inzwischen zum Hals raus. Ebenso hat sich der Kategorienbaum, die Bezeichnung "Systematik" verbietet sich wg. Schönfärberei, für diesen Zweck hier(!) als beinahe unbrauchbares Gestrüpp herausgestellt.
Trotzdem könnte ich mich bei Interesse nochmal durch mein proof of concept wühlen:
  • (a) Kurze Beschreibung mit welchen API-Aufrufen ich zu den einzelnen Länderliste kommen, das geht sicher besser;-) Ist der Thread hier geenignet?
  • (b) Wohin lade ich eine einzelne Liste, die dann abzuarbeiten wäre?
Beim letzten Punkt habe ich damals aufgehört. Irgendwo fand ich mal einen screenshot eines phyton scripts für die console, aber wo nochmal? Ich hatte sogar schon mit dem Nachbau in perl begonnen, ... möglicherweise, vielleicht kommt die Motivation zurück:-) --grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2014-01-23T15:58:00.000Z-Krd-2013-12-29T18:04:00.000Z11Beantworten

Wikipedia:Liste der am längsten geschützten Artikel - monatlich?

Hallo, Benutzer:Reinhard Kraasch hat freundlicherweise die beiden Unterseiten per lokalem Bot händisch aktualisiert. Ich würde es begrüßen, wenn ein Bot das automatisiert monatlich machen könnte. Wie Benutzer:Reinhard Kraasch schreibt: "aber dann müsste das ein anderer Bot machen, am besten einer, der auf dem Toolserver und dauerhaft läuft - mein Botprogramm läuft ja auf meinem Rechner, und muss von Hand angestoßen werden.". Das wäre toll. --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2013-04-29T14:17:00.000Z-Wikipedia:Liste der am längsten geschützten Artikel - monatlich?11Beantworten

Übersetzte Liste tschechischer Gemeinden

Hallo! Kann ein Bot die beiden Listen cz:Seznam obcí s rozšířenou působností und cz:Seznam obcí s pověřeným obecním úřadem übersetzen, d.h. die deutschen Entsprechungen heraussuchen und in Portal:Tschechien/Mitarbeit/Gemeinden einfügen? Nicht existente deutsche Entsprechungen müssen nicht angegeben werden. Der Hintergrund ist kurz auf dieser Portal-Unterseite beschrieben. Anlaß ist eine Diskussion im Portal zu der Beobachtung, dass zahlreiche (wenn nicht alle) tschehichen Gemeindeartikel den Verwaltungsstand von Ende 2000 angeben. Danke! --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-06-11T22:13:00.000Z-Übersetzte Liste tschechischer Gemeinden11Beantworten

Wenn sich das mit einem Bot prinzipiell nicht erledigen lässt, sagt uns das bitte! Dann erstellen wir die Liste mit der Hand (innerhalb der nächsten zwölf Monate). --20:06, 13. Jun. 2013 (CEST)

Ist es das was Du möchtest?

Die cz-Links kann man natürlich noch rauswerfen, man kann das ganze auch anders aufbereiten.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2013-06-17T16:37:00.000Z-Übersetzte Liste tschechischer Gemeinden11Beantworten

Vielen Dank! Das ist genau, was wir brauchen - zumindest in einem ersten Schritt. Jetzt müssen wir noch wissen, welche (normalen) Gemeinden zu diesen Gemeinden zählen. Intuitiv würde ich sagen, dass das folgende Vorgehen das einfachste ist: Dein Bot sucht all jene Artikel tschechischen Gemeinde Artikel (solche mit der cz:Template:Infobox české obce a města) in welchen der Parameter "ob.roz.půs" für Wirkungsbereich-Gemeinden bzw. "pov.ob" für Gemeindeamt-Gemeinden mit den jeweiligen Einträgen in der Liste auf Portal:Tschechien/Mitarbeit/Gemeinden korrespondiert. Sprich: (Bot (1) nimmt ersten Eintrag (Benešov), (2) sucht in der cz-Wikipedia nach Vorkommen unter dem angegebenen Parameter, (3) sucht für diese Artikel das deutschsprachige Pendant heraus und fügt (3) sie in die Liste ein. Ist das möglich? Falls nicht müssen wir die ersten beiden Schritt mit der Hand machen. --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-06-21T13:47:00.000Z-Cactus26-2013-06-17T16:37:00.000Z11Beantworten
Wie kann es hier weiter gehen? Wäre das Auslesen des in Wikidata hinterlegten deutschen Lemmas eine Hilfe? Kann soetwas ein Bot mahcne? --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-11-01T23:34:00.000Z-Cactus26-2013-06-17T16:37:00.000Z11Beantworten

Anzeige von fälligen KLA-Kandidaturen

Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-06-29T11:12:00.000Z-Anzeige von fälligen KLA-Kandidaturen11Beantworten

Da ich gerade eine Anfrage zur KALP-Benachrichtigung auf meiner DS habe (vielleicht gehts das dann in einem Abwasch): Was soll der Bot denn genau machen?  @xqt Wikipedia:Bots/Anfragen#c-Xqt-2013-07-14T06:51:00.000Z-Spielertyp-2013-06-29T11:12:00.000Z11Beantworten

(Späte Antwort wegen Urlaubs) Die kurze Diskussion dazu findet sich hier: Wikipedia_Diskussion:Kandidaten_für_lesenswerte_Artikel#Auswertung. Meine erste Überlegung war, eine Vorlage zu haben, in welche der Bot am 10. Tage den Artikel einträgt. Ab dann sind die Kandidaten nämlich fällig. Zusätzliche Spielereien, die die Verwaltung erleichtern können, wären denkbar: Kopiervorlage für {{Lesenswert}} sowie die Stimmen. Vielleicht als Box zum Ausklappen. --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-07-18T21:46:00.000Z-Anzeige von fälligen KLA-Kandidaturen11Beantworten

Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Nützlicher wäre ein Bot, der nach einer Auswertung die Verwaltungsseiten aktualisiert. Auf meiner Spielwiese habe ich dazu ein paar Infos gesammelt. --mfb (Diskussion) Wikipedia:Bots/Anfragen#c-Mfb-2014-03-10T16:19:00.000Z-Spielertyp-2013-07-18T21:46:00.000Z11Beantworten

BKLs

Wir haben ja Zigtausend BKLs. Mich würde mal interessieren, wieviele davon nur blaue Links haben und wieviele nur rote Links. Kann das jemand mit vertretbaren Aufwand feststellen? --Matthiasb – Vandale am Werk™ (CallMyCenter) Wikipedia:Bots/Anfragen#c-Matthiasb-2013-07-14T14:22:00.000Z-BKLs11Beantworten

Der zweitgenannte Fall wäre interessanter. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-09-06T15:22:00.000Z-Matthiasb-2013-07-14T14:22:00.000Z11Beantworten
Ich kümmere mich um den zweitgenannten Fall - falls mir jemand einen über die reine Statistik hinausgehenden Nutzen von erstgenanntem Fall erklärt, gerne auch darum. Falls ich mich innerhalb von einem Monat nicht hier melde, fragt bitte bei mir nach. Gruß --dealerofsalvation Wikipedia:Bots/Anfragen#c-Dealerofsalvation-2014-01-05T06:45:00.000Z-Leyo-2013-09-06T15:22:00.000Z11Beantworten

@Matthiasb:: Was lange währt … Also, in 13 Minuten Laufzeit hat mein Sourcecode von .338 Whisper bis Ahirwar 223 Ergebnisse (BKLs mit ausschließlich roten Links) gefunden. Schau mal rein, ich hab nur ein paar Stichproben überprüft. Das mal als erste Abschätzung. Besteht Interesse daran, den Code bis Z weiterlaufen zu lassen? Gruß --dealerofsalvation Wikipedia:Bots/Anfragen#c-Dealerofsalvation-2014-03-10T20:10:00.000Z-BKLs11 Beantworten

Sorry, dass ich das übersehen hatte. Es sind insgesamt 9957 Begriffsklärungen, auf die das zutrifft, eine vollständige Liste kann jeder Tool Labs User in unter einer Minute mit folgendem Kommandozeilenaufruf in eine Datei namens test.txt erstellen:

mysql --defaults-file="${HOME}"/replica.my.cnf --disable-column-names -e "SELECT CONCAT('* [[',page_title,']]') FROM page AS page1,categorylinks 
WHERE page_namespace=0 AND page_id=cl_from AND cl_to LIKE 'Begriffskl%rung' 
AND (SELECT count(*) FROM pagelinks,page WHERE pl_from=page1.page_id AND page_namespace=0 AND pl_namespace=0 AND page_title=pl_title)=0" -h dewiki.labsdb dewiki_p > test.txt

Das gute: Ich komme auf die gleichen ersten Seiten wie dealerofsalvation, also scheint alles korrekt. Also wenn eine vollständige Liste benötigt wird, bitte nachfragen. --APPER\☺☹ Wikipedia:Bots/Anfragen#c-APPER-2014-03-10T20:43:00.000Z-BKLs11Beantworten

Ich wollte das damals im Rahmen einer Diskussion haben, weiß aber nicht mehr den genauen Zusammenhang, nur noch, daß irgendwer meinte, wir hätten zuviele BKLs mit nur roten Links. In der BKL-Kategoriesind 195.580 Seiten eingetragen, also scheinen knapp unter fünf Prozent aller BKLs nur rote Links zu haben. Eine konkrete QS-Maßnahme hatte ich nicht beabsichtigt.
@Dealerofsalvation:: Wenn du nix dagegen hast, würde ich die Seite gerne in meinen BNR rüberschieben, um mir diese "Stichprobe" bei Gelegenheit näher zu betrachten.
Grüße und danke an euch beide. --Matthiasb – Vandale am Werk™ (CallMyCenter) Wikipedia:Bots/Anfragen#c-Matthiasb-2014-03-11T19:41:00.000Z-APPER-2014-03-10T20:43:00.000Z11Beantworten
Ach und vielleicht noch die Buchstaben M und S dazu. Bei A scheinen ja BKLs mit geographischen Namen vorzuherrschen, viele Flüsse sind da dabei, aber derjenige, der das geschaffen hat, hat vielleicht irgendwo das Handtuch geworfen. --Matthiasb – Vandale am Werk™ (CallMyCenter) Wikipedia:Bots/Anfragen#c-Matthiasb-2014-03-11T19:45:00.000Z-Matthiasb-2014-03-11T19:41:00.000Z11Beantworten
Habe die Anfangsbuchstaben M und S hinzugefügt. --APPER\☺☹ Wikipedia:Bots/Anfragen#c-APPER-2014-03-11T21:31:00.000Z-Matthiasb-2014-03-11T19:45:00.000Z11Beantworten
Fein. Matthiasb, wenn du magst, verschieb die Seite gerne, du darfst aber auch gerne dort wo sie ist nach deinem Gusto mit ihr verfahren. Gruß --dealerofsalvation Wikipedia:Bots/Anfragen#c-Dealerofsalvation-2014-03-12T04:58:00.000Z-APPER-2014-03-11T21:31:00.000Z11Beantworten

Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung

Im Bereich der Benutzer-Verifizierung wird auf Wikipedia:Benutzerverifizierung/Benutzernamen-Ansprachen eine Übersicht geführt, welchen Benutzer aufgrund des Namens auf der Disk ein Hinweis auf die Verifizierung hinterlassen wurde. Leider wird auf diesen Hinweis nur sehr selten reagiert. Am besten ist es, direkt per Wikimail den Benutzer auf die Verifizierung und die ggf. drohende Sperrung anzusprechen. Ich habe dies in den vergangenen Tagen mehrach erfolgreich gemacht. Als Benutzer kann ich allerdings nur 20 Wikimails pro Tag verschicken. Könnte ein Bot diese Aufgabe übernehmen. Ausgangslage: Auf einer Seite würde ich den Mail Text schreiben und auf einer weiteren die entsprechenden Benutzernamen. Allerdings sind nicht alle Benutzer per Wikimail erreichbar. --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-10T06:02:00.000Z-Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung11Beantworten

Ich melde mich mal ganz zaghaft, unter Umständen hab ich was Passendes. Werde aber noch nicht gleich zum Testen kommen. Wenn jemand anderes möchte, nur zu. IW Wikipedia:Bots/Anfragen#c-Inkowik-2013-08-10T10:56:00.000Z-Olaf Kosinsky-2013-08-10T06:02:00.000Z11Beantworten
Ja, da habe ich was und würde den Job auch übernehmen: Was ich brauche ist:
  • eine Quelle (Seite, Kategorie oder Vorlage etc.), aus der der Bot entnehmen kann, welche Benutzer benachrichtigt werden soll
  • den Text, der versandt verden soll (Seite oder Vorlage)
  • Sollen die Benutzer per Mail, per DS oder beides angesprochen werden
  • Soll die Art der Benachrichtigung irgendwie dokumentiert werden?
  • Ist eine Protokollseite erwünscht?
 @xqt Wikipedia:Bots/Anfragen#c-Xqt-2013-08-10T13:14:00.000Z-Olaf Kosinsky-2013-08-10T06:02:00.000Z11Beantworten
Herzlichen Dank für Euer Interesse.
  • Der Text kommt von dieser Seite: Benutzer:Olaf Kosinsky/Wikimail-Text Es wäre natürlich toll, wenn der individuelle Benutzername eingesetzt werden kann
  • Die Liste der Benutzer würde auf dieser Seite stehen (Die Liste ist noch nicht vollständig): Benutzer:Olaf Kosinsky/Wikimail-Liste
  • Die Benutzer sollen nur per Mail angesprochen werden. Der Hilfetext auf der Benutzer-Disk wird zum Zeitpunkt des Wikimail Versand schon vorhanden sein
  • Es wäre gut, eine Protokollseite zu haben. Da nicht alle Benutzer eine E-Mail Adresse hinterlegt haben, wird Wikimail auch nicht bei allen funktionieren
--Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-10T15:11:00.000Z-Xqt-2013-08-10T13:14:00.000Z11Beantworten
Kann ich die Verteilerliste noch ergänzen? --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-14T07:24:00.000Z-Olaf Kosinsky-2013-08-10T15:11:00.000Z11Beantworten
Ja, am Besten gleich mit dem Benutzernamen verlinken.  @xqt Wikipedia:Bots/Anfragen#c-Xqt-2013-08-24T08:47:00.000Z-Olaf Kosinsky-2013-08-14T07:24:00.000Z11Beantworten
Ich habe den ersten Namen mit dem Benutzernamen verlinkt. Ist das ausreichend? --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-24T09:02:00.000Z-Xqt-2013-08-24T08:47:00.000Z11Beantworten
Der Text und die Verteilerliste sind fertig. Der Wikimail Versand könnte jetzt erfolgen. --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-24T19:30:00.000Z-Olaf Kosinsky-2013-08-24T09:02:00.000Z11Beantworten
@Olaf Kosinsky: Ist diese Anfrage noch aktuell, oder inzwischen erledigt? --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-01-04T13:35:00.000Z-Olaf Kosinsky-2013-08-24T19:30:00.000Z11Beantworten
@Krd: Die Anfrage ist noch aktuell. Die Liste mit den Benutzernamen habe ich eben aktualisiert. --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2014-01-04T14:07:00.000Z-Krd-2014-01-04T13:35:00.000Z11Beantworten
Ich hab dafür leider nichts fertiges in der Schublade. --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-01-04T14:11:00.000Z-Olaf Kosinsky-2014-01-04T14:07:00.000Z11Beantworten

Wäre es möglich, das anderweitig mit Xqt zu klären? Dann könnte dieser Abschnitt hier erledigt werden. IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-02-04T12:37:00.000Z-Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung11Beantworten

Reicht kommendes Wochenende?  @xqt Wikipedia:Bots/Anfragen#c-Xqt-2014-02-04T13:32:00.000Z-Inkowik-2014-02-04T12:37:00.000Z11Beantworten

js durch anderen Bot startbar?

Hallo, der Bot Benutzer:MerlBot/Touch/täglich.js läuft seit einem Dritteljahr nicht mehr korrekt.
Siehe WP:AA#Keine Warnhinweise mehr, dass der „Artikel des Tages“ und „Schon gewusst“ aktualisiert werden muss
und BD:Merlissimo#Benutzer:MerlBot/Touch/täglich.js.
Frage: Kann dieses Script kopiert werden und von einem anderen Bot, der keine Server- und Sprachprobleme hat, laufen gelassen werden? Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-10T12:53:00.000Z-js durch anderen Bot startbar?11Beantworten

Die WikiLinks liegen eigentlich nur auf einer .js-Seite, damit nur Admins dort herumeditieren können.
Was ist zu tuen? Um Mitternacht oder ein paar Minuten später, die Seite im Kontext einer deutschsprachigen Seite parsen und dann für jeden WikiLink einmal die Api-Action action=purge&forcelinkupdate=&titles= ausführen. Beispiellinks zum parsen gibt es auf Merls Diskussionsseite. Der Umherirrende 18:10, 10. Aug. 2013 (CEST)
Es würde auch ausreichen, folgende Befehle einmal am Morgen automatisch ausführen zu lassen:
1. Zur Setzung der Kategorie:
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Mittwoch&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Mittwoch&forcelinkupdate= (*)
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Administratoren/Anfragen/Aufgaben&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/morgen&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Intro&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Artikel%20des%20Tages/Vorschläge&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Artikel%20des%20Tages/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Schon%20gewusst/Bearbeitungshinweise&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite/Schon%20gewusst&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia:Hauptseite/Diskussionsseitenhinweis&forcelinkupdate=
https://de.wikipedia.org/w/api.php?action=purge&titles=Wikipedia%20Diskussion:Hauptseite&forcelinkupdate=
2. Zur Auffrischung der Seiten, die die Hinweise zur Aktualisierung verwenden:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Artikel_des_Tages/Mittwoch&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Intro&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Artikel_des_Tages/Vorschläge&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Bearbeitungshinweise&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Schon_gewusst/Mittwoch&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite/Schon_gewusst&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen/Aufgaben&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Administratoren/Anfragen&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Diskussionsseitenhinweis&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia_Diskussion:Hauptseite&action=purge
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge
3. Weitere Auffrischungen, die gleich miterledigt werden können:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge (zur Auffrischung der Hauptseite auf aktuellen Tag)
http://de.wikipedia.org/w/index.php?title=Hauptseite&action=purge (zur Auffrischung des Redirects)
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/morgen&action=purge (zur Setzung der Kaskadensperre)
Eventuell müssen nicht alle Zeilen ausgeführt werden, aber so funktioniert es auf alle Fälle. Danke. Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-13T12:39:00.000Z-SchirmerPower-2013-08-10T12:53:00.000Z11Beantworten
Ich mach das. – Giftpflanze Wikipedia:Bots/Anfragen#c-Giftpflanze-2013-08-13T17:27:00.000Z-SchirmerPower-2013-08-13T12:39:00.000Z11Beantworten
Weißt du schon, ab wann der Bot läuft und um welche Uhrzeit? Und läuft der Bot mit den Seiten von Merlissimo oder werden die oben genannten Links aufgerufen? SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-15T00:57:00.000Z-Giftpflanze-2013-08-13T17:27:00.000Z11Beantworten
Nachtrag: Aktuell scheint noch nichts zu laufen; die Warnhinweise kamen heute erst, nachdem ich die Befehle manuell gestartet hatte. Die mit (*) markierten LinkUpdates müssten ausreichend sein. Die Purges machen die Änderung dann auf den betreffenden Seiten sofort sichtbar. Die gelisteten Seiten sind alle, die ich kenne, auf denen die "Warnungen" angezeigt werden. Wieso in Merlissimos Liste neben +1 days auch -1 days steht, ist mir noch unklar. Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-16T07:52:00.000Z-Giftpflanze-2013-08-13T17:27:00.000Z11Beantworten
Eventuell könnte der Bot gleich noch die Hauptseite purgen
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite&action=purge
Das dürfte solche Anfragen minimieren. Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-20T11:20:00.000Z-SchirmerPower-2013-08-16T07:52:00.000Z11Beantworten
Ein purge auf "Heute" könnte auch nicht schaden, damit wäre die Kaskadensperre wohl wieder funktionstüchtig:
http://de.wikipedia.org/w/index.php?title=Wikipedia:Hauptseite/Heute&action=purge
Siehe auch diese Diskussion. Gerald SchirmerPower (Diskussion) 03:26, 21. Aug. 2013 (CEST) Scheint erledigt zu sein. SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-08-21T01:26:00.000Z-SchirmerPower-2013-08-16T07:52:00.000Z11Beantworten
Seit einem Monat starte ich die Links nun jeden Morgen manuell. Ein Aufruf über einen Batchjob (DOS) funktioniert bei mir aus unbekannten Gründen nicht. Ist denn wirklich kein Bot in der Lage, die zwei "Linkupdates" durchzuführen? Die ersten beiden Aufrufe (linkupdate) würden ja schon mal reichen, die purges habe ich gestrichen, falls das jemand zu viel vorkam. Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-04T22:37:00.000Z-SchirmerPower-2013-08-21T01:26:00.000Z11Beantworten
Meiner läuft doch auch?! – Giftpflanze Wikipedia:Bots/Anfragen#c-Giftpflanze-2013-09-05T20:42:00.000Z-SchirmerPower-2013-09-04T22:37:00.000Z11Beantworten
Das wäre toll. Kannst du dazu nähere Angaben machen? Wie heißt der Bot, wann läuft er und welche Befehle führt er aus?
Ich habe jeden Abend kontrolliert, ob der Linkupdate funktioniert hat und die beiden morgigen Vorlagen (AdT + SG?) der Wartungskategie zugeordnet sind, das waren sie aber nicht (natürlich auch nur, sofern sie auch noch nicht geändert wurden). Die oben genannten purges habe ich dann auch manuell ausgeführt, weil die Seiten in den meisten Fällen (außer bei Änderungen) nicht "gepurget" waren und somit der Änderungsbedarf an AdT und SG?, sofern nötig, nie angezeigt wurde. Die Tests habe ich seit 10.8. immer zwischen 0:05 Uhr und 9:00 Uhr gemacht, da war nie ein Linkupdate durchgeführt worden.
Hinweis: Morgen früh kann das wieder getestet werden, da der AdT für den Folgetag (Samstag) noch nicht eingetragen wurde, bei Bedarf kann ich meine manuellen Tätigkeiten zwecks Überprüfung aussetzen. Einfachste Kontrolle ist es, die Seite WD:HS aufzurufen, da müsste dann heute Nacht ab 24 Uhr stehen, dass der AdT aktualisiert werden muss; steht das dort nicht, ist entweder der Linkupdate nicht gelaufen, der purge nicht oder beides nicht (oder jemand hat den AdT schnell eingetragen). Grüße, Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-05T21:10:00.000Z-Giftpflanze-2013-09-05T20:42:00.000Z11Beantworten
Ok, die Wartungskategorie für Wikipedia:Hauptseite/Artikel des Tages/Samstag wurde richtig zugeordnet. Was aktuell fehlt, sind die purges der "Hinweisseiten", wie z. B. Wikipedia:Administratoren/Anfragen/Aufgaben oder Wikipedia:Hauptseite/Diskussionsseitenhinweis (komplette Liste oben). SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-05T22:18:00.000Z-Giftpflanze-2013-09-05T20:42:00.000Z11Beantworten
Das ganze hat eine lange Geschichte mit vielen Problemen. Es gibt zwei Unterseiten:
Bei Purge geht es um die Aktualisierung der angezeigten Seite und des Sperrstatus. Bei Touch finden sich Fälle zur Aktualisierung von Linktabellen. Weil die Fragen oben aufkam: Bei den "Gestern" (-1)-Seiten soll eine Box eingeblendet werden, dass eine Aktualisierung nötig ist. Sie sind auch bei Touch eingetragen, weil die Entsperrung sonst nicht funktioniert.
Der Purge war ein api-Purge und Touch war ein Null-Edit. Umherirrender hat dann später eine Featureerweiterung forcelinkupdate von Purge hinzugefügt, der den Null-Edit ersetzen soll, was aber aus bisher nicht verständlichen Gründen nicht so ganz funktioniert hat. Ich habe deswegen weiterhim immer linkupdate und Null-Edit durchgeführt.
Ich und Guandalug haben diese Seiten gepurget und getouched. Wir hatten es beide nie solo hinbekommen, dass die Seitensperrugnen sicher funktionieren. Nur wenn wir die Bots beide haben laufen lassen war das Problem plötzlich gelöst.
Weil sich ein paar auf meiner Disk gemeldet hatten, habe ich erst vor kurzem bemerkt, dass es im März 2012 ein Softwareumstellung gab. Mein Bot hat immer das Resultat von http:////de.wikipedia.org/w/api.php?action=query&prop=links&titles=Benutzer:MerlBot/Touch/t%C3%A4glich.js als Eingabe genommen. Die Links waren vorher korrekt mit deutschen Wochentagsnamen, wie dies auch beim Rendern angezeigt wird. Durch irgendeine Änderung sind die Namen nun auf englisch, was meinen Bot die falschen Seiten purgen bzw. touchen lässt. Deswegen ja auch die Anfrage hier nach einem Ersatz.
Ich werde versuchen das wieder zu korrigieren (notfalls mit switch) und meinen Bot demnächst wieder im Betrieb nehmen. Aber wie oben beschrieben braucht es irgendwie zwei Bots - zum einen wegen dem Problem mit der Seitensperre, zum anderen zur Ausfallsicherheit. Es wäre sehr sinnvoll, wenn wir eine gemeinsame Konfiguration haben, wie z.B. meine beiden Bot-Unterseiten. Vielleicht irgendwo im Mediawiki-NS? Ich habe z.B. eben WP:Review bei Purge hinzugefügt. Die Seite wird seid einem Monat statt manuell nun von meinen Bot und wechselnden Unterseiten aktualisiert und ich benutze darin die time-Funktion zur Fettmarkierung den aktuellen RDT.
Was ist eigentlich mit der Bildsperrung der Hauptseitenbilder auf commons geworden? Dort hatte Guandalug immer kurz vor Mitternach die Bildliste aktualisiert, die dann in eine Kaskadensperrung kamen. Ich habe die commons-Seite im Moment nicht mehr im Kopf. Muss ich mal raussuchen. Merlissimo 01:13, 6. Sep. 2013 (CEST)
In der Tat: User:Bdk/de mit den Unterseiten https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images0&action=history, https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images1&action=history und https://commons.wikimedia.org/w/index.php?title=User:Bdk/de/images2&action=history wird nicht mehr aktualisiert. Werde ich übernehmen. Einen zweiten Bot brauch es hier vermutlich nicht. Nur mal im Hinterkopf halten, falls ich mal eines Tagen ausfallen sollte. Merlissimo 01:18, 6. Sep. 2013 (CEST)
Wie oben beschrieben, sollten die purges auch Hinweisseiten wie z. B. WP:AA/Aufgaben umfassen, damit die durch den Touch verursachten Zuweisungen auch sofort angezeigt werden und nicht erst nach dem ersten Edit der Seite.
Frage: Werden die Purges in Benutzer:MerlBot/Purge/täglich.js denn aktuell und fehlerfrei (Sprachproblem?) durchgeführt? Wenn ja, könntest du das, zumindest zeitweise, zum Editieren freigeben?
Wenn das Sprachproblem noch nicht gelöst ist, würde ich vorschlagen, einfach täglich alle 7 Wochentage zu erledigen, das dürfte keine Komplikationen hervorrufen und kaum mehr Performance kosten. Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-05T23:31:00.000Z-SchirmerPower-2013-08-10T12:53:00.000Z11Beantworten
js-Seiten kann man nicht zum Editieren freigeben. Ich war damals noch kein Admin und mit den Links auf js-Seiten war dies eine gute Möglichkeit, damit ich aber auch jeder Admin die Konfig jederzeit ändern kann ohne die Gefahr von Vandalismus zu haben.
Ich muss dem Grund für die Sprach-Umstellung mal nachgehen und werde zu sehen, dass wie die generierten Links bald stimmen. Werde mich damit in den nächsten 3-4 Tagen beschäftigen und dachte, dass es jetzt auf die paar Tage auch nicht mehr ankommt. Merlissimo 01:39, 6. Sep. 2013 (CEST)
Das war mir neu, dass js-Seiten nur der Benutzer selbst und Admins editieren können. Wieso machst du es nicht so wie der CopperBot?
Da hast du Recht, auf die Tage kommt es nicht an. Zumal ja zumindest die Linkupdates/Touch aktuell zu funktionieren scheinen, entweder durch den Merlbot oder den Giftbot. Die Purges mache ich dann erst mal weiter händisch. Grüße, Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-06T00:25:00.000Z-SchirmerPower-2013-09-05T23:31:00.000Z11:::::Beantworten
Nachbemerkung: Falls jemand etwas testen wollte, ich führe die Purges nun gleich manuell aus, damit auf den fehlenden AdT noch aufmerksam gemacht wird. SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-06T15:15:00.000Z-SchirmerPower-2013-09-06T00:25:00.000Z11Beantworten
Noch ein Nachtrag: Die Purges hatten keinen Effekt. Ich habe erst noch mal die beiden oben stehenden Linkupdates (aus meiner Liste) ausführen müssen, dann erneut die Purges (unterer Teil der Liste). Nun wird die richtige Information auf den betreffenden Seiten angezeigt. Das heißt, auch der erste Teil, der Touch bzw. Linkupdate, funktioniert noch nicht! Grüße, Gerald SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-09-06T15:25:00.000Z-SchirmerPower-2013-09-06T00:25:00.000Z11Beantworten

Gadget-Nutzer

Mag jemand eine Datenbankabfrage machen um WD:Helferlein/Archiv#Gadget-Verwendungsstatistik zu aktualisieren? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-08-26T15:14:00.000Z-Gadget-Nutzer11Beantworten

Hat ja nur ein Jahr gedauert. Es wurden alle Benutzer betrachtet, deren letztes Login maximal etwa 3-4 Monate zurückliegt. Defaultwerte sind IIRC nicht berücksichtigt.
Gadget explizit (de)aktiviert Anzahl
MediaWiki:gadget-CommonsDirekt 199
MediaWiki:gadget-CommonsDirekt 1 71
MediaWiki:gadget-Doppel-s-Schreibung 0 2406
MediaWiki:gadget-Doppel-s-Schreibung 1 175
MediaWiki:gadget-Einleitung-bearbeiten 0 2269
MediaWiki:gadget-Einleitung-bearbeiten 1 2645
MediaWiki:gadget-Erweiterte-Navigationsleiste-Quicklinks 1 236
MediaWiki:gadget-Extra-Editbuttons 0 2206
MediaWiki:gadget-Extra-Editbuttons 1 3678
MediaWiki:gadget-Gadgets-InlineInterwikisI 0 5
MediaWiki:gadget-Gadgets-InlineInterwikisI 1 1
MediaWiki:gadget-Gadgets-Personendaten 0 6
MediaWiki:gadget-HideVisualEditor 1 33
MediaWiki:gadget-HotCat 0 2246
MediaWiki:gadget-HotCat 1 3079
MediaWiki:gadget-InlineInterwikisInGruen 0 26
MediaWiki:gadget-InlineInterwikisInGruen 1 1
MediaWiki:gadget-InterwikisInGruen 0 1
MediaWiki:gadget-OpenStreetMap 0 421
MediaWiki:gadget-OpenStreetMap 1 147
MediaWiki:gadget-PB 1 1567
MediaWiki:gadget-PermaPageLink 1 246
MediaWiki:gadget-Persoenliche-Bekanntschaf 0 1147
MediaWiki:gadget-Persoenliche-Bekanntschaf 1 43
MediaWiki:gadget-Personendaten 0 2411
MediaWiki:gadget-Personendaten 1 1382
MediaWiki:gadget-Pfeil-hoch 0 2275
MediaWiki:gadget-Pfeil-hoch 1 1595
MediaWiki:gadget-PrettyLog 1 367
MediaWiki:gadget-Rechtschreibpruefung 0 2162
MediaWiki:gadget-Rechtschreibpruefung 1 3821
MediaWiki:gadget-ReferenceTooltips 1 1335
MediaWiki:gadget-Rot-Gruen-Sehschwaeche 0 2389
MediaWiki:gadget-Rot-Gruen-Sehschwaeche 1 279
MediaWiki:gadget-Screenreader-Optimierung 0 2405
MediaWiki:gadget-Screenreader-Optimierung 1 118
MediaWiki:gadget-Suchfokus-Hauptseite 0 1839
MediaWiki:gadget-Suchfokus-Hauptseite 1 1791
MediaWiki:gadget-TAXman-tool 0 172
MediaWiki:gadget-TAXman-tool 1 1
MediaWiki:gadget-VectorClassic 1 172
MediaWiki:gadget-Vorlagenmeister 0 2272
MediaWiki:gadget-Vorlagenmeister 1 2414
MediaWiki:gadget-WikiMiniAtlas 730
MediaWiki:gadget-WikiMiniAtlas 0 2119
MediaWiki:gadget-WikiMiniAtlas 1 60
MediaWiki:gadget-Zeitzonenkonverter 1 694
MediaWiki:gadget-articlefeedback 1 49
MediaWiki:gadget-bkl-check 0 1761
MediaWiki:gadget-bkl-check 1 3533
MediaWiki:gadget-contribsrange 0 1384
MediaWiki:gadget-contribsrange 1 617
MediaWiki:gadget-editsection-align-end 1 168
MediaWiki:gadget-editsection-left 1 38
MediaWiki:gadget-editsection-right 1 120
MediaWiki:gadget-highlightemptysummary 1 7
MediaWiki:gadget-imagesiblings 1 376
MediaWiki:gadget-markAdmins 1 1632
MediaWiki:gadget-navigation-popups 0 2323
MediaWiki:gadget-navigation-popups 1 1870
MediaWiki:gadget-old-diff-style 1 213
MediaWiki:gadget-old-movepage 421
MediaWiki:gadget-revisionCounter 1 1324
MediaWiki:gadget-revisionjumper 0 584
MediaWiki:gadget-revisionjumper 1 995
MediaWiki:gadget-rightsfilter 1 298
MediaWiki:gadget-toolserver-integration 0 2282
MediaWiki:gadget-toolserver-integration 1 3067
MediaWiki:gadget-wikEd 0 2266
MediaWiki:gadget-wikEd 1 1960

Rohdaten von Hoo man ([3]) Mag wer das noch schöner aufarbeiten? ;-) --se4598 / ? Wikipedia:Bots/Anfragen#c-Se4598-2014-08-06T17:25:00.000Z-Gadget-Nutzer11Beantworten

Toll, vielen Dank!
Was ich nicht verstehe, sind die Doppeleinträge mit 0 und 1. Falls ich ein standardmässig deaktiviertes Gadget aktiviere, kriegt es eine 1. Wenn ich's dann wieder deaktiviere, eine 0 (≠ Ausgangszustand). Stimmt das so? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-06T20:45:00.000Z-Se4598-2014-08-06T17:25:00.000Z11Beantworten

Bitte Diskussionsseiten - "Defekter Weblink" -Abschnitte aufräumen

Inzwischen wurden schon eine Menge der Links ausgebessert. Vieler der Links unter dem Abschnitt "Defeker Weblink" sind im Artikel nicht mehr enthalten. Ich bitte um die Entfernung aller Links die nicht mehr im Artikel enthalten sind, oder zumindest um ein Auskommentiern, damit diese Links auf Diskussionsseiten nicht mehr in der Weblinksuche aufscheinen. Gleiches gilt für die dazugehörigen archive.org Links. Wenn dann keine Links mehr übrig bleiben sollte auch die Vorlage {{Defekter Weblink Bot}} aus der Diskussionsseite entfernt werden. Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-09-20T15:32:00.000Z-Bitte Diskussionsseiten - "Defekter Weblink" -Abschnitte aufräumen11Beantworten

Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet

Ich suche einen Bot, der die Artikel mit den meisten Vorlageneinbindungen findet. Grund: Es sollten nicht mehr als 500 Vorlagen auf einer Seite eingebunden werden. Falls es so etwas schon gibt, wäre ich für einen Hinweis dankbar. [4] [5] [6] Kann das jemand erstellen? Die Liste könnte beispielsweise so aussehen. SchirmerPower (Diskussion) Wikipedia:Bots/Anfragen#c-SchirmerPower-2013-10-08T13:32:00.000Z-Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet11Beantworten

Liste der Artikel mit den wenigsten Einzelnachweisen

Hallo, ich hätte gerne eine Liste der am schlechtesten belegten Artikel. Automatisieren lässt sich das natürlich nur durch einen groben Indikator. Stelle mir das wie folgt vor:

Vielen Dank --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2013-10-22T12:48:00.000Z-Liste der Artikel mit den wenigsten Einzelnachweisen11Beantworten

Es gibt doch genug Artikel, in denen Belege gänzlich fehlen… --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-10-22T13:07:00.000Z-Zulu55-2013-10-22T12:48:00.000Z11Beantworten
Wollte ich auch gerade schreiben. Das Ergebnis sind dann ein paar hunderttausend Artikel ohne Belege. Gab es nicht mal eine Erhebung dazu? Ich meine, dass gut 40-50% der Artikel weder Weblinks, noch Literaturverweise, noch Einzelnachweise enthalten.
Ein guter Startpunkt zum Abarbeiten wäre vielleicht Kategorie:Wikipedia:Belege fehlen. Gruß, --NiTen (Discworld) Wikipedia:Bots/Anfragen#c-NiTenIchiRyu-2013-10-22T13:21:00.000Z-Leyo-2013-10-22T13:07:00.000Z11Beantworten
Hm, also daher würden mich eben Artikel erst ab einer bestimmten Größe interessieren. Dort kommt es doch (hoffentlich) deutlich seltener vor, dass lange Artikel völlig einzelnachweisfrei sind. Würde mich ehrlich gesagt wundern. An Kategorie:Wikipedia:Belege fehlen hatte ich auch schon gedacht, allerdings wird dieser Baustein ja auch dann (gefühlt sehr oft) vergeben, wenn wichtige Belege fehlen oder ein Abschnitt unbelegt ist. --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2013-10-22T14:22:00.000Z-NiTenIchiRyu-2013-10-22T13:21:00.000Z11Beantworten
BK: Ich hab gerade versucht den Toolserver via https://toolserver.org/~hoo/catPageLinks.php?cat_name=Wikipedia%3ABelege+fehlen&depth=0&page_namespace=0&project=dewiki_p zu trietzen. Abfrage: Kategorie:Belege_fehlen sortieren nach Anzahl der Links auf die jeweilige Seite - in der Regel ein guter Indikator für besonders bedeutsame Artikel. Scheint ihn aber zu überfordern. Das geht ja in eine ähnliche Richtung. Vielleicht kann das jemand umsetzen und das Ergebnis auf einer WP-Seite speichern? --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2013-10-22T14:32:00.000Z-NiTenIchiRyu-2013-10-22T13:21:00.000Z11Beantworten
Zu meinem Punkt oben: Bei Wikipedia:Redaktion Chemie/Artikel ohne Quellenangabe gibt es beispielsweise bestimmt auch etwas längere Artikel drunter. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-10-22T14:34:00.000Z-Zulu55-2013-10-22T14:32:00.000Z11Beantworten
Hab mir jetzt mal WP:Liste der Artikel in Kategorie:Belege fehlen nach Größe ab 100.000 byte generiert. Das geht ja schon mal in die Richtung. Nur sind das ja leider einfach zum einen besonders große Artikel, zum anderen meist besonders umstrittene Artikel. Es können große Artikel jedoch auch schlecht belegt sein, ohne das der Baustein (zwingend) gesetzt wird. Würde mich daher immernoch über eine Umsetzung freuen. Als Einschränkung könnte man ja erstmal nur Artikel der Kategorie:Wikipedia:Belege fehlen untersuchen. --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2013-10-22T14:42:00.000Z-Zulu55-2013-10-22T12:48:00.000Z11Beantworten
Bei den allerwenigsten dieser Artikel fehlen komplett alle Belege - meist sind nur einzelne Absätze mit dem Baustein gekennzeichnet, und das oft genug auch zu Unrecht (bzw. in der Weise, dass der Setzer des Bausteins mit der Qualität der Belege nicht einverstanden ist). --Reinhard Kraasch (Diskussion) Wikipedia:Bots/Anfragen#c-Reinhard Kraasch-2013-10-24T23:03:00.000Z-Zulu55-2013-10-22T14:42:00.000Z11Beantworten
Ist selten, kommt aber vor. Hier ein Beispiel: Ha'atelier. In diesem Beispiel waren nur ein Handvoll Namen aus einer langen Liste belegt. Ich habe die Personenliste wegen Irrelevanz aus dem Artikel entfernt, und plötzlich stand der zuvor scheinbar belegte Artikel völlig belegfrei da.  Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-10-27T18:12:00.000Z-Reinhard Kraasch-2013-10-24T23:03:00.000Z11Beantworten

Gibt es hier einen Botbetreiber, der diesen Vorschlag umsetzen könnte? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-10-30T14:32:00.000Z-WP:FZW#Internet Archive Wayback Machine - Permalink selber erstellen11Beantworten

Können wir uns möglicherweise sparen. Denn neben diesem neuen "Save it"-Feature web.archive.org/record/$url kündigt blog.archive.org an, archive.org würde externe Links auf Wikipediaseiten archivieren, angeblich 5 Mio. neue URLs pro Tag (und außerdem tote per Bot durch eine Archiv-URL ersetzen zu wollen). --Thoken (Diskussion) Wikipedia:Bots/Anfragen#c-Thoken-2013-10-30T17:48:00.000Z-Leyo-2013-10-30T14:32:00.000Z11Beantworten
@Thoken: Gibt es News zum Thema? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-06-01T21:49:00.000Z-Leyo-2013-10-30T14:32:00.000Z11Beantworten
Es sind zwar tatsächlich viele Links bei archive.org auffindbar, aber von vollständig oder annähernd vollständig kann keine Rede sein. Ein Bot der regelmäßig alle erreichbaren Links, die noch nicht auf archive.org auffindbar sind dorthin überträgt würde mMn schon Sinn machen. Schön wäre es auch, wenn größere Inhaltsveränderungen auf den Seiten erkannt würden, und dann ebenfalls neue Mementos angelegt würden. So eine Funktion bräuchte aber viel Platz fürs Zwischenspeichern. Ein derartiges, nicht öffentlich einsehbares Archiv könnte nebenbei so manche Probleme lösen. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-06-01T22:08:00.000Z-Leyo-2014-06-01T21:49:00.000Z11Beantworten
Das Projekt ist anscheinend insoweit abgeschlossen, als dass nur noch eine geringe Anzahl Webseiten täglich archiviert wird, diese Anzahl nimmt seit einem halben Jahr kontinuierlich ab, von ca. 5000 auf zur Zeit ca. 500 täglich. Ich hab mal die "Downloads" auf [7] aufsummiert, danach hat der "Wikipedia Outlinks Crawler" des Archivs seit September 2013 etwa 17 Mio. "Downloads" erledigt. Rein zahlenmäßig könnten das externe Weblinks der englischen Wikipedia sein, ohne defekte und evtl. ohne früher archivierte. --Thoken (Diskussion) Wikipedia:Bots/Anfragen#c-Thoken-2014-06-02T18:09:00.000Z-Leyo-2014-06-01T21:49:00.000Z11Beantworten
Ich zitiere mal Benutzer:Merlissimo11 aus dieser Diskussion:
„Nach deutschem Recht in der Auftraggeber einer Archivierung (und nicht der eigentliche Archivierungsservice) dafür verantwortlich, dass diese korrekt und mit Erlaubnis der Rechteinhaber erfolgt. Aus diesem Grund fand sich bisher kein Botbetreiber von dewiki dazu bereit bei Diensten wie Wayback oder Webcite eine systematische Archivierung der Weblinks in Auftrag zu geben (was über eine Schnittstelle technisch möglich gewesen wäre). Um mal über den Tellerrand zu schauen: In Frankreich ist das Recht ähnlich erlaubt aber eine Ausnahme für Bildungseinrichtungen. Um dort die Bildungsausnahme zu unterstreichen wurde extra für frwiki ein Projekt entwickelt, dass die Archivierung übernimmt. Das amerikanische Recht ist hier deutlich freizügiger, weshalb auf enwiki immer mal wieder ein solcher Bot lief. Nun sind wir hier auf dewiki, die Server stehen aber in Amerika. Solange der Botbetreiber kein Deutscher ist, ist es also rechtlich unbedenklich.“
Es sind mehr rechtlicher Bedenken als technische Probleme die einen solchen Bot schwierig machen. --sitic (Diskussion) Wikipedia:Bots/Anfragen#c-Sitic-2014-06-02T19:47:00.000Z-Thoken-2014-06-02T18:09:00.000Z11Beantworten
Das spricht aber nicht gegen eine eigene Archivierung auf eigenen Servern, solange man darauf keinen öffentlichen Zugang gewährt, denn auch bei gelöschten Seiten besteht ein Recht auf Zitierung. Mit Hilfe so einer eigenen Archivierung könnten man dann feststellen, wenn sich eine Seite grob verändert hat, und möglicherweise die wesentlichen Fakten nicht mehr vorhanden sind. Über OTRS könnte man falls notwendig eine Bestätigung der Stichhaltigkeit der angeführten Belege anfordern, wenn diese nicht mehr online erreichbar sind. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-06-02T20:05:00.000Z-Sitic-2014-06-02T19:47:00.000Z11Beantworten

Wikipedia:Lesenswerte_Artikel/nach_Datum automatisch pflegen

Moin! Kann jemand diese Arbeit in sein Botprogramm aufnehmen? Die Liste Wikipedia:Lesenswerte_Artikel/nach_Datum/2013 (für jedes Jahr eine) listet alle lesenswerten Artikel mit Datum ihrer Kür nebst lesenswerter Version-ID auf. Vielleicht ist es ja möglich, diese Liste automatisch zu pflegen, indem die relevanten Daten einfach aus dem jeweiligen Artikel ausgelesen werden. Dort befindet sich nämlich die Vorlage:Lesenswert mit zwei Parametern: Datum und Verions-ID. Dadurch würde man viel Zeit sparen wenn neue Artikel zu lesenswerten Artikel gekürt werden: Es entfiele ein ganzer Verwaltungsschritt von 7. Hier die entsprechende Diskussion dazu. --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-11-01T23:40:00.000Z-Wikipedia:Lesenswerte Artikel/nach Datum automatisch pflegen11Beantworten

Ich habe nun in die Vorlage {{Webarchiv}} einen Wartungslink eingebaut, der alle Einbindungen ohne Linktext erfasst. Spezial:Linkliste/Vorlage:Webarchiv/Wartung/Linktext_fehlt. Wäre schön, wenn ein Bot dies, wie schon an anderer Stelle, übernehmen und die fehlenden Linktexte nachtragen könnte. Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-11-02T02:50:00.000Z-Vorlage {{Webarchiv}} Link ohne Linktext11Beantworten

Welcher Bot trägt Linktexte, also Inhalt, nach? Ich gehe davon aus, dass dies händisch geschehen muss.
Gibt es einen speziellen Grund, warum Du einen Wartungslink gewählt hast und keine Wartungskat? Die hätte man nämlich via CatScan mit Themenkats verschneiden können, was eine zielgerichtete Abarbeitung leichter machen würde.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2013-11-02T09:34:00.000Z-Boshomi-2013-11-02T02:50:00.000Z11Beantworten
Ich sehe gelegentlich Links mit einem Kommentartext "bot generated title", bzw. CactusBot hatte auch mal was vergleichbares. Daher war die Idee eines Botauftrags naheliegend.
• Der Grund für den Wartungslink war die Einfachheit die genügt, wenn die Hauptarbeit ein Bot übernimmt.
• Schlau wäre es würde der Bot dann die eine Wartungskat für das manuelle Nachkontrollieren setzen. Denkbar wäre die Vorlage {{Vorlage:Weblink ohne Linktext}} dafür einzusetzen.
• Kategorien sind dort überlegen, wo die Hauptarbeit manuell durchgeführt wird. Wartungslisten die von Bots nahe bei null gehalten werden machen als Kategorie weniger Sinn, da leere Kategorien an anderer Stelle zusätzlichen Aufwand verursachen.
 Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-11-02T18:04:00.000Z-Mabschaaf-2013-11-02T09:34:00.000Z11Beantworten
Wer das mal mit dem "bot generated title" war, weiß ich nicht - das ist auf alle Fälle schon ziemlich alt.
Was CactusBot gemacht hat, kannst Du hier ausführlich nachlesen (incl. Beispiel- und Difflinks). Ich persönlich fand das klasse (und extrem hilfreich im Hinblick auf später vielleicht mal sterbende Links, für die mit vernünftiger Beschreibung viel leichter ein Ersatz zu finden ist). Schade ist dagegen, dass nach Abarbeitung der Kats "Chemie" und "Physik" das Projekt nicht weiter verfolgt wurde.
Aber: Die Abarbeitung war händisch! Die CactusBot-Edits blieben nach außen unsichtbar - und das war auch gut so, denn das, was der Bot an Daten von den externen Webseiten lesen konnte, war oft nur Schrott und auf alle Fälle immer formatierungspflichtig.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2013-11-02T18:57:00.000Z-Boshomi-2013-11-02T18:04:00.000Z11Beantworten
Es wäre schon eine große Hilfe würde der Bot nur das "title"-Tag der Seite auslesen und in der Vorlage ablegen. Das muss nicht unbedingt sofort nach außen sichtbar sein. Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-11-06T20:17:00.000Z-Mabschaaf-2013-11-02T18:57:00.000Z11Beantworten
Richtig, ein ausgelesener Seitentitel kann sehr viel Tipparbeit ersparen, insofern generell Zustimmung zu diesem Wunsch - allerdings nur, wenn der Text unsichtbar bleibt, bis ein Mensch nachkorrigiert/-formatiert hat. Insofern musst Du aber in der Vorlage noch einen zusätzlichen Parameter ergänzen, wo der Bot den Text hinschreiben soll, etwa autotext=, dann genügt es im Idealfall, wenn der nacharbeitende Mensch auto entfernt, damit der Text sichtbar wird. Bitte lege das so an, dass alle Artikel, bei denen ein autotext-Vorschlag gesetzt ist, in einer Wartungskat landen, das erleichtert die Abarbeitung ungemein.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2013-11-06T22:04:00.000Z-Boshomi-2013-11-06T20:17:00.000Z11Beantworten
Ja, sobald der Bot den einen Titel einträgt, sollte die Seite in der Kategorie Kategorie:Wikipedia:Weblink ohne Linktext aufscheinen. Dort kann das dann per Hand abgearbeitet werden. Eventuell kann man dafür auch gleich die Vorlage {Vorlage|Vorlage:Weblink ohne Linktext}} direkt verwenden, oder man muss diese als Untervorlage in Webarchiv einbinden. Wie das genau funktionieren soll, sollte der pt. Botbetreiber vorgeben. Parameter und Untervorlage kann ich auf Wunsch einbauen. Frohes Schaffen, Boshomi ☕⌨☺ –  Wikipedia:Bots/Anfragen#c-Boshomi-2013-11-06T22:37:00.000Z-Mabschaaf-2013-11-06T22:04:00.000Z11Beantworten

Ref-Bot: "Eierlegende Wollmilchsau"

Hallo! Es wäre super, wenn man Internetlinks der Form "www.Text.Domain.BlaBlub.html" als Refernzen in die ref Klammern eintragen würde und dann ein Bot alles weitere automatisch erledigt. Abrufdatum, Datum der Veröf., Titel, Autor, usw automatisch anhand des Links nachtragen würde. Es wäre schon gut, wenn zunächst nur einige bekannte Onlinemedien darunter erfasst würden.--Alberto568 (Diskussion) Wikipedia:Bots/Anfragen#c-Alberto568-2013-11-09T17:26:00.000Z-Ref-Bot: "Eierlegende Wollmilchsau"11Beantworten

Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) Wikipedia:Bots/Anfragen#c-Berita-2013-11-12T11:08:00.000Z-Alberto568-2013-11-09T17:26:00.000Z11Beantworten
Beispiel sind:
  • www.sueddeutsche.de
  • welt.de
  • faz.net
  • spiegel.de
  • stern.de

usw. --Alberto568 (Diskussion) Wikipedia:Bots/Anfragen#c-Alberto568-2013-11-18T17:55:00.000Z-Ref-Bot: "Eierlegende Wollmilchsau"11Beantworten

Kennst du tools:~dispenser/view/Reflinks? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-11-21T19:08:00.000Z-Alberto568-2013-11-18T17:55:00.000Z11Beantworten
Für einige Webseiten wäre eine technische Umsetzung durch die Auswertung der COinS-Daten sicherlich möglich. Zotero kann zumindest bei einigen der Webseiten die Daten automatisch übernehmen. Keine Ahnung, ob über das COinS-Format oder andere Spezifikationen. Ist die Frage, ob wer Lust hat seinem Bot das beizubringen. --Häuslebauer (Diskussion) Wikipedia:Bots/Anfragen#c-Häuslebauer-2014-02-02T23:50:00.000Z-Leyo-2013-11-21T19:08:00.000Z11Beantworten

Bitte diese Liste:Weblinksuche INSEE Canton-Links (natürlich nur ANR-Seiten) wie folgt umsetzen

//Regexp: von: 
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page\?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=(\d{4,4})&quelcas=LISTE&lang=FR" 
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-$1"
Ergebinis
//Beispiel mit ID 5520; aus:
"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=5520&quelcas=LISTE&lang=FR"

//wird:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-5520"

Davon betroffen sind etwas mehr als 1400 URLs im ANR und nochmal soviele Diskussionsseiten, die per SLA aufgeräumt werden müssen.  Frohes Schaffen — Boshomi ☕⌨☺   Wikipedia:Bots/Anfragen#c-Boshomi-2013-12-08T17:52:00.000Z-Weblinkfix INSEE Canton-Links11Beantworten

Global sind es 4411 Links. Deshalb bin ich wohl mit MerlLinkBot dran. Dauert aber ein paar Tage. Merlissimo 20:57, 8. Dez. 2013 (CET)
Ich habe das Regexp auf \d{4,4} vier Stellen eingeschränkt. Bei den wenigen Ausnahmen passt der Ersatz nicht. Frohes Schaffen — Boshomi ☕⌨☺   Wikipedia:Bots/Anfragen#c-Boshomi-2013-12-08T20:36:00.000Z-Boshomi-2013-12-08T17:52:00.000Z11Beantworten
Die Links die nicht dem obigen Muster entsprachen habe ich inzwischen per Hand bearbeitet. Für andere Sprachversionen ist zu beachten dass es ID mit dem Muster "2[AB]\d{2,2}" //z.B. "2A61" oder "2B04" entsprechen. Frohes Schaffen — Boshomi ☕⌨☺   Wikipedia:Bots/Anfragen#c-Boshomi-2013-12-08T21:50:00.000Z-Boshomi-2013-12-08T20:36:00.000Z11Beantworten
@Boshomi Was kann ich mit nivgeo=C&codgeo=\d{5,5} machen? Bsp: http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=C&codgeo=25510&theme=ALL&typeprod=ALL&quelcas=LISTE Merlissimo 22:37, 13. Mär. 2014 (CET)
Im konkreten Fall geht das nach http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-25510 ;
Das dürfte aber kein Kanton sondern eine Commune sein (nivgeo-"C").
Anmerkung: Informativer wäre das Le dossier complet - pdf. Darauf würde ich nicht direkt verlinken. (Manuell würde ich da einen Hinweis im Linktext hinterlassen. etwa so: (siehe auch Le dossier complet (format pdf) - Commune de Ruffey-le-Château (25510), (pdf))) Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-05-01T13:14:00.000Z-Boshomi-2013-12-08T21:50:00.000Z11Beantworten

Weiter INSEE Muster:

//Regexp: von: 
"http://www.recensement.insee.fr/searchResults.action\?zoneSearchField=&codeZone=(\d{5,5})-COM"
//nach:
"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=com-$1"
Ergebnis

Siehe Diff für 49194. Davon Betroffen sind derzeit rund 194 Artikel  Frohes Schaffen — Boshomi ☕⌨☺   Wikipedia:Bots/Anfragen#c-Boshomi-2013-12-10T22:46:00.000Z-Weiter INSEE Muster:11Beantworten

Ria Novosti archivieren

Da die zeitnahe Einstellung der russ. Nachrichtenagentur Ria Novosti nun absehbar ist, wäre die Frage, ob ein Bot die Einzelnachweise durchgehen und, falls noch nicht geschehen, eine Archivierung veranlassen könnte. Könnte alles morgen oder übermorgen schon verschwunden sein... --PanchoS (Diskussion) Wikipedia:Bots/Anfragen#c-PanchoS-2013-12-10T00:15:00.000Z-Ria Novosti archivieren11Beantworten

Es geht um Spezial:Weblinksuche/*.rian.ru, oder? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2013-12-10T01:07:00.000Z-PanchoS-2013-12-10T00:15:00.000Z11Beantworten

Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes

Hallo zusammen. Ich hätte hier ein dringendes und wichtiges Anliegen. Mir ist gerade Wikipedia:L%C3%B6schkandidaten/5. Dezember 2013#Maskulin Mixtape Vol. 111 aufgefallen, dass leider anscheinend gerade bei sog. Mixtapes (aber vielleicht auch noch in vielen anderen Artikeln) Werbe- bzw. Verkaufslinks zu Amazo. de und iTunes gesetzt werden. Diese Links haben nichts mit dem Artikel zu tun, sondern sollen nur den Verkauf auf den jeweiligen Plattformen ankurbeln. So gesehen und inzwischen entfernt auf Maskulin Mixtape Vol. 1, Maskulin Mixtape Vol. 2 und Maskulin Mixtape Vol. 3! Es kann doch nicht sein, dass wir hier die Wikipedia werbefrei halten wollen (und sollen) und dann setzen die Rapper und andere Künstler aus ihren Alben raus den direkten Verkaufslink auf Amazon.de und iTunes! Es ist ja nicht nur so, dass hier vom einschlägigen Leser davon ausgegangen werden kann, dass WP:D den Kauf bei dem jeweiligen Unternehmen empfiehlt, sondern dass wir auch noch was an diesen Links verdienen! Warum werden hier die Artikel nicht systematisch nach allen Verlinkungen auf solche Verkaufsplattformen durchsucht und dann sofort gelöscht? Es kann doch nicht sein, dass mir das jetzt als Erstem hier aufgefallen ist, oder? Sind das Einzelfälle? Kann man da verlässliche Zahlen erhalten, wie viele Links direkt aus der WP:D im Augenblick auf Amazon.de gehen? Ich finde es unverantwortlich, dass wir hier mit Links die Positionierung und die Marktmacht eines einzelnen Unternehmens fördern und unterstützen. Also wenn hier ein Bot gebraucht wird, dann bitte einen Amazon-Link-Kill-Bot und einen iTunes-Link-Kill-Bot - und das bitte schnell... --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2013-12-16T09:29:00.000Z-Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes11Beantworten

Dazu gibt es die Weblinkssuche (oft muss man das im Einzelfall anschauen, ein blinder Bot würde mehr Schaden anrichten). Zu iTunes: Weblinksuche zu «itunes.apple.com», bei Amazon.com (plus Länderdomains) ist die Suche schwieriger, man müsste all die BNR- bzw. WNR-Seiten erst mal rausfiltern. Und evtl. einen Eintrag im Spam-Blackist (bei iTunes ist es einfach, bei Amazon dürfte es schwieriger sein)--Filzstift  Wikipedia:Bots/Anfragen#c-Filzstift-2013-12-16T09:33:00.000Z-DonPedro71-2013-12-16T09:29:00.000Z11Beantworten
Erstmal danke für die schnelle Hilfe! Super, es sind 779 Verlinkungen zu iTunes und von amazon.de und amazon.com ca. 1724! Bekommen wir von Apple oder Amazon eigentlich Geld für die über 2.500 links, die deren Stores bewerben? Das haut mich ehrlich gesagt schon locker vom Hocker! Da wird jede Verlinkung zu einer privaten oder Vereinsseite rigoros nach ca. einer Minute durch den Löschtrupp beseitigt und hier werden ca. 2500 Links aus Artikeln zu kommerziellen Anbietern einfach locker hingenommen... Muss ich das jetzt verstehen??? Was sollen diese "Verkauflinks"? --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2013-12-16T15:24:00.000Z-Filzstift-2013-12-16T09:33:00.000Z11Beantworten
Inhaltlich bin ich mit dir sowieso einverstanden, Wikipedia ist ja kein kostenloser Linkcontainer für Musiker, App-Entwickler etc. Mit der SBL kann man künftige Einfügungen wirkungsvoll verhindern, wie wir aber mit den bestehenden Links umgehen sollen, …da bin ich mir allerdings unschlüssig, … bevorzuge eher ein händisches Abarbeiten, um allfällige Kollateralschäden zu vermeiden. In einer konzentrierten Aktion schafft man diese 2'500 Links sicher auch (auch ich könnte da mithelfen, evtl. mit Hilfe eines kleinen Skripts bzw. mit AWB). Doch zuerst muss einmal darin Konsens bestehen. D.h. in einem ersten Schritt würde ich bei den SBL-Leuten anklopfen. Denn wenn das nicht in die SBL kommt, so nutzt das ganze Entfernen auch nichts, denn diese Links kommen schnell wieder. --Filzstift  Wikipedia:Bots/Anfragen#c-Filzstift-2013-12-16T20:44:00.000Z-DonPedro71-2013-12-16T15:24:00.000Z11Beantworten
Gerade MediaWiki Diskussion:Spam-blacklist#Sperrung von Verkaufslinks auf amazon.de bzw. .2A.2A.2A.amazon.com.2C sowie iTunes11 Antrag bei SBL gestellt. Danke für dein Angebot bzgl. der alten Links! Vielleicht finden wir noch ein, zwei Mitstreiter, dann könnte man das wirklich die nächsten Tage mal abarbeiten. Gerne natürlich per Skriptunterstützung. --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2013-12-16T22:39:00.000Z-Filzstift-2013-12-16T20:44:00.000Z11Beantworten

BKL Typ 1 vs. 2/3 (Zündstoff für viele Diskussionen, durch BotListe objektivierbar?)

Seit Anbeginn der Einführung von BKL-Seiten gibt es immer wieder Diskussionen, ob für den speziellen Fall nun Typ 1 oder 2/3 besser geeignet wäre. Um die Diskussionen zu objektivieren wurde irgendwann die Regel eingeführt, dass BKL Typ 2/3 nur dann gewählt werden sollten, wenn ein bestimmter Artikel auf der BKL-Seite 10x häufiger als alle anderen in den letzten 90 Tagen abgefragt wurde (siehe WP:BKL). Mit dem neuen WikiViewStats sind die Abrufstatistiken ja mittlerweile blitzschnell einsehbar. Daher meine Frage, ob man folgende drei Wartungslisten erstellen und sie dann dem Projekt Wikipedia:WikiProjekt Begriffsklärungsseiten zur Verfügung stellen könnte:

  1. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND nicht den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 1). Prüfe, ob einer der dort verlinkten Artikel ( in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung zutrifft nach dem Schema "BKL-Link --> Artikellink der 10x mehr abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  2. Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 2). Prüfe, ob einer der dort verlinkten Artikel in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung nicht zutrifft nach dem Schema "BKL-Link --> Artikellink der am häufigsten abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
  3. Prüfe alle BKL-Artikel, die im Zeitraum "Heute minus 90 Tage" bis "Heute minus 120 Tage" neu erstellt wurden. Prüfe gemäß 1.) und 2.)

Liste 1. und 2. könnten dem Portal als generelle Vorschlagslisten regelmäßig aktualisiert angeboten werden.

Liste 3. entspräche 1.+2., würde sich aber auf relativ neue BKL-Artikel beschränken, die quasi nach 90-120 Tagen "Testlauf" im ANR dann ggf. auf die passendere BKL-Form umgestellt werden könnten.

Wären solche regelmäßig aktuaisierten Listen mit vertretbarem Aufwand technisch machbar? So hätte man einen objektiven Standard nach dem entschieden werden kann. Sollte es im Einzelfall dann doch zu Diskussionen kommen, wo eine Ausnahme beschlossen wird, dann könnte man ja einen Hinweis im Artikelquelltext neben der BKL-Vorlage hinterlassen und die BKL auf einer "Ausnahmeliste" listen, so dass der Bot sie beim nächsten Lauf nicht berücksichtigt. Weihnachtliche Grüße, --BlueCücü (Diskussion) Wikipedia:Bots/Anfragen#c-BlueCücü-2013-12-27T12:49:00.000Z-BKL Typ 1 vs. 2/3 (Zündstoff für viele Diskussionen, durch BotListe objektivie11Beantworten

Nachtrag. Da hin und wieder auch Artikel in einer BKL verlinkt werden, die keine Homonyme sind, sondern nur als Platzhalter dienen, da das Homonym noch keinen Artikel hat (beispielsweise der Regisseur eines homonymen Films ohne Artikel oder die Band eines homonymen Albums ohne Artikel), dürften zur Sicherheit vielleicht nur die Links geprüft werden deren – sagen wir – ersten beiden Buchstaben/Zeichen mit den ersten beiden Buchstaben/Zeichen des BKL-Lemmas übereinstimmen. Ansonsten kämen bei einer eventuell erstellten Wartungsliste wohl zu viele falsche Treffer heraus. Auch der Link in der Vorlage auf Wikipedia:Begriffsklärung müsste von der Prüfung ignoriert werden. --BlueCücü (Diskussion) Wikipedia:Bots/Anfragen#c-BlueCücü-2013-12-27T17:23:00.000Z-BlueCücü-2013-12-27T12:49:00.000Z11Beantworten

Gibt es eigentlich schon einen Bot, der unzulässige Externe Links im Artikeltext sucht & mäht? Ich meine sowohl in de: als auch en: über die Jahre einen Anstieg dieser Problematik zu beobachten, insbesondere bei wenig be(ob)achteten Artikeln - und wie Löwenzahn verbreitet sich das gerade dort wo es einmal sitzt hartnackig weiter. Und da mir noch kein Bot aufgefallen ist, der sowas verbessert, hier meine Frage a) warum nicht b) oder doch c) und wenn jein dann könnten wirhüstel so einen doch mal starten, oder?? ein SmileysymbolVorlage:Smiley/Wartung/;)  --Trofobi[Grundprinzipien: gelöscht] Wikipedia:Bots/Anfragen#c-Trofobi-2013-12-27T13:40:00.000Z-Externe Links im Text löschen/umwandeln11Beantworten

Falls Du Dich auch für unerwünschte Interwiki-Links im Artikeltext interessierst, könnte Du Benutzer:Krdbot/ANR-Meta-Links als Arbeitsliste ansehen. --Krd Wikipedia:Bots/Anfragen#c-Krd-2013-12-29T18:47:00.000Z-Trofobi-2013-12-27T13:40:00.000Z11Beantworten
gudn tach!
ich hab den request noch nicht verstanden. es gibt mehrere bots, die links ersetzen/loeschen koennen, z.b. user:CamelBot. was genau willst du denn wie ersetzen. -- seth Wikipedia:Bots/Anfragen#c-Lustiger seth-2013-12-29T22:10:00.000Z-Krd-2013-12-29T18:47:00.000Z11Beantworten
Es geht in meiner Interpretation darum, Weblinks im Fließtext (also nicht in Weblink-Abschnitten) zu entschärfen, bzw. besser zu entfernen. Weblinks in Einzelnachweisen dürfen natürlich nicht nicht auslösen. Imho wird das besser händisch gemacht, Weblinks müssen entweder ganz entfernt, in Einzelnachweise umgewandelt oder in den Abschnitt Weblinks verschoben werden. Also besser eine Wartungsliste o.ä. – Giftpflanze Wikipedia:Bots/Anfragen#c-Giftpflanze-2014-01-05T11:21:00.000Z-Lustiger seth-2013-12-29T22:10:00.000Z11Beantworten
Danke für Eure Antworten, besonders Giftpflanze: genau das hatte ich gemeint, hier noch ein paar konkrete Beispiele: [8], [9], [10], [11]. Ein Bot könnte solche Links auf verschiedene Arten behandeln, zB.:
a) ganz löschen und nur den [http://gelöschter.link Text] stehen lassen
b) automatisch in eine ref umwandeln: Text<ref>http://verschobener.link</ref>
c) mit Edithinweis verstecken: Text<!--"http://versteckter.link" wurde deaktiviert: keine externen Links im Artikeltext, bitte. Siehe: WP:EL-->
(Alles mit Hinweis auf WP:EL in der Zusammenfassung)
Oder gibt eine Liste, wo Artikel mit verdächtigen EL gelistet werden? Oder ein Tool, wo man solche Änderungen gleich als automatischen Editvorschlag im Editor aufgemacht bekommt und dann gleich die Änderung prüfen, anpassen und speichern kann?
Ausgenommen von so einem Suchlauf bleiben können imho die Abschnitte Literatur, Weblinks und Referenzen. --Trofobi[Grundprinzipien: gelöscht] Wikipedia:Bots/Anfragen#c-Trofobi-2014-01-17T01:49:00.000Z-Giftpflanze-2014-01-05T11:21:00.000Z11 PS nein, es geht mir nicht um Blacklist- oder Sprachversions-Links. PPS es gibt einzelne Artikel, die sind mit solchen Links komplett verseucht, aber insbesondere viele kleine, wenig beobachtete Artikel, in denen unerfahrene Autoren dann denken, das sei Standard hier und so weiterarbeiten.Beantworten
(Da keiner mehr Antwortet) Seht Ihr hier kein Problem? oder keine Lösung? oder…? Gibt es nicht wenigstens ein Tool, um solche Seiten überhaupt finden zu können? (bin gerade wieder nur durch Zufall über so einen Fall gestolpert... --Trofobi[Grundprinzipien: gelöscht] Wikipedia:Bots/Anfragen#c-Trofobi-2014-02-04T00:07:00.000Z-Trofobi-2013-12-27T13:40:00.000Z11Beantworten
Gibt mal bitte ein Beispiel für ein Problem und die dazugehörige Lösung, am besten als Difflink. --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-02-21T19:04:00.000Z-Trofobi-2014-02-04T00:07:00.000Z11Beantworten
@Krd: Difflinks hatte ich gleich oben in meiner ersten Antwort vier Stück angegeben. Hier ein weiteres Beispiel. --Trofobi[Grundprinzipien: gelöscht] Wikipedia:Bots/Anfragen#c-Trofobi-2014-08-02T23:16:00.000Z-Krd-2014-02-21T19:04:00.000Z11Beantworten

Lagebezeichnungen (Geologie)

Nach einer Diskussion auf der Seite der Qualitätssicherung Geowissenschaften wurde der o.g. Artikel von mir gestern auf Ablagerungsmilieu verschoben, weil das Lemma nicht zum Artikel passte. Jetzt bestehen noch ca. 150 Weiterleitungen vom ursprünglichen Artikel, der damit aber eine regelwidrige Klammerweiterleitung ist. Kann das ein Bot umbiegen, damit Lagebezeichnungen (Geologie) anschließend gelöscht werden kann? Gruss --Diorit (Diskussion) Wikipedia:Bots/Anfragen#c-Diorit-2014-01-09T08:32:00.000Z-Lagebezeichnungen (Geologie)11Beantworten

Einbindung der Vorlage:ZDFmediathek

Hallo zusammen, hat jemand Zeit und Lust die Einbindung der Vorlage:ZDFmediathek vorzunehmen? Der Weblinksuche habe ich die derzeitigen Verlinkungen auf die ZDFmediathek entnommen und den jeweiligen Typ (vgl. Vorlage:ZDFmediathek#Parameter) ermittelt. Das Ergebnis dieser Vorarbeiten habe ich diesem Diskussionsbeitrag als auskommentierte Wiki-Tabelle beigefügt. Die übrigen Parameter lassen sich dem jeweiligen derzeitigen Weblink entnehmen. Nach der Umstellung der Links wird es für das Projekt Wikipedia:WikiProjekt Weblinkwartung/*.zdf.de einfacher sein, diejenigen Verlinkungen zu ermitteln, die nicht mehr verfügbar sind, um diese per Paramter Offline zu markieren und dadurch den Hyperlink auf die Mediathek zu entfernen. Gruß --WIKImaniac Wikipedia:Bots/Anfragen#c-WIKImaniac-2014-01-12T18:26:00.000Z-Einbindung der Vorlage:ZDFmediathek11Beantworten


Schon gewusst?

Weil diese Diskussion im Sande verlief, mache ich hier eine Anfrage: Auf Wikipedia:Hauptseite/Schon gewusst/Teaser gibt es eine Hall of Fame, die seit einem Jahr nicht mehr gepflegt wird, da niemand Zeit dafür hat. Könnte die Click-through-Rate (einfach durchlesen, dann ist es verständlich) nicht ein Bot übernehmen?--84.149.186.197 Wikipedia:Bots/Anfragen#c-84.149.186.197-2014-01-16T10:38:00.000Z-Schon gewusst?11Beantworten

KlammerBot > User:BracketBot

Aka hat sich eine Menge Arbeit gemacht, auf Benutzer:Aka/Klammerfehler nach und nach alle Klammerfehler in Artikeln aufzulisten, die dann von einer Reihe fleißiger Helfer sukzessive händig abgearbeitet werden. Größenordnung: Zehntausend(e).
Bin auch viel in der en.WP zum Reparieren unterwegs. Seht Ihr Chancen, den User:BracketBot[1] modifiziert bei uns einzuführen? Dort dauert es eine Zeit von 10 min, und der Verursacher des Klammerproblems wird auf seine Fehler via Disk informiert und kann ihn gleich selbst beheben. Fänd ich so schlecht nicht, einen KlammerBot in der de.WP am Laufen zu haben wenn der Berg abgearbeitet ist. Mit der Bitte an die hauptamtlichen Programmierer, um das Klammerteam mit einem Licht am Ende des Tunnels zu ermutigen. Bitte beim Betreiber des Bots in der englischsprachigen Wikipedia nachfragen, ob es schon andere Sprachversionen gibt. Danke und viele Grüße --Frze > Disk Wikipedia:Bots/Anfragen#c-Frze-2014-01-31T10:37:00.000Z-KlammerBot > User:BracketBot11 CC: GM RF SJ RA BFBeantworten

  1. BracketBot checks all edits to see if all open brackets ({[< have matching close brackets >]}), and informs the editor that their edit may have broken some markup if there is a mismatch.
Das Finden solcher Klammerfehler ist erst einmal ein sinnvolles Anliegen. Ich stehe aber Bots, die Benutzer automatisch mit Nachrichten beglücken, kritisch gegenüber, da sie hier oft als störend empfunden werden. Und ob die Bot-Hinweise für nicht-Wikisyntax-Kundige nachvollziehbar sind, halte ich ebenfalls für fraglich. IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-01-31T16:57:00.000Z-Frze-2014-01-31T10:37:00.000Z11Beantworten
In der en.WP läuft das eigentlich problemlos. Der BracketBot zeigt Dir genau an, wo welche Klammer fehlt. Wenig-Wikisyntax-Kundige werden eben genau darauf hingewiesen, wenn durch sie ein Klammerfehler auftritt (Lernprozess). Man kann sich von BracketBot-Nachrichten befreien. --Frze > Disk Wikipedia:Bots/Anfragen#c-Frze-2014-01-31T18:22:00.000Z-Inkowik-2014-01-31T16:57:00.000Z11Beantworten
Wenn man für die 4 genannten Klammern rein nach der Anzahl geht, wären ca. 85.000 Artikel des aktuellen Bestands betroffen. Interessantes Projekt, aber nur mit Fleiß vermutlich nicht zu schaffen. --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-01-31T22:01:00.000Z-Frze-2014-01-31T18:22:00.000Z11Beantworten
Wenn man für eckige und geschweifte Klammern die Fälle nimmt, bei denen x mehr schließende als öffnende Klammern vorhanden sind, und gleichzeitig genau x mal genau drei dieser Klammern hintereinander auftreten, findet man ca. 450 Fälle, die man mMn mit geringem Fehlerrisiko automatisch korrigieren kann. Doppelte spitze Klammern machen nochmal ca. 800 Fälle aus, wobei man da dann schon genauer hinschauen müsste. Der Hauptanteil sind ungleichzahlige runde Klammern, für die ich keine Automatisierung sehe. --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-02-01T08:37:00.000Z-Frze-2014-01-31T18:22:00.000Z11Beantworten
Die Zahl erschreckt, aber mit vielen fleißigen Tipphelfern schaffbar. Macht meiner Ansicht aber nur Sinn, wenn dieser Bot dann kommt. Sonst ist es ein Fass ohne Boden. Scönes WE --Frze > Disk Wikipedia:Bots/Anfragen#c-Frze-2014-02-01T09:39:00.000Z-Frze-2014-01-31T18:22:00.000Z11 @AkaBeantworten
Ich sehe es allerdings auch so, dass eine Benachrichtigung der Benutzer hier nicht machbar ist, zumindest nicht ohne weitreichende vorherige Diskussion der Vorgehensweise. --Krd Wikipedia:Bots/Anfragen#c-Krd-2014-02-01T09:57:00.000Z-Frze-2014-02-01T09:39:00.000Z11Beantworten
Ich habe mal kurz in den Quelltext von BracketBot reingeschaut, ist leider für meinen Geschmack nicht schön gelöst und großtenteils unkommentiert. So sind auch alle Strings hardkodiert. Das massenhafte Ansprechen sehe ich natürlich auch als Problem an, im Gegensatz zu anderen en.wiki Bots sagt er aber auch gleich if you have any questions, you can leave a message on my operator's talk page mit passendem preload-Vorlage-Link. Grüße sitic (Diskussion) Wikipedia:Bots/Anfragen#c-Sitic-2014-02-02T22:24:00.000Z-Frze-2014-01-31T10:37:00.000Z11Beantworten

Durch ein Team Freiwilliger auch ohne Bot gelöst. IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-10-15T18:52:00.000Z-KlammerBot > User:BracketBot11Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. IW 20:52, 15. Okt. 2014 (CEST) Erledigte Anfrage

www.1911encyclopedia.org

www.1911encyclopedia.org ist nicht mehr verfügbar und damit sind etwa 900 Weblinks unbrauchbar. Ein Bot sollte sich darum kümmern (entfernen oder umlenken). 213.54.7.243 Wikipedia:Bots/Anfragen#c-213.54.7.243-2014-02-11T21:56:00.000Z-www.1911encyclopedia.org11Beantworten

Siehe dazu diese Diskussion.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-02-11T22:00:00.000Z-213.54.7.243-2014-02-11T21:56:00.000Z11Beantworten

Vorlage:Infobox Unternehmen

Hallo, bitte die Parameter "Gewinn" und "Produkte" aus den Artikeln bzw. den Vorlageneinbindungen entfernen. Die Entfernung der Parameter wurde vor Jahren beschlossen, siehe Vorlage Diskussion:Infobox Unternehmen#Gewinn11 und Vorlage Diskussion:Infobox Unternehmen/Archiv/2011#Produkte11 (kurz: Gewinn soll nicht verwendet werden weil die Gewinnermittlung nicht einheitlich ist und Produkte wird durch den Parameter Branche vollständig erschlagen). Beide Parameter sind schon länger nicht mehr in der Kopiervorlage und Doku enthalten und werden aus dem Vorlagencode entfernt sobald die Artikel korrigiert sind. Danke und Grüße --Millbart talk Wikipedia:Bots/Anfragen#c-Millbart-2014-02-26T15:11:00.000Z-Vorlage:Infobox Unternehmen11Beantworten

Willst du die Angaben ersatzlos löschen lassen oder in den Artikeltext verschieben? Ich habe mangels besserem Wissen die Angabe benutzt mit <ref>Geschäftsbericht</ref> als Quelle. Wenn die gesamte Zeile Gewinn gelöscht wird, geht der Einzelnachweis mit verloren.--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-02-26T23:13:00.000Z-Millbart-2014-02-26T15:11:00.000Z11Beantworten
Im Idealfall hätte ich gerne eine Liste mit der jeweils entfernten Zeile, so dass ein ggf. entfernter Einzelnachweis an anderer Stelle, sofern nötig, eingebaut werden kann. Den Gewinn könnte man theoretisch in den Artikeltext übertragen nur müsste dann, um daraus eine enzyklopädische Information zu machen, die Gewinnermittlung und das wirtschaftliche Umfeld in dem jeweiligen Berichtszeitraum aus dem die Zahl stammt erläutert werden. Einzelne Bilanzwerte sind ohne zeitliche, räumliche und industrielle Einordnung kein enzyklopädisches Wissen, siehe auch die verlinkte Diskussion. --Millbart talk Wikipedia:Bots/Anfragen#c-Millbart-2014-02-27T07:08:00.000Z-Kopiersperre-2014-02-26T23:13:00.000Z11Beantworten
@Millbart: Zur Beurteilung habe ich mal die Vorlageneinbindungen auslesen, für Gewinne sind es 807 Einbindungen, für Produkte 5328 Einbindungen (jeweils mit "unausgefüllten" Einbindungen). Das sind noch nicht alle, die Kleinschreibungen der Parameter fehlen, soll nur vorerst einen Überblick liefern. </ref> kommt bei den Gewinnen 48 mal vor, bei den Produkten 10 mal. --sitic (Diskussion) Wikipedia:Bots/Anfragen#c-Sitic-2014-02-27T22:38:00.000Z-Millbart-2014-02-27T07:08:00.000Z11Beantworten
Cool, danke für die Info. Wenn es möglich wäre eine Liste der Artikel mit Einzelnachweisen zu bekommen wäre das super. Bisher sieht es so aus als ließe sich das noch ganz gut manuell handhaben. Grüße --Millbart talk Wikipedia:Bots/Anfragen#c-Millbart-2014-02-27T22:50:00.000Z-Sitic-2014-02-27T22:38:00.000Z11Beantworten
@Sitic: Mir ist leider gerade erst aufgefallen, dass der auch schon diskutierte Parameter "Bilanzsumme" noch nicht entfernt wurde. Wäre es möglich, ihn einem Abwasch mitabzuräumen? Die entsprechende Diskussion ist Vorlage Diskussion:Infobox Unternehmen#Bilanzsumme11. Danke und Grüße --Millbart talk Wikipedia:Bots/Anfragen#c-Millbart-2014-03-02T17:39:00.000Z-Millbart-2014-02-27T22:50:00.000Z11Beantworten
Hallo, ich habe dich nicht vergessen, leider ist in den letzten Tagen etwas dazwischen gekommen weshalb ich um etwas Geduld bitten muss, bis ich mich genauer damit beschäftigen kann. Grüße sitic (Diskussion) Wikipedia:Bots/Anfragen#c-Sitic-2014-03-05T21:46:00.000Z-Millbart-2014-03-02T17:39:00.000Z11Beantworten
Moin @Sitic:, keine Hektik. :-) --Millbart talk Wikipedia:Bots/Anfragen#c-Millbart-2014-03-10T20:37:00.000Z-Sitic-2014-03-05T21:46:00.000Z11Beantworten

NHN

Derzeit ändert Benutzer:Malki1211 die Höhenbezeichnung NN in den Ortsartiekln auf NHN ab. Das müsste durch einen Bot viel einfacher zu machen sein. Deshalb beantrage ich, die Arbeit durch einen Bot machen zu lassen. --Karl-Heinz (Diskussion) Wikipedia:Bots/Anfragen#c-Papa1234-2014-03-01T10:02:00.000Z-NHN11Beantworten

Ist das sinnvoll einfach nur den Höhenbezuug zu ändern, ohne die Werte zu prüfen? Immerhin weichen die Werte für NN und NHN voneinander ab. Prinzipiell ist das, wenn eine Änderungsliste vorliegt, ohne weiteres per Bot zu machen. --Septembermorgen (Diskussion) Wikipedia:Bots/Anfragen#c-Septembermorgen-2014-03-01T18:33:00.000Z-Papa1234-2014-03-01T10:02:00.000Z11Beantworten

Anzahl der geschützten Seiten

Hallo Botniki,

ich suche eine Statistik der geschützten Seiten. Wieviele haben wir heute, wieviele in den letzten Jahren? Gibt es sowas irgendwo schon?--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-03-05T11:15:00.000Z-Anzahl der geschützten Seiten11Beantworten

Es gibt Wikipedia:Liste der am längsten geschützten Artikel, wenn dir das hilft. IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-03-05T18:15:00.000Z-Kopiersperre-2014-03-05T11:15:00.000Z11Beantworten
Sind das alle? Kann man die automatisch auszählen?--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-03-05T22:03:00.000Z-Inkowik-2014-03-05T18:15:00.000Z11Beantworten

WP:Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder gibt

Ich wünsche mir eine Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversionen Bilder aus WP/Commons gibt.

  • Filter: nur Artikel, die in der de/WP keine Bilder haben aber in einer anderen Sprachversion ein Bild aus WP/Commons haben
  • Bedeutenste Artikel: diese Artikel sortiert nach der Anzahl darauf zeigender Links wie per CatScan2 möglich. Top 100 davon ausgeben.

Würde bei dringenden und leicht umzusetzenden Bebilderungen helfen. Wer hat Lust? --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2014-03-06T15:46:00.000Z-WP:Liste der bedeutensten Artikel ohne Bilder zu denen es in anderen Sprachversi11Beantworten

Ein Script um Bilder in anderen Sprachen zu suchen habe ich. Kommt ja als Bildervorschlag in meinen Wartungslisten, sofern {{Bilderwunsch}} im Artikel steht, oder beim AutoQS-Bot zum Einsatz. Nur eine dewiki-Artikelliste müsstest du mir geben. Die Catscan Top100 finde ich gerade nicht.
Das mit "nur Artikel, die in der de/WP keine Artikel haben" ist mit 16 Mio Kandidaten etwas viel und somit kaum realisierbar. Merlissimo 16:55, 6. Mär. 2014 (CET)
Ich habe gerade mal nachgeschaut: In meinen Bilderwunsch-Wartungslisten befinden sich zur Zeit 435 Bildervorschläge. Arbeitet kaum jemand ab. Merlissimo 16:59, 6. Mär. 2014 (CET)
Ok, statt für alle Artikel hätte ich das z.B. gerne für die Kategorie:Soziologie. https://tools.wmflabs.org/catscan2/catscan2.php?depth=7&categories=Soziologie&negcats=Regel&sortby=incoming_links&sortorder=descending&interface_language=de&doit=1 liefert die meistverlinkten Artikel der Soziologie. Die ersten 100 sind entsprechend die Top 100. Wenn du noch Lust hast: Dafür wäre so eine Auswertung toll. Gerne aber auch für alle Artikel der Kategorie:Soziologie (ohne Subkategorie:Regel). Gruß --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2014-03-06T20:20:00.000Z-Zulu55-2014-03-06T15:46:00.000Z11Beantworten
Da es schon spät ist, habe ich einfach mein bestehendes Script genommen und den ganzen Soziologie-Baum ohne Ausnahme als Eingabe genommen.
Mein Script entspricht so nicht ganz deinen Forderungen, weil ich im Laufe der Zeit versucht habe eine möglichst optimale Ergebnismenge zu bekommen. Es werden "nur" die 250 größten Wikipedia betrachtet. Zudem bedeutet Bild=JPEG-Bild. Auch müssen die Bilder auf commons liegen (waren sonst zuviele Fair-Use Treffer) und pro fremdsprachigem Artikel kommt nur das mit der größten Auflösung in die Ergebnismenge.
Kat Regel rausnehmen erledige ich dann erst morgen Abend. Merlissimo 23:28, 6. Mär. 2014 (CET)
Ergebnis unter Benutzer:Zulu55/Bildersuche Soziologie. Habe es so gebaut, dass du eine kleine Vorschau siehst. Merlissimo 23:51, 6. Mär. 2014 (CET)
So, Kat "Regel" ist jetzt raus und auf die größten 270 Wikipedias erweitert (wobei ich bezweifele, das dies mehr Resultate etwas bringt). Schau mal, ob die das so passt. Merlissimo 22:49, 7. Mär. 2014 (CET)
Das ist ganz fantastisch! Vielen Dank. Vielleicht wende ich mich dann noch mal mit anderen Kategorien an dich. Und wie gesagt wäre eine Sortierung nach verlinkter Häufigkeit schön - vielleicht als sortierbare Tabelle nach beiden Merkmalen, Alphabet und Häufigkeit. Bei der Soziologie ist das aber für mich übersichtlich genug. Danke und Gruß - dann mach ich mich mal ans Werk. --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2014-03-08T07:45:00.000Z-Zulu55-2014-03-06T20:20:00.000Z11Beantworten
Ich habe es nun nach Backlinkanzahl sortiert. Wenn du von Häufigkeit redest, denke ich irgendwie immer an Aufrufzahlen. Das sind im Moment reine MySQL-Queries. Für eine Tabelle müsste ich das noch erst in eine Scriptsprache stecken. Merlissimo 09:46, 8. Mär. 2014 (CET)
Wenn du das öfters haben willst, solltest du dir vielleicht überlegen eine Seite erstellen, wo du alle Bilder verlinkst, die bei zukünftigen Scans ignoriert werden sollen. Das würde für dich weniger Arbeit bei der Durchsicht neuer Reports bedeutet. Merlissimo 09:55, 8. Mär. 2014 (CET)
Hi Merlissimo, wäre es ein großer Aufwand für Dich, dieses Script auch über die Kategorie:Chemiker (incl. Unterkats) zu schicken und das Ergebnis in meinem BNR zu parken? Mit anderen Worten: Großartiges Hilfsmittel!--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-03-08T09:44:00.000Z-Zulu55-2014-03-06T20:20:00.000Z11Beantworten
Die Minerale haben ja automatisch einen Bilderwunsch. Die Vorschlagsliste dort hat Ra'ike schon durchgesehen. Ist aber bei Benutzer:Mabschaaf/Bildersuche nun auch enthalten (Achtung für langsame Internetverbindungen: Beim Aufruf der Benutzerunterseite werden knapp 3700 HTTP-Request gestellt und dabei knapp 17 MB heruntergeladen). Merlissimo 21:33, 8. Mär. 2014 (CET)
In meinem Wunsch hast Du offenbar zwei Buchstaben überlesen: Ich wollte nur die Kat:Chemiker (und Unterkats) - weil ich schon vermutet hatte, dass sonst zu viel Unbrauchbares mitkommt. Könntest Du bitte nochmals entsprechend filtern? Danke --Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-03-08T20:39:00.000Z-Mabschaaf-2014-03-08T09:44:00.000Z11Beantworten
Ups, sorry. Ist korrigiert. TS hat übrigens gerade NFS Probleme, weshalb ich mich länger nicht einloggen konnte. Merlissimo 23:00, 8. Mär. 2014 (CET)
Prima, vielen Dank!--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-03-09T10:49:00.000Z-Mabschaaf-2014-03-08T20:39:00.000Z11Beantworten

GESTIS-Lemmata, die hier als Weiterleitung fehlen

Ich habe unter Benutzer:Kopiersperre/GESTIS eine Liste aller GESTIS-Lemmata angelegt. Einige, wie z.B. Lanthan(III)-oxid, haben dort einen anderen Namen als in der Wikipedia (Lanthanoxid). Ich wünsche mir also, die CAS-Nummern aus der Tabelle mit den CAS-Nummern in den Chemoboxen abzugleichen und bei Treffern in einer weiteren Tabellenspalte das zugehörige WP-Lemma anzugeben, falls dieses nicht identisch ist. Siehe auch die Diskussion dazu--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-03-15T16:13:00.000Z-GESTIS-Lemmata, die hier als Weiterleitung fehlen11Beantworten

Ich hab grad nicht die Zeit, das vollständig zu machen, aber falls jemandem die CAS-Parameter helfen: [12]. --APPER\☺☹ Wikipedia:Bots/Anfragen#c-APPER-2014-03-15T18:07:00.000Z-Kopiersperre-2014-03-15T16:13:00.000Z11Beantworten

Auslesen von Tennis-Spielerprofilen bei ATP/WTA

Hallo zusammen,

sollte ich mit der folgenden Anfrage nicht am richtigen Ort sein, bitte ich um entsprechenden Hinweis.

Eine der anstrengensten Aufgaben im Rahmen des Portal:Tennis ist die Aktualisierung der Spielerprofile in den Infoboxen. Diese Spielerprofile enthalten insbesondere die Weltranglistenposition, die Siege/Niederlagen, Gesamtpreisgeld, etc. und werden direkt von der jeweiligen Spielerprofilseite der Profiorganisationen ATP (Herren) oder WTA (Damen) genommen. Ein Beispiel: Aktueller Diff-Link Roger Federer / ATP-Profil Roger Federer. Die entsprechenden Daten werden immer Montags mit Veröffentlichung der neuen Weltrangliste aktualisiert. Es gibt für die Webseiten dabei eindeutige IDs für jeden Spieler, die auf Wikidata gespeichert sind (für ATP: Property 536).

Es wäre uns eine große Hilfe, wenn ein Bot diese Aktualisierungen automatisch jeweils montags vornehmen könnte. Idealerweise würden die Daten dabei (auch) in Wikidata geschrieben werden, wobei ich hierfür dann ggfs. am falschen Ort frage.

Falls so etwas möglich wäre, wäre es auch gut zu wissen, was noch an Vorarbeiten vom Portal gebraucht werden würde.

Vielen Dank schonmal, --mad_melone (Diskussion) Wikipedia:Bots/Anfragen#c-Mad melone-2014-03-16T10:11:00.000Z-Auslesen von Tennis-Spielerprofilen bei ATP/WTA11Beantworten

Hinweis: Ich habe einen entsprechenden Abschnitt direkt bei Wikidata gefunden und meine Frage dort ebenfalls gestellt [13] --mad_melone (Diskussion) Wikipedia:Bots/Anfragen#c-Mad melone-2014-03-19T07:19:00.000Z-Mad melone-2014-03-16T10:11:00.000Z11Beantworten
Die obige Diskussion ist mittlerweile beendet, ich hätte jedoch zum selben Thema ein Frage: Ist es möglich, dass ein Bot auf einer Seite im BNR eine Auflistung macht, welche Spieler wann zuletzt aktualisiert wurden? Die letzte Passage in der Infobox ist jeweils das Aktualisierungsdatum der Infobox. Wenn also der Bot mir eine Aufstellung machen könnte, dann sehe ich auf einen Blick, welche Seite dringend wieder auf den neusten Stand gebracht werden muss. Vielen Dank für die Rückmeldung. -- SuperAle - Disk Wikipedia:Bots/Anfragen#c-SuperAle-2014-03-25T15:32:00.000Z-Mad melone-2014-03-19T07:19:00.000Z11Beantworten
Genau die selbe Fragestellung ist mir heute auch eingefallen. Konkret geht es um die Infobox Tennisspieler und die Angabe "Updated". Falls dies grundsätzlich möglich ist, wäre es dann auch möglich, im selben Botlauf eine Ausgabe zu bekommen, bei welchen Spielern noch Bilder fehlen? Die erste Anfrage wäre wöchentlich/monatlich, die zweite Anfrage mit den Bildern noch unregelmäßiger und ggfs. auf Bedarf. --mad_melone (Diskussion) Wikipedia:Bots/Anfragen#c-Mad melone-2014-05-21T09:55:00.000Z-Mad melone-2014-03-19T07:19:00.000Z11 (und hier noch der ping an SuperAle @SuperAle:, damit du Bescheid weisstBeantworten

Wartungsbausteine in Artikeln mit Israelbezug

Hallo werte Botbetreiber, nach langen Kämpfen durch Artikel mit Bezug zu Israel und der dabei festgestellten Häufigkeit von Wartungsbaustein jeder Coleur möchte ich gerne eine Liste wie diese, aber nicht auf Lückenhaft beschränkt. Ich würde mich freuen, wenn eine/r von Euch sich die Mühe machen würde :) Das Ergebnis kann gerne in meinem BNR unter Benutzer:Markus Schulenburg/Israel/Wartung veröffentlicht werden :D Mit ganz großem Dank im voraus. --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-27T20:39:00.000Z-Wartungsbausteine in Artikeln mit Israelbezug11Beantworten

PS: Bevor ich es vergesse bitte erst einmal nur den Bereich Kategorie:Politik (Israel)‎. --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-27T20:40:00.000Z-Markus Schulenburg-2014-03-27T20:39:00.000Z11Beantworten
Ich habe dir mal das Ergebnis meines MerlBot-InAction Skript auf deine Unterseite gestellt. Entspricht zwar nicht so ganz deiner Anfrage, aber damit hast du zumindest schon mal alle Wartungsbausteine und der nächste Botbetreiber braucht den Katbaum nicht mehr zu bilden. Um nun noch das Alter der Bausteine zu bestimmen wäre @Dealerofsalvation der richtige Ansprechpartner. Merlissimo Wikipedia:Bots/Anfragen#c-Dealerofsalvation-2014-03-28T00:09:00.000Z-Markus Schulenburg-2014-03-27T20:40:00.000Z11Beantworten
Danke für die schnelle Reaktion. Da ist mehr zu tun, als ich dachte :( Wo da die jüdischen Friedhöfe herkommen???? Aber es passt schon und das Alter der Bausteine ist vollkommen egal. Hauptsache die werden irgendwann einmal weg sein. --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-28T04:36:00.000Z-Dealerofsalvation-2014-03-28T00:09:00.000Z11Beantworten
„Alter der Bausteine ist vollkommen egal“ – das verstehe ich jetzt mal so, dass ich ich hier nicht weiter tätig werden soll. Falls trotzdem du oder jemand anderes gerne eine Liste mit Alter der Wartungsbausteine hätte, gerne nochmal melden. In dem Fall danke an Merlissimo für die Vorarbeit, das wäre natürlich eine Erleichterung. Gruß --dealerofsalvation Wikipedia:Bots/Anfragen#c-Dealerofsalvation-2014-03-28T05:41:00.000Z-Markus Schulenburg-2014-03-28T04:36:00.000Z11Beantworten
@Dealerofsalvation: Bitte nicht mißverstehen. Nur für die Abarbeitung von Wartungsbausteinen spielt das Alter in diesem eng begrenzten Bereich keine Rolle. Für den WBW ist das natürlich eine ganz andere Herausforderung, denn dort wäre es schon interessant Uralt-Bausteine (von vor zum Beispiel 2008 - gibt es die überhaupt?) abzuarbeiten. Das über diverse Beziehungen auch Friedhöfe, Schlösser in Heilbronn, ... und auch arisierte Unternehmen in dem Strang Kategorie:Politik (Israel) landen war mir gar nicht so klar. Dies hatte wiederum ein gewisses Aha-Erlebnis und erweitert wiederum den Horizont. --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-28T06:35:00.000Z-Dealerofsalvation-2014-03-28T05:41:00.000Z11Beantworten
Was mich gerade ganz verstört: In den Artikeln Meretz-Jachad und Meretz ist ein Redundanzbaustein vorhanden. Auf der Wartungsseite taucht das aber gar nicht auf????? --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-28T14:11:00.000Z-Markus Schulenburg-2014-03-28T06:35:00.000Z11Beantworten

Vorlage:Patent

Ich hätte gerne eine Auswertung aller her verwendeten Patente als Tabelle--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-04-09T22:17:00.000Z-Vorlage:Patent11Beantworten

Versuche das mal mit WP:Templatetiger Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-04-11T15:46:00.000Z-Kopiersperre-2014-04-09T22:17:00.000Z11Beantworten
Ich hätte aber gerne einen Export.--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-04-13T11:02:00.000Z-Boshomi-2014-04-11T15:46:00.000Z11Beantworten
Was spricht denn gegen diese Tabelle? Die kannst du auch nach Excel importieren. IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-04-13T17:21:00.000Z-Kopiersperre-2014-04-13T11:02:00.000Z11Beantworten
Ich habe kein Excel, sondern Gnumeric, und bin auch nicht abgeneigt, selber Listen zu bauen (Siehe Benutzer:Kopiersperre/GESTIS). Wenn man mit LibreOffice eine sortierbare Wikipedia-Tabelle bekommen kann, mache ich das darüber. Falls nicht, gebt mit bitte einfach eine Botausgabe.--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-04-14T11:29:00.000Z-Inkowik-2014-04-13T17:21:00.000Z11Beantworten
Eine CSV-Datei kannst du mit LibreOffice importieren: [14]. --тнояsтеn Wikipedia:Bots/Anfragen#c-Thgoiter-2014-04-14T15:18:00.000Z-Kopiersperre-2014-04-14T11:29:00.000Z11Beantworten
Bei mir funktioniert der Import per C&P sowohl mit Gnumeric als auch Libreoffice weitgehend problemlos. Der Datenstand ist allerdings etwas alt.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-04-14T16:24:00.000Z-Thgoiter-2014-04-14T15:18:00.000Z11Beantworten
Wesentlich efizienter wäre allerdings ein Parsen der durch die Vorlage erstellten Links die praktisch live mit der spezial:Weblinksuche geliefert werden:
Damit bekommst da aber auch Patente, die hohe Vorlage verknüpft wurden. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-04-14T16:46:00.000Z-Kopiersperre-2014-04-14T11:29:00.000Z11Beantworten
Dann fehlen im aber die Informationen zum Titel usw. ;-) Des Weiteren kann man bei Vorlage:Patent den Link auch abschalten (europäische Patente vor 1870 sind meist in keiner Online-DB verfügbar). Auch werden mit dem genutzten Muster nicht alle Patent-Verweise auf espacenet.com gelistet. --Cepheiden (Diskussion) Wikipedia:Bots/Anfragen#c-Cepheiden-2014-04-20T16:20:00.000Z-Boshomi-2014-04-14T16:46:00.000Z11Beantworten

Hier tabellarisch sind alle Einbindungen der Vorlage: Benutzer:Cactus26/TplPrm.Patent.20140421113800. Trennzeichen ist Tab (lässt sich so direkt in Tabellenkalkulation übernehmen). Wenn mehrere Vorlagenverwendungen in einem Artikel existieren, sind diese mit dem Suffix #1 etc. sequentiell numeriert. "|NULL|" bedeutet, Parameter fehlt gänzlich (im Unterschied zur leeren Angabe). "|LF|" steht für Linefeed im Parameterinhalt. Hoffe, das hilft.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2014-04-21T09:55:00.000Z-Vorlage:Patent11Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Cactus26 (Diskussion) 12:25, 16. Okt. 2014 (CEST) Erledigte Anfrage

MAK-Werte auslesen und in Infobox einfügen

Die SUVA veröffentlichte unter Grenzwerte am Arbeitsplatz 2014 (S. 40–122) eine ausführliche Liste von MAK-Werten. Hat jemand die Möglichkeit, die Werte auszulesen und anhand des Substanznamens und/oder der CAS-Nummer in die {{Infobox Chemikalie}} einzufügen (inkl. Einzelnachweis)? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-04-14T22:02:00.000Z-MAK-Werte auslesen und in Infobox einfügen11Beantworten

Wenn es irgendwem gelingen sollte die Daten in maschinelle verwertbarer Form aus dem PDF-Dokument zu extrahieren, wäre der Abgleich mit den Artikeldaten für mich machbar. Vielleicht lohnt es sich mal anzufragen, ob man die Daten auch im Rohformat bekommen kann, also die Datengrundlage zur Erstellung dieses PDF-Dokuments.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2014-04-22T12:32:00.000Z-Leyo-2014-04-14T22:02:00.000Z11Beantworten
Unter DOI:10.1002/9783527682010 gäbe es eine alternative Quelle. Ist diese ev. besser geeignet? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-10T20:33:00.000Z-Cactus26-2014-04-22T12:32:00.000Z11Beantworten
Evtl. auch anmailen, ob man das nicht als Exceldatei bekommt? ÅñŧóñŜûŝî (Ð) Wikipedia:Bots/Anfragen#c-Antonsusi-2014-09-16T16:31:00.000Z-Leyo-2014-09-10T20:33:00.000Z11Beantworten
Imho wäre es sinnvoller, die Werte in Metadatenvorlagen abzulegen, bzw. sobald dazu Klarheit besteht, auf Wikidata zu deponieren. Allerdings kann man aus dem Pdf keine Liste generieren, die bottauglich wäre, bzw. als Metadatenvorlage verwendet werden könnte. --Septembermorgen (Diskussion) Wikipedia:Bots/Anfragen#c-Septembermorgen-2014-09-16T18:52:00.000Z-Antonsusi-2014-09-16T16:31:00.000Z11Beantworten
Deswegen meinte ich ja eine Excel-Datei, denn aus der lassen sich die Daten bot- oder WD-tauglich extrahieren. Wikidata erscheint mir hier aber sehr mühsam. Evtl. geht es auch mittels Unterseite der Infobox, dann benötigt man den Bot nur für das Entfernen der direkten Angabe aus den Artikeln. Eine Unterseite der Vorlage kann auch mit Lua-Modul arbeiten. ÅñŧóñŜûŝî (Ð) Wikipedia:Bots/Anfragen#c-Antonsusi-2014-09-18T18:00:00.000Z-Septembermorgen-2014-09-16T18:52:00.000Z11Beantworten

gcatholic.com

gcatholic.com ist zur Domain gcatholic.org zurückgewechselt, sodass die Weblinks gcatholic.com nicht funktionieren. Die Struktur ist gleichbeblieben. Evtl. könnte man direkt zur Vorlage:GCatholic wechseln. Es betifft vornehmlich folgende Seiten https://de.wikipedia.org/w/index.php?title=Spezial:Weblinksuche&limit=2000&offset=0&target=http://*.gcatholic.com/ Vielen Dank im vorraus. --Dr Lol (Diskussion) Wikipedia:Bots/Anfragen#c-Dr Lol-2014-05-08T10:15:00.000Z-gcatholic.com11Beantworten

Siehe auch weiter oben mit den INSEE-Canton Links: Wäre es nicht überhaupt eine Möglichkeit einen Bot einzurichten, der ein Regexp-Replace für URLs durchführen kann. Konkret meine, ich damit, hier eine Funktionseite nach dem Vorbild von WP:SBL einzurichten, die nur von Admins bearbeitet werden kann, auf deren Diskussionsseite die URL-Regexp-Vorschläge der Benutzer eingetragen und gegebenfalls diskutiert werden können. Nach Überprüfung der Korrektheit der Regexpausdrücke werden diese in Funktionsseite eingetragen, und von einem ständig arbeitenden Bot automatisch umgesetzt.
Sinnvoll wäre natürlich, würde zuvor noch der http-Statuscode überprüft, und gegebenfalls die Fehler in einer Logseite ausgegeben, um die Restmengen per Hand erledigen zu können. Falls eine URL nur über Spezial:Linksearch aber nicht direkt im Wikitext auffindbar wäre (Vorlagen-URLs, ungewöhnliches Encoding,...) sollten diese ebenfalls im Log ausgegeben werden. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-05-09T18:45:00.000Z-Dr Lol-2014-05-08T10:15:00.000Z11Beantworten
Früher hatte ich die meisten Linkkorrekturen übernommen. Eigentlich habe ich da ein gutes Script, was ich immer sehr schnell auf den idividuellen Fall anpassen kann. Ich bin aber seit einen Jahr einfach zu sehr mit dem Labs-Umzug beschäftigt. Dieser durch imo unnötige Labs-Regeln verursachte Aufwand, kostet einfach eine Menge Zeit, weshalb mir kaum noch Zeit für andere Wikipedia-Tätigkeiten bleibt. Ich hoffe, dass bessert sich bald wieder. Merlissimo 20:37, 13. Mai 2014 (CEST)

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. IW 00:09, 16. Okt. 2014 (CEST) Erledigte Anfrage

Kategorie:Pkw-Modell & Klasse BoxenVerschmelzen

Kann mir jemand eine Liste liefern, in der alle Artikel enthalten sind, welche in der genannten Kategorie enthalten sind und die genannte Klasse enthalten? Gern auch als Liste in meinem Namensraum ;) DANKE! --darkking3 Թ Wikipedia:Bots/Anfragen#c-Darkking3-2014-05-20T11:53:00.000Z-Kategorie:Pkw-Modell & Klasse BoxenVerschmelzen11Beantworten

@Darkking3: Mit der neuen Cirrus-Suche sollte folgende Abfrage das gewünschte Ergebnis liefern: incategory:Pkw-Modell insource:BoxenVerschmelzen. Gruß, IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-09-09T15:43:00.000Z-Darkking3-2014-05-20T11:53:00.000Z11Beantworten
Nö, das funktioniert nachweislich so nicht ;) (BMW F01) --darkking3 Թ Wikipedia:Bots/Anfragen#c-Darkking3-2014-09-09T16:30:00.000Z-Inkowik-2014-09-09T15:43:00.000Z11Beantworten
Der Artikel enthält die Klasse BoxenVerschmelzen und ist hier eingetragen (mal mit Browser nach Titel suchen.) Hast du auch die Neue Suche in den Beta-Einstellungen aktiviert? Gruß, IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-09-09T16:44:00.000Z-Darkking3-2014-09-09T16:30:00.000Z11Beantworten

Auskommentierungen

Ich möchte eine Liste von Artikeln, in denen Teile auskommentiert wurden. Da das sehr viele sind, soll die Liste auf z. b. die 1000 Artikel mit den größten auskommentierten Textstellen beschränkt sein. 129.13.72.196 Wikipedia:Bots/Anfragen#c-129.13.72.196-2014-06-17T12:24:00.000Z-Auskommentierungen11Beantworten

Ich warte immer noch. Das kann doch nicht so schwer sein. 129.13.72.197 Wikipedia:Bots/Anfragen#c-129.13.72.197-2014-09-15T11:25:00.000Z-129.13.72.196-2014-06-17T12:24:00.000Z11Beantworten

Exzellente Artikel in mehreren Sprachen

Kann man herausfinden, welche Lemmata in den meisten Sprachen gleichzeitig exzellent sind?--kopiersperre (Diskussion) Wikipedia:Bots/Anfragen#c-Kopiersperre-2014-06-22T20:33:00.000Z-Exzellente Artikel in mehreren Sprachen11Beantworten

Ich kann dir nur sagen, in welchen Artikel derzeit am häufigsten {{Link FA}} verwendet wird (per templatetiger mit dewiki dump vom 2014-04-07):
select CONCAT('# [[:',name, ']] (', count(distinct tp_nr),')') from dewiki where tp_name='Link FA' group by name_id order by count(distinct tp_nr) desc  limit 10;
  1. Zweiter Weltkrieg (18)
  2. Schach (16)
  3. Saturn (Planet) (15)
  4. Vereinigte Staaten (15)
  5. Jupiter (Planet) (15)
  6. Sonnensystem (15)
  7. Paris (14)
  8. Gaius Iulius Caesar (14)
  9. Merkur (Planet) (14)
  10. Olympische Spiele (14)

Verschobene Dateien

Hallo,
es kommt zwar nicht allzu häufig vor, aber wenn ein Admin eine Datei verschoben (oder umbenannt) hat, dann muss er/sie danach den dazugehörigen Antrag von der jeweiligen Dateibeschreibungsseite entfernen. Das ist zwar viel Arbeit, aber auf Dauer lästig. Wäre es möglich, das ein Bot die Vorlage:Datei umbenennen nach der Verschiebung entfernt? —Morten Haan · Wikipedia ist für Leser da Wikipedia:Bots/Anfragen#c-Morten Haan-2014-06-25T19:11:00.000Z-Verschobene Dateien11Beantworten

Vorlage:Eurohockey-net obsolet

Hallo liebe Botbetreiber, da die o.g. Seite nicht mehr existiert, bzw. nun unter .com zu finden ist, sind sämtliche Links überflüssig geworden. Da ein einfaches Ändern des ID-Parameters leider nicht möglich ist (z.b. {{Eurohockey-net|ID=1234}} auf {{Eurohockey-com|ID=1234}}, bitte ich darum, aus allen Artikeln, die die Vorlage Eurohockey-net verwenden, eben jene per Bot zu entfernen. Wenn es möglich ist, diese nur aus Artikeln zu entfernen, die ausschließlich die Vorlage verwenden und keinen weiteren Weblink, wäre das natürlich super. Die übrigen würde ich dann per Hand „umbiegen“. LG, --Avaholic Wikipedia:Bots/Anfragen#c-Avaholic-2014-06-27T15:31:00.000Z-Vorlage:Eurohockey-net obsolet11Beantworten

Die Diskussion darüber findet sich im Portal:Eishockey. --Tommes  Wikipedia:Bots/Anfragen#c-Roter Frosch-2014-09-09T18:48:00.000Z-Avaholic-2014-06-27T15:31:00.000Z11Beantworten

Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste

Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.

Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.

Ich bin gespannt. --Zulu55 (Diskussion) Unwissen 09:47, 15. Jul. 2014 (CEST) (Eine themenverwandte Anfrage gab es schon mal unter Wikipedia:Bots/Anfragen/Archiv/2009-1#.C3.9Cbersicht_der_Redundanzen_erstellen., damals insbesondere von Benutzer:Merlissimo bearbeitet.) --Zulu55 (Diskussion) Unwissen Wikipedia:Bots/Anfragen#c-Zulu55-2014-07-15T07:47:00.000Z-Wikipedia:Redundanz/Knacknüsse - per Bot erstellte Liste11Beantworten

charts.de --> officialcharts.de

Schon vor einigen Wochen wurde aus http://www.charts.de/ die Seite http://www.officialcharts.de/. Wie ich gestern mitbekommen habe, laufen nun sämtliche charts.de-Links ins Leere. Als Beispiel die charts.de-Seite von Shakira (mit Fehlermeldung) und die funktionierende officialcharts.de-Version. Es müssten also einfach alle "charts.de" in "officialcharts.de" geändert werden. da das aber bei http://charts.de/ 219 Links und bei http://www.charts.de/ 1.858 Links sind, die geändert werden müssen, ist hier ein Bot angebracht. Könnte jemand so nett sein und etwas entsprechendes programmieren? Vielen Dank im Voraus. --Ali1610 (Diskussion) Wikipedia:Bots/Anfragen#c-Ali1610-2014-07-31T16:10:00.000Z-charts.de --> officialcharts.de11Beantworten

Die Seite ist auch global recht gut vertreten: http://toolserver.org/~merl/findexternallinks/query.php?eulink=http://charts.de (1657 Links auf 45 Wikis)Merlissimo 18:45, 31. Jul. 2014 (CEST)
Mit www davor sinds es sogar über 5000... --Ali1610 (Diskussion) Wikipedia:Bots/Anfragen#c-Ali1610-2014-07-31T17:21:00.000Z-Ali1610-2014-07-31T16:10:00.000Z11Beantworten
Passiert hier noch etwas? Oder findet sich niemand? --Ali1610 (Diskussion) Wikipedia:Bots/Anfragen#c-Ali1610-2014-08-06T21:01:00.000Z-Ali1610-2014-07-31T17:21:00.000Z11Beantworten
Bin im Moment stark beschäftigt, aber ich hoffe es innerhalb der nächsten Woche erledigen zu können, weil das nur ein einfacher Domainwechsel ist. Merlissimo 23:12, 6. Aug. 2014 (CEST)
Hallo? Könnte ein Botbetreiber das mal machen? Das ist doch nur ein Domainwechsel... ÅñŧóñŜûŝî (Ð) Wikipedia:Bots/Anfragen#c-Antonsusi-2014-09-14T17:38:00.000Z-Ali1610-2014-07-31T17:21:00.000Z11Beantworten
Hab Benutzer:Merlissimo schon mal wieder dran erinnert auf seiner Disku, aber anscheinend hat er im Moment keine Zeit. --Ali1610 (Diskussion)

Kümmere mich in dewiki darum.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2014-10-16T10:27:00.000Z-charts.de --> officialcharts.de11Beantworten

Also: Fast alles lässt sich durch ein einfaches Einsetzen von "official" in den Domain-Name korrigieren. Eine Ausnahme sind Links, die search.asp verwenden ([15]). Bei diesen ist eine Korrektur möglich, wenn "search.asp" zudem durch "suche.asp" ersetzt wird. Die Links mit item.asp [16], showitem.asp [17] und weekchart.asp [18] funktieren auch nicht, allerdings habe ich bisher kein Korrekturverfahren gefunden. Diese lasse ich erstmal weg.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2014-10-16T11:10:00.000Z-charts.de --> officialcharts.de11Beantworten


Dieser Botauftrag wird gerade von Benutzer:CactusBot11 (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Benutzer Diskussion:Cactus2611).

Welcher Botbetreiber könnte diese Liste von Artikeln mit Interwiki-Links extrahieren und thematisch aufteilen? Dann könnten die Teillisten an die zuständigen Projekte/Redaktionen/Portale weitergereicht werden. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-07-31T22:45:00.000Z-Artikel mit Interwiki-Links im Quelltext zuständigen Projekten zuordnen11Beantworten

Die meisten Fälle hatte ich unter dem Punkt Interwiki-Konflikt in meinen Listen (also die Fälle davon, wo die automatischen Bots fehlschlagen). Darauf gab es mehrere Beschwerden, dass man auf dewiki nicht für wikidata-Probleme zuständig sei. Merlissimo 00:53, 1. Aug. 2014 (CEST)
Hm… Korrekte Interwikis in de-WP-Artikeln erachte ich schon als Dienstleistung an (mehrsprachigen) Lesern.
Geht denn die Anzahl der betroffenen Artikel zurück oder stagniert sie? Gibt's dazu Statistiken? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-07-31T23:04:00.000Z-Leyo-2014-07-31T22:45:00.000Z11Beantworten
Ich hatte nach dem Beschwerden die Abfrage auf BKS, Frau, Mann und Intersexuelle beschränkt, wo die Fälle sehr klar sein sollten. Der Punkt Langlink-Konflikt auf Wikipedia:WikiProjekt_Begriffsklärungsseiten/Fließband/Aktuelles sieht noch recht voll aus.
Wenn das Feature wieder gewünscht werden sollte, kann ich es leicht wieder einführen. Dafür brauche ich dann aber auch ein klares Votum der Community, so dass die Kritiker (die sich meist schneller melden) überstimmt werden. Du bist bis jetzt der Einzige. Merlissimo 01:16, 1. Aug. 2014 (CEST)
Ich würde mich um die Hausviecher kümmern. Wäre gut, wenn ich zur Not Haushunde und Pferde ausklammern könnte, aber gerade im Bereich Geflügel gibt es zwischen den Verbänden Kontinentaleuropas und dem englischen Sprachraum (GB und USA und selbst zwischen PCGB und APA zum Teil erhebliche Unterschiede, wie. z. B. bei der Pekingente.)
Ziel: Benutzer:PigeonIP/Haustiere oder eine neue Unterseite auf Data: d:User:PigeonIP/Haustiere --PigeonIP (Diskussion) Wikipedia:Bots/Anfragen#c-PigeonIP-2014-08-01T05:39:00.000Z-Leyo-2014-07-31T23:04:00.000Z11Beantworten
Ich hätte gerne Listen für die Katbäume Chemie und Schweiz. Weitere Katbaum-Listen könnte ich „verteilen“. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-16T01:02:00.000Z-PigeonIP-2014-08-01T05:39:00.000Z11Beantworten
Ich habe eine neue Teilliste LLK2 eingeführt, der aber explizit aktiviert werden muss und standardmäßig nicht angezeigt wird (also Wert beim LISTS-Parameter bei MerlBot-Worklist ergänzen). Inhalt sind die Interwikikonflikte, die nicht von der Teilliste LLK mit den oben erwähnten KAT-Beschränkungen abgedeckt werden. Merlissimo 10:59, 18. Aug. 2014 (CEST)
Danke, ich hab's eingebaut. Mal gucken… --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-18T19:29:00.000Z-Leyo-2014-08-16T01:02:00.000Z11Beantworten
Uff, sooo viele hätten's dann doch nicht sein müssen… :-( --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-18T20:53:00.000Z-Leyo-2014-08-18T19:29:00.000Z11Beantworten

@Leyo: auf Benutzer:Inkowik/Wikidata gibt es etwas Statistik. Gruß, IW Wikipedia:Bots/Anfragen#c-Inkowik-2014-08-18T15:53:00.000Z-Artikel mit Interwiki-Links im Quelltext zuständigen Projekten zuordnen11Beantworten

Danke. Die betroffenen Seiten nehmen ab, aber ziemlich langsam… --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-18T19:29:00.000Z-Inkowik-2014-08-18T15:53:00.000Z11Beantworten

Noch eine Anmerkung: Die betroffenen Artikel enthalten meist Interwiki-Links auf Abschnitte. Das kann man natürlich nicht auf Wikidata übernehmen, allerdings sollen die wohl auch nicht aus den Artikeln entfernt werden. 85.212.59.26 Wikipedia:Bots/Anfragen#c-85.212.59.26-2014-08-28T19:38:00.000Z-Artikel mit Interwiki-Links im Quelltext zuständigen Projekten zuordnen11Beantworten

MerlBot könnte Interwiki-Links auf Abschnitte ggf. aussortieren, sofern dies gewünscht wäre. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-29T00:46:00.000Z-85.212.59.26-2014-08-28T19:38:00.000Z11Beantworten
Ich melde ja nur Konflikte und nicht alle lokalen Langlinks. Insofern sind reine lokale vorhandene Anker-Langlinks kein Problem in der Wartungsliste. Erst wenn Wikidata einen anderen Link (z.B. einfach ohne Anker) enthält wird es zu einem Problem, das gemeldet wird. Merlissimo 11:02, 9. Sep. 2014 (CEST)

Toolserver → Toollabs

Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:

  • (Seite): wohl nicht selten direkt im Quelltext drin
  • Vorlage: durchführen
  • Kategorie: durchführen
  • Hilfe: abzuklären
  • Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
  • Benutzer: würde ich befürworten

--Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-06T22:11:00.000Z-Toolserver → Toollabs11Beantworten

Links auf die Stimmberechtigung tools:~guandalug/tools/stimmberechtigung.php und tools:~chm/stimmberechtigung.php. Die meisten davon auf gesperrten Seiten. Am besten durch Vorlage Vorlage:Stimmberechtigt ersetzen. --Nachcommonsverschieber (Diskussion) Wikipedia:Bots/Anfragen#c-Nachcommonsverschieber-2014-08-30T09:54:00.000Z-Toolserver → Toollabs11Beantworten


Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.

  • Statistik:
    • Es gibt heute insgesamt rund 42.000 URL im Projekt.
  • Namensräume:
    • Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
      • Hier: Nur noch Namensräume 4, 10, 14, 100;
      • Ausschluss bei /Archiv im Seitennamen;
      • auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
    • Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2024; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
    • Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
    • Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
  • Arbeitsschwerpunkt:
    • Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
    • Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
      • Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
      • Unterkat-Tiefe
      • Alter in Stunden
      • Maximalgröße von Stubs
      • Linkanzahl von Stubs
    • Es gibt 7800 nicht mehr funktionierende URL auf
      //toolserver.org/~daniel/WikiSense/CategoryIntersect.php?wikilang=de&wikifam=.wikipedia.org&basecat=*-*-*-*-*&basedeep=.....&go=Scannen&userlang=de
    • Sie können zu jeweils mehreren Hundert gleichen Schemas ersetzt werden durch
      {{fullurl:toollabs:catscan2/catscan2.php|project=wikipedia&language=de&categories=*-*-*-*-*&...........&interface_language=de&doit=1#results}}
      • Verbreitet ist etwa: &mode=rc&hours= für „Neue Artikel“, jetzt max_age= mit only_new=1.
      • Ebenso öfters &mode=ss&size= und mehr für Stubs, jetzt smaller=
      • Trivial ist Ersatz von ~magnus/catscan_rewrite.php – Parameter sind gleich.
    • Nur in Portalen auf rund 210 Seiten:
      //toolserver.org/~erwin85/randomarticle.php?
      durch
      {{fullurl:toollabs:erwin85/randomarticle.php| und hinten dran }}
    • Bei vielen Portalen/Red. gibt es
      ~magnus/deep_out_of_sight.php?
      und
      ~magnus/deep_insight.php?
      als
      {{fullurl:toollabs:sighting/deep out of sight.php|
      und
      {{fullurl:toollabs:sighting/sighting/deep insight.php|
    • Bei knapp 50 WikiProjekten gibt es trivialen Ersatz für
      //toolserver.org/~kolossos/templatetiger/tt-table4.php?
  • Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
  • Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
  • Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.

Liebe Grüße --PerfektesChaos Wikipedia:Bots/Anfragen#c-PerfektesChaos-2014-09-02T20:39:00.000Z-Toolserver → Toollabs11Beantworten

Danke für deine umfassenden Ausführungen!
Einen Punkt sehe ich anders als du: Die Mehrheit der Benutzer würde sich bestimmt über ein Linkfixen freuen. Die wohl wenigen Ausnahmen können ja den Bot revertieren. Ich jedenfalls würde es schätzen, wenn die toten Links auf meiner Benutzerseite (sowie ggf. auch in meinen .js-Seiten) aktualisiert würden. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-03T20:38:00.000Z-PerfektesChaos-2014-09-02T20:39:00.000Z11Beantworten
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
VG --PerfektesChaos Wikipedia:Bots/Anfragen#c-PerfektesChaos-2014-09-12T14:15:00.000Z-Leyo-2014-09-03T20:38:00.000Z11Beantworten


 Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.

Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.

Jetzt habe ich für eine Weile keine Lust mehr. --PerfektesChaos Wikipedia:Bots/Anfragen#c-PerfektesChaos-2014-09-15T11:24:00.000Z-Toolserver → Toollabs11Beantworten

1911encyclopedia.org, eine Online-Version der Encyclopedia Britannica von 1911, ist down, wird aber im ANR 700-mal verlinkt. Per Bot liesse sich ggf. eine der folgenden Optionen umsetzen:

Die beiden ersten Varianten wären am besten, aber wohl auch am schwierigsten. --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-08-26T22:54:00.000Z-Weblinks auf nicht mehr funktionierende Online-Version der Encyclopedia Britanni11Beantworten

auf Achive.org dürfte die gesammte Ausgabe liegen: <https://ia600809.us.archive.org/21/items/1911britannicatiff/>, bzw. <https://archive.org/details/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols> Das Problem ist, wie man das auf vernünftige Weise verlinkt.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-08-28T17:23:00.000Z-Leyo-2014-08-26T22:54:00.000Z11Beantworten
Puh, keine Ahnung… --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-09T22:10:00.000Z-Boshomi-2014-08-28T17:23:00.000Z11Beantworten
Der 1. Weblink taugt gar nichts. Wer kann schon zum einmaligen nachschauen ein 23-GByte-Tar-Archiv gebrauchen.
Der 2. linkt auf eine laienhafte Archivierung. Die direkte Auflistung des Ordners hier zeigt, dass die 33 Bände nur als PDF-Dateien vollständig, aber inkonsistent benannt sind. Andere Formen, insbesondere der Onlinezugriff auf Seiten, sind unvollständig (nur 22 Bände konvertiert). Ergo auch kaum zu gebrauchen. Da hat jemand mittendrin die Lust verloren und aufgehört... Darüber hinaus sind die Links auf der Webseite unsortiert und einige PDFs haben mehrere Gigabyte (bis 4,4 GByte), was selbst bei schnellen 25 MBit/s eine Downloadzeit von 25 bis 30 Minuten bewirkt... eigentlich auch unbrauchbar. Hier könnte man allenfalls eine Vorlage schreiben, welche die richtige PDF des vollständigen Sets heraussucht und den Link (mit Dateigröße, bis 300 MByte) angibt.
ÅñŧóñŜûŝî (Ð) Wikipedia:Bots/Anfragen#c-Antonsusi-2014-09-14T17:13:00.000Z-Leyo-2014-09-09T22:10:00.000Z11Beantworten
Nachtrag: Die Linkliste wäre:
Präfix (Ordner) https://ia600406.us.archive.org/26/items/EncyclopaediaBritannicaDict.a.s.l.g.i.11thed.chisholm.1910-1911-1922.33vols/
Dateien:
Dateiname Datum Größe
01.EncycBrit.11th.1910.v.1.A-AND..pdf 05-Jan-2010 04:42 94.299.612
02.EncycBrit.11th.1910.v.2.AND-AUS..pdf 06-Jan-2010 05:17 118.241.117
03.EncycBrit.11th.1910.v.3.AUS-BIS..pdf 15-Mar-2011 04:19 112.123.985
04.EncycBrit.11th.1910.v.4.BIS-CAL..pdf 05-Jan-2010 05:27 104.923.429
05.EncycBrit.11th.1910.v.5.CAL-CHA..pdf 05-Jan-2010 05:49 113.600.623
06.EncyBrit.11th.1910.v.6.CHA-CON..pdf 05-Jan-2010 06:08 110.372.183
07.EncycBrit.11th.1910.v7.CON-DEM..pdf 06-Jan-2010 05:37 124.465.637
08.EncycBri.11th.1910.v8.DEM-EDW..pdf 05-Jan-2010 07:13 153.333.857
09.EncyBrit.11th.1910.v.9.EDW-EVA..pdf 05-Jan-2010 07:29 93.868.661
10.EncycBritan.1911.v.10.EVA-FRA..pdf 06-Jan-2010 06:06 122.983.626
11.EncycBrit.11th.1911.v.11..FRA-G..pdf 05-Jan-2010 08:06 116.631.036
12.EncycBrit.11th.1911.v.12.GIC-HAR.pdf 05-Jan-2010 08:56 123.398.255
13.EncycBrit.11th.1911.v.13.HAR-HUR..pdf 05-Jan-2010 09:16 126.011.033
14.EncycBrit.11th.1911.v.14.HUS-ITA..pdf 05-Jan-2010 12:31 117.659.922
15.EncycBrit.11th.1911.v.15.ITA-KYS..pdf 05-Jan-2010 13:48 126.762.981
16.EncycBri.11th.1911.v16.L-LOR..pdf 05-Jan-2010 14:47 140.176.819
17.EncycBrit.11th.1911.v17.LOR-MEC..pdf 05-Jan-2010 15:15 175.467.820
18.EncycBrit.11th.1911.v.18.MED.MUM..pdf 05-Jan-2010 15:38 86.194.969
19.EncyBrit.11th.1911.v.19.MUN-ODD.pdf 05-Jan-2010 16:03 106.053.558
20.EncycBrit.11th.1911.v.20.ODE-PAY.pdf 05-Jan-2010 16:37 118.806.506
21.EncycBrit.11th.1911.v.21.PAY-POL..pdf 06-Jan-2010 06:39 138.539.929
22.EncycBrit.11th.1911.v22.POL-REE..pdf 06-Jan-2010 06:57 115.389.905
23.EncycBrit.11th.1911.v23.REF-SAI..pdf 06-Jan-2010 07:22 122.869.508
24.EncycBrit.11th.1911.v24.SAI-SHU..pdf 06-Jan-2010 07:53 107.941.327
25.EncycBrit.11th.1911.v25.SHU-SUB..pdf 06-Jan-2010 08:20 148.830.473
26.EncycBrit.11th.1911.v.26.SUB-TOM..pdf 06-Jan-2010 13:22 153.523.501
27.EncycBrit.11th.1911.v.27.TON-VES..pdf 06-Jan-2010 14:38 107.406.039
28.EncycBrit.11th.1911.v.28.VET-ZYM..pdf 06-Jan-2010 15:02 138.579.455
29.EncycBrit.11th.1911..11th.v29.Index..pdf 07-Jan-2010 06:51 126.564.824
30.EncycBrit.12th.1922.v30.nv1.ABB-ENG..pdf 06-Jan-2010 16:47 191.404.607
31.EncycBrit.12th.1922.v31.nv2.ENG-OYA..pdf 06-Jan-2010 17:23 229.989.964
32.EncycBrit.12th.1922.v32.nv3.PAC-ZUL..pdf 07-Jan-2010 06:19 255.097.261
33.ReadersGuideEncycBrit.v33.1913..pdf 07-Jan-2010 05:38 17.920.388
ÅñŧóñŜûŝî (Ð) Wikipedia:Bots/Anfragen#c-Antonsusi-2014-09-14T17:33:00.000Z-Leyo-2014-09-09T22:10:00.000Z11Beantworten
* Wenn man das ordentlich machen will, sollte man die großen Files downloaden, die jeweils best verfügbare Qualität in Einzelseiten-Tiff-s zerlegen, mit ImageMagick die Tiff-s noch ein wenig aufbessern und mittels tesseract text und hocr-Files anlegen und das Ergebnis Seite für Seite auf Commons hochladen.
* Ist das erledigt bräuchte man noch ein Tool zum Editieren der hocr-Files direkt über dem Image. So ein Tool hätte recht offensichtlich großen langfristigen Nutzen, müsste aber von der Mediawiki entwickelt werden. Damit könnte man dann ganze Bibliotheken gemeinfreier Bücher online nutzbar und längerfristig weitgehend fehlerfreie durchsuchbare Texte daraus erstellen. Ohne Editiermöglichkeit sind die Ergebnisse leider recht fehleranfällig, wie man auch bei Archive.org sieht. Halbfertige Ansätze als Firefox-addon existieren, funktionieren aber zumindest bei mir nicht.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-09-15T18:45:00.000Z-Antonsusi-2014-09-14T17:33:00.000Z11Beantworten

Hilfe im Projekt Tennis

Hallo Botexperten, im WikiProjekt Tennis Pflegen wir Navigationsleisten, die die Top 10 Spieler eines jeweiligen Landes enthalten. Ein Bot könnte uns dabei helfen, die Navileisten nach der Aktualisierung in die verlinkten Artikel einzubauen und aus Artikel, die nicht mehr verlinkt sind, herauszunehmen. Eine Sammlung der Navileisten findet man auf der Benutzerseite von SuperAle unter Benutzer:SuperAle/ToDo nach der Überschrift Navigationsleisten Die zehn bestplatzierten Tennisspieler. Gruß, Korrektor123 (Diskussion) Wikipedia:Bots/Anfragen#c-Korrektor123-2014-09-01T15:39:00.000Z-Hilfe im Projekt Tennis11Beantworten

Hier zwei Sammelseiten mit ALLEN Navigationsleisten, die betroffen sind: von der ATP und von der WTA. Der Link oben enthält nur die ATP-Leisten und auch Navileisten zu Turnieren, die nicht betroffen sind. Wir wollen doch die Ladies nicht vergessen, lieber Korrektor ;-) --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2014-09-01T19:44:00.000Z-Korrektor123-2014-09-01T15:39:00.000Z11Beantworten
Man sollte sich eher mal fragen, wie sinnvoll Navigationsleisten sind, die per Bot aktualisiert werden müssen. Dieses Pseudo-Auswahlkriterium "Top 10 Spieler" ändert sich doch permenant. Heute ist ein Spieler drin und morgen wieder draussen und jedes Mal wird die Navigationsleiste eingefügt und wieder entfernt (und selbst angepasst). So eine Navigationsleiste sollte schon halbwegs stabil sein, um brauchbar zu sein.--213.61.99.155 Wikipedia:Bots/Anfragen#c-213.61.99.155-2014-09-09T10:16:00.000Z-DonPedro71-2014-09-01T19:44:00.000Z11Beantworten
Das sollte man sich wirklich fragen: Wikipedia:Löschkandidaten/9. September 2014#Vorlagen --FannyRoertle (Diskussion) Wikipedia:Bots/Anfragen#c-FannyRoertle-2014-09-09T10:40:00.000Z-213.61.99.155-2014-09-09T10:16:00.000Z11Beantworten
Man kann sich die Arbeit auch schaffen. Eigentlich sollte für sowas Wikidata zuständig sein… --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-09T22:15:00.000Z-FannyRoertle-2014-09-09T10:40:00.000Z11Beantworten

Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisieren

Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.

  • Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
  • man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
  • Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.

Kann das ganze auch per Bot ausgeführt werden?--CG (Diskussion) Wikipedia:Bots/Anfragen#c-Cavaliere grande-2014-09-01T16:22:00.000Z-Wikipedia:Artikel, die es in allen Wikipedias geben sollte/Erweitert aktualisier11Beantworten

Bot-Hilfe bei der IB-Beschriftung

Hallo zusammen, vielleicht könnte mir jemand bei folgender Angelegenheit helfen: Bei den derzeit knapp 500 Artikeln der Kategorie:Ort in Florida würde ich mir wünschen, dass per Bot jeweils in der Infobox unter der Zeile "Beschriftung Karte" der Hinweis "Lage in County und Bundesstaat" steht. Ein Beispiel siehe Venice (Florida). Derzeit steht an dieser Stelle in den IBs entweder gar nichts oder nur "Lage von Ort XY". Das würde meine Arbeit im Bereich Florida extrem beschleunigen. LG Stefan Wikipedia:Bots/Anfragen#c-Dionysos1988-2014-09-04T01:59:00.000Z-Bot-Hilfe bei der IB-Beschriftung11Beantworten

Liesse sich dies ggf. in der Vorlage einbauen? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-10T20:39:00.000Z-Dionysos1988-2014-09-04T01:59:00.000Z11Beantworten
Ich habe nicht den Überblick, ob das US-weit überall ratsam wäre. Es gibt auch eine handvoll Orte, wo es keine passende Positionskarte gibt, z. B. Crawfordville (Florida). LG Stefan Wikipedia:Bots/Anfragen#c-Dionysos1988-2014-09-14T13:20:00.000Z-Leyo-2014-09-10T20:39:00.000Z11Beantworten

SUBSTER-Aufgaben von DrTrigonBot

Der Bot:DrTrigonBot macht schon seit April die Subster-Aufgaben nicht mehr, darunter das Aktualisieren der Artikelanzahlen in Vorlage:Metadaten Artikelanzahl Wiki. Auf entsprechende Hinweise auf drTrigons Disk folgen keine Reaktionen, weil der Botbetreiber selbst nicht mehr aktiv ist. Könnte daher vielleicht ein anderer Bot diese Subster-Sachen übernehmen? Mariofan13 (Diskussion, Beiträge) Wikipedia:Bots/Anfragen#c-Mariofan13-2014-09-14T08:04:00.000Z-SUBSTER-Aufgaben von DrTrigonBot11Beantworten

Warum antwortet denn niemand? :( Grüße, -seko- (Disk) Wikipedia:Bots/Anfragen#c--seko--2014-10-15T05:29:00.000Z-Mariofan13-2014-09-14T08:04:00.000Z11Beantworten
@Mariofan13: @-seko-: So richtig kann ich nicht herauslesen, was Subster genau gemacht hat. Wenn man mir das genauer erklärt, könnte ich möglicherweise was tun. -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-16T14:46:00.000Z--seko--2014-10-15T05:29:00.000Z11Beantworten
U.a. hat er die Weltranglistenpositionen von Tischtennisspielern regelmässig aktualisiert (Infobox im Artikel). Das soll er NICHT mehr tun! (hat Benutzer:Pasleim inzwischen anders gelöst). --tsor (Diskussion) Wikipedia:Bots/Anfragen#c-Tsor-2014-10-16T15:41:00.000Z-Doc Taxon-2014-10-16T14:46:00.000Z11Beantworten
das ist nur ein Teil seiner Aufgaben. Er hat auch die Artikelzahlen in der von mir oben verlinkten Vorlage aktualisiert, die müssen seit dem Ausfall des Bots manuell aktualisiert wwrden. Grüße, -seko- (Disk) Wikipedia:Bots/Anfragen#c--seko--2014-10-16T16:01:00.000Z-Mariofan13-2014-09-14T08:04:00.000Z11Beantworten

Referenzierungsfehler finden

Wird innerhalb eines Artikels mehrfach der gleiche ref-name verwendet, so wird unter "Einzahlnachweise" schließlich nur eine Angabe angezeigt:

Quelltext Anzeige
Das Auto ist rot<ref name="Auto">Quelle rotes Auto</ref> Das Auto ist rot[1]
Das Auto ist blau<ref name="Auto">Quelle blaues Auto</ref> Das Auto ist blau[1]
Einzelnachweise
  1. a b Quelle rotes Auto Referenzfehler: Ungültiges <ref>-Tag. Der Name „Auto“ wurde mehrere Male mit einem unterschiedlichen Inhalt definiert.

Da ich schon mehrfach über diesen Fehler gestolpert bin, die Frage an Euch, ob mal jemand systematisch im Quelltext nach doppelt definierten ref-names suchen und eine Fehlerliste erstellen will.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-09-23T06:53:00.000Z-Referenzierungsfehler finden11Beantworten

@Mabschaaf: auch inklusive mehrfach definiert, aber gleichem Text? Habe mal ein Teildump ausgewertet und habe jetzt bei ~20000 Seiten schon 695 doppelt oder mehrfache definierte ohne Unterscheidung zwischen gleichem oder unterschiedlichem Reftext. Hier das Ergebnis der Teilauswertung: Benutzer:Se4598/BA_NamedRefs --se4598 / ? Wikipedia:Bots/Anfragen#c-Se4598-2014-10-12T21:14:00.000Z-Mabschaaf-2014-09-23T06:53:00.000Z11Beantworten
@se4598: Vielen Dank für Deine Mühe. Dass das Problem solche Dimensionen hat, hätte ich nicht erwartet. Puh... Evtl. könntest Du beide Fälle in getrennten Listen aufnehmen?
  • Die eine (Dopplungen mit gleichem Text) könnte mM ganz problemlos ein Bot abarbeiten (falls dazu hier noch ein wenig Zustimmung kommt, da es zunächst eine kosmetische Korrektur ohne sichtbare Auswirkungen ist).
  • Bei der Zweiten (unterschiedliche Nachweise, die gleich benannt sind und daher nicht getrennt angezeigt werden) ist es mM zwingend erforderlich, aktiv zu werden. Auch die sollte ein Bot abarbeiten können, wobei die Herausforderung sein dürfte, in Fällen wie bei Sandra Bullock, die <ref name="Rotten Tomatoes" gleich 31× für unterschiedliche(!) URLs nutzt, festzustellen, ob vielleicht doch zwei exakt gleiche dabei sind.
Viele Grüße --Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-10-13T06:48:00.000Z-Se4598-2014-10-12T21:14:00.000Z11Beantworten
@Mabschaaf: Mein Programmcode/regulärer Ausdruck deckt die fast alle Fälle von benannten EN ab, Sonderfälle wie zusätzlich gruppierte EN werden aber nicht gefunden, ist aber auch so genug Arbeit da ;-).
Von 2.951.082 untersuchten Artikeln haben 7,8 % benannte Einzelnachweise, wovon wiederum nun 5,7 % (13.177) von dieser Abfrage als Treffer erkannt wurden. Der Suchlauf wurde auf einem Datendump vom 6.10. ausgeführt.
Die komplexen Fälle sind nicht alle unbedingt schwierig oder inhaltlich falsch, sondern ein größerer Teil besteht auch aus "leeren" Refs (<ref name="refA"></ref>), die aber meistens wie die Dopplungen kein sichtbaren Fehler darstellen.
Nun, hier die Listen: einfache Dopplungen mit gleichem Text, komplexere Fälle
Ist ein bisschen Arbeit, aber viele der "komplexeren" Fälle kann man auch ohne Fachkenntnis auflösen. Vielleicht magst du ja ein Aufruf starten? Die Seiten dürfen frei bearbeitet werden und erledigte Fälle entfernt werden.
Grüße --se4598 / ? Wikipedia:Bots/Anfragen#c-Se4598-2014-10-15T19:12:00.000Z-Mabschaaf-2014-10-13T06:48:00.000Z11Beantworten
Bevor ich hier versuche, andere Benutzer zur händischen Abarbeitung zu bewegen, hätte ich gerne eine Aussage von einem Botbetreiber, ob das auch vollautomatisch zu lösen wäre (evtl. unter Vernachlässigung der komplexen Fälle).--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-10-16T07:05:00.000Z-Se4598-2014-10-15T19:12:00.000Z11Beantworten

Wirkungslose class-Angaben in Tabellen entfernen

Hallo! In bisher 343 Artikeln (zumeist mit Musik-Bezug) sind Tabellen (enthaltend Tracklisten, Auszeichnungen …) vorhanden, in denen die Angabe class="Jahrescharts" steht. Diese ist jedoch nicht definiert und wird auch für keinerlei Skript- oder Botauswertung benötigt. Tatsächlich scheint sie auf eine Fehlinterpretierung der class-Angabe in einer nie eingeführten Kopiervorlage 2010 zurückzugehen, die es aber dennoch geschafft hat, durch Copy & Paste in unzählige Tabellen im Musikbereich gelangen (siehe auch meine Anfrage in der Technikwerkstatt). Die Angabe ist neben ihrer Wirkungslosigkeit leider mit einem irreführenden Namen versehen und sollte daher gänzlich entfernt werden, bevor sie sich noch weiter ausbreitet!

Könnte bitte ein Bot die Artikel auf dieser Liste durchgehen und die Angabe class="Jahrescharts" in Tabellen aller Art rückstandslos löschen? Dazu kommen auch Angaben wie class="wikitable Jahrescharts" u. ä., in denen natürlich nur Jahrescharts entfernt werden soll. Dabei könnte auch gleich die häufige Angabe id="toc" beseitigt werden, die das HTML-Dokument ungültig macht. Vielen Dank!--XanonymusX (Diskussion) Wikipedia:Bots/Anfragen#c-XanonymusX-2014-09-24T11:51:00.000Z-Wirkungslose class-Angaben in Tabellen entfernen11Beantworten

@XanonymusX: gib mir mal ein Beidpiel für id=toc und Wikitable Jahrescharts geben? Danke, -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T14:58:00.000Z-XanonymusX-2014-09-24T11:51:00.000Z11Beantworten
Für id=toc müsstest du Benutzer:PerfektesChaos fragen, ich hab das auch noch nie gesehen. Das andere habe ich bestimmt vor nicht allzu langer Zeit mal korrigiert, aber ob ich es wieder finde, ist fraglich. Ich mach mich mal auf die Suche. Aber es wäre ja auch schon viel getan, wenn die alleinstehende class-Angabe entfernt würde.--XanonymusX (Diskussion) Wikipedia:Bots/Anfragen#c-XanonymusX-2014-10-16T13:21:00.000Z-Doc Taxon-2014-10-15T14:58:00.000Z11Beantworten

Datenabfrage: war im Einleitungssatz bei lebenden Personen

Bei Artikeln über lebende Personen habe ich schon mehrfach gesehen, dass nach dem Rücktritt von einem Amt oder als Aktivsportler die Einleitung folgendermassen geändert wurde:

  • '''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) <Tätigkeit>

in

  • '''<Name>''' (* <Geburtsdatum/-ort>) war ein(e) <Tätigkeit>

statt in

  • '''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) ehemalige(r) <Tätigkeit>

Mit der normalen Suche lassen sich Fälle mit war nicht finden. Kriegt es jemand mittels Datenbankabfrage hin? --Leyo Wikipedia:Bots/Anfragen#c-Leyo-2014-09-28T10:53:00.000Z-Datenabfrage: war im Einleitungssatz bei lebenden Personen11Beantworten

@Leyo: Mit einem gewissen Ungenauigkeitsfaktor sollte es gehen, wenn auch die Vorlage:PD im Artikel existiert. Wenn Du es noch brauchst, erklär mir Deine Überlegungen und Parameter genauer auf Benutzer:TaxonBot/PD. Vielen Dank, -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T14:45:00.000Z-Leyo-2014-09-28T10:53:00.000Z11Beantworten

Leere Einzelnachweise

Wäre es möglich, abzufragen, in welchen Artikeln <references /> angegeben ist, ohne dass einen Einzelnachweis gibt? 173.209.57.252 Wikipedia:Bots/Anfragen#c-173.209.57.252-2014-10-04T16:42:00.000Z-Leere Einzelnachweise11Beantworten

Ist sicherlich nicht ganz einfach. Manche Vorlagen verwenden Ref-Tags und sind dann auf das Vorhandensein des References-Tags angewiesen.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-04T17:25:00.000Z-173.209.57.252-2014-10-04T16:42:00.000Z11Beantworten
In dem Fall gibt es auch eine Fehlermeldung, nicht aber im umgekehrten. Nun, ein lerer Beleg-Abschnitt stört nicht unbedingt.--XanonymusX (Diskussion) Wikipedia:Bots/Anfragen#c-XanonymusX-2014-10-05T10:28:00.000Z-Boshomi-2014-10-04T17:25:00.000Z11Beantworten
Welche Fehlermeldung meinst du? Mediawiki fügt mittlerweile Referenzen immer ganz am Ende an, wenn kein refernces Tag angegeben ist. --2A02:810D:10C0:6F4:20DB:4906:DC9A:6E47 Wikipedia:Bots/Anfragen#c-2A02:810D:10C0:6F4:20DB:4906:DC9A:6E47-2014-10-05T20:46:00.000Z-XanonymusX-2014-10-05T10:28:00.000Z11Beantworten
Gemeint war Kategorie:Wikipedia:Seite mit fehlendem References-Tag‎, die wird aber z.Zt. nicht gesetzt.--Mabschaaf Wikipedia:Bots/Anfragen#c-Mabschaaf-2014-10-08T12:38:00.000Z-2A02:810D:10C0:6F4:20DB:4906:DC9A:6E47-2014-10-05T20:46:00.000Z11Beantworten
Solche Vorlagen könnte man in einem zweiten Schritt von der Abfrage ausnehmen. 129.13.72.197 Wikipedia:Bots/Anfragen#c-129.13.72.197-2014-10-08T12:31:00.000Z-Boshomi-2014-10-04T17:25:00.000Z11Beantworten

Wiktionary: Sortierung der Textbausteine, Ergänzungen von ähnlichen Wörtern

Das Wiktionary bräuchte einen Bot, welcher die einzelnen Textbausteine nach dieser Reihenfolge sortiert. Zudem wäre auch ein Bot nötig, welcher ähnliche Wörter unter den Textbaustein "Ähnlichkeiten" einträgt. Wie sich die Wörter maximal unterscheiden sollten, wäre noch festzulegen. Grüße Impériale (Diskussion) Wikipedia:Bots/Anfragen#c-Impériale-2014-10-08T14:36:00.000Z-Wiktionary: Sortierung der Textbausteine, Ergänzungen von ähnlichen Wörtern11Beantworten

Anfrage wurde auch hier gestellt. --Impériale (Diskussion) Wikipedia:Bots/Anfragen#c-Impériale-2014-10-10T14:54:00.000Z-Impériale-2014-10-08T14:36:00.000Z11Beantworten
@Impériale: das klingt jetzt erst mal schön kompliziert. Präsentier mir mal ein schön ungeordnetes Beispiel und die Ordnung dazu. Dann schauen wir weiter. Beispiel auf wikt:user:TaxonBot/Wikt. Danke sehr, -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T13:37:00.000Z-Impériale-2014-10-10T14:54:00.000Z11Beantworten
Diese Anfrage ist aktuell im Programmierstatus durch TaxonBot. -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-16T21:50:00.000Z-Doc Taxon-2014-10-15T13:37:00.000Z11Beantworten

seds.org

Siehe: Wikipedia Diskussion:WikiProjekt Weblinkwartung#seds.org

Das von Benutzerin:Giftpflanze angegebene Muster passt. Insgesamt 4 unterschiedliche URLs habe ich gefunden, die nach dem neuen Schema nicht mehr funktioniernen. Diese sind auf der Seite Wikipedia:WikiProjekt Weblinkwartung/Domains im Fokus/www.seds.org markiert. Insgesamt müssen gut 1500 URLs umgestellt werden.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-12T11:13:00.000Z-seds.org11Beantworten

@Boshomi: Soweit ich das gerade gesehen habe, funktionieren einige der gekennzeichneten neuen URLs auch nicht. Überprüf das bitte noch mal. Ansonsten geht's darum, in sämtlichen Artikeln die URLs von alt auf neu auszutauschen, richtig? Grüße -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T13:17:00.000Z-Boshomi-2014-10-12T11:13:00.000Z11Beantworten
@Doc Taxon: In der Liste Wikipedia:WikiProjekt Weblinkwartung/Domains im Fokus/www.seds.org sind die kaputten markiert, weitere habe ich nicht gefunden... Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T13:27:00.000Z-Doc Taxon-2014-10-15T13:17:00.000Z11Beantworten
@Boshomi: mit dem roten Punkt? Aber dort steht auch der neue Link in der Tabelle, der ebenfalls nicht geht. Das meinte ich, -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T13:31:00.000Z-Boshomi-2014-10-15T13:27:00.000Z11Beantworten
ja, Roter Punkt bedeutet, dass der neue Link nicht funktioniert. Alt auf neu wurde einfach per Regexp unmgesetzt, die Wertungen per Hand eingefügt. Wenn du die Seite direkt verwenden willst, kannst du die Roten einfach Rauslöschen und die Seite für die Dauer des Botlaufs vollsperren. (Das wäre überhaupt eine recht praktische Vorgehensweise für Fälle nach verwandten Muster.) Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T13:49:00.000Z-Doc Taxon-2014-10-15T13:31:00.000Z11Beantworten
@Boshomi: Na dann gib mir mal die jetzt neuen, funktionierenden URLs und stelle die alten hier verwendeten nicht mehr funktionierenden URLs gegenüber. Danke, -- TaxonBot (Diskussion) Wikipedia:Bots/Anfragen#c-TaxonBot-2014-10-15T14:27:00.000Z-Boshomi-2014-10-15T13:49:00.000Z11Beantworten
@Doc Taxon: Mit diesem Diff habe ich alle nicht funktionierenden Links aus der Wartungsseite entfernt. Alle verbliebenen alten Links können auf den entsprechenden neuen Link umgesetzt werden. Wenn der Botlauf durch ist, werde ich die Seite mit Hilfe von giftbot/Weblinksuche nochmal neu aufbauen, und ansehen was übrig blieb. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T15:05:00.000Z-TaxonBot-2014-10-15T14:27:00.000Z11Beantworten
Dieser Botauftrag wird gerade von Benutzer:TaxonBot11 (Beiträge) bearbeitet. Um Konflikte zu vermeiden, warte bitte mit anderen Aktionen, bis diese Markierung entfernt ist, oder kontaktiere den Betreiber (Benutzer Diskussion:Doc Taxon11).

@Boshomi: Der erste Durchlauf ist dann mal durch. -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-16T13:43:00.000Z-seds.org11Beantworten

Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Frohes Schaffen — Boshomi ☕⌨☺  18:47, 16. Okt. 2014 (CEST) Erledigte Anfrage

Suche Kategorien mit Überschriften

Ich möchte eine Liste aller Kategorien, in denen eine Überschrift enthalten ist. Dabei ist es egal, ob diese Überschrift die Stufe 1, 2, 3, 4 oder 5 hat. 85.212.32.88 Wikipedia:Bots/Anfragen#c-85.212.32.88-2014-10-14T20:16:00.000Z-Suche Kategorien mit Überschriften11Beantworten

hm, sowas ähnliches hat TaxonBot schon mal gemacht, wenn Du Dich hier anmeldest und auf seiner Diskussionsseite den Grund hinterlässt, lässt sich da sicher was machen. Schöne Grüße, -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T13:03:00.000Z-85.212.32.88-2014-10-14T20:16:00.000Z11Beantworten
Wieso sollte ich mich dazu anmelden müssen? 129.13.72.197 Wikipedia:Bots/Anfragen#c-129.13.72.197-2014-10-15T14:05:00.000Z-Doc Taxon-2014-10-15T13:03:00.000Z11Beantworten
Hier bitte: Benutzer:Se4598/BA_HeadersInCat, Seite darf frei bearbeitet werden --se4598 / ? Wikipedia:Bots/Anfragen#c-Se4598-2014-10-15T14:07:00.000Z-85.212.32.88-2014-10-14T20:16:00.000Z11Beantworten
Nun, und was ist der Grund für eine solche Liste? -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-15T14:36:00.000Z-Se4598-2014-10-15T14:07:00.000Z11Beantworten
Danke. Kategorienbeschreibungen sollen möglichst kurz sein, und Überschriften sind in der Regel ein Zeichen dafür, dass da was aus dem Ruder gelaufen ist. 129.13.72.197 Wikipedia:Bots/Anfragen#c-129.13.72.197-2014-10-16T10:33:00.000Z-Doc Taxon-2014-10-15T14:36:00.000Z11Beantworten

InuseBot @Doc Taxon: Was soll das (der Baustein) hier? Hier gibt es erstmal nichts zu tun..., der erl.-Baustein kann eig. gesetzt werden. Außerdem ist diese Seite mit den Bausteinen gepflastert obwohl der Bot gerade keine Bearbeitungen macht. Dann schreib lieber hin, dass du dich (generell) um bestimmte Aufträge kümmern möchtest. (siehe Einleitung hier) --se4598 / ? Wikipedia:Bots/Anfragen#c-Se4598-2014-10-16T15:35:00.000Z-Suche Kategorien mit Überschriften11Beantworten

@Se4598: hab in der Vorgehensweise wie oben beschrieben etwas falsch verstanden. Den Baustein habe ich gerade entschärft, sorry! Aber ich habe dennoch vor, mich um Deine Anfrage zu kümmern, wenn's recht ist. Grüße -- Doc Taxon @ Disc –  BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-16T21:48:00.000Z-Se4598-2014-10-16T15:35:00.000Z11Beantworten

municat.net:8000

Siehe: Wikipedia:WikiProjekt Weblinkwartung/Domains im Fokus/www.municat.net. Gleiches Schma wie seds.org. In der Wartungsliste befinden sich alle geprüften umsetzbaren Links dieser Domain.  Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T18:53:00.000Z-municat.net:800011Beantworten

Anmerkung: alle anderen Links der Domain habe ich bereits per Hand gefixt, sodass nur noch diese 99 Links übrig bleiben. Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T19:06:00.000Z-Boshomi-2014-10-15T18:53:00.000Z11Beantworten

URL-Umsetzungen wie oberhalb siehe Wikipedia:WikiProjekt_Weblinkwartung/Botliste. 3 unterschiedliche Links auf 912 Seiten. (In diesem Fall würde ich die Webarchivvorlagen nach dem Botlauf per Hand eintragen. Das geht dann ganz gut halbautomatisch mit Hilfe von WP:WLC, mit dem Vorteil, dass da noch mach anderes Kleinzeug bereinigt wird.) Frohes Schaffen — Boshomi ☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-16T19:16:00.000Z-3 Archivlinks11Beantworten

Anmerkung: Anfrage zur Erledigung durch TaxonBot in Bearbeitung! -- Doc Taxon @ Disc BIBR Wikipedia:Bots/Anfragen#c-Doc Taxon-2014-10-16T22:43:00.000Z-3 Archivlinks11Beantworten