URL-Umsetzungen wie oberhalb siehe [[Wikipedia:WikiProjekt_Weblinkwartung/Botliste]]. 3 unterschiedliche Links auf 912 Seiten. (In diesem Fall würde ich die Webarchivvorlagen nach dem Botlauf per Hand eintragen. Das geht dann ganz gut halbautomatisch mit Hilfe von [[WP:WLC]], mit dem Vorteil, dass da noch mach anderes Kleinzeug bereinigt wird.) Frohes Schaffen — [[Benutzer:Boshomi|Boshomi]] [[BD:Boshomi|☕⌨☺]] 21:16, 16. Okt. 2014 (CEST)
URL-Umsetzungen wie oberhalb siehe [[Wikipedia:WikiProjekt_Weblinkwartung/Botliste]]. 3 unterschiedliche Links auf 912 Seiten. (In diesem Fall würde ich die Webarchivvorlagen nach dem Botlauf per Hand eintragen. Das geht dann ganz gut halbautomatisch mit Hilfe von [[WP:WLC]], mit dem Vorteil, dass da noch mach anderes Kleinzeug bereinigt wird.) Frohes Schaffen — [[Benutzer:Boshomi|Boshomi]] [[BD:Boshomi|☕⌨☺]] 21:16, 16. Okt. 2014 (CEST)
'''Anmerkung''': <u><span style="background-color:yellow;">'''Anfrage zur Erledigung durch [[user:TaxonBot|TaxonBot]] in Bearbeitung!'''</span></u> -- [[Benutzer:Doc Taxon|Doc Taxon]] [[Spezial:E-Mail/Doc Taxon|@]] <small>[[Benutzer Diskussion:Doc Taxon|Disc]]</small> – <b><span style="color:#cc0000;">♥</span> [[WP:BIBR|BIBR]] <span style="color:#cc0000">♥</span></b> – 00:43, 17. Okt. 2014 (CEST)
Hier ist Platz, Bearbeitungs- und Änderungswünsche an die Botbetreiber zu notieren, die in „Handarbeit“ ausgeführt eher als Zumutung gelten können, zum Beispiel das Korrigieren von mehr als 50 Einbindungen einer verschobenenVorlage (gilt nur für zu löschende Falschschreibungsweiterleitungen auf Vorlagen!). Wenn du Fragen hast, kannst du Botbetreiber auch im IRC-Channel [#wikipedia-de-bots] Webchat erreichen. Für Besprechungen unter den Botbetreibern oder zur Koordination von wichtigen Änderungen (z. B. an der API) gibt es die Bot/Notizen.
Für Rundschreiben (Einladungen zu Stammtischen usw.) gibt es auch die Funktion Hilfe:Massennachricht.
Für Anfragesteller gilt
Anfragen bitte begründen, gegebenenfalls mit Links auf relevante Diskussionen, und unterschreiben.
Es gibt keine Verpflichtung der Botbetreiber, diesen Anfragen nachzukommen, und insofern auch keinen Anspruch auf Umsetzung eines Änderungswunsches.
Größere Änderungen an Artikeln eines Themengebietes, z. B. an Einbindungen viel genutzter Vorlagen, bitte mit den jeweiligen Fachportalen oder -redaktionen abstimmen. Die Verantwortung für die Aktion liegt beim Anfragesteller.
Vor dem Stellen einer Anfrage, die einen regelmäßigen Boteinsatz und keine einmalige (Massen-)Änderung betrifft, bitte ebenfalls das betroffene Portal bzw. Projekt informieren und den geplanten Boteinsatz dort diskutieren.
Bei einem Boteinsatz ist oft noch Vor- und Nacharbeit durch den Anfragesteller notwendig, zum Beispiel nach Auflösung von Weiterleitungen die Kontrolle und das Stellen eines Schnelllöschantrages. Auch kann es immer Fälle geben, in denen der Bot nicht richtig arbeitet und die dann manuell nachgearbeitet werden müssen.
Ein einfaches Umbiegen von Links nach einer Verschiebung auf das neue Ziel wird grundsätzlich nicht vorgenommen. Umgebogen werden können Verweise auf zwingend zu löschende Weiterleitungen – wie z. B. bei Falschschreibungs-Weiterleitungen oder nach Verschiebungen falsch geschriebener Vorlagen.
Änderungen der Signatur können in Fällen durchgeführt werden, in denen zahlreiche Links auf eine falsche Benutzerseite zeigen. Dies jedoch nur, falls die Korrektur nicht mittels Weiterleitungen möglich ist (beispielsweise bei im Rahmen der SUL-Finalisierung umbenannten Benutzern).
Es werden keine Änderungen der Rechtschreibung zwischen zulässigen Versionen bzw. Variationen durchgeführt.
Für Botbetreiber gilt
Jeder Botbetreiber ist verpflichtet, die Sinnhaftigkeit vor Ausführung eines Änderungswunsches zu prüfen und bei Einsprüchen gegebenenfalls von der Änderung abzusehen (kein blindes Vertrauen in die Angemessenheit/Richtigkeit hier gestellter Anfragen).
Für jede hier gelistete Anfrage gelten die auf Wikipedia:Bots genannten grundsätzlichen Regeln (zum Beispiel keine Änderungen im Benutzer- oder Wikipedia-Namensraum ohne Absprache).
Bot-Anfragen (insbesondere nach Löschdiskussionen) sollten mindestens 3 Tage ruhen, um eine gegebenenfalls initiierte Löschprüfung nicht durch vollendete Tatsachen unmöglich zu machen. Bei offensichtlichen Botaufträgen (z. B. aus einer Portal-Diskussion für das Portal beschlossene Änderungen und dergleichen) ist diese Wartezeit nicht zwingend notwendig, desgleichen nicht für „Anfrage-Aufträge“, die keine Seiten in der Wikipedia ändern.
Durchführung
Die Botbetreiber sollen bitte vor Umsetzung den jeweiligen Punkt entsprechend kommentieren, um Überschneidungen zu vermeiden.
Dazu sollte vor dem Botstart hier im entsprechenden Abschnitt die Vorlage InuseBot platziert werden:
{{InuseBot|Botname|Betreiber}}
Den Bot bitte sorgfältig beobachten!
Bitte nach Erledigung den Punkt in der Liste als erledigt kennzeichnen.
Letzter Kommentar: vor 10 Jahren8 Kommentare3 Personen sind an der Diskussion beteiligt
Auf Diskussion:Freie Wähler#Nomenklatur werden verschiedene Lösungsmöglichkeiten diskutiert, wie die über 1000 bis max 1500 Links auf die derzeitige BKS Freie WählerBKL korrigiert werden können. Eine erste Aufteilung wäre in zwei disjunkte Listen, d.h.
Liste A umfasst alle Zielartikel, die "nicht in (Unterkats von) Kategorie:Gemeinde in Deutschland und nicht in (Unterkats von) Kategorie:Landkreis in Deutschland kategorisiert sind. Ich erwarte hier knapp 100 Ergebnisse, die dann vermutlich händisch abgearbeitet werden können/müssen.
Liste B wären alle anderen Zielartikel, also innerhalb "Kategorie:Gemeinde in Deutschland oder Kategorie:Landkreis in Deutschland". Diese handeln (vermutlich) von Kommunalparlamenten. Hier wäre auch eine Aufteilung nach "Gemeinde/Landkreis nach Bundesland" möglich, da es sich um sehr viele Links handelt.
Bevor jetzt ein Bot loslegt, müssen die zu bearbeitenden Artikel rausgefunden werden. Weil mich die Spezial:API-Spielwiese schon lange interessiert hat:
Nach meiner Kenntnis geht das nicht, da du die Seitentitel der einen Abfrage in einen impliziten titles-Parameter der anderen Abfrage einfüttern müsstest. Du kannst zwar beide Module als Generator verwenden, aber keines akzeptiert als Eingabe einen Generator. Aber du könntest die backlinks als Generator für categoryinfo nehmen, z.B. Es spricht allerdings nichts dagegen, die gewonnen Informationen anderweitig zu verarbeiten und die Schnittmenge daraus zu bilden. – GiftpflanzeWikipedia:Bots/Anfragen#c-Giftpflanze-2013-01-07T13:50:00.000Z-Grixlkraxl-2013-01-07T12:58:00.000Z11Beantworten
Erstmal Danke an Giftpflanze für "Nach meiner Kenntnis geht das nicht ...". Ich habe also gelegentlich mit meinen eigenen "Hausmitteln" gearbeitet, sprich Spezial:API-Spielwiese, libmediawiki-api-perl und MediaWiki::API.pm. In erster Näherung ergibt sich:
Aktuell verlinken 1385 Artikel (vorher 1396) auf die BKS,
davon sind 989 verschiedenen Bundesländern zuzuordnen.
Für die bisher noch nicht zugeordneten 396 Links sind noch weitere Kategorien zu prüfen. Für ungefähr fünf Kats "Xyzzy (Deutschland)" oder "Xyzzy in Deutschland" ist nach allen Unterkats des jeweiligen(!) Bundeslandes gefragt. Mit dem Toolserver catscan_rewrite.php?... ginge es natürlich schon, allerdings suche ich noch nach einer API-Lösung für:
Zeige mir alle Unterkats einer bestimmten Kategorie Xyzzy. Das wären bei etwa 5 Xyzzy für max. 16 Länder also über 50 zu prüfende Start-Kategorien "Xyzzy pro Bundesland".
Wenn ich es richtig verstehe, liefert mir "? action=query & list=categorymembers & cmtitle='Xyzzy in Land' & cmtype=subcat & ..." nur immer eine Kat-Ebene. Den Baum entlang hangeln muß ich mich aber selber. Sollte ich falsch liegen, bitte beim Widerspruch eine API-Aufruf beigeben.
PS: mit dem Vorschlag "action=query & prop=categoryinfo & f generator=backlinks &..." bin ich nicht weitergekommen, aber das ist egal.
PPS: Noch ist nicht klar, ob und wenn ja welcher Auftrag einem Bot erteilt werden soll ;-)
<Wischiwaschi>Ich danke Krd für die Nachfrage. Ich versuche es kurz zu machen:</Wischiwaschi>
"Ist diese Anfrage noch aktuell?"
Zur Zeit verlinken immer noch 1186 Artikel auf die BegriffsklärungBKL. Die gute Nachricht: Das sind immerhin über 200 weniger als zu Beginn der Anfrage, in voraussichtlich fünf bis sechs Jahren hat sich das Problem von selbst erledigt. Die schlechte Nachricht: manche sind damit unzufrieden, daß bspw. im selben(!) Artikel-Abschnitt verschiedene(!) Stadtratsfraktionen auf dieselbe(!) BKL weiterleiten. Dummerweise ist sowohl(!) die Lage in den echten (Vorsicht: real life!) 16 deutschen Bondesländern unübersichtlich, als auch(!) der Artikelbestand der de.WP schwer zuzuordnen. Die inhaltliche(sic!) Problematik wird u.a. auch bei den Parteien-RK besprochen. Das tut technisch(!) allerdings nix zur Sache.
"Was fehlt noch?"
Ich muss zugeben, meine am 7. Jan. 2013 gestellte Bitte um Bot-Unterstützung war etwas naiv, also ungenau, gestellt. Danach haben sich meine Kenntnisse der Wikimedia-API verbessert, und zusammen mit etwas Perl-Zauberei und Shell-Skripting bin ich in der Lage, so etwas wie Diskussion:Freie Wähler#Zwischenstand 2013-02-04 zu wiederholen. Beim aktuellen code review lese ich z.B. TOOLSERVER => 'http://toolserver.org/~magnus/catscan_rewrite.php'. Die Liste der wesentlichen Kats zur Bundesland-Zuordnung lässt sich sicherlich auch anders gewinnen...
"was genau soll gemacht werden?"
Die über 1000 Fehlverlinkungen sollen programm-gesteuert auf ein händisch abarbeitbares Maß (kleiner 10%) reduziert werden. Dabei muss(!) die Link-Auflösung je nach Bundesland verschieden sein. JA, eine regex für die 80-90% existiert. NEIN, ein Kommandozeilen-Tool habe ich noch nicht. Irgendwo habe ich allerdings mal einen Screenshot einer python-Lösung gesehen.
Grob gesprochen: Es ist ein Script gesucht, das eine vorgegebene Liste von Artikeln abarbeitet und für jeden Artikel die Entscheidung lässt zwischen:
1) Den Link durch einen definierten andern WP-Artikel ersetzt, lesbarer Text wird beibehalten
2) Link wird gelöscht, sichtbarer Text wird beibehalten
3) Das aktuelle Lemma wird in eine Datei zur weiteren Verarbeitung gespeichert.
4...5) weitere Aktionen, wobei mehr als insgesamt fünf Alternativen dem Sinn und Zweck einer Script-Bearbeitung widersprechen.
Mir ist inzwischen klar, das eine simple technische Lösung ("einfach mal mit einem Programm über alle fraglichen Artikel drüberbügeln") so nicht existiert. Weiterhin werde ich keine Bots mit Python programmieren. Wie soll es in diesem Thread weitergehen? Ist eine andere Stelle geeigneter? Oder führen wir das mal an Hand eines Bundeslandes exemplarisch durch? --grixlkraxl (Diskussion) Wikipedia:Bots/Anfragen#c-Grixlkraxl-2013-12-26T21:10:00.000Z-Vorsortierung Dez. 201311Beantworten
Nur kurz zu den eigentlichen Artikelinhalten: Die ewiggleichen Diskussionen auf LK und zu den Parteien-RK hängen mir inzwischen zum Hals raus. Ebenso hat sich der Kategorienbaum, die Bezeichnung "Systematik" verbietet sich wg. Schönfärberei, für diesen Zweck hier(!) als beinahe unbrauchbares Gestrüpp herausgestellt.
Trotzdem könnte ich mich bei Interesse nochmal durch mein proof of concept wühlen:
(a) Kurze Beschreibung mit welchen API-Aufrufen ich zu den einzelnen Länderliste kommen, das geht sicher besser;-) Ist der Thread hier geenignet?
(b) Wohin lade ich eine einzelne Liste, die dann abzuarbeiten wäre?
Wenn sich das mit einem Bot prinzipiell nicht erledigen lässt, sagt uns das bitte! Dann erstellen wir die Liste mit der Hand (innerhalb der nächsten zwölf Monate). --20:06, 13. Jun. 2013 (CEST)
Vielen Dank! Das ist genau, was wir brauchen - zumindest in einem ersten Schritt. Jetzt müssen wir noch wissen, welche (normalen) Gemeinden zu diesen Gemeinden zählen. Intuitiv würde ich sagen, dass das folgende Vorgehen das einfachste ist: Dein Bot sucht all jene Artikel tschechischen Gemeinde Artikel (solche mit der cz:Template:Infobox české obce a města) in welchen der Parameter "ob.roz.půs" für Wirkungsbereich-Gemeinden bzw. "pov.ob" für Gemeindeamt-Gemeinden mit den jeweiligen Einträgen in der Liste auf Portal:Tschechien/Mitarbeit/Gemeinden korrespondiert. Sprich: (Bot (1) nimmt ersten Eintrag (Benešov), (2) sucht in der cz-Wikipedia nach Vorkommen unter dem angegebenen Parameter, (3) sucht für diese Artikel das deutschsprachige Pendant heraus und fügt (3) sie in die Liste ein. Ist das möglich? Falls nicht müssen wir die ersten beiden Schritt mit der Hand machen. --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-06-21T13:47:00.000Z-Cactus26-2013-06-17T16:37:00.000Z11Beantworten
Letzter Kommentar: vor 10 Jahren4 Kommentare3 Personen sind an der Diskussion beteiligt
Moin! Ich möchte in Erfahrung bringen, ob ein Bot fällige WP:KLA-Kandiaturen in eine noch zu erstellende Vorlage schreiben kann. Nach zehn Tagen können diese ausgewertet werden, häufig passiert das jedoch viel später. Das hängt damit zusammen, dass an die Auswertung nur auf der Diskussionsseite erinnert wird, und dort nur ein relativ kleiner Personenkreis angesprochen wird - übrigens ein Personenkreis, der selbst kräftig mitstimmt und für die Auswertung nicht in Frage kommt. Eine automatisch gepflegte Vorlage könnte z.B. auch bei WP:KALP oder WP:R angebracht werden. Sie müsste lediglich nach Ablauf der Frist (10 Tage ab Erstellung) den entsprechenden Artikel inkl. dem Link zur Diskussion angeben. Ist das vollautomatisiert möglich? --Spielertyp (Diskussion) Wikipedia:Bots/Anfragen#c-Spielertyp-2013-06-29T11:12:00.000Z-Anzeige von fälligen KLA-Kandidaturen11Beantworten
Lesenswert-Vorlage funktioniert nicht, da müsste der Bot immer den Permanentlink austauschen sobald jemand den Artikel editiert - und auf neuen Unfug in der letzten Version (=potentielle Auszeichnungsversion) sollte man den Artikel eh prüfen. Und die Stimmen kann ein Bot auch nicht auswerten, solange nicht alle konsequent und perfekt die Vorlagen benutzen (wird nicht passieren). Es ist einfach, bei einem KLA-Besuch die ältesten Artikel anzuschauen, ich denke am Sehen liegt ein Auswertungsrückstand nicht, eher an mangelnden Stimmen (Verlängerung also sinnvoll) oder schwierigen Auswertungen die ggf. Fachwissen benötigen, um Einwände beurteilen zu können.
Sorry, dass ich das übersehen hatte. Es sind insgesamt 9957 Begriffsklärungen, auf die das zutrifft, eine vollständige Liste kann jeder Tool Labs User in unter einer Minute mit folgendem Kommandozeilenaufruf in eine Datei namens test.txt erstellen:
mysql--defaults-file="${HOME}"/replica.my.cnf--disable-column-names-e"SELECT CONCAT('* [[',page_title,']]') FROM page AS page1,categorylinks WHERE page_namespace=0 AND page_id=cl_from AND cl_to LIKE 'Begriffskl%rung' AND (SELECT count(*) FROM pagelinks,page WHERE pl_from=page1.page_id AND page_namespace=0 AND pl_namespace=0 AND page_title=pl_title)=0"-hdewiki.labsdbdewiki_p>test.txt
Ich wollte das damals im Rahmen einer Diskussion haben, weiß aber nicht mehr den genauen Zusammenhang, nur noch, daß irgendwer meinte, wir hätten zuviele BKLs mit nur roten Links. In der BKL-Kategoriesind 195.580 Seiten eingetragen, also scheinen knapp unter fünf Prozent aller BKLs nur rote Links zu haben. Eine konkrete QS-Maßnahme hatte ich nicht beabsichtigt.
@Dealerofsalvation:: Wenn du nix dagegen hast, würde ich die Seite gerne in meinen BNR rüberschieben, um mir diese "Stichprobe" bei Gelegenheit näher zu betrachten.
Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung
Letzter Kommentar: vor 10 Jahren13 Kommentare4 Personen sind an der Diskussion beteiligt
Im Bereich der Benutzer-Verifizierung wird auf Wikipedia:Benutzerverifizierung/Benutzernamen-Ansprachen eine Übersicht geführt, welchen Benutzer aufgrund des Namens auf der Disk ein Hinweis auf die Verifizierung hinterlassen wurde. Leider wird auf diesen Hinweis nur sehr selten reagiert. Am besten ist es, direkt per Wikimail den Benutzer auf die Verifizierung und die ggf. drohende Sperrung anzusprechen. Ich habe dies in den vergangenen Tagen mehrach erfolgreich gemacht. Als Benutzer kann ich allerdings nur 20 Wikimails pro Tag verschicken. Könnte ein Bot diese Aufgabe übernehmen. Ausgangslage: Auf einer Seite würde ich den Mail Text schreiben und auf einer weiteren die entsprechenden Benutzernamen. Allerdings sind nicht alle Benutzer per Wikimail erreichbar. --Olaf Kosinsky (Diskussion) Wikipedia:Bots/Anfragen#c-Olaf Kosinsky-2013-08-10T06:02:00.000Z-Wikimail an eine größere Anzahl von Benutzer wg. Verifizierung11Beantworten
Der Text kommt von dieser Seite: Benutzer:Olaf Kosinsky/Wikimail-Text Es wäre natürlich toll, wenn der individuelle Benutzername eingesetzt werden kann
Die Benutzer sollen nur per Mail angesprochen werden. Der Hilfetext auf der Benutzer-Disk wird zum Zeitpunkt des Wikimail Versand schon vorhanden sein
Es wäre gut, eine Protokollseite zu haben. Da nicht alle Benutzer eine E-Mail Adresse hinterlegt haben, wird Wikimail auch nicht bei allen funktionieren
Die WikiLinks liegen eigentlich nur auf einer .js-Seite, damit nur Admins dort herumeditieren können.
Was ist zu tuen? Um Mitternacht oder ein paar Minuten später, die Seite im Kontext einer deutschsprachigen Seite parsen und dann für jeden WikiLink einmal die Api-Action action=purge&forcelinkupdate=&titles= ausführen. Beispiellinks zum parsen gibt es auf Merls Diskussionsseite. Der Umherirrende 18:10, 10. Aug. 2013 (CEST)
Es würde auch ausreichen, folgende Befehle einmal am Morgen automatisch ausführen zu lassen:
Das wäre toll. Kannst du dazu nähere Angaben machen? Wie heißt der Bot, wann läuft er und welche Befehle führt er aus?
Ich habe jeden Abend kontrolliert, ob der Linkupdate funktioniert hat und die beiden morgigen Vorlagen (AdT + SG?) der Wartungskategie zugeordnet sind, das waren sie aber nicht (natürlich auch nur, sofern sie auch noch nicht geändert wurden). Die oben genannten purges habe ich dann auch manuell ausgeführt, weil die Seiten in den meisten Fällen (außer bei Änderungen) nicht "gepurget" waren und somit der Änderungsbedarf an AdT und SG?, sofern nötig, nie angezeigt wurde. Die Tests habe ich seit 10.8. immer zwischen 0:05 Uhr und 9:00 Uhr gemacht, da war nie ein Linkupdate durchgeführt worden.
Bei Purge geht es um die Aktualisierung der angezeigten Seite und des Sperrstatus. Bei Touch finden sich Fälle zur Aktualisierung von Linktabellen. Weil die Fragen oben aufkam: Bei den "Gestern" (-1)-Seiten soll eine Box eingeblendet werden, dass eine Aktualisierung nötig ist. Sie sind auch bei Touch eingetragen, weil die Entsperrung sonst nicht funktioniert.
Der Purge war ein api-Purge und Touch war ein Null-Edit. Umherirrender hat dann später eine Featureerweiterung forcelinkupdate von Purge hinzugefügt, der den Null-Edit ersetzen soll, was aber aus bisher nicht verständlichen Gründen nicht so ganz funktioniert hat. Ich habe deswegen weiterhim immer linkupdate und Null-Edit durchgeführt.
Ich und Guandalug haben diese Seiten gepurget und getouched. Wir hatten es beide nie solo hinbekommen, dass die Seitensperrugnen sicher funktionieren. Nur wenn wir die Bots beide haben laufen lassen war das Problem plötzlich gelöst.
Weil sich ein paar auf meiner Disk gemeldet hatten, habe ich erst vor kurzem bemerkt, dass es im März 2012 ein Softwareumstellung gab. Mein Bot hat immer das Resultat von http:////de.wikipedia.org/w/api.php?action=query&prop=links&titles=Benutzer:MerlBot/Touch/t%C3%A4glich.js als Eingabe genommen. Die Links waren vorher korrekt mit deutschen Wochentagsnamen, wie dies auch beim Rendern angezeigt wird. Durch irgendeine Änderung sind die Namen nun auf englisch, was meinen Bot die falschen Seiten purgen bzw. touchen lässt. Deswegen ja auch die Anfrage hier nach einem Ersatz.
Ich werde versuchen das wieder zu korrigieren (notfalls mit switch) und meinen Bot demnächst wieder im Betrieb nehmen. Aber wie oben beschrieben braucht es irgendwie zwei Bots - zum einen wegen dem Problem mit der Seitensperre, zum anderen zur Ausfallsicherheit. Es wäre sehr sinnvoll, wenn wir eine gemeinsame Konfiguration haben, wie z.B. meine beiden Bot-Unterseiten. Vielleicht irgendwo im Mediawiki-NS? Ich habe z.B. eben WP:Review bei Purge hinzugefügt. Die Seite wird seid einem Monat statt manuell nun von meinen Bot und wechselnden Unterseiten aktualisiert und ich benutze darin die time-Funktion zur Fettmarkierung den aktuellen RDT.
Was ist eigentlich mit der Bildsperrung der Hauptseitenbilder auf commons geworden? Dort hatte Guandalug immer kurz vor Mitternach die Bildliste aktualisiert, die dann in eine Kaskadensperrung kamen. Ich habe die commons-Seite im Moment nicht mehr im Kopf. Muss ich mal raussuchen. Merlissimo 01:13, 6. Sep. 2013 (CEST)
Wie oben beschrieben, sollten die purges auch Hinweisseiten wie z. B. WP:AA/Aufgaben umfassen, damit die durch den Touch verursachten Zuweisungen auch sofort angezeigt werden und nicht erst nach dem ersten Edit der Seite.
Frage: Werden die Purges in Benutzer:MerlBot/Purge/täglich.js denn aktuell und fehlerfrei (Sprachproblem?) durchgeführt? Wenn ja, könntest du das, zumindest zeitweise, zum Editieren freigeben?
js-Seiten kann man nicht zum Editieren freigeben. Ich war damals noch kein Admin und mit den Links auf js-Seiten war dies eine gute Möglichkeit, damit ich aber auch jeder Admin die Konfig jederzeit ändern kann ohne die Gefahr von Vandalismus zu haben.
Ich muss dem Grund für die Sprach-Umstellung mal nachgehen und werde zu sehen, dass wie die generierten Links bald stimmen. Werde mich damit in den nächsten 3-4 Tagen beschäftigen und dachte, dass es jetzt auf die paar Tage auch nicht mehr ankommt. Merlissimo 01:39, 6. Sep. 2013 (CEST)
Das war mir neu, dass js-Seiten nur der Benutzer selbst und Admins editieren können. Wieso machst du es nicht so wie der CopperBot?
Hat ja nur ein Jahr gedauert. Es wurden alle Benutzer betrachtet, deren letztes Login maximal etwa 3-4 Monate zurückliegt. Defaultwerte sind IIRC nicht berücksichtigt.
Letzter Kommentar: vor 10 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Inzwischen wurden schon eine Menge der Links ausgebessert. Vieler der Links unter dem Abschnitt "Defeker Weblink" sind im Artikel nicht mehr enthalten. Ich bitte um die Entfernung aller Links die nicht mehr im Artikel enthalten sind, oder zumindest um ein Auskommentiern, damit diese Links auf Diskussionsseiten nicht mehr in der Weblinksuche aufscheinen. Gleiches gilt für die dazugehörigen archive.org Links.
Wenn dann keine Links mehr übrig bleiben sollte auch die Vorlage {{Defekter Weblink Bot}} aus der Diskussionsseite entfernt werden. Frohes Schaffen, Boshomi☕⌨☺ – Wikipedia:Bots/Anfragen#c-Boshomi-2013-09-20T15:32:00.000Z-Bitte Diskussionsseiten - "Defekter Weblink" -Abschnitte aufräumen11Beantworten
Suche Bot, der die Artikel mit den meisten Vorlageneinbindungen findet
Letzter Kommentar: vor 10 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Liste der Artikel mit den wenigsten Einzelnachweisen
Letzter Kommentar: vor 10 Jahren9 Kommentare5 Personen sind an der Diskussion beteiligt
Hallo,
ich hätte gerne eine Liste der am schlechtesten belegten Artikel. Automatisieren lässt sich das natürlich nur durch einen groben Indikator.
Stelle mir das wie folgt vor:
Wollte ich auch gerade schreiben. Das Ergebnis sind dann ein paar hunderttausend Artikel ohne Belege. Gab es nicht mal eine Erhebung dazu? Ich meine, dass gut 40-50% der Artikel weder Weblinks, noch Literaturverweise, noch Einzelnachweise enthalten.
Es sind zwar tatsächlich viele Links bei archive.org auffindbar, aber von vollständig oder annähernd vollständig kann keine Rede sein. Ein Bot der regelmäßig alle erreichbaren Links, die noch nicht auf archive.org auffindbar sind dorthin überträgt würde mMn schon Sinn machen. Schön wäre es auch, wenn größere Inhaltsveränderungen auf den Seiten erkannt würden, und dann ebenfalls neue Mementos angelegt würden. So eine Funktion bräuchte aber viel Platz fürs Zwischenspeichern. Ein derartiges, nicht öffentlich einsehbares Archiv könnte nebenbei so manche Probleme lösen. Frohes Schaffen — Boshomi☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-06-01T22:08:00.000Z-Leyo-2014-06-01T21:49:00.000Z11Beantworten
Das Projekt ist anscheinend insoweit abgeschlossen, als dass nur noch eine geringe Anzahl Webseiten täglich archiviert wird, diese Anzahl nimmt seit einem halben Jahr kontinuierlich ab, von ca. 5000 auf zur Zeit ca. 500 täglich. Ich hab mal die "Downloads" auf [7] aufsummiert, danach hat der "Wikipedia Outlinks Crawler" des Archivs seit September 2013 etwa 17 Mio. "Downloads" erledigt. Rein zahlenmäßig könnten das externe Weblinks der englischen Wikipedia sein, ohne defekte und evtl. ohne früher archivierte. --Thoken (Diskussion) Wikipedia:Bots/Anfragen#c-Thoken-2014-06-02T18:09:00.000Z-Leyo-2014-06-01T21:49:00.000Z11Beantworten
„Nach deutschem Recht in der Auftraggeber einer Archivierung (und nicht der eigentliche Archivierungsservice) dafür verantwortlich, dass diese korrekt und mit Erlaubnis der Rechteinhaber erfolgt. Aus diesem Grund fand sich bisher kein Botbetreiber von dewiki dazu bereit bei Diensten wie Wayback oder Webcite eine systematische Archivierung der Weblinks in Auftrag zu geben (was über eine Schnittstelle technisch möglich gewesen wäre). Um mal über den Tellerrand zu schauen: In Frankreich ist das Recht ähnlich erlaubt aber eine Ausnahme für Bildungseinrichtungen. Um dort die Bildungsausnahme zu unterstreichen wurde extra für frwiki ein Projekt entwickelt, dass die Archivierung übernimmt. Das amerikanische Recht ist hier deutlich freizügiger, weshalb auf enwiki immer mal wieder ein solcher Bot lief. Nun sind wir hier auf dewiki, die Server stehen aber in Amerika. Solange der Botbetreiber kein Deutscher ist, ist es also rechtlich unbedenklich.“
Das spricht aber nicht gegen eine eigene Archivierung auf eigenen Servern, solange man darauf keinen öffentlichen Zugang gewährt, denn auch bei gelöschten Seiten besteht ein Recht auf Zitierung. Mit Hilfe so einer eigenen Archivierung könnten man dann feststellen, wenn sich eine Seite grob verändert hat, und möglicherweise die wesentlichen Fakten nicht mehr vorhanden sind. Über OTRS könnte man falls notwendig eine Bestätigung der Stichhaltigkeit der angeführten Belege anfordern, wenn diese nicht mehr online erreichbar sind. Frohes Schaffen — Boshomi☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-06-02T20:05:00.000Z-Sitic-2014-06-02T19:47:00.000Z11Beantworten
Ich sehe gelegentlich Links mit einem Kommentartext "bot generated title", bzw. CactusBot hatte auch mal was vergleichbares. Daher war die Idee eines Botauftrags naheliegend.
• Der Grund für den Wartungslink war die Einfachheit die genügt, wenn die Hauptarbeit ein Bot übernimmt.
• Schlau wäre es würde der Bot dann die eine Wartungskat für das manuelle Nachkontrollieren setzen. Denkbar wäre die Vorlage {{Vorlage:Weblink ohne Linktext}} dafür einzusetzen.
• Kategorien sind dort überlegen, wo die Hauptarbeit manuell durchgeführt wird. Wartungslisten die von Bots nahe bei null gehalten werden machen als Kategorie weniger Sinn, da leere Kategorien an anderer Stelle zusätzlichen Aufwand verursachen.
Wer das mal mit dem "bot generated title" war, weiß ich nicht - das ist auf alle Fälle schon ziemlich alt.
Was CactusBot gemacht hat, kannst Du hier ausführlich nachlesen (incl. Beispiel- und Difflinks). Ich persönlich fand das klasse (und extrem hilfreich im Hinblick auf später vielleicht mal sterbende Links, für die mit vernünftiger Beschreibung viel leichter ein Ersatz zu finden ist). Schade ist dagegen, dass nach Abarbeitung der Kats "Chemie" und "Physik" das Projekt nicht weiter verfolgt wurde.
Richtig, ein ausgelesener Seitentitel kann sehr viel Tipparbeit ersparen, insofern generell Zustimmung zu diesem Wunsch - allerdings nur, wenn der Text unsichtbar bleibt, bis ein Mensch nachkorrigiert/-formatiert hat. Insofern musst Du aber in der Vorlage noch einen zusätzlichen Parameter ergänzen, wo der Bot den Text hinschreiben soll, etwa autotext=, dann genügt es im Idealfall, wenn der nacharbeitende Mensch auto entfernt, damit der Text sichtbar wird. Bitte lege das so an, dass alle Artikel, bei denen ein autotext-Vorschlag gesetzt ist, in einer Wartungskat landen, das erleichtert die Abarbeitung ungemein.--MabschaafWikipedia:Bots/Anfragen#c-Mabschaaf-2013-11-06T22:04:00.000Z-Boshomi-2013-11-06T20:17:00.000Z11Beantworten
Das würde nur bei Webseiten funktionieren, die eine feste Struktur haben, so dass ein Bot-Programm Autor, Titel etc. sicher identifizieren kann. Und das am besten seit Bestehen der Seite/WP, damit auch alte Refs korrekt verarbeitet werden. Außerdem sollten sich die Inhalte einer Seite nicht ändern, damit man nicht was falsches referenziert. In der Summe dürfte das nur relativ selten zutreffen. Schwebt dir eine konkrete Webseite vor? So allgemein kann man zur Machbarkeit sonst wenig sagen. Es wird jedenfalls keinen Bot geben, der beliebige Webseiten in obigem Sinne abarbeiten kann.-Berita (Diskussion) Wikipedia:Bots/Anfragen#c-Berita-2013-11-12T11:08:00.000Z-Alberto568-2013-11-09T17:26:00.000Z11Beantworten
//Beispiel mit ID 5520; aus:"http://www.recensement.insee.fr/RP99/rp99/co_navigation.co_page?nivgeo=P&theme=ALL&typeprod=ALL&codgeo=5520&quelcas=LISTE&lang=FR"//wird:"http://www.insee.fr/fr/bases-de-donnees/esl/comparateur.asp?codgeo=cv-5520"
Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes
Letzter Kommentar: vor 10 Jahren5 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo zusammen. Ich hätte hier ein dringendes und wichtiges Anliegen. Mir ist gerade Wikipedia:L%C3%B6schkandidaten/5. Dezember 2013#Maskulin Mixtape Vol. 111 aufgefallen, dass leider anscheinend gerade bei sog. Mixtapes (aber vielleicht auch noch in vielen anderen Artikeln) Werbe- bzw. Verkaufslinks zu Amazo. de und iTunes gesetzt werden. Diese Links haben nichts mit dem Artikel zu tun, sondern sollen nur den Verkauf auf den jeweiligen Plattformen ankurbeln. So gesehen und inzwischen entfernt auf Maskulin Mixtape Vol. 1, Maskulin Mixtape Vol. 2 und Maskulin Mixtape Vol. 3! Es kann doch nicht sein, dass wir hier die Wikipedia werbefrei halten wollen (und sollen) und dann setzen die Rapper und andere Künstler aus ihren Alben raus den direkten Verkaufslink auf Amazon.de und iTunes! Es ist ja nicht nur so, dass hier vom einschlägigen Leser davon ausgegangen werden kann, dass WP:D den Kauf bei dem jeweiligen Unternehmen empfiehlt, sondern dass wir auch noch was an diesen Links verdienen! Warum werden hier die Artikel nicht systematisch nach allen Verlinkungen auf solche Verkaufsplattformen durchsucht und dann sofort gelöscht? Es kann doch nicht sein, dass mir das jetzt als Erstem hier aufgefallen ist, oder? Sind das Einzelfälle? Kann man da verlässliche Zahlen erhalten, wie viele Links direkt aus der WP:D im Augenblick auf Amazon.de gehen? Ich finde es unverantwortlich, dass wir hier mit Links die Positionierung und die Marktmacht eines einzelnen Unternehmens fördern und unterstützen. Also wenn hier ein Bot gebraucht wird, dann bitte einen Amazon-Link-Kill-Bot und einen iTunes-Link-Kill-Bot - und das bitte schnell... --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2013-12-16T09:29:00.000Z-Zunehmende Werbe- bzw. Kaufverlinkungen auf Seiten von Amazon.de und iTunes11Beantworten
Erstmal danke für die schnelle Hilfe! Super, es sind 779 Verlinkungen zu iTunes und von amazon.de und amazon.com ca. 1724! Bekommen wir von Apple oder Amazon eigentlich Geld für die über 2.500 links, die deren Stores bewerben? Das haut mich ehrlich gesagt schon locker vom Hocker! Da wird jede Verlinkung zu einer privaten oder Vereinsseite rigoros nach ca. einer Minute durch den Löschtrupp beseitigt und hier werden ca. 2500 Links aus Artikeln zu kommerziellen Anbietern einfach locker hingenommen... Muss ich das jetzt verstehen??? Was sollen diese "Verkauflinks"? --DonPedro71 (Diskussion) Wikipedia:Bots/Anfragen#c-DonPedro71-2013-12-16T15:24:00.000Z-Filzstift-2013-12-16T09:33:00.000Z11Beantworten
Inhaltlich bin ich mit dir sowieso einverstanden, Wikipedia ist ja kein kostenloser Linkcontainer für Musiker, App-Entwickler etc. Mit der SBL kann man künftige Einfügungen wirkungsvoll verhindern, wie wir aber mit den bestehenden Links umgehen sollen, …da bin ich mir allerdings unschlüssig, … bevorzuge eher ein händisches Abarbeiten, um allfällige Kollateralschäden zu vermeiden. In einer konzentrierten Aktion schafft man diese 2'500 Links sicher auch (auch ich könnte da mithelfen, evtl. mit Hilfe eines kleinen Skripts bzw. mit AWB). Doch zuerst muss einmal darin Konsens bestehen. D.h. in einem ersten Schritt würde ich bei den SBL-Leuten anklopfen. Denn wenn das nicht in die SBL kommt, so nutzt das ganze Entfernen auch nichts, denn diese Links kommen schnell wieder. --Filzstift✏Wikipedia:Bots/Anfragen#c-Filzstift-2013-12-16T20:44:00.000Z-DonPedro71-2013-12-16T15:24:00.000Z11Beantworten
BKL Typ 1 vs. 2/3 (Zündstoff für viele Diskussionen, durch BotListe objektivierbar?)
Letzter Kommentar: vor 10 Jahren2 Kommentare1 Person ist an der Diskussion beteiligt
Seit Anbeginn der Einführung von BKL-Seiten gibt es immer wieder Diskussionen, ob für den speziellen Fall nun Typ 1 oder 2/3 besser geeignet wäre. Um die Diskussionen zu objektivieren wurde irgendwann die Regel eingeführt, dass BKL Typ 2/3 nur dann gewählt werden sollten, wenn ein bestimmter Artikel auf der BKL-Seite 10x häufiger als alle anderen in den letzten 90 Tagen abgefragt wurde (siehe WP:BKL). Mit dem neuen WikiViewStats sind die Abrufstatistiken ja mittlerweile blitzschnell einsehbar. Daher meine Frage, ob man folgende drei Wartungslisten erstellen und sie dann dem Projekt Wikipedia:WikiProjekt Begriffsklärungsseiten zur Verfügung stellen könnte:
Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND nicht den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 1). Prüfe, ob einer der dort verlinkten Artikel ( in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung zutrifft nach dem Schema "BKL-Link --> Artikellink der 10x mehr abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
Nimm alle BKL-Artikel, die mindestens 90 Tage alt sind UND den Zusatz "(Begriffsklärung)" enthalten (= BKL Typ 2). Prüfe, ob einer der dort verlinkten Artikel in den letzten 90 Tagen 10x häufiger als der zweithäufigst-abgerufene Artikel abgerufen wurde. Liste alle BKL-Artikel auf die diese Bedingung nicht zutrifft nach dem Schema "BKL-Link --> Artikellink der am häufigsten abgefragt wurde (Zahl der Abfragen) --> zweithäufigst-abgerufener Artikellink (Zahl der Abfragen)"
Prüfe alle BKL-Artikel, die im Zeitraum "Heute minus 90 Tage" bis "Heute minus 120 Tage" neu erstellt wurden. Prüfe gemäß 1.) und 2.)
Liste 1. und 2. könnten dem Portal als generelle Vorschlagslisten regelmäßig aktualisiert angeboten werden.
Liste 3. entspräche 1.+2., würde sich aber auf relativ neue BKL-Artikel beschränken, die quasi nach 90-120 Tagen "Testlauf" im ANR dann ggf. auf die passendere BKL-Form umgestellt werden könnten.
Nachtrag. Da hin und wieder auch Artikel in einer BKL verlinkt werden, die keine Homonyme sind, sondern nur als Platzhalter dienen, da das Homonym noch keinen Artikel hat (beispielsweise der Regisseur eines homonymen Films ohne Artikel oder die Band eines homonymen Albums ohne Artikel), dürften zur Sicherheit vielleicht nur die Links geprüft werden deren – sagen wir – ersten beiden Buchstaben/Zeichen mit den ersten beiden Buchstaben/Zeichen des BKL-Lemmas übereinstimmen. Ansonsten kämen bei einer eventuell erstellten Wartungsliste wohl zu viele falsche Treffer heraus. Auch der Link in der Vorlage auf Wikipedia:Begriffsklärung müsste von der Prüfung ignoriert werden. --BlueCücü (Diskussion) Wikipedia:Bots/Anfragen#c-BlueCücü-2013-12-27T17:23:00.000Z-BlueCücü-2013-12-27T12:49:00.000Z11Beantworten
Externe Links im Text löschen/umwandeln
Letzter Kommentar: vor 10 Jahren8 Kommentare4 Personen sind an der Diskussion beteiligt
Es geht in meiner Interpretation darum, Weblinks im Fließtext (also nicht in Weblink-Abschnitten) zu entschärfen, bzw. besser zu entfernen. Weblinks in Einzelnachweisen dürfen natürlich nicht nicht auslösen. Imho wird das besser händisch gemacht, Weblinks müssen entweder ganz entfernt, in Einzelnachweise umgewandelt oder in den Abschnitt Weblinks verschoben werden. Also besser eine Wartungsliste o.ä. – GiftpflanzeWikipedia:Bots/Anfragen#c-Giftpflanze-2014-01-05T11:21:00.000Z-Lustiger seth-2013-12-29T22:10:00.000Z11Beantworten
Danke für Eure Antworten, besonders Giftpflanze: genau das hatte ich gemeint, hier noch ein paar konkrete Beispiele: [8], [9], [10], [11]. Ein Bot könnte solche Links auf verschiedene Arten behandeln, zB.:
a) ganz löschen und nur den [http://gelöschter.link Text] stehen lassen
b) automatisch in eine ref umwandeln: Text<ref>http://verschobener.link</ref>
c) mit Edithinweis verstecken: Text<!--"http://versteckter.link" wurde deaktiviert: keine externen Links im Artikeltext, bitte. Siehe: WP:EL-->
(Alles mit Hinweis auf WP:EL in der Zusammenfassung)
Oder gibt eine Liste, wo Artikel mit verdächtigen EL gelistet werden? Oder ein Tool, wo man solche Änderungen gleich als automatischen Editvorschlag im Editor aufgemacht bekommt und dann gleich die Änderung prüfen, anpassen und speichern kann?
Letzter Kommentar: vor 9 Jahren9 Kommentare4 Personen sind an der Diskussion beteiligt
Aka hat sich eine Menge Arbeit gemacht, auf Benutzer:Aka/Klammerfehler nach und nach alle Klammerfehler in Artikeln aufzulisten, die dann von einer Reihe fleißiger Helfer sukzessive händig abgearbeitet werden. Größenordnung: Zehntausend(e).
Bin auch viel in der en.WP zum Reparieren unterwegs. Seht Ihr Chancen, den User:BracketBot[1] modifiziert bei uns einzuführen? Dort dauert es eine Zeit von 10 min, und der Verursacher des Klammerproblems wird auf seine Fehler via Disk informiert und kann ihn gleich selbst beheben. Fänd ich so schlecht nicht, einen KlammerBot in der de.WP am Laufen zu haben wenn der Berg abgearbeitet ist. Mit der Bitte an die hauptamtlichen Programmierer, um das Klammerteam mit einem Licht am Ende des Tunnels zu ermutigen. Bitte beim Betreiber des Bots in der englischsprachigen Wikipedia nachfragen, ob es schon andere Sprachversionen gibt. Danke und viele Grüße --Frze> DiskWikipedia:Bots/Anfragen#c-Frze-2014-01-31T10:37:00.000Z-KlammerBot > User:BracketBot11 CC: GMRFSJRABFBeantworten
↑BracketBot checks all edits to see if all open brackets ({[< have matching close brackets >]}), and informs the editor that their edit may have broken some markup if there is a mismatch.
Das Finden solcher Klammerfehler ist erst einmal ein sinnvolles Anliegen. Ich stehe aber Bots, die Benutzer automatisch mit Nachrichten beglücken, kritisch gegenüber, da sie hier oft als störend empfunden werden. Und ob die Bot-Hinweise für nicht-Wikisyntax-Kundige nachvollziehbar sind, halte ich ebenfalls für fraglich. IWWikipedia:Bots/Anfragen#c-Inkowik-2014-01-31T16:57:00.000Z-Frze-2014-01-31T10:37:00.000Z11Beantworten
Wenn man für eckige und geschweifte Klammern die Fälle nimmt, bei denen x mehr schließende als öffnende Klammern vorhanden sind, und gleichzeitig genau x mal genau drei dieser Klammern hintereinander auftreten, findet man ca. 450 Fälle, die man mMn mit geringem Fehlerrisiko automatisch korrigieren kann. Doppelte spitze Klammern machen nochmal ca. 800 Fälle aus, wobei man da dann schon genauer hinschauen müsste. Der Hauptanteil sind ungleichzahlige runde Klammern, für die ich keine Automatisierung sehe. --KrdWikipedia:Bots/Anfragen#c-Krd-2014-02-01T08:37:00.000Z-Frze-2014-01-31T18:22:00.000Z11Beantworten
Ich habe mal kurz in den Quelltext von BracketBot reingeschaut, ist leider für meinen Geschmack nicht schön gelöst und großtenteils unkommentiert. So sind auch alle Strings hardkodiert. Das massenhafte Ansprechen sehe ich natürlich auch als Problem an, im Gegensatz zu anderen en.wiki Bots sagt er aber auch gleich if you have any questions, you can leave a message on my operator's talk page mit passendem preload-Vorlage-Link. Grüße sitic (Diskussion) Wikipedia:Bots/Anfragen#c-Sitic-2014-02-02T22:24:00.000Z-Frze-2014-01-31T10:37:00.000Z11Beantworten
Im Idealfall hätte ich gerne eine Liste mit der jeweils entfernten Zeile, so dass ein ggf. entfernter Einzelnachweis an anderer Stelle, sofern nötig, eingebaut werden kann. Den Gewinn könnte man theoretisch in den Artikeltext übertragen nur müsste dann, um daraus eine enzyklopädische Information zu machen, die Gewinnermittlung und das wirtschaftliche Umfeld in dem jeweiligen Berichtszeitraum aus dem die Zahl stammt erläutert werden. Einzelne Bilanzwerte sind ohne zeitliche, räumliche und industrielle Einordnung kein enzyklopädisches Wissen, siehe auch die verlinkte Diskussion. --MillbarttalkWikipedia:Bots/Anfragen#c-Millbart-2014-02-27T07:08:00.000Z-Kopiersperre-2014-02-26T23:13:00.000Z11Beantworten
Ein Script um Bilder in anderen Sprachen zu suchen habe ich. Kommt ja als Bildervorschlag in meinen Wartungslisten, sofern {{Bilderwunsch}} im Artikel steht, oder beim AutoQS-Bot zum Einsatz. Nur eine dewiki-Artikelliste müsstest du mir geben. Die Catscan Top100 finde ich gerade nicht.
Das mit "nur Artikel, die in der de/WP keine Artikel haben" ist mit 16 Mio Kandidaten etwas viel und somit kaum realisierbar. Merlissimo 16:55, 6. Mär. 2014 (CET)
Ich habe gerade mal nachgeschaut: In meinen Bilderwunsch-Wartungslisten befinden sich zur Zeit 435 Bildervorschläge. Arbeitet kaum jemand ab. Merlissimo 16:59, 6. Mär. 2014 (CET)
Da es schon spät ist, habe ich einfach mein bestehendes Script genommen und den ganzen Soziologie-Baum ohne Ausnahme als Eingabe genommen.
Mein Script entspricht so nicht ganz deinen Forderungen, weil ich im Laufe der Zeit versucht habe eine möglichst optimale Ergebnismenge zu bekommen. Es werden "nur" die 250 größten Wikipedia betrachtet. Zudem bedeutet Bild=JPEG-Bild. Auch müssen die Bilder auf commons liegen (waren sonst zuviele Fair-Use Treffer) und pro fremdsprachigem Artikel kommt nur das mit der größten Auflösung in die Ergebnismenge.
Kat Regel rausnehmen erledige ich dann erst morgen Abend. Merlissimo 23:28, 6. Mär. 2014 (CET)
So, Kat "Regel" ist jetzt raus und auf die größten 270 Wikipedias erweitert (wobei ich bezweifele, das dies mehr Resultate etwas bringt). Schau mal, ob die das so passt. Merlissimo 22:49, 7. Mär. 2014 (CET)
Das ist ganz fantastisch! Vielen Dank. Vielleicht wende ich mich dann noch mal mit anderen Kategorien an dich. Und wie gesagt wäre eine Sortierung nach verlinkter Häufigkeit schön - vielleicht als sortierbare Tabelle nach beiden Merkmalen, Alphabet und Häufigkeit. Bei der Soziologie ist das aber für mich übersichtlich genug. Danke und Gruß - dann mach ich mich mal ans Werk. --Zulu55 (Diskussion) UnwissenWikipedia:Bots/Anfragen#c-Zulu55-2014-03-08T07:45:00.000Z-Zulu55-2014-03-06T20:20:00.000Z11Beantworten
Ich habe es nun nach Backlinkanzahl sortiert. Wenn du von Häufigkeit redest, denke ich irgendwie immer an Aufrufzahlen. Das sind im Moment reine MySQL-Queries. Für eine Tabelle müsste ich das noch erst in eine Scriptsprache stecken. Merlissimo 09:46, 8. Mär. 2014 (CET)
Wenn du das öfters haben willst, solltest du dir vielleicht überlegen eine Seite erstellen, wo du alle Bilder verlinkst, die bei zukünftigen Scans ignoriert werden sollen. Das würde für dich weniger Arbeit bei der Durchsicht neuer Reports bedeutet. Merlissimo 09:55, 8. Mär. 2014 (CET)
Die Minerale haben ja automatisch einen Bilderwunsch. Die Vorschlagsliste dort hat Ra'ike schon durchgesehen. Ist aber bei Benutzer:Mabschaaf/Bildersuche nun auch enthalten (Achtung für langsame Internetverbindungen: Beim Aufruf der Benutzerunterseite werden knapp 3700 HTTP-Request gestellt und dabei knapp 17 MB heruntergeladen). Merlissimo 21:33, 8. Mär. 2014 (CET)
Letzter Kommentar: vor 10 Jahren4 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo zusammen,
sollte ich mit der folgenden Anfrage nicht am richtigen Ort sein, bitte ich um entsprechenden Hinweis.
Eine der anstrengensten Aufgaben im Rahmen des Portal:Tennis ist die Aktualisierung der Spielerprofile in den Infoboxen. Diese Spielerprofile enthalten insbesondere die Weltranglistenposition, die Siege/Niederlagen, Gesamtpreisgeld, etc. und werden direkt von der jeweiligen Spielerprofilseite der Profiorganisationen ATP (Herren) oder WTA (Damen) genommen. Ein Beispiel: Aktueller Diff-Link Roger Federer / ATP-Profil Roger Federer. Die entsprechenden Daten werden immer Montags mit Veröffentlichung der neuen Weltrangliste aktualisiert. Es gibt für die Webseiten dabei eindeutige IDs für jeden Spieler, die auf Wikidata gespeichert sind (für ATP: Property 536).
Es wäre uns eine große Hilfe, wenn ein Bot diese Aktualisierungen automatisch jeweils montags vornehmen könnte. Idealerweise würden die Daten dabei (auch) in Wikidata geschrieben werden, wobei ich hierfür dann ggfs. am falschen Ort frage.
Falls so etwas möglich wäre, wäre es auch gut zu wissen, was noch an Vorarbeiten vom Portal gebraucht werden würde.
Die obige Diskussion ist mittlerweile beendet, ich hätte jedoch zum selben Thema ein Frage: Ist es möglich, dass ein Bot auf einer Seite im BNR eine Auflistung macht, welche Spieler wann zuletzt aktualisiert wurden? Die letzte Passage in der Infobox ist jeweils das Aktualisierungsdatum der Infobox. Wenn also der Bot mir eine Aufstellung machen könnte, dann sehe ich auf einen Blick, welche Seite dringend wieder auf den neusten Stand gebracht werden muss. Vielen Dank für die Rückmeldung. --SuperAle - DiskWikipedia:Bots/Anfragen#c-SuperAle-2014-03-25T15:32:00.000Z-Mad melone-2014-03-19T07:19:00.000Z11Beantworten
Genau die selbe Fragestellung ist mir heute auch eingefallen. Konkret geht es um die Infobox Tennisspieler und die Angabe "Updated". Falls dies grundsätzlich möglich ist, wäre es dann auch möglich, im selben Botlauf eine Ausgabe zu bekommen, bei welchen Spielern noch Bilder fehlen? Die erste Anfrage wäre wöchentlich/monatlich, die zweite Anfrage mit den Bildern noch unregelmäßiger und ggfs. auf Bedarf. --mad_melone (Diskussion) Wikipedia:Bots/Anfragen#c-Mad melone-2014-05-21T09:55:00.000Z-Mad melone-2014-03-19T07:19:00.000Z11 (und hier noch der ping an SuperAle @SuperAle:, damit du Bescheid weisstBeantworten
Wartungsbausteine in Artikeln mit Israelbezug
Letzter Kommentar: vor 10 Jahren7 Kommentare2 Personen sind an der Diskussion beteiligt
@Dealerofsalvation: Bitte nicht mißverstehen. Nur für die Abarbeitung von Wartungsbausteinen spielt das Alter in diesem eng begrenzten Bereich keine Rolle. Für den WBW ist das natürlich eine ganz andere Herausforderung, denn dort wäre es schon interessant Uralt-Bausteine (von vor zum Beispiel 2008 - gibt es die überhaupt?) abzuarbeiten. Das über diverse Beziehungen auch Friedhöfe, Schlösser in Heilbronn, ... und auch arisierte Unternehmen in dem Strang Kategorie:Politik (Israel) landen war mir gar nicht so klar. Dies hatte wiederum ein gewisses Aha-Erlebnis und erweitert wiederum den Horizont. --Markus S. (Diskussion) Wikipedia:Bots/Anfragen#c-Markus Schulenburg-2014-03-28T06:35:00.000Z-Dealerofsalvation-2014-03-28T05:41:00.000Z11Beantworten
Wesentlich efizienter wäre allerdings ein Parsen der durch die Vorlage erstellten Links die praktisch live mit der spezial:Weblinksuche geliefert werden:
Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Cactus26 (Diskussion) 12:25, 16. Okt. 2014 (CEST)
MAK-Werte auslesen und in Infobox einfügen
Letzter Kommentar: vor 9 Jahren6 Kommentare4 Personen sind an der Diskussion beteiligt
Siehe auch weiter oben mit den INSEE-Canton Links: Wäre es nicht überhaupt eine Möglichkeit einen Bot einzurichten, der ein Regexp-Replace für URLs durchführen kann. Konkret meine, ich damit, hier eine Funktionseite nach dem Vorbild von WP:SBL einzurichten, die nur von Admins bearbeitet werden kann, auf deren Diskussionsseite die URL-Regexp-Vorschläge der Benutzer eingetragen und gegebenfalls diskutiert werden können. Nach Überprüfung der Korrektheit der Regexpausdrücke werden diese in Funktionsseite eingetragen, und von einem ständig arbeitenden Bot automatisch umgesetzt.
Sinnvoll wäre natürlich, würde zuvor noch der http-Statuscode überprüft, und gegebenfalls die Fehler in einer Logseite ausgegeben, um die Restmengen per Hand erledigen zu können. Falls eine URL nur über Spezial:Linksearch aber nicht direkt im Wikitext auffindbar wäre (Vorlagen-URLs, ungewöhnliches Encoding,...) sollten diese ebenfalls im Log ausgegeben werden. Frohes Schaffen — Boshomi☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-05-09T18:45:00.000Z-Dr Lol-2014-05-08T10:15:00.000Z11Beantworten
Früher hatte ich die meisten Linkkorrekturen übernommen. Eigentlich habe ich da ein gutes Script, was ich immer sehr schnell auf den idividuellen Fall anpassen kann. Ich bin aber seit einen Jahr einfach zu sehr mit dem Labs-Umzug beschäftigt. Dieser durch imo unnötige Labs-Regeln verursachte Aufwand, kostet einfach eine Menge Zeit, weshalb mir kaum noch Zeit für andere Wikipedia-Tätigkeiten bleibt. Ich hoffe, dass bessert sich bald wieder. Merlissimo 20:37, 13. Mai 2014 (CEST)
Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. IW 00:09, 16. Okt. 2014 (CEST)
Letzter Kommentar: vor 9 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo liebe Botbetreiber, da die o.g. Seite nicht mehr existiert, bzw. nun unter .com zu finden ist, sind sämtliche Links überflüssig geworden. Da ein einfaches Ändern des ID-Parameters leider nicht möglich ist (z.b. {{Eurohockey-net|ID=1234}} auf {{Eurohockey-com|ID=1234}}, bitte ich darum, aus allen Artikeln, die die Vorlage Eurohockey-net verwenden, eben jene per Bot zu entfernen. Wenn es möglich ist, diese nur aus Artikeln zu entfernen, die ausschließlich die Vorlage verwenden und keinen weiteren Weblink, wäre das natürlich super. Die übrigen würde ich dann per Hand „umbiegen“. LG, --AvaholicWikipedia:Bots/Anfragen#c-Avaholic-2014-06-27T15:31:00.000Z-Vorlage:Eurohockey-net obsolet11Beantworten
Letzter Kommentar: vor 10 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Wikipedia:Redundanz/Knacknüsse wurde anscheinend mal händisch erstellt und dann mehr oder weniger gepflegt. Jedenfalls scheint es recht aufwändig. Mein Vorschlag daher: Kann nicht ein Bot solch eine List erstellen. Und zwar: Grundgesamtheit sind alle Artikel, die aktuell einen Redundanzbaustein haben. Für diese Artikel wird Version für Version geprüft, seit wann sie ununterbrochen einen Redundanzbaustein tragen und das entsprechende Datum gespeichert. Der Bot erstellt dann eine WP:Liste der am längsten bestehenden aktuellen Redundanzen. Diese kann dann gerne in regelmäßigen Abständen aktualisiert werden.
Problemchen bei dem Vorschlag: Es ergibt sich eine Artikelliste, keine Liste der "Redundanzfamilien". Da das aber denke ich schwieriger zu lösen ist mein obiger Vorschlag. Denn manchmal kommen zu 2er-Redundanzen ja noch weitere Redundanzen dazu etc.
Bin im Moment stark beschäftigt, aber ich hoffe es innerhalb der nächsten Woche erledigen zu können, weil das nur ein einfacher Domainwechsel ist. Merlissimo 23:12, 6. Aug. 2014 (CEST)
Also: Fast alles lässt sich durch ein einfaches Einsetzen von "official" in den Domain-Name korrigieren. Eine Ausnahme sind Links, die search.asp verwenden ([15]). Bei diesen ist eine Korrektur möglich, wenn "search.asp" zudem durch "suche.asp" ersetzt wird. Die Links mit item.asp [16], showitem.asp [17] und weekchart.asp [18] funktieren auch nicht, allerdings habe ich bisher kein Korrekturverfahren gefunden. Diese lasse ich erstmal weg.--Cactus26 (Diskussion) Wikipedia:Bots/Anfragen#c-Cactus26-2014-10-16T11:10:00.000Z-charts.de --> officialcharts.de11Beantworten
Die meisten Fälle hatte ich unter dem Punkt Interwiki-Konflikt in meinen Listen (also die Fälle davon, wo die automatischen Bots fehlschlagen). Darauf gab es mehrere Beschwerden, dass man auf dewiki nicht für wikidata-Probleme zuständig sei. Merlissimo 00:53, 1. Aug. 2014 (CEST)
Hm… Korrekte Interwikis in de-WP-Artikeln erachte ich schon als Dienstleistung an (mehrsprachigen) Lesern.
Wenn das Feature wieder gewünscht werden sollte, kann ich es leicht wieder einführen. Dafür brauche ich dann aber auch ein klares Votum der Community, so dass die Kritiker (die sich meist schneller melden) überstimmt werden. Du bist bis jetzt der Einzige. Merlissimo 01:16, 1. Aug. 2014 (CEST)
Ich würde mich um die Hausviecher kümmern. Wäre gut, wenn ich zur Not Haushunde und Pferde ausklammern könnte, aber gerade im Bereich Geflügel gibt es zwischen den Verbänden Kontinentaleuropas und dem englischen Sprachraum (GB und USA und selbst zwischen PCGB und APA zum Teil erhebliche Unterschiede, wie. z. B. bei der Pekingente.)
Ich habe eine neue Teilliste LLK2 eingeführt, der aber explizit aktiviert werden muss und standardmäßig nicht angezeigt wird (also Wert beim LISTS-Parameter bei MerlBot-Worklist ergänzen). Inhalt sind die Interwikikonflikte, die nicht von der Teilliste LLK mit den oben erwähnten KAT-Beschränkungen abgedeckt werden. Merlissimo 10:59, 18. Aug. 2014 (CEST)
Ich melde ja nur Konflikte und nicht alle lokalen Langlinks. Insofern sind reine lokale vorhandene Anker-Langlinks kein Problem in der Wartungsliste. Erst wenn Wikidata einen anderen Link (z.B. einfach ohne Anker) enthält wird es zu einem Problem, das gemeldet wird. Merlissimo 11:02, 9. Sep. 2014 (CEST)
Toolserver → Toollabs
Letzter Kommentar: vor 9 Jahren6 Kommentare3 Personen sind an der Diskussion beteiligt
Auf unzähligen Seiten sind noch Toolserver-Tools verlinkt, obwohl die dort nicht mehr vorhanden sind bzw. nach Toollabs umgezogen sind. Es fände es sehr hilfreich, wenn zumindest für die häufig verlinkten Tools die Links per Bot angepasst werden könnten. Ich würde ein Vorgehen nach Namensräumen vorschlagen:
(Seite): wohl nicht selten direkt im Quelltext drin
Vorlage: durchführen
Kategorie: durchführen
Hilfe: abzuklären
Wikipedia: durchführen, falls keine Diskussionsbeiträge enthalten sind (auf (CET)/(CEST) prüfen)
Ich habe mittlerweile alle erreichbaren Einzelstücke gefixt oder ansonsten kategorisiert; auch unter Mitwirkung von Benutzer:Nachcommonsverschieber. Ich habe alle URL überflogen.
Statistik:
Es gibt heute insgesamt rund 42.000 URL im Projekt.
Namensräume:
Wir haben eine allgemeine Praxis, wie wir bei solchen Fixereien vorgehen:
Hier: Nur noch Namensräume 4, 10, 14, 100;
Ausschluss bei /Archiv im Seitennamen;
auch nicht AK, FzW, LK, MB (CU, SG, SP, VM, WP:Administ... haben /Archiv/).
Auf gesperrten Seiten, Diskussionen, in Archiven längst vergessener Angelegenheiten wird nicht mehr masseneditiert. Es ist auch völlig Wurscht, ob das Stimmberechtigungstool zu einer Wahl, die 2009 mal stattgefunden hatte, und wo der Gewählte schon vor zwei Jahren die Knöpfe wieder abgegeben hatte, jetzt noch auf Klick die Stimmberechtigung feststellen kann. Sollte das wirklich sechs Jahre später jemanden interessieren (Was will man damit anfangen? Was für Konsequenzen hätte das?), dann können die Daten in ein aktuelles Stimmberechtigungstool geworfen werden. Und ein Editcount in einer Angelegenheit von 2007 lieferte damals die Benutzerbeiträge bis 2007, heute die bis 2024; die damaligen Zahlen werden nicht mehr reproduziert. An einer FzW von 2008 herumzulinkfixen ist höherer Blödsinn.
Benutzer: Die können ihre Links selbst fixen, sofern sie noch aktiv sind; WP:LT hilft gern. Die überwiegende Zahl der Benutzer ist nicht mehr aktiv, und der Rest macht einen Zwergenaufstand, wenn ein Bot in ihren Seiten herumpfuscht.
Artikel, Hilfe, MediaWiki: Alle bekannt und kategorisiert. Zurzeit kein Fix mehr möglich. Artikel sind weniger als 20. Datei gibt es praktisch nicht (mehr); wenn WP:LT/giftbot/weblinksuche hoffentlich mal aus dem Streik kommt, kann man die ein oder zwei Dateibeschreibungsseiten noch mal suchen.
Arbeitsschwerpunkt:
Das sollte die Unterstützung der Portale, Redaktionen, WikiProjekte sein; die benötigen für ihre tägliche Wartungsarbeit Werkzeuge, insbesondere Catscan.
Die haben alle voneinander abgeschrieben und verwenden vielhundertfach URL mit gleicher Struktur, nur unterschieden durch:
Kategorien (Vorsicht: Separator zwischen mehreren Kategorien nicht mehr Pipe, sondern %0D%0A)
Um die Beos nicht zu ersäufen, sollte versucht werden, nach Rumprobieren an Einzelschicksalen in einem automatischen Lauf möglichst viele URL in einem Edit zu fixen. Aber das wissen Botbetreiber ja selbst.
Ich hätte gern die Form mit {{fullurl:toollabs:, einer Pipe und hintendran irgendwo noch }} – falls denen eines Tages einfällt, auf wmftools.org umzurüsten, hätten wir schon mal die richtige URL und keinen Zoff mit Weiterleitung, CORS, unerlaubter Domain. (Die Domain scheint verkäuflich zu sein; ob man sie sich als Faustpfand sichern sollte?)
Insgesamt schätze ich, dass sich bei 10 % der URL (also 4000–5000) der Aufwand für eine Reparatur lohnen würde, weil mit den Tools noch gearbeitet wird. Der Rest steht auf Seiten, mit die nicht mehr genutzt werden, die niemand mehr liest, und die voller redlinks sind; oder die in Eigenverantwortung noch aktiver Benutzer liegen. Gerade letztere sind auch völlig bunt und individuell und können nicht systematisch repariert werden.
Die sind aber nicht schematisiert, sondern sehr individuell. Und stundenlang Leuten hinterherzubasteln, die schon seit fühf Jahren nicht mehr aktiv sind, während die Portale auf die Wartung warten, ist wohl nicht Sinn der Sache.
Da sich übrigens kein Bot rührt, habe ich übrigens mal begonnen, ein gutes 1000 der CategoryIntersect-URL auf catscan2 umzuschreiben.
Info: Es gibt auch noch über 2000 tools.wikimedia.de – dabei handelt es sich um eine funktionsidentische Weiterleitung auf toolserver.org aus der Frühphase.
Ich habe in einer kleinen Marathon-Schlacht 700 Seiten mit CategoryIntersect editiert und diesen, soweit in catscan2 konvertierbar, weitgehend abgearbeitet. Ein paar Portale und Redaktionen könnten noch übrig sein; der Rest sind Archive, LD, Disku und Benutzer. Insgesamt sind wohl um 2000 dieser URL unmittelbar gefixt worden; dazu etwas trivialer Beifang plus Syntaxfehler. Aus der Statistik sind eher 2500 URL verschwunden, weil die Seiten teils dreifach ineinander eingebunden sind.
Weblinks auf nicht mehr funktionierende Online-Version der Encyclopedia Britannica korrigieren
Letzter Kommentar: vor 9 Jahren6 Kommentare3 Personen sind an der Diskussion beteiligt
1911encyclopedia.org, eine Online-Version der Encyclopedia Britannica von 1911, ist down, wird aber im ANR 700-mal verlinkt. Per Bot liesse sich ggf. eine der folgenden Optionen umsetzen:
Der 1. Weblink taugt gar nichts. Wer kann schon zum einmaligen nachschauen ein 23-GByte-Tar-Archiv gebrauchen.
Der 2. linkt auf eine laienhafte Archivierung. Die direkte Auflistung des Ordners hier zeigt, dass die 33 Bände nur als PDF-Dateien vollständig, aber inkonsistent benannt sind. Andere Formen, insbesondere der Onlinezugriff auf Seiten, sind unvollständig (nur 22 Bände konvertiert). Ergo auch kaum zu gebrauchen. Da hat jemand mittendrin die Lust verloren und aufgehört... Darüber hinaus sind die Links auf der Webseite unsortiert und einige PDFs haben mehrere Gigabyte (bis 4,4 GByte), was selbst bei schnellen 25 MBit/s eine Downloadzeit von 25 bis 30 Minuten bewirkt... eigentlich auch unbrauchbar. Hier könnte man allenfalls eine Vorlage schreiben, welche die richtige PDF des vollständigen Sets heraussucht und den Link (mit Dateigröße, bis 300 MByte) angibt.
* Wenn man das ordentlich machen will, sollte man die großen Files downloaden, die jeweils best verfügbare Qualität in Einzelseiten-Tiff-s zerlegen, mit ImageMagick die Tiff-s noch ein wenig aufbessern und mittels tesseract text und hocr-Files anlegen und das Ergebnis Seite für Seite auf Commons hochladen.
* Ist das erledigt bräuchte man noch ein Tool zum Editieren der hocr-Files direkt über dem Image. So ein Tool hätte recht offensichtlich großen langfristigen Nutzen, müsste aber von der Mediawiki entwickelt werden. Damit könnte man dann ganze Bibliotheken gemeinfreier Bücher online nutzbar und längerfristig weitgehend fehlerfreie durchsuchbare Texte daraus erstellen. Ohne Editiermöglichkeit sind die Ergebnisse leider recht fehleranfällig, wie man auch bei Archive.org sieht. Halbfertige Ansätze als Firefox-addon existieren, funktionieren aber zumindest bei mir nicht. Frohes Schaffen — Boshomi☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-09-15T18:45:00.000Z-Antonsusi-2014-09-14T17:33:00.000Z11Beantworten
Letzter Kommentar: vor 9 Jahren5 Kommentare5 Personen sind an der Diskussion beteiligt
Hallo Botexperten, im WikiProjekt Tennis Pflegen wir Navigationsleisten, die die Top 10 Spieler eines jeweiligen Landes enthalten. Ein Bot könnte uns dabei helfen, die Navileisten nach der Aktualisierung in die verlinkten Artikel einzubauen und aus Artikel, die nicht mehr verlinkt sind, herauszunehmen. Eine Sammlung der Navileisten findet man auf der Benutzerseite von SuperAle unter Benutzer:SuperAle/ToDo nach der Überschrift Navigationsleisten Die zehn bestplatzierten Tennisspieler. Gruß, Korrektor123 (Diskussion) Wikipedia:Bots/Anfragen#c-Korrektor123-2014-09-01T15:39:00.000Z-Hilfe im Projekt Tennis11Beantworten
Man sollte sich eher mal fragen, wie sinnvoll Navigationsleisten sind, die per Bot aktualisiert werden müssen. Dieses Pseudo-Auswahlkriterium "Top 10 Spieler" ändert sich doch permenant. Heute ist ein Spieler drin und morgen wieder draussen und jedes Mal wird die Navigationsleiste eingefügt und wieder entfernt (und selbst angepasst). So eine Navigationsleiste sollte schon halbwegs stabil sein, um brauchbar zu sein.--213.61.99.155Wikipedia:Bots/Anfragen#c-213.61.99.155-2014-09-09T10:16:00.000Z-DonPedro71-2014-09-01T19:44:00.000Z11Beantworten
Letzter Kommentar: vor 9 Jahren1 Kommentar1 Person ist an der Diskussion beteiligt
Im Rahmen eines Kurier-Artikels rückte die erweiterte Liste in den Fokus. Sie ist allerdings auf den Stand von September 2012, seitdem hat sich die ursprüngliche Meta-Liste sehr, sehr stark geändert, doch per Hand ist eine Aktualisierung der vielen Daten kaum zu schaffen.
Die Links müssten von Wikidata auf deutsche Wikipedia-Artikel umgestellt werden
man müsste die bereits in der veralteten Version vorhandenen Lesenswert-, Exzellent- und Gesprochen-Versionen-Bapperl aktualisieren
Bei Rotlinks müssten dann auch ein Interwiki-Link zum en-Artikel (alternativ: Wikidata-Eintrag) hinzugefügt werden.
@se4598: Vielen Dank für Deine Mühe. Dass das Problem solche Dimensionen hat, hätte ich nicht erwartet. Puh... Evtl. könntest Du beide Fälle in getrennten Listen aufnehmen?
Die eine (Dopplungen mit gleichem Text) könnte mM ganz problemlos ein Bot abarbeiten (falls dazu hier noch ein wenig Zustimmung kommt, da es zunächst eine kosmetische Korrektur ohne sichtbare Auswirkungen ist).
Bei der Zweiten (unterschiedliche Nachweise, die gleich benannt sind und daher nicht getrennt angezeigt werden) ist es mM zwingend erforderlich, aktiv zu werden. Auch die sollte ein Bot abarbeiten können, wobei die Herausforderung sein dürfte, in Fällen wie bei Sandra Bullock, die <ref name="Rotten Tomatoes" gleich 31× für unterschiedliche(!) URLs nutzt, festzustellen, ob vielleicht doch zwei exakt gleiche dabei sind.
@Mabschaaf: Mein Programmcode/regulärer Ausdruck deckt die fast alle Fälle von benannten EN ab, Sonderfälle wie zusätzlich gruppierte EN werden aber nicht gefunden, ist aber auch so genug Arbeit da ;-).
Von 2.951.082 untersuchten Artikeln haben 7,8 % benannte Einzelnachweise, wovon wiederum nun 5,7 % (13.177) von dieser Abfrage als Treffer erkannt wurden. Der Suchlauf wurde auf einem Datendump vom 6.10. ausgeführt.
Die komplexen Fälle sind nicht alle unbedingt schwierig oder inhaltlich falsch, sondern ein größerer Teil besteht auch aus "leeren" Refs (<ref name="refA"></ref>), die aber meistens wie die Dopplungen kein sichtbaren Fehler darstellen.
Ist ein bisschen Arbeit, aber viele der "komplexeren" Fälle kann man auch ohne Fachkenntnis auflösen. Vielleicht magst du ja ein Aufruf starten? Die Seiten dürfen frei bearbeitet werden und erledigte Fälle entfernt werden.
Letzter Kommentar: vor 9 Jahren3 Kommentare2 Personen sind an der Diskussion beteiligt
Hallo! In bisher 343 Artikeln (zumeist mit Musik-Bezug) sind Tabellen (enthaltend Tracklisten, Auszeichnungen …) vorhanden, in denen die Angabe class="Jahrescharts" steht. Diese ist jedoch nicht definiert und wird auch für keinerlei Skript- oder Botauswertung benötigt. Tatsächlich scheint sie auf eine Fehlinterpretierung der class-Angabe in einer nie eingeführten Kopiervorlage 2010 zurückzugehen, die es aber dennoch geschafft hat, durch Copy & Paste in unzählige Tabellen im Musikbereich gelangen (siehe auch meine Anfrage in der Technikwerkstatt). Die Angabe ist neben ihrer Wirkungslosigkeit leider mit einem irreführenden Namen versehen und sollte daher gänzlich entfernt werden, bevor sie sich noch weiter ausbreitet!
Datenabfrage: war im Einleitungssatz bei lebenden Personen
Letzter Kommentar: vor 9 Jahren2 Kommentare2 Personen sind an der Diskussion beteiligt
Bei Artikeln über lebende Personen habe ich schon mehrfach gesehen, dass nach dem Rücktritt von einem Amt oder als Aktivsportler die Einleitung folgendermassen geändert wurde:
'''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) <Tätigkeit>
in
'''<Name>''' (* <Geburtsdatum/-ort>) war ein(e) <Tätigkeit>
statt in
'''<Name>''' (* <Geburtsdatum/-ort>) ist ein(e) ehemalige(r) <Tätigkeit>
ja, Roter Punkt bedeutet, dass der neue Link nicht funktioniert. Alt auf neu wurde einfach per Regexp unmgesetzt, die Wertungen per Hand eingefügt. Wenn du die Seite direkt verwenden willst, kannst du die Roten einfach Rauslöschen und die Seite für die Dauer des Botlaufs vollsperren. (Das wäre überhaupt eine recht praktische Vorgehensweise für Fälle nach verwandten Muster.) Frohes Schaffen — Boshomi☕⌨☺Wikipedia:Bots/Anfragen#c-Boshomi-2014-10-15T13:49:00.000Z-Doc Taxon-2014-10-15T13:31:00.000Z11Beantworten
Der Setzer dieses Bausteins ist der Ansicht, diese Bot-Anfrage sei abgeschlossen und könne archiviert werden. Frohes Schaffen — Boshomi☕⌨☺ 18:47, 16. Okt. 2014 (CEST)
Suche Kategorien mit Überschriften
Letzter Kommentar: vor 9 Jahren8 Kommentare4 Personen sind an der Diskussion beteiligt