Benutzer Diskussion:Dušan Kreheľ (bot)

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 2 Jahren von Lustiger seth in Abschnitt Issues with finding archived versions in some cases
Zur Navigation springen Zur Suche springen

The bot URLs

[Quelltext bearbeiten]

The continue of this discussion.

@Lustiger seth: You can look my source code.
Disabled URLs with ";", because semantic differences:
Wiki code:
 "<p>https://www.example.com/here&x67;text</p>"

For human and HTML/XML is URL:
 https://www.example.com/here&x67;text

For MediaWiki is URL:
 https://www.example.com/here

But, if i now testing, so i don't have the true. Ah. ✍️ Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220712181600-The bot URLs11Beantworten

hi!
thanks for continuing. i don't understand your last line. i guess, your english is even worse than mine, haha. :-)
however, i don't understand your example. https://www.example.com/here&x67;text is rendered as one url, same with https://www.example.com/heregtext. maybe that was different in an older mediawiki-version. i guess a semicolon is always considered as part of the url unless it's the last character and not part of an encoded char. -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220712221700-Dušan Kreheľ-2022071218160011Beantworten

Der Bot entfernt leider auch Inhalte

[Quelltext bearbeiten]

Das sollte nicht passieren, bitte eine Prüfung auf Kursivtags in der URL einbauen und vor diesen abbrechen. --Liebe Grüße, Lómelinde Diskussion Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lómelinde-20220722095100-Der Bot entfernt leider auch Inhalte11Beantworten

@Lómelinde: U.a. mittels insource:/\[https?:\/\/[^\] ]+''/ findet man weitere solcher Syntaxfehler. Gibt es da nicht schon eine Fehlerliste dazu? --Leyo Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Leyo-20220722132000-Lómelinde-2022072209510011Beantworten
Ich sags mal so, wir haben das Problem als solches tatsächlich bereits →hier aktiv angesprochen, weil einige der Fälle eben auch zu Linterfehlern führen, wie diese drei da oben, weshalb ich die überhaupt bearbeitet habe. Der Wurgl sagt, sein APPERBot würde die kursiv-Tags regelmäßig versuchen von URLs zu trennen, er würde aber leider immer wieder im Timeout landen. Es wird leider noch hunderte solcher Fälle geben, und es kommen auch immer wieder neue Einträge hinzu. --Liebe Grüße, Lómelinde Diskussion Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lómelinde-20220722133000-Leyo-2022072213200011Beantworten
Schimpfen oder Jammern (oder war es nur Nörgeln?) hat geholfen. die letzten Tage hat der Bot nix mehr gefunden. --Wurgl (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Wurgl-20220722133900-Lómelinde-2022072213300011Beantworten
Die obige Cirrus-Suche findet aber noch ein paar Dutzend. --Leyo Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Leyo-20220722135000-Wurgl-2022072213390011Beantworten
Ja und auch, die Suchmuster, die PC auf der Hilfeseite notiert hatte, finden noch immer welche. Wie ich schon sagte, es könnten noch hunderte sein. Aber ich bin an einer anderen Baustelle. Fehlende Tags sind die, die am wenigsten Spaß machen. Daher ist das auch noch die größte Baustelle im Linterfehlerbereich. Rund 70.000 Fehler. --Liebe Grüße, Lómelinde Diskussion Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lómelinde-20220722140300-Wurgl-2022072213390011Beantworten
Geht morgen wieder. Ich hab da was erweitern müssen und … naja. --Wurgl (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Wurgl-20220722141300-Wurgl-2022072213390011Beantworten

erledigtErledigt The URL string are ending on char Apostrophe ('). (@Lómelinde, Wurgl: Ping.)✍️ Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722152700-Der Bot entfernt leider auch Inhalte11Beantworten

Thanks a lot. --Liebe Grüße, Lómelinde Diskussion Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lómelinde-20220722153000-Dušan Kreheľ-2022072215270011Beantworten
@Dušan Kreheľ: FYI: InternetArchiveBot had (or still has) the same problem with the apostroph, so you are not alone ;^) --Wurgl (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Wurgl-20220722175700-Dušan Kreheľ-2022072215270011Beantworten
yes, this is not nice. imho the mediawiki software should rather fail on this instead of trying to parse it. however. we should eliminate the remaining syntax errors. i fixed a few now. -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220723212300-Wurgl-2022072217570011Beantworten
ich hab was gefunden, wo der aktuelle mediawiki-quirks-mode fehlzuschlagen scheint (auch wenn es im konkreten fall wurscht ist, weil der link eh tot ist): in https://de.wikipedia.org/w/index.php?title=Geschichte_des_Ruhrgebiets&oldid=223679815#cite_note-LandtagIntern-227 lautet der link:
und wird aktuell so dargestellt:
statt
-- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220723215800-Lustiger seth-2022072321230011Beantworten

Issues with finding archived versions in some cases

[Quelltext bearbeiten]

(Wir sind hier zwar in der deutschen Wikipedia, aber dem Botbetreiber zuliebe schreibe ich auf Englisch): Hi Dušan, it seems that in some cases, the bot makes it a bit difficult to find an archived version for a weblink that is offline, if the Internet Archive has only archived the URL including the tracking parameter (or session ID). For example, in Anton Rotzetter, there was this link in a reference:

This was a list of the members of the Capuchin convent in Fribourg, Switzerland, as of 2013 (as a source for the last convent where Anton Rotzetter lived), but now redirects to the Swiss Capuchins main page, so we need the archived version from 2013. Your bot removed the session ID and changed the URL to

The Internet Archive hasn't archived anything under that URL. Only with the full URL originally used, including the session ID, we find the archived version we need:

But I suppose it would be too complicated to find a way to somehow include this aspect into the activity of your bot? Gestumblindi Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Gestumblindi-20220722100900-Issues with finding archived versions in some cases11Beantworten

@Gestumblindi: Am besten is die 2 Tips des URL zu haben: wie URL und wie archive-url.
archive.org can handle some parameters.
More read this. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722143400-Gestumblindi-2022072210090011Beantworten
I'm not sure that this answer is helpful. Of course, it might be good to have the original URL and an archive URL as well, but this is about existing, older references where only a certain non-archived URL is in the reference, and about your bot making it harder to find the archived version in some cases, such as the described one. Gestumblindi Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Gestumblindi-20220722183900-Dušan Kreheľ-2022072214340011Beantworten
@Gestumblindi: My solution is: I ignore the past. Because if I wanted to respect it constantly, the world would only get more complicated in the future. Change is change, sometimes you have to give some tax. Today is like "age zero". We simply cannot predict some changes. That is, if the link is not functional, then maybe it would be good to have a template that is a dead link. My bot doesn't change archive links. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722185500-Gestumblindi-2022072218390011Beantworten
Well, personally I can't really share an "ignore the past" approach when it comes to the massive existing article (and weblink) base of Wikipedia. Every edit should improve things, not make them worse, this also applies to bot edits, I'm sure you agree - but if a bot edit changes a non-working link where an archive version can be found quite easily to a non-working link where you have to dig out the previous version to find an archive version, this is not an improvement, obviously. And it's a simple fact that we have, unfortunately, still many dead links where we have to find an archive version. In the specific case, I have now inserted the archive link. Gestumblindi Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Gestumblindi-20220722193500-Dušan Kreheľ-2022072218550011Beantworten
@Gestumblindi: "Every edit should improve things, not make them worse, this also applies to bot edits" Ja, sie haben recht.
Short: New context on Wikipedia would be as: Cleaning the URLs and then to archive.
Why cleaning the URLS?
  • Yes
    • None personal data (as URL parameters).
    • The cleaning URL to share into the world.
    • The syntax bot changes would be only the syntax bot changes. None archive task. None real link analyses.
    • Archive bots should not create an unofficial dictatorship (at URLs) without officially announced rules and consensus, if it now functions more like a supplement to the existing wikipedies (as a supplement, the whole can also function without it).
  • No
    • One must search the archive page URL in the Wikipedia history.
@Gestumblindi and others: Was fuer Anworte is right? Vieleicht so eine: In Wikimedia Movement are active the 2 bots on enwiki and 1 bot (without me) on dewiki with the similarity-identical bot task. So, this question could be resulted, or to ask the another bot admins or the community to change the actual (global) community way. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722192500-Gestumblindi-2022072210090011Beantworten

@Cyberpower678, Harej: Please, You read this discussion. ✍️ Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220723090200-Issues with finding archived versions in some cases11Beantworten

I share Gestumblindi's concern. If your bot effectively makes it impossible for my bot to fix certain links, then it's being disruptive. I see no reason to be cleaning up dead URLs. If it's still alive, great, clean it up, and send a request to the Wayback Machine to archive it. If you can't accurately determine if the URL is alive, then leave it alone. You can't re-archive a dead URL. --—CYBERPOWER (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Cyberpower678-20220723093200-Dušan Kreheľ-2022072309020011Beantworten
@Cyberpower678: If your bot effectively makes it impossible for my bot to fix certain links, then it's being disruptive. Fuer Your bot, no, nut there is certainly a decrease in comfort for the user. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220723095100-Cyberpower678-2022072309320011Beantworten
"Fuer Your bot, no"? Cyberpower's bot relies on searching in the Internet Archive for the link currently found in the article, too, not a previous version in the history. Gestumblindi Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Gestumblindi-20220723111200-Dušan Kreheľ-2022072309510011Beantworten
Your response makes no sense to me. There is no point cleaning up dead links. Their archive versions won't even track since the trackers don't work on snapshot pages. By cleaning up a dead link, you make it impossible for InternetArchiveBot to find a working archive for it. Such behavior goes against the universal rule of making sources as accessible as possible. --—CYBERPOWER (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Cyberpower678-20220725140100-Dušan Kreheľ-2022072309510011Beantworten
@Cyberpower678 and anothers: Not every URL has a link in the archive. So changing the URL does not always equate to loss in the archive.
If archive.org does not have exactly such a URI in its history, it can offer a similar one (i.e. also with other parameters).
What should an archive bot do? Archive the current URI (or access it) or find the oldest archived version of the URI content? If we want the oldest archived version, then the idea is a mistake: the 0 changes from my bot is not the 0 changed URL in the site's history. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220725145800-Cyberpower678-2022072514010011Beantworten
gudn tach!
i'm not sure, whether we talk about the same thing. imagine the following scenario:
this is the scenario i mentioned at [1] and what was explained by Gestumblindi in this thread (and what was repeated by Cyberpower678 later in this thread).
is this scenario clear upto this point?
in this case the deletion of the php session id would break a working link. that's why you should not touch those archived urls (although there is an old tracking param inside).
such tracking params in archived urls may only be deleted, if you are sure that the resulting pages are the same. do you have a mechanism to ensure this? -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220725230300-Dušan Kreheľ-2022072514580011Beantworten
Why this discussion? I thought that this bot has been deactivated and cannot be used anymore. -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220726072200-Lustiger seth-2022072523030011Beantworten
we are talking about concerns that are actually independent of this special bot. furthermore the bot is deactivated for the present, but the problem might occur any time again. -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220726083300-Ulanwp-2022072607220011Beantworten
@Lustiger seth: do you have a mechanism to ensure this? No. And Your bot? --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220726200000-Lustiger seth-2022072523030011Beantworten
i just skip archived urls. [2] -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220726225000-Dušan Kreheľ-2022072620000011Beantworten
[Quelltext bearbeiten]

Der Bot muss sofort gestoppt werden, da er Links auf die Webseiten vom New Zealand Herald zerschießt: Original: http://www.nzherald.co.nz/nz/news/article.cfm?c_id=1&objectid=10810672 - zerschossen: http://www.nzherald.co.nz/nz/news/article.cfm?objectid=10810672. Gruß -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220722110200-Der Bot zerschießt Links von Webseiten des New Zealand Herald11Beantworten

Das sind die zerstörten Links: [3]. -- Gruß, aka Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Aka-20220722113500-Ulanwp-2022072211020011Beantworten
Danke für die Info, aber das sind nicht alle, habe auch schon knapp 50 repariert. Der Bot darf so nicht wieder starten !!! Gruß -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220722120600-Aka-2022072211350011Beantworten
Auch sowas hier: [4]. Da darf man wohl nun alle Artikeländerungen von heute durchgehen und einzeln checken. Oder halt generell alles von heute zurücksetzen und dann schauen wie es weiter geht.--Maphry (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Maphry-20220722122400-Ulanwp-2022072212060011Beantworten
Vielleicht sind auch hier noch ein paar dabei: [5]. -- Gruß, aka Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Aka-20220722123400-Maphry-2022072212240011Beantworten
Thanks for the report. I repariere Seiten und mein Bot. (@Aka, Ulanwp, Maphry: Ping.) ✍️ Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722130000-Ulanwp-2022072211020011Beantworten
@Dušan Kreheľ: Please stop developing bot-scripts. If you can't make sure that the bot doesn't produce errors, please stop it. Many Links now are damaged, not only these from New Zealand Herald, New York Times is also a victim of your script. -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220722131100-Dušan Kreheľ-2022072213000011Beantworten
@Ulanwp: New York Times: Haben Sie ein Beispiell? --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722131600-Ulanwp-2022072213110011Beantworten
Christopher Small ... and there might be more ... -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220723100400-Dušan Kreheľ-2022072213160011Beantworten
@Ulanwp: The change of URL is okey. The content on URL is everytime actived, with or without my URL change. --Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220723101200-Ulanwp-2022072310040011Beantworten
OK that's fine; yesterday it produced a 404 Error. But with your changes you are producing a lot of errors and works if you are not checking of a valid URL-Path. That's compulsory before changes. -- Ulanwp (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Ulanwp-20220723103300-Dušan Kreheľ-2022072310120011Beantworten

erledigtErledigt – The domain nzherald.co.nz is on the blacklist. ✍️ Dušan Kreheľ (Diskussion) Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Dušan Kreheľ-20220722142300-Der Bot zerschießt Links von Webseiten des New Zealand Herald11Beantworten

General proposals

[Quelltext bearbeiten]

Hi, let me share some proposals for this task:

  • check wheter the new (truncated) link returns http 404 or equal, and if so, keep it as it was (to avoid insertion of broken links)
  • also check if the old (untruncated) link returns http 404 or equal, and if so, keep it as it was (to adress the issue with the web archive brought up by Gestumblindi)
  • there should also be a domain blacklist, because simple parameter names like c_id could be used also in other contexts than tracking.
  • rule of thumb for edit rate in dewiki is 5 edits/min, so slow down a bit.

Regards, -- hgzh Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Hgzh-20220722135600-General proposals11Beantworten

@Hgzh: Meine Antwort.
I support the proposals and cannot follow the objection. The bot obviously causes some problems, and/so there is no reason to run this with high speed. (Already suggested in Special:Diff/224412796.) --Krd Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Krd-20220722153400-Dušan Kreheľ-2022072214290011Beantworten
i fully agree with Krd (and don't understand the objections against the http status checks, too).
CamelBot for example still uses the 5edits/min rate.[6] and normally it checks the http status code before changing links. -- seth Benutzer Diskussion:Du%C5%A1an Krehe%C4%BE (bot)#c-Lustiger seth-20220723211800-Krd-2022072215340011Beantworten