Diskussion:Transformer (Maschinelles Lernen)
Letzter Kommentar: vor 3 Monaten von Stauffen in Abschnitt Redundanz Attention Abschnitt und scaled-dot product attention
Allgemeinverständlichkeit
[Quelltext bearbeiten]Bitte zumindest die Einleitung allgemeinverständlich formulieren und dann den von mir eingesetzten Baustein wieder entfernen. --Hexakopter (Diskussion) Diskussion:Transformer (Maschinelles Lernen)#c-Hexakopter-2020-06-19T23:16:00.000Z-Allgemeinverständlichkeit11
- Habe versucht, die Einleitung allgemeinverständlich(er) formulieren. Hoffe, dass das erstmal eine genügende Verbesserung ist und werde den Baustein entfernen. --Hobbes1651 (Diskussion) Diskussion:Transformer (Maschinelles Lernen)#c-Hobbes1651-2020-09-04T14:07:00.000Z-Hexakopter-2020-06-19T23:16:00.000Z11
- Der letzte Satz vor dem Inhaltsverzeichnis ist abgeschnitten. Er endet mit einem "wie", darauf folgt nichts. --2A02:8071:5941:99C0:39C7:ED31:9191:BC21 Diskussion:Transformer (Maschinelles Lernen)#c-2A02:8071:5941:99C0:39C7:ED31:9191:BC21-20240425081500-Hobbes1651-2020-09-04T14:07:00.000Z11
Redundanz Attention Abschnitt und scaled-dot product attention
[Quelltext bearbeiten]Die Abschnitte sind redundant und das beste aus beiden sollte zusammengelegt werden biggerj1 (Diskussion) Diskussion:Transformer (Maschinelles Lernen)#c-Biggerj1-20240304072900-Redundanz Attention Abschnitt und scaled-dot product attention11