Diskussion:3D-Computergrafik

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 17 Jahren von Dunkel-san in Abschnitt Modelling
Zur Navigation springen Zur Suche springen

Hattet ihr was gegen meine Laienerklärung der 3D-Grafik vom Anfang, ansonsten könnte man das ja, vielleicht auch neu geschrieben, als "Wie funktioniert die Erstellung eines Bildes mit 3D-Grafik" unten anhängen? Schreibt mal bitte, wenn das ein Problem darstellt.

Ja, denn sie ist für viele der Verfahren der 3D-Computergrafik falsch. 3D-CGrafik ist nicht gleich Opengl. Im Raytracing z.B. wird nur sehr wenig in Polygone zerlegt (also, 3d Studio macht es , ok aber POV-Ray z.B. nicht...) Alles was du geschrieben hast gehört in Scanline Rendering / OpenGL / Texturierung etc. (auch wenn es da dann auch noch einiges zu korrigieren gäbe). Oben genanntes gibt es alles noch nicht, also ran.InikOfDoom--

Du wirst verstehen, dass das dann leider meine Kompetenzen überschreitet. Ich wäre dir aber dankbar, wenn du, da du dich ja anscheinend gtu auskennst, meinen Beitrag dann an die richtige Stelle verschieben würdest, wegen mir auch mit nötigen Änderungen oder zumindest dem Hinweis darauf. Oder du sagst mir, dass die Beschreibung wenigstens für aktuelle Spielegrafik allgemein stimmt (ok, z.B. Outcast war anders, aber das war 1996).Noamik

Klar ist die Definition von Echtzeit sehr umstritten... aber Aufgrund der drastisch gestiegenen Leistung von Grafikkarten in den letzten Jahren lassen sich immer hochwertigere Bilder in Echtzeit berechnen... suggeriert dem unbedarften Leser, daß Echtzeit (wie immer das definiert wird) mit handelsüblichen PC's möglich ist. Ich habe eine 3Dlabs Wildcat VP990 Pro mit 512 MB DDR-DRAM sowie 4 GB RAM - das kann nicht mehr als handelsüblich gelten und das Fahrrad im Beitrag rendert etwa 24 Minuten. Eine Diskussion zu führen, ob nun Echtzeit oder nicht finde ich sinnlos, da es keine klare Definition gibt. Ich wäre dafür, einige Beispiele einzuarbeiten, jeweils das Bild und dann Renderzeiten mit verschiedenen Programmen und Rechnern ??? -- Ralf 19:03, 19. Apr 2005 (CEST)

Ich glaube, daß du Real-Time Rendering mit Bildsynthese verwechselst. Mit dem Satz ist das Scanline-Rendering von Grafikkarten gemeint. Daß die damit erzeugten Bilder immer hochwertiger werden, sieht man an der Entwicklung der Computerspiele in den letzten Jahren. Bildsynthese dauert natürlich immer noch mindestens mehrere Minuten, wenn nicht gar Stunden. Das ist aber auch was anderes.

Am besten wäre es wohl, den Artikel in mehrere Sektionen einzuteilen (Bildsynthese/Echtzeitrendering), um die unterschiedlichen Anwendungsgebiete besser abzugrenzen. Phrood 19:12, 19. Apr 2005 (CEST)

ja, finde ich ok. Ich wollte ja auch mit meiner Änderung kein edit-war anzetteln, man sieht daran, was passiert, wenn verschiedene Benutzergruppen Begriffe verschieden definieren. Im Bereich CAD habe ich in den letzten 15 Jahren immer nur das als Rendern gehört was du als Bildsynthese beschreibst. Soll aber nicht heißen, daß ich Recht habe ;-) Beispiel: [1]. Dein Vorschlag wäre ein Ansatz, es dem unwissenden Leser näherzubringen. Gruß -- Ralf 20:08, 19. Apr 2005 (CEST)
Rendern kann beides bedeuten, Real-time oder "realistisches" Rendern (Bildsynthese). Der Begriff Rendern ist übrigens nicht nur auf 3D beschränkt, sondern kann auch für 2D-Grafiken, Sound usw. verwendet werden. Phrood 20:43, 19. Apr 2005 (CEST)
also der gebräuchliche Begriff ist "bildsynthese" ganz sicher nicht.

hör ich hier zum ersten mal. egal in welchem forum (englisch/deutsch, profi/anfänder), oder anleitung (englisch, deutsch, quer durch alle anwendungen) heißt das rendern. ich sehe diesen begriff als deutlich weniger korrekt an, da er einfach nicht genutzt wird. ich nutzte selber maya(mental ray) und kenn die meisten anderen programme, sowie unmengen an internetseiten zu dem thema... google ist da bestätigt mich da auch. 180.000 für rendern und 5.000 für bildsynthese, als wirkliche begründung seh ich das aber nicht umbedingt an. der begriff wird einfach nicht verwndet in diesem bereich. Metoc 01:15, 21. Aug 2005 (CEST)

Zumindest im Englischen ist der Begriff "image synthesis" weit verbreitet. Phrood 01:35, 21. Aug 2005 (CEST)
Es ist die Übersetzung, richtig, aber ebensowenig verbreitet wie das deutsche Wort. Darum wird in einer der größsten und wichtigsten 3d applikation auch kein mal das wort "image synthesis" verwendet (maya) im manual. und in einem Buch über den Vorgang der "Bildsynthese" ("rendering with mental ray", also über DEM renderer) heißt es von anfang an rendering. im artikel ist das wort "bildsynthese" ganz nützlich, aber in der realität ist es kein verwendetes wort. wenns bedeutsame quellen dagegen gibt, gerne. google nochmal, nun im englischen: rendering: 22.500.000, image synthesis: 4.780.00. wobei letzteres ausschließlich auf seiten von universitäten zu finden ist. Metoc
"Image synthesis" ist ein neuerer, aber mittlerweile weitverbreiteter Begriff. Seit einigen Jahren verwenden SIGGRAPH-Papers und Fachbücher bevorzugt diesen Begriff statt "fotorealistisches Rendern". Auch wenn sich bei den Anwendungsprogrammen der Begriff noch nicht durchgesetzt hat, so sieht es in der Forschung ganz anders aus. Phrood 00:25, 29. Aug 2005 (CEST)
[Quelltext bearbeiten]

bitte den link nicht wieder löschen. hab das bereits mit RdB geklärt Benutzer Diskussion:Rdb#GFX und 3D11

Ich habe den Link gelöscht siehe auch: Diskussion:Netzkunst#Links11 --87.162.71.72 Diskussion:3D-Computergrafik#c-87.162.71.72-2006-10-30T16:00:00.000Z-weblink augensound.de11Beantworten

für was haben wir das vorher ausdiskutiert, wenn gleich wieder irgendjemand daherkommt und alle vorher getroffenen Entscheidungen ignoriert? --Indy500 Diskussion:3D-Computergrafik#c-Indy500-2006-11-04T21:36:00.000Z-87.162.71.72-2006-10-30T16:00:00.000Z11Beantworten
Hier auf der Diskussionsseite ist nichts darüber zu lesen auch unter Benutzer Diskussion:Rdb#GFX und 3D11 ist nichts zu finden, wenn in diesem Artikel Werbung geduldet ist, ist es für mich OK, aber dann bitte ich dieses wenigstens zu kennzeichnen. --87.162.54.117 Diskussion:3D-Computergrafik#c-87.162.54.117-2006-11-08T02:12:00.000Z-Indy500-2006-11-04T21:36:00.000Z11Beantworten

"Außer DirectX und OpenGL gab es noch andere Ansätze, wie zum Beispiel Glide. Diese konnten sich allerdings nicht durchsetzen." -- Finde ich, ist nicht korrekt: Glide konnte sich sehr wohl durchsetzen und war in der Anfangszeit der 3D-Beschleuniger-Karten DER STANDARD schlechthin (zumindest im Spiele-Bereich). Dadurch, daß später auch andere Hardwareplattformen jenseits der 3DFX Voodoo Karten erschienen, kamen dann wieder die hardwareunabhängige(re)n Schnittstellen OpenGL und Direct3D und entsprechende Treiber zum Zuge.

Wenn es sich hätte durchsetzen können, würde man von Glide heute mehr hören. Glide ist wie der Wankelmotor beim Auto - eine Alternative aber kein Massenprodukt. Auch PHIGS war mal ein Standard - heut hörst du nichts mehr davon. Durchsetzen heißt Bestand haben und das kann man von Glide nicht behaupten.

Oberflächengrafik und Volumengrafik

[Quelltext bearbeiten]

Der Artikel ist in einer Hinsicht mangelhaft: Es gibt in der 3D-Computergrafik eine Trennung zwischen Oberflächengrafik und Volumengrafik:

  • Oberflächengrafik ist alles, was in diesem Artikel dargestellt wird. Modelle werden aus Oberflächen (Polygone, Splines etc.) zusammengesetzt und dann mit Verfahren gerendert, die hauptsächlich aus Schnittberechnungen Ebene-Sichtstrahl bestehen.
  • Volumengrafik modelliert eine Szene als dreidimensionales Gitter aus Voxeln. Sie wird hauptsächlich für bildgebende Verfahren verwendet.

Diese Trennung der Modellierung zieht sich durch sämtliche Anwendungsgebiete der 3D-Computergrafik hindurch; mit anderen Worten: Auch Raytracing und ähnliche Artikel weisen denselben Mangel auf (Raytracing beispielsweise wird auch für Volumengrafiken verwendet, das geht aber mit keinem Wort aus dem Artikel hervor). Ich werde deshalb jetzt den Artikel Volumengrafik einrichten und fordere Hilfe zur Durchsicht der anderen betroffenen Artikel an. --Θ~ 10:51, 16. Jan 2006 (CET)

Die Visualisierung von Voxelgittern ist zumindest bei Raytracing a priori kein fester Bestandteil des Algorithmus. Ein Voxelgitter wird einfach als neue Primitive mit einem speziellen Schnittpunkttest definiert. Daneben gibt es noch Digitales Raytracing, bei dem die gesamte Szene in kleine Würfel unterteilt wird, aber soweit ich weiß, wird diese Methode aufgrund der hohen Speicheranforderungen kaum verwendet. --Phrood 13:15, 16. Jan 2006 (CET)
Richtig, das Rendern von Voxeldaten ist ein Spezialfall für Raytracing. Da aber Raytracing bislang die einzige Möglichkeit ist, eine Volumengrafik zu rendern und die Volumengrafik von Bedeutung ist – wenn auch nicht für die Computerspiel-Gemeinde – sollte man meiner Meinung nach doch darauf hinweisen. In der Regel ist eine Umkapselung mit einem Primitiv nicht nötig, da Volumengrafiken meines Wissens bisher ausschließlich als alleiniger Szeneninhalt behandelt werden. --Θ~ 17:58, 17. Jan 2006 (CET)
Wenn sie aber alleiniger Inhalt sind, dann ist es aber kein Raytracing mehr, da ja das "Herzstück" von Raytracing, die Schnittpunkttests, fehlen. Vielmehr dürfte es sich um einen simplen Voxeldurchqueralgorithmus wie 3D-DDA o.ä. handeln. Aber da gibt es doch sicher einfachere und schnellere Algorithmen, die die Voxeldaten "slice by slice" aufaddieren? --Phrood 18:37, 17. Jan 2006 (CET)
Hm, ich verweise mal auf die Arbeiten von Thomas Ertl. Daraus folgende Punkte:
  • Er beschäftigt sich damit, (texture based) volume rendering auf aktueller Grafik-Hardware (GPUs) zu optimieren. Er nennt das (volume) ray casting.
  • Das Verfahren entspricht dem Raytracing-Prinzip hinsichtlich back-to-front-Addition, bei der Implementierung von empty space skipping wird meist ein quaderförmiges Primitiv um die Voxeldaten gelegt.
  • „Schnell“ ist im Umfeld von Volumengrafik ein Fremdwort. --Θ~ 18:54, 17. Jan 2006 (CET)
... was labere ich hier eigentlich lange rum, die englische Wikipedia hat dazu einen Artikel: en:Volume rendering. Aber eventuell hast du Recht in der Hinsicht, dass Raycasting als Ansatzpunkt besser geeignet wäre. --Θ~ 18:54, 17. Jan 2006 (CET)
In dem Fall wären die Ergänzungen in der Tat besser im Artikel Raycasting aufgehoben, da es sich ja nur um einen vereinfachten Spezialfall von Raytracing handelt. Aus dem englischen Artikel geht übrigens hervor, dass Raycasting nicht die einzige Darstellungsmethode ist und auch tatsächlich z.B. das "scheibchenweise" Rendering möglich ist. --Phrood 19:29, 17. Jan 2006 (CET)

Bausatz CD Website

[Quelltext bearbeiten]

Belehrt mich eines Besseren, wenn ich falsch liege, aber mir kommt es so vor als sei der Weblink hier unabgebracht, http://www.modelle-bauen.de/ ist doch eine inhaltslose, komerzielle Seite?! ... -> Ich nehm sie erstmal raus, wenn das falsch ist kann mans ja rückgängig machen...213.39.213.116 18:27, 16. Apr 2006 (CEST)

Modelling

[Quelltext bearbeiten]

Guten Tag. Ich habe mir mal erlaubt Box-Modelling als weitere Modelling-Technik hinzuzufügen. Feedback und Kritik willkommen --Dunkel-san Diskussion:3D-Computergrafik#c-Dunkel-san-2007-07-28T09:51:00.000Z-Modelling11Beantworten

Das Setzen von Lichtquellen und Bewegungspfaden ist kein Bestandteil der Modellierung. Diese beschreibt ausschließlich das Erstellen der (Polygon- oder NURBS-)Modelle. Andernfalls ist die Bezeichnung für den Bereich schlichtweg falsch. Gemeint ist wahrscheinlich das Szenen-Setup.

Korrekterweise müsste man die 3D-Computergrafik also in vier differenziertere Bereiche einteilen: Modellierung, Texturierung/Shading (mit Verweis auf 2D-Grafik), Animation und Rendering.

Habe leider keine Zeit, entsprechende Änderung am Artikel vorzunehmen, da dieser vollständig auf beiden Bereichen basierend verfasst wurde. Vielleicht hat ja jemand Lust und Zeit.