Diskussion:Bildauflösung/Archiv

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 3 Jahren von RainerBlome in Abschnitt Dual QHD (erl.)
Zur Navigation springen Zur Suche springen

Danke!

Der Artikel hat mir sehr geholfen, durch das Marketing-Auflösungs-Dickicht steigt doch keiner mehr durch!!! Danke an alle Autoren. Gruß, Ralf Ralf Pfeifer 23:17, 4. Jan 2006 (CET)

Danke! Welcher Voll-Honk hat eigentlich dafür gesorgt, dass die früher vorhandene Tabelle zu den Bildschirmauflösungen quasi nicht mehr auffindbar ist? Zumindest nicht mehr unter den eingängigen Begriffen! Ein weiteres Mal zeigt sich die Schwäche des Systems, dass selbsternannte Hilfsarbeiter an sich wichtige und informative Seiten / Einträge kippen...idiotisch! (nicht signierter Beitrag von 79.225.132.99 (Diskussion | Beiträge) 17:30, 5. Aug. 2009 (CEST))

Auflösung Digicams Bayer-Pattern

Die Pixelangaben bei Digicams sind eigentlich unvollständig. Der CCD hat die genannte Auflösung. Das Foto nur etwa 1/3 davon, da drei Pixel pro Bildpunkt benötigt werden (Bay

Also wenn ist es genau umgekehrt. Es gibt 1 Chip Kameras, die mit je 33% riten, grünen und blauen Pixeln arbeiten. Dann muss die Zahl durch 3 geteilt werden um die Bildpunkte zu errechnen. Ein Film besteht aus verschiedenen Schichten. Das heißt die unterschiedlichen Farbinformationen zu einem Bildpunkt werden genau an der selben Stelle "gespeichert". Daher erreicht Film ja auch so eine hohe Auflösung im Vergleich zu Digitalkameras.
das ist beides Quatsch. Das Bayer-Pattern besteht zu 50% aus grünen und zu je 25% aus roten und blauen Aufnahme-Elementen. Diese werden aber entsprechend interpoliert, so dass die Auflösung des CCD 1:1 zu den Pixeln des Bildes wird. Die Interpolation bringt kaum Informationsverluste mit sich, da Grün entsprechend der allgemeinen Kompressionsverfahren bevorzugt wird. Rot und Blau werden bei der (bei Digicams üblichen) JPEG-Kompression sowieso wieder "benachteiligt". Grüße 14:52, 7. Feb. 2007 (CET)
Das gilt nur in Bezug auf die Kontrastübertragungsfunktion, die für Helligkeitsunterschiede definiert wird. Außerdem wird die Auflösung von Kameras mit Bayer-Sensoren in fast allen Fällen (ich kenne nur das digitale Rückteil für die Leica R8/R9 als Ausnahme) sowieso durch Tiefpässe begrenzt, die sich zusätzlich vor dem Sensor befinden. Die Farbauflösung von digitalen Bildern (also die Kontrastübertragung von farbigen Strukturen) liegt in der Regel höchstens bei 200 bis 400 Linienpaaren pro Bildhöhe und kann daher sogar mit nur einem echten Megapixel vollständig dargestellt werden. Siehe auch Resolution for Color photography. Bautsch 20:25, 11. Feb. 2007 (CET)

Nichtrechteckige Pixelmengen?

Im Artikel heisst es: "Es kann aber auch vorkommen, dass die Bildpunkte unförmig und willkürlich angeordnet sind oder das Bild selbst gar keine Rechteckform besitzt. In diesem Fall ist eine Angabe der Form Breite × Höhe nicht sinnvoll und man begnügt sich mit der Angabe der Gesamtzahl der Bildpunkte wie in der ersten Variante." Kann mir mal jemand dafür ein Beispiel nennen? Uwe Kessler 16:36, 4. Okt 2004 (CEST)

  • Fall 1 (nicht quadratisch): Bei alten Computern (Atari, Amiga usw.) gab es eine Auflösung 640x400. Die Pixel waren ungefähr doppelt so hoch wie breit. Anderes Beispiel: digitales Fernsehen in Europa 720x576 mit einem Seitenverhältnis von 4:3 oder 16:9 – in beiden Fällen sind die Pixel also etwas breiter als hoch.
  • Fall 2 (nicht rechteckig): z.B. bienenwabenförmig angeordnete, sechseckige Bildpunkte wie beim Facettenauge (s. Abbildung)

-- Sloyment 22:16, 5. Okt 2004 (CEST)

Videoauflösung

Kann mal einer noch einfügen, was 1080p und 1080i unterscheidet? Das steht doch für progressive/interlaced. Wäre gut mal einzufügen, was daraus folgt... -- Michael Noack 2:06, 31. Jan 2005 (CEST)

Pixel / Bildpunkte / Dots bei Roehren-Monitoren, TFT-Monitoren, kleinen Displays, Kameras oder Druckern

Ist die Definition des Bildpunkts und seiner Farbaufloesung irgendwo klar zu trennen?

  • Beim Roehrenmonitor mit Lochmaske ist die Bildaufloesung wohl tatsaechlich der Lochabstand der Maske. Auf dem Monitorschirm entstehen dadurch aber drei Bildpunkte mit geringem Versatz zu einander. Optisch werden sie nur als einer wahrgenommen. Bei der Streifenmaske duerte es aehnlich sein, auch wenn die Bildpunkte auf dem Schirm weniger dreieckig zu einander, sondern eher nebeneinander angeordnet sind.
  • Beim TFT und den meisten Farb-Displays insgesamt ist immer abwechselnd ein R, ein G, ein B Bildpunkt neben dem anderen. Bei Monitoren werden diese drei Punkte wohl als ein Pixel zusammengefasst? Bei Kamera-Displays wird eher 'gemogelt': dort wird jeder Punkt einzeln gezaehlt.
  • Bei Bildsensoren der gaengigsten Bauart mit nebeneinander angeordneten Pixeln und farblicher Trennung (z.B. R/G/B-Pixel oder R/G1/B/G2-Pixel) ist die tatsaechliche Aufloesung die Zaehlung jedes einzelnen Pixels. Tatsaechlich enthaelt ein damit erstelltes Bild aber fuer jeden Bildpunkt die volle Farbinformation - die jeweils fehlenden Farben werden aus den Nachbarpixeln hineingrechnet (Ausnahme: RAW-Format).
  • Bei Farbruckern liegen Bildpunkte nicht nur nebeneinander, sondern uebereinander. Die Bildaufloesung wird hier vermutlich noch konfuser, je nachdem ob der einzelne Farbpunkt tatsaechlich mit z.B. 256 Abstufungen (3*8 bit = 24 bit RGB je Pixel) oder nur digital (Farbe ja oder nein) gedruckt werden kann - und bei letzterem die Farbabstufung ueber die Pixeldichte entsteht. Dies entspricht der einfarbigen Problematik von Schwarz-Weiss- oder Graustufendruckern. Wie ermittelt sich dann die Bildaufloesung eines digital arbeitenden Tintenstrahldruckers mit z.B. 100 Duesen Gelb, 100 Duesen Magenta, 100 Duesen Cyan, 100 Duesen Schwarz auf einer Hoehe von 2.54 mm und einer Horizontalaufloesung von 1000 dpi?

--Traut 11:15, 23. Feb 2006 (CET)

"Anti-HDTV-Propaganda"

siehe Versionsgeschichte des Artikels - scheint so, als hätte hier immer noch ein gewisser "Kameramann" gewütet, der zumindest in einigen Foren seitenlange Texte mit seinen Ansichten schreibt, wie etwa "hochauflösende Displays können PAL schlecht hochskalieren" (stimmt nur bei einigen) in immer neuen Variationen. Kann er natürlich, aber hier vermisse ich die Wikipedia-übliche Neutralität.--Madmaxx2 10:14, 22. Apr 2006 (CEST)

schau mal hier:

"Die meisten Stationen senden ihr Programm aber im PAL-Format. Da dies eine wesentlich geringere Auflösung als HDTV besitzt, müssen die neuen Fernseher das Bild hochrechnen ("interpolieren"). Dabei kommt es zu unscharfen oder grob körnigen Bildern. Das Problem der Flachbild-Fernseher: Mit dem alten TV-Format kommen vor allem teure Geräte klar, da sie dafür optimiert wurden. Wer daher heute Flachbild-TV mit scharfen Bildern schauen will, muss tief in die Tasche greifen. Die Fachzeitschrift "Video" beispielsweise empfiehlt den Philips 37 PF 9830, dessen Preis je nach Händler zwischen 3.200 und 4.000 Euro schwankt." http://www.ard.de/ratgeber/multimedia/bild-ton/flachbild-lcd-plasma-fernseher/-/id=274512/nid=274512/did=370062/1bt785g/index.html

oder hier:

Der Test der Stiftung Warentest zeigts: Mit HDTV-Signalen kommen die Riesenfernseher in der Regel gut klar. Bei herkömmlichen PAL-Signalen überzeugen die Bilder der meisten Fernseher jedoch nicht. http://www.testberichte.de/testsieger/level3_fernseher_lcd_fernsehgeraete_846.html

oder hier:

Die Tester warnen: "Wer sich von einem LCD-Bildschirm oder Plasma-TV eine Verbesserung der herkömmlichen Bildqualität erwartet, wird so gut wie immer enttäuscht." Das liege vor allem daran, dass die meisten Geräte mit dem noch vorherrschenden Bildübertragungsmodus PAL nicht zurechtkommen, das Bild ist deshalb oft relativ flau und etwas unscharf. http://www.nachrichten.at/leben/394874?PHPSESSID=eadfb27b2ddf5605cafbe78283de159e

und er kann es weiterhin nicht lassen - vielleicht sollte man den Artikel erst einmal für die Bearbeitung sperren (da es kein wirklich "wichtiges" Thema ist, wird das aber wohl nicht so schnell passieren). Wenn du willst dass sich niemand ein Gerät mit mehr als 1024x576 kauft kannst du das gern auf deiner privaten Homepage verbreiten, aber bitte nicht hier.--Madmaxx2 10:20, 28. Apr 2006 (CEST)
3 Quellen belegen, dass die Aussagen richtig sind. Es ist ein Problem ein Bild mit gerigerer Auflösung in einem höheren Raster darzustellen. Es gehört zur Neutralitätsverpflichtung dies im Artikel zu erwähnen. Wenn du das Gegenteil behaupten möchtest, kannst du das gerne auf einer Privaten Hompage machen.
...und umgekehrt. Wobei beim Runterskalieren immer Information verlorengeht, beim Hochskalieren nicht unbedingt. Stimmt, sowas können/sollten wir schreiben. --Eike 13:26, 29. Apr 2006 (CEST)
Wenn man nur Quellen heranzieht, die die eigene Meinung unterstützen, andere aber nicht einmal zur Kenntnis nimmt, dann ist das eben POV und nicht sachlich-neutral.--Madmaxx2 09:48, 30. Apr 2006 (CEST)
Wenn du eine Quelle weißt, die diesbezüglich etwas anders sagt, dann spricht doch nichts dagegen, diese zu berücksichtigen.

Abschnitt "Film" gehört dringend überarbeitet

[...]
Für Aufführung ohne Ausbelichtung sind 2K und 4K gemäß DCI empfohlen, wobei die netto genutzten Auflösungen hier typischerweise etwas geringer sind.
Die kleine 2K-Auflösung erreicht auf einer 12 Meter hohen Leinwand gerade mal 2,286 dpi und ist seit Mitte der 90iger Jahre der Arbeitsstandard für die meisten der Erfolgsfilme. Erst aus einem Betrachtungsabstand von 36 Metern erreicht das Bild die zu sehende Auflösung, die ein PAL TV aus dem 3fachen der Diagonalen hat. 35 mm Film erreicht diese maximal zu sehende Auflösung bei einer 12 Meter hohen Leinwand dagegen schon aus 6 - 9 Meter Entfernung. Diese Auflösung wird für den Löwenanteil aller Kinofilme benutzt.
[...]


Diesen Teil müsste irgendwer, der sich auskennt, neu schreiben. Ich habe zwar die Stil- und Rechtschreibfehler des restlichen Abschnittes ausgebessert, diesen Absatz kann ich aber mangels Kenntnissen nicht entwirren.

Im Detail:

  • "Für Aufführung ohne Ausbelichtung sind 2K und 4K gemäß DCI empfohlen"
Sollte das dem Verständnis wegen nicht in so etwas wie "Bei digitaler Projektion hat DCI die 2K- und 4K-Auflösung als Standard festgesetzt" oder habe ich was falsch verstanden.
Die DCI hat das empholen. Ursprünglich sollte nur 4k zugelassen werden, was etwa der Auflösung von 35 mm Film entspricht.
  • "Erst aus einem Betrachtungsabstand von 36 Metern erreicht das Bild die zu sehende Auflösung, die ein PAL TV aus dem 3fachen der Diagonalen hat."
Was heißt dieser Satz?
Bei der kleinen 2k Auflösung ist das Bild bei projejtion auf einer 12 Meter hohen Lainwand erst aus 36 Metern so scharf wie ein PAL Fernsehbild, das aus dem 3fachen der Diagonalen eines 16:9 TVs betrachtet wird. Also, das TV hat z.B. eine Diagonale von 80 cm. Genau genommen ist das Bild bereits aus dem 2,7fachen der Diagoalen so scharf wie das Kinbobild. Also aus rund 2,15 Meter Entfernung.
Bitte nicht verwirren lassen - reine Zahlenspielereien, siehe oben. Man könnte sich ja auch fragen, warum sich viele Leute gern einen größeren Fernseher oder Projektor kaufen und dann etwas weiter weg setzen, wenn man sich doch genausogut näher zu einem kleineren Fernseher setzen könnte und das Bild dann effektiv genauso groß erscheint (gleiche Bildauflösung einmal angenommen). In der Praxis dürfte es aber eben doch einen Unterschied machen. Sein Weltbild dürfte aber eben bei 76 cm Bildröhren-TVs enden ;-) --Madmaxx2 23:58, 30. Apr 2006 (CEST)

Satzstellung...

Ich habe den Satz „Als Pixel wird aber auch ein Farbpunkt eines Bildpunkts bezeichnet, der ebenfalls als Pixel bezeichnet wird.“ ein wenig sinnvoller gestaltet. Kann jemand noch den Sinn des Absatzen überprüfen? Ich finde, der Absatz klingt ein bisschen seltsam...
MfG K (D) 22:05, 29. Okt. 2006 (CET)

Unten ist ein Link ungültig. Leider habe ich noch keine Ahnung wie man den herausnehmen kann oder ob ich das überhaupt darf. Soll auch nur ein Hinweis sein für den der sich verantwortlich fühlt. Grüße und einen schönen Tag noch, Onkelix (nicht signierter Beitrag von Onkelix (Diskussion | Beiträge) )

Danke für den Hinweis. Ich habe ihn entfernt, war sowieso bloß ein Forenlink. Siehe auch Wikipedia:Weblinks. --jpp ?! 14:55, 9. Jan. 2007 (CET)

19-Zoll-TFTs (5:4) haben keinen Standard?

Mir ist aufgefallen, dass 19-Zoll-TFTs mit einem Seitenverhältnis von 5:4 (kein Widescreen) nicht auf eine Auflösung von 72dpi kommen. Haben sie deshalb keinen Standard?
Auswirkungen dieser 86dpi unter Windows (wo 72dpi eingestellt ist) sind vergrößerte Ansichten von Dokumenten und Bildern. Erst bei einem Maßstab/Zoomfaktor von 90% entspricht die Größe eines Objektes am Bildschirm dem Original. 19-Zoll-Widescreen-TFTs und 20-Zoll-TFTs erreichen wieder eine Auflösung von 72dpi.
MfG

Nur, weil sie nicht dem Quasistandard von 72 dpi entsprechen heißt das nicht, dass sie keinen Standard haben. So ziemlich alle Auflösungen, die bei LCD-Monitoren eingesetzt werden entsprechen Standardauflösungen nach Standards der VESA. Es gibt osgar Auflösungen, die auf 5:4 optimiert sind, z.B. 1280x1024, wobei 1280x1024 aber sehr oft bei 4:3Monitoren eingesetzt wird anstatt 1280x960, was eigentlich 4:3 entspricht. Das führt zu einem leicht verzerrten Bild, aber vermutlich wird 1280x1024 bei 4:3 Monitoren eingesetzt, weil eine 4-stellige Zahl sich marketingmäßig einfach viel besser anhört als eine 3-stellige. --MrBurns 05:49, 15. Aug. 2007 (CEST)

Fachausdruck?

... oder fehlt hier ein S in ANHALTPUNKT? => "angegeben als Anhaltpunkt für die theoretisch erreichbare Auflösung"

Ich glaub nicht, dass das ein Fachausdruck ist. Ich habs mal korrigiert. --MrBurns 10:55, 25. Jun. 2008 (CEST)

Bildschirmdiagonale

In den Verkaufsangaben steht immer die "Bildschirmdiagonale" und das Seitenverhältnis. Könnte man hier die Tabelle um die Diagonale ergänzen? Einige Leser möchten erfahren, wie hoch und breit denn das angegebene Bildschirmformat (in cm) etwa ist. Gruss. --Markus 10:41, 28. Sep. 2008 (CEST)

Sorry, bei keinem dieser Formate ist eine Bilddiagonale definiert, sonder nur das Seitenverhälötnis und die Auflösung. Es gibt z-.B. PAL-Displays mit 5" (12,7cm) z.B. bei portablen DVD-Playern, aber auch PAL-Displays mit >40" (40"=101,6cm).
Lediglich bei PC-Monitoren (TFTs) haben sich da gewisse Standards entabliert, aber die sind weder einheitlich noch zeitich konstant. --MrBurns 15:21, 1. Nov. 2008 (CET)

WXGA soll auch 1024x576 sein, aber das ist WidePAL

In der Tabelle gibt es beim 1. Vorkommen der Abkürzung WXGA auf der Seite folgende Zeile:

"WXGA Wide XGA 1024 × 576 16:9"

Zu den WXGA-Auflösungen soll also neben all den WXGA-Auflösungen welche min. 768 Zeilen (in der Vertikale) haben und deshalb einen logischen Bezug zu der dem Namen WXGA zugrundeliegenden XGA-Auflösung (1024×768) haben auch die Auflösung 1024x576 gehören.

1024x576 ist alledings schon gut mit dem Begriff WidePAL oder W-PAL abgedeckt und passt ja viel besser in die PAL-Ecke, da die ZeilenAnzahl von 576 eben typisch für den PAL/europäischen TV-AuflösungsBereich ist.

Viele ProjektorHersteller bezeichnen die 1024 × 576 zwar als WXGA, andere aber auch als WSVGA was eher nachzuvollziehen ist da ja die 576 Zeilen fast den 600 Zeilen von SVGA entsprechen.

Also ich würde dort in der Zeile mit der Auflösung 1024 × 576 lieber WSVGA eintragen (kann es aber nicht, da die Tabellen nicht bearbeitbar sind ;)



Ausserdem ist das Schema mit den verschiedenen Auflösungen in der Englischen WP viel besser und auch besser zu drucken da die Hintergrundfarbe nicht sschwarz sondern weiss ist:

Seite: http://en.wikipedia.org/wiki/Display_resolution direkt: http://en.wikipedia.org/wiki/Image:Vector_Video_Standards2.svg

als das auf den lokalen WP's in de, es, fr usw.

Seite: http://de.wikipedia.org/wiki/Bildaufl%C3%B6sung#Standards direkt: http://de.wikipedia.org/wiki/Bild:Video_Standards.svg

(Der vorstehende nicht signierte Beitrag – siehe dazu Hilfe:Signatur – stammt von WinNutz (DiskussionBeiträge) 09:49, 11. Nov. 2008)

Kein halbwegs brauchbarer und nicht schon steinalter Farbdrucker hat Probleme, bunte Linien auf schwarzem Hintergrund zu drucken. Aber er verbraucht natürlich mehr Tinte als umgekehrt und man kann natürlich nicht den Schnelldruck verwenden, sondern muß halt eine hohe Qualität einstellen. Nur der SW-Druck könnte problematsich sein, aber das ist bei allen Farb-Grafiken so, da man die einzelnen Farben teilweise schlecht unterschieden kann und auch bei weißenm Hintergund gibt es Farben, die sich kaum von diesem unterscheiden, z.B. Gelb, hellbraun,... --MrBurns 01:11, 12. Nov. 2008 (CET)

Abgesehen von dem erhöhten Tintenverbrauch beim schwarzen HG haben beide Motive ein generelles Problem bei handelsüblichen Druckern: die Feinheit der Linien. Ich finde zwar den schwarzen HG ästhetischer, muß aber zugeben, das er technisch mehr Probleme macht. Denn es besteht die Gefahr, das die schwarze Tinte über die feinen Linien "läuft". Die Frage ist jetzt, zählt Ästhetik oder Druckbarkeit? Oder anders formuliert: in den letzten Tagen haben jeweils ca. 1000 Nutzer diese Seite gelesen - wieviele davon haben ausgedruckt? Ich weiß es nicht, vermute aber, das es eher wenige gewesen sind. Zählt jetzt mehr die Leserlichkeit (Ästhetik) oder die Druckbarkeit (Tinte,...)? -- Friedrich Graf 08:26, 12. Nov. 2008 (CET)

Also wenn man für Tintenstrahldrucker geeignetes Papier verwendet, sollte normalerweise nix verlaufen. Zumindestens nicht so stark, dass es einem agnzen Pixel des Bildes entspricht. --MrBurns 15:15, 12. Nov. 2008 (CET)

Das ist richtig. Ich bin aber vom ungünstigsten Fall ausgegangen: alte Drucker + Normalpapier ("auf die schnelle mal ausgedruckt"). -- Friedrich Graf 15:34, 12. Nov. 2008 (CET)

Pixelseitenverhältnis

Wolte mir solche Tabellen mal selbst anfertigen und hätte nie gedacht, dass diese in dieser Ausführlichkeit schon vorhanden sind. DANKE DANKE DANKE


Diese Tabellen ließen sich aber perfektionieren, in dem man eine zusätzliche Spalte hinzufügt in der das Pixelseitenverhältnis angegeben ist. In den meisten Fällen wäre das ja 1:1.

Ich denke, dein Gedanke wäre HIER besser aufgehoben. Äussere ihn dort! -- Friedrich Graf 08:35, 12. Nov. 2008 (CET)

Analoge Pixel

Unter Bildauflösung#Übersicht stehen pixelgenaue Auflösungen. Ist das für analoge Aufzeichnungsmethoden nicht falsch? Also PAL hat ja nur Zeilen und in der Zeile geht es reichlich analog zu, ohne genaue Pixeleinteilung. Ist das bei den Bändern nicht ähnlich? In Super Video Home System steht übrigens:

VHS bietet bezogen auf die Bildhöhe etwa 240 vertikale Linien, S-VHS jedoch 400. Auf die gesamte Bildbreite gerechnet sind das etwa 320 Linien bei VHS, und ungefähr 530 bei S-VHS.

Das deckt sich ja auch nicht mit den hiesigen Angaben. Von mir aus könnte man auch einfach „ungefähr“ schreiben. – 91.4.54.62 22:50, 2. Dez. 2008 (CET)

Die Analogie der Pixel bei "analog" ist trotzdem so verkehrt nicht: schliesslich sorgt die Lochmaske im Fernseher für eine "punktgenaue" Darstellung (und ausschliesslich für diesen Zweck existiert schliesslich Video - egal welches). Vielleicht wäre ein erklärender Satz in diesem Abschnitt hilfreich. Zudem ist das klassische Video immer noch "digitaler" als andere "analoge" Bildaufzeichnungen.
Das Wort "analog" wird beim Thema Bildaufzeichnung heutzutage einfach zu sehr missbraucht - Beispiel: ein APS-Film wird als "analoger" Bildträger bezeichnet, dabei ist es ein "hybrider" Datenträger, also ein "körniger" Film mit einer magnetischen Aufzeichnungsschicht zur elektronischen Signalspeicherung. Naja, vermutlich wird dieses "aufräumen" in ganz Wikipedia zu lange dauern, ich denke der erklärende Satz (s.o.) ist die praktischere Alternative. -- Friedrich Graf 08:46, 3. Dez. 2008 (CET)

Die Bildröhre will ich sehen, die die Phosporpunkte exakt ansprechen kann. Bei vielen Fernsehern und einigen Monitoren kommt es allein schon mit Helligkeitsschwankungen zum „Pumpen“, die Pixel auf einem Monitor ändern also ihre Position. Mitunter ist die Bildgröße auch temperaturabhängig (ändert sich also im laufenden Betrieb). Zudem ist der Elektronenstrahl so fett, dass er mehrere Phosphorpunkte anregt (siehe Bilderzeugung in einer Farbbildröhre).
Wenn man noch berücksichtigt, dass sich das auf PAL bezieht (was ich erst nicht bemerkt habe), sieht man eigentlich gleich, dass das nicht so ganz stimmen kann, denn PAL hat nunmal nur Zeilen und innerhalb dieser analoges Gewurstel. Ich füge mal ein „ungefähr“ ein, damit sollte das eigentlich erledigt sein. – 91.4.5.16 19:46, 3. Dez. 2008 (CET)

Überladen

Könnte es sein, daß das alles etwas überladen ist? Wäre es nicht sinnvoller, daß diejenigen, die die sicherlich informativen Tabellen eingefügt haben, diese mitsamt dem zugehörigen Fachteil in einzelne Artikel separieren und hier nur versucht wird, den roten Faden zwischen den einzelnen Geräten und Fachbereichen zu spinnen? -- Sozi Dis / AIW 16:39, 24. Dez. 2008 (CET)

Ack. IMHO sollte insbesondere eine Trennung zwischen der traditionellen Drucktechnik sowie den Sensorformaten von Digicams vorgnommen werden. Beides hat nur sehr indirekt was miteinander zu tun. --Roland Berger 20:34, 25. Dez. 2008 (CET)

Relative Auflösung

Der Begriff ist irreführend und möglicherweise eine Erfindung der deutschen Wikipedia. Der Artikel sollte hierzu zusammen mit Relative_Aufl%C3%B6sung überarbeitet werden. Siehe auch Diskussion:Relative_Auflösung#.C3.9Cberarbeitungsvorschlag --Roland Berger 14:57, 4. Jan. 2009 (CET)

Beispiel-Smiley

Der Smiley ist bei mir nicht quadratisch. Es sollte besser durch ein PNG ersetzt werden, z.B. Friedrich Graf's Fisch.
Der Abschnitt schmeisst außerdem mit den Begriffen "Bildpunkt", "Zeilenverdopplung", "CRT", "Informationsverlust" usw. recht lässig um sich... --Roland Berger 13:30, 11. Jan. 2009 (CET)

Bearbeitungsvorschlag

Der Artikel sollte nach und nach überarbeitet werden und zwar nach folgenden Gesichtspunkten:

- Die Bildauflösung ist eine wesentliche Eigenschaft eines digitalen Bildes. Sie beschreibt die Zerlegung eines Bildes in einzelne Punkte oder Elemente in einem vorgegebenen Raster (Rastergrafik). Bezeichnungen und Begriffe sind geräteabhängig (Eingabegeräte, Bearbeitungsgeräte, Anzeigegeräte).

- In einer Digitalkamera oder einem Scanner erfolgt die Zerlegung des Bildes in Signalpunkte (samples) mit den Meßgrößen: samples per inch (Einheit: 1/inch) oder Punktabstand (Einheit: µm) über den Bildsensor (APS, CCD), der nur Intensitäten erfassen kann. Die Farberfassung erfolgt über einen Filter (Bayer-Sensor).

- Signalpunkte werden zu Pixeln (kleinste Informationseinheit eines Bildes) zusammengesetzt. Je nach Farbtiefe (in bit per pixel) wird ein Pixel z.B. mit 3 Bytes (24 bit) Speicherbedarf auf einem Speichermedium (SD-Karte, Arbeitsspeicher) gespeichert. Zusammen mit dem Dateiformat (z.B. JPEG, TIFF), das die Anordnung (Reihenfolge: zeilenweise, diagonal) in einem Header festlegt, ist ein Pixel vollständig durch Farbe und Position bestimmt. Die Anzahl der Pixel bestimmt den Speicherbedarf der Bilddatei.

- Und jetzt wird's kompliziert: Bei der Ausgabe des Bildes auf dem Bildschirm wird ein auf dem Rechner gespeichertes Pixel durch ein Quadrat mit einer einheitlichen Farbe und einer bestimmten Seitenlänge (in cm) angezeigt. Die Größe des angezeigten Pixels kann berechnet werden aus der Pixelanzahl des gespeicherten Bildes, der Größe des Bildschirms (Diagonale) und der gerätespezifischen maximalen oder über die Grafikkarte eingestellten "Bildschirmauflösung" ebenfalls angegeben in "x mal y" Pixel. Jedes Bildschirmpixel setzt sich am LCD-Bildschirm aus "Subpixeln" mit einer bestimmten Farbe zusammen, die durch die Grundfarben (Leuchtfarben) des additiven Farbsystems (Rot, Grün, Blau) festgelegt ist. Durch diese Doppeldeutigkeit des Begriffs "Pixel" entstehen immer wieder Mißverständnisse in den Diskussionen (Punkt oder Quadrat?).

- Wird ein Bild ausgedruckt, dann werden die auf dem Computer gespeicherten Pixel in Dots (Druckpunkte) zerlegt und nach dem subtraktiven Farbsystem mit den Körperfarben Cyan, Gelb, Magenta und zusätzlichen schwarzen Punkten zu Papier gebracht (siehe Diskussion zu "Relative Auflösung"). Für die Druckqualität sind die Angaben "dots per inch" oder im Offsetdruck auch "lines per inch" üblich.

- Im übrigen besitzt der Begriff "Auflösung" in der Physik eine andere Bedeutung. Und zwar ist damit das Auflösungsvermögen (Trennungsvermögen) z.B. des menschlichen Auges oder von optischen Geräten gemeint. Mit dem obigen Begriff besteht ein direkter Zusammenhang: Je größer die "Pixeldichte" (in pixel per inch) umso weniger kann das Auge, abhängig von der Sehentfernung und der Sehschärfe, 2 Pixel als getrennte Punkte wahrnehmen.

Es ist zu bemerken, daß sich dieser Artikel mit dem Artikel "Relative Auflösung" überschneidet. --DG 89.13.102.70 17:19, 13. Jan. 2009 (CET)

Angaben in Tabelle wirklich korrekt?

Meiner Meinung nach stimmen die Angaben bei den Seitenverhältnissen überhaupt nicht! Seit wann hat ein VHS- ideobild eine Auflösung von nur 320 zu 200? Dann hätte man ja nur eine "Briefmarke" auf dem Bildschirm! Der Eintrag ist somit mehr als fehlerhaft!! --88.74.17.229 23:52, 1. Mär. 2009 (CET)

VHS verwendet nicht-quadratische Pixel. Die horizontale Auflösung ist eigentlich nur eine Schätzung, da es bei VHS eigentlich nur Zeilen gibt und garkeine Pixel, sondern innerhalb der Zeilen kontinuirliche Übergänge. Allegemein muß man zwischen dem Seitenverhältnis der Auflösung und dem der Anzeige unterschieden, da Pixel eben nicht immer quadratisch sind. siehe auch Videoauflösung. --MrBurns 10:16, 2. Mär. 2009 (CET)

Seitenverhältnisse

Man sollözte sich mmal darauf einigen, ob in der Tabelle für das Seitenverhältnis das physische oder das pixelmäßige verwendet wird. Im Moment ist das uneinheitlich: z.B. bei VHS wird das physische verwendet, bei SVCD ddas pixelmäßige. Eine weiter Option wäre es, ebide Verhältnisse in getrennten Spalten anzuführen, es ist auch nicht bei jedem standard ein physisches Seitenverhältnis definiert. --MrBurns 22:13, 4. Sep. 2009 (CEST)

Vermutlich ist dein 2. Vorschlag der einzigst realistische. --Friedrich Graf 08:51, 5. Sep. 2009 (CEST)

Ist gut gemeint, aber die Einordnung ist überarbeitungsbedürftig

Bitte zumindest den Abschnitt "Einordnung" aufräumen, Wikipedia vermischt hier umgangssprachliches mit korrekten und unkorrekten Aussagen und verwirrt mit schwammigen Bezügen. Es gibt grundlegende Fehler, die nicht hier stehen sollten. Siehe auch meine Kommentare bei Punktdichte.

Bildgrösse und Bildauflösung gehören getrennt. Es gilt: Bildgrösse ist eine Angabe für die Grösse digitaler Bilder wie beispielsweise 1000px * 1000px oder insgesamt 1MegaPixel. Bildauflösung bezeichnet eine Angabe wie dpi oder l/cm. Wikipedia sollte die User nicht auffordern, dies zu verwechseln.

Bitte nur den Begriff Detailgenauigkeit verwenden. Der Begriff Qualität ist unangebracht. Auflösung ist NICHT ein Mass der Qualität, wie es zwei Absätze nach der Einführung des Begriffes dann auch relativiert wird. Bildqualität kann nicht alleine durch Auflösung beschrieben werden. Identische Wiedergabequalität ist eine Buzzword und sagt überhaupt nichts. Das Beispiel mit der favicon-Datei ist verwirrend und ohne jeglichen Bezug und hat gerade eben überhaupt nichts mit Bildauflösung zu tun.

Das Beispiel mit dem Zusammenhang macht intuitiv Sinn, ist aber unverständlich. Die aus diesem Zusammenhang herauszulesenden Informationen können in einem einzigen Satz zusammengefasst werden: Das reproduzierte Bild kann höchstens so gut sein wie die gelieferten Daten.

Quellen fehlen gänzlich. (nicht signierter Beitrag von 62.203.88.71 (Diskussion | Beiträge) 12:56, 3. Okt. 2009 (CEST))

Da ich dir bereits auf der Disk. Punktdichte geantwortet habe, greife ich mir hier nur einen Punkt deiner Gedanken heraus: Bitte nur den Begriff Detailgenauigkeit verwenden. Der Begriff Qualität ist unangebracht.:

Du hast recht "Qualität" ist nicht perfekt - "Detailgenauigkeit" allerdings noch weniger. Denn die größte Detailfülle wird innerhalb jedes Pixels transportiert (beim Standard-Digitalfoto beispielsweise bis zu 16,7 Millionen pro Pixel). Ich stimme dir auch zu, das der ganze Artikel durchsehen werden muß, bei der Fülle der zu überarbeitenden Artikel allerdings momentan etwas schwierig - hast du Lust?
In jedem Fall habe ich eben schon eine Kleinigkeit geändert. BG --Friedrich Graf 15:53, 3. Okt. 2009 (CEST)
Die Auflösung ist ein begrenzender Faktor für die Detailgenauigkeit. Wenn ein Bild verschwommen oder verwackelt ist, sieht man bei 10 Megapixel nicht viel mehr Details als bei 1 Megapixel und generell wird die Detailgenauigkeit auch durch die optische Auflösung begrenzt, die von der Bildauflösung zu unterscheiden ist. --MrBurns 20:32, 3. Okt. 2009 (CEST)
Ich habe den Begriff "Auflösung" aus gutem, eben o.g. Grund aus dem normalen Artikelfließtext verbannt, weil er so vielfältig und falsch verwendet wird. "Qualität" ist auch sehr schwammig und wir sollten versuchen, diesen Begriff auch möglichst präzise und klar zu formulieren. An einigen Stellen ist aber schon die Detailgenauigkeit gemeint. --Roland Berger 12:36, 5. Dez. 2009 (CET)

Bild"auflösung" -> Bildgröße

Was haltet ihr davon, den Artikel nach >>Bildgröße<< zu verschieben und einen Absatz einzufügen, in welchem auf die umgangssprachliche Verwendung "Bildauflösung" (im Sinne von Bildgröße in Megapixeln) eingegangen wird? --Roland Berger 12:39, 5. Dez. 2009 (CET)

... nicht so viel. Zum einen ist Bildgröße ein noch unschärferer Begriff als Bildauflösung. Zum anderen existiert hier ein deutlich größeres Problem: das inhomogene Konglomerat vieler Fachbegriffe. Nun können wir sicherlich eine bessere Struktur dafür schaffen; mir macht hier aber die momentane Löschwut in Wikipedia Angst, bei der mit dem Totschlagargument der Theoriefindung und der Relevanz sehr viel nieder gemacht wird.

Dabei ist das Grundprinzip relativ einfach: es gibt wenige Faktoren (wie Beispielsweise die Farbinformation), die in einer Datei auf unterschiedliche Art transportiert werden können. Alle Arten legen letztlich die Grenzen der theoretisch möglichen Qualität fest. Dazu kommen dann nur noch qualitätsbeinflussende Faktoren vorher (Beispiel Linsenunschärfe) und hinterher (Beispiel Konvertierung). Ein möglicher Arbeitstitel hierfür ist "Qualitätsbestimmende Strukturen von Bildern". --Friedrich Graf 16:42, 5. Dez. 2009 (CET) Werde Kommissar

Neutralität des Artikels

Am 4. Januar 2006, zum Zeitpunkt des Dankes, waren noch folgende Informationen im Artikel. Seit geraumer Zeit gibt es Probleme zwischen Eike Sauer und mir. Eike gibt vor neutral zu sein, hat sich aber im Thema HDTV auf die Seite der HDTV-Befürworter gestellt und versucht nun, den Kritikern Steine in den Weg zu legen. Unter anderem wurde ich von ihm wegen "Vandalismus" u.a. mit der Begründung gesperrt, eigene Berechnungen zur Kontrolle von Quellen seien eigene Forschung und daher verboten. Eigene Berechnungen von HDTV-Befürwortern werden von ihm aber nicht moniert. Der Artikel HDTV-Artikel ist nicht neutral, da der Leser nicht informiert wird, dass er aus dem normalen TV-Betrachtungsabstand allenfalls eine sehr geringe Bildverbesserung gegenüber dem heutigen Fernsehsystem PAL erwarten kann. Aktuell geht es um den Link Geht es schärfer als scharf? - Grenzauflösung des Auges sowie Ausführungen zu dem Thema Auflösung (Fotografie). Die gemachten Aussagen zur Grenzauflösung des Auges wurden von Mediengestaltern und Physikern bestätigt und können zudem anhand der auf der Seite verlinkten Testbilder objektiv kontrolliert werden. Betroffen sind auch die Artikel Auflösungsvermögen, Videoauflösung, PAL, HD ready und Sehschärfe Diskussion siehe Wikipedia:Vermittlungsausschuss/Problem zwischen Eike Sauer und mir -- nel, 28. Sep 2006 (CEST) (nicht mit einer vollständigen Zeitangabe versehener Beitrag von 828357196 (Diskussion | Beiträge) 04:24, 28. Sep. 2006 (CEST))

Auflösung Film

Also mal aus der Praxis, da ich heute Nacht ein paar doch recht haarsträubende Fehlinformationen in den Artikeln "Bildauflösung" und "HDCAM" korrigieren musste:

1.) Für KINOFILME wird seit rund zehn Jahren fast durch die Bank weg 2K-Auflösung bzw. CIF709(aka 1080p) für Nachbearbeitung und Ausbelichtung eingesetzt, das sind je nach Seitenaspekt/Pixeaskept 1920-2048 horizontal und 1080 bis 1556 vertikal - Anfang der 90er noch deutlich geringer, am Rande, ich rede jetzt von ~1995-2005.

2.) Erst seit jüngstem gibt es bei ein paar wenigen Ausnahmeproduktionen hier und 4K-Ausbelichtungen, allerdings reden wie hier nicht von Dutzenden, sondern von einzelnen Filmen pro Jahr. Die Zahlen, die hier teilweise in Artikel phantasiert wurden (33 Millionen Pixel, um Himmelswillen, das hatte eine arme Seele für Kino eingetragen) werden und wurden nicht genutzt!

3.) Es gibt weiterhin auch in der gesamten Filmproduktion _KEINERLEI_ Filmbelichter, die solche Auflösungen fahren - bei Arri, die tonangebend sind, ist das Maximum seit neuerer Zeit 4k, wobei kaum eine Firma in der BRD diese Geräte betreibt oder benutzt - dieses führte auch dazu, das die "frühen" nahezu 4k-Systeme (bspw. Kodak Cineon) allesamt eingestellt wurden, da sie sich nicht verkauften.

4.) Noch kurz zu mir, ich mache seit 16 Jahren beruflich Filme und schaue auf über 100 Master für Kino & TV zurück, an denen ich in unterschiedlichen Funktionen mitwirken durfte, darunter auch doch so einige internationale Produktionen mit zweistelligen Millionenetats. Kino, sei es auf 16 mm, 35 mm oder HDCAM basierend, geht löwenanteilig mit 2k auf den Belichter, nicht mehr und nicht weniger. (nicht signierter Beitrag von 84.190.92.226 (Diskussion | Beiträge) 08:58, 14. Apr. 2006 (CEST))

zu 1.) 2k mit 1080er-Vertikalauflösung erreicht auf einer 12 Meter hohen Leinwand gerade mal 2,286 dpi. Erst aus einem Betrachtungsabstand von 36 Metern erreicht das Bild die zu sehende Auflösung, die ein PAL-TV aus dem Dreifachen der Diagonalen hat.
zu 2.) Da ist nichts phantasiert. Die Auflösung von Film variert je nach Material und Beleuchtungsverhältnissen. Allerdings begrenzen die Objektive die Auflösung. Realistisch sind es 8 bis 13 Millionen Pixel, also eine vier- bis sechsmal höhere Auflösung als 2k.
Ich bin auch aus der Branche. Die kleine 2k-Auflösung liegt zwischen 16 und 35 mm. Sie erreicht erst aus dem Dreifachen der Bildhöhe die optimale Qualität, und die entspricht der Qualität, die ein 16:9-PAL-TV mit 540 sichtbaren Zeilen aus dem Dreifachen der Diagonalen erreicht. (nicht signierter Beitrag von 89.50.148.41 (Diskussion | Beiträge) 13:13, 20. Apr. 2006 (CEST))
zu 2.) Also ich störe ja ungern, aber ein paar Kleinigkeiten sollte man da beachten - nehmen wir mal an, der Film läuft in einem Kino. Nehmen wir weiterhin an, der Film wurde mit einer Kamera auf Negativfilm gedreht - nun würde typischerweise eine Interneg/Positivkopie-Produktionskette ausgeführt, also die vierte kopie genutzt werden, vorausgesetzt, man verzichtet auf Farbkorrektur, dann wäre das eher die sechste Kopie.
Nehmen wir weiterhin an, der Film spielt nicht nur tags und beinhaltet nicht nur Aussenszenen - dann wärst du mit asa 400, 800, 1600 und ja auch 3200 am drehen -, bevor der Kopierprozess beginnt. Nehmen wir die Sache noch etwas weiter und bleiben absichtlich noch beim Lichtton - kommt nochmals mindestens eine Kopie dazu.
Man kriegt bei einer klassischen Distributionskopie typischerwese am Ende so um die 800 bis 1200 Zeilen tatsächliche Auflösung.
Weiterhin sei noch die Frage erlaubt, woher du deine Zahlenangaben beziehst - Kodak hat für Cineon nicht mal 4K spezifiziert, am Rande angemerkt.
zum Beruf:
Darf ich fragen, in welchem Beruf? Wenn du in der Filmproduktion tätig bist, wüsstest du doch, das schon seit gut einem Jahrzehnt grade die _erfolgreichen_ Filme fast durch die Bank weg in 2K belichtet werden - digital oder chemisch aufgezeichnet hin oder her. Von den 1Ks Anfang der 90er sehen mir mal freundlich ab. (nicht signierter Beitrag von 84.190.84.232 (Diskussion | Beiträge) 16:57, 23. Apr. 2006 (CEST))
Auch wichtig - Kino ist nicht nur spatial, sondern auch temporal aufgelöst - eines der Hauptprobleme ist der via Malteserkreuz zu unterbrechende Lichtstrom.
Weitere Themen wie Bildstand, Alterung/Abnutzung usw. spreche ich hier noch nicht einmal an.
Ich würde es sehr begrüssen, würdest du deine Quellen mal angeben - insbesondere, welche Filme du meinst, da ich persönlich kaum mehr erfolgreiche Filme ohne 2K DI, ganz selten 4K DI in den letzten Jahren kenne.
Mal abschliessend bemerkt: Ich arbeite mit 4k- und 2k-Projektoren und kenne den visuellen Unterschied aus der Praxis - es würde mich sehr wundern, wenn wir in 10 Jahren auch nur 25% 4K-Belichtungen sehen. Selbst im Vorführkino in a/b-Bildsplit sieht man nur mit Adleraugen in den vordersten Reihen bei Testbildern Unterschiede. Mal ganz offen gefragt - hast du überhaupt schon mal aktuelle 2K-/-4K-LCOS-Projektoren gesehen? Und wenn ja, wo? (nicht signierter Beitrag von 84.190.84.232 (Diskussion | Beiträge) 17:03, 23. Apr. 2006 (CEST))
Nehmen wir an, der Film wird mit 35 mm gedreht und mit 4k geschnitten und dann wieder auf 35 mm ausbelichtet. Ich schätze, dass alle großen Hollywoodproduktionen mit 4k geschnitten werden. Außerdem hat Film eine Auflösung von 8k. Die Objektive bringen aber nur 4k aufs Bild. Also genügend Spielraum für einige analoge Kopien.
Bei schlechten Lichtverhältnissen geht auch die digitale Auflösung in den Keller. Mal ganz davon abgesehen, dass die HDCAMs wegen der kleinen Chips nicht die 1080er-Auflösung voll nutzen können, da die Objektive das nicht schaffen, wie man auf Screenshoots deutlich sieht. Wenn man den PAL-Ausschnitt nimmt, ist da nichts sonderlich scharf. Außerdem wurden die schlechten Lichtverhältnisse bei der Berechnung berücksichtigt.
Es hängt natürklich auch davon ab, wie auf 35 mm aufgenommen wird. Also anamorph oder nicht. Die kleine 2k-Auflösung liegt nach allen Erfahrungen zwischen 16 und 35 mm.
Handelsübliche Kleinbildfilme haben ein Auflösungsvermögen von 40 bis maximal 150 Linien pro mm. Setzt man direkt "Linien pro mm" mit "Pixel pro mm" gleich, dann erhält man bei dem Kleinbildformat von 24x36 mm eine Gesamtauflösung von 1,3 MPixel bis ca. 20 MPixel. Zum Auflösen einer Linie benötigt man aber in horizontale und vertikale Richtung je 2 Pixel. Damit erreicht ein Kleinbildfilm also 5,2 bis 80 MPixel.
Bei Digitalsystemen können mit 100 Pixeln horizontale Auflösung aber nur 77 unterscheidbare schwarze und weiße Linien dargestellt werden. Die errechnete Zahl muss daher um 23% pro Achse erhöht werden. Kleinbildfilm hat daher eine reale Auflösung von 8,8 bis 135 Millionen Bildpunkten.
Um nun mit den Angaben für mit Bayer-Sensoren ausgestattete Ein-Chip-Kameras zu vergleichen, muss man die Zahlen durch 2 teilen und mit 3 multiplizieren, da bei der Digitalfotografie die Farbpixel des Bayer-Sensors und nicht die Bildpunkte angegeben werden. Kleinbildfilm hat also äquivalent 13 bis 203 MPixel. Gute Objektive sollen in der Kleinbildfotografie eine Auflösung von ca. 20 Millionen Bildpunkten erlauben. Dias und Negative werden mit 9,9 Millionen Bildpunkten gescannt.
Bei Videoformaten und 3-Chip-Kameras werden aber die realen Bildpunkte angegeben, wobei bei 3-Chip-Kameras auch nicht alle nutzbar sind. Vertikal können mit 100 Pixeln Auflösung nur 65 unterschiedbare schwarze und weiße Linien angezeigt werden (Kellfaktor), horizontal jedoch 77 bei hundert Pixeln Auflösung. Equivalent zu Videoformaten hat der 35-mm-Film (Cinemascope 21,3 x 18,2 mm) eine Auflösung von 4,7 bis 72 Millionen Pixel.
Wieso ist das ein Problem? Es werden Vollbilder gezeigt, die einmal unterbrochen werden. Bei Video werden die "Vollbilder" zeilenweise aufgebaut. Daher solte die Frequenz mindesten 75 Hz betragen. Besse noch 100 Hz, sonst flackert es. Ein Bild wird also viermal gezeigt. In früheren Zeiten hatte Kino nur 16 Bilder pro Sekunde. Da wurde dreimal unterbrochen. Also wie heute 48 Hz. Da Kino nur 48 Hz braucht, kann das Malteserkreuz kein Problem sein.
Der Bildstand wackelt leicht, was aber nicht zu sehen ist, wie auch das zeilenweise Aufbauen der Videobilder bei einer Frequenz von 100 Hz nicht zu sehen ist. Die Videobilder wackeln sozusagen auch. Abnutzung ist bei Video besser. Allerdings werden die meisten Filmkopien in den USA so angefertigt, dass sie nur rund einen Monat halten. Dann ist der Umsatz des Films eingespielt. Die Abnutzung hängt im wesentlichen von einem sorgsamen Umgang der Filmvorführer mit dem Material ab. Man sieht insbesonde, wenn neue Rollen kommen, dass sich dort Staub absetzt. Das sind aber nur ein paar mehr oder weniger störende Sekunden. Ansonsten hat Video den Nachteil, dass der Film nicht unbedingt so zu sehen ist, wie es gewollt ist. Verschiedene Qualitäten der Projektoren einerseits, andererseits können die Kinobesitzer nach eigenem Geschmack den Filmlook beeinflussen. Durch Aufschärfen und/oder Veränderung der Kontraste und Farben.
Dazu siehe:
35-mm-Ausbelichtung vom Datenträger oder Video
Die Filmbelichtung ab Datenträger erfolgt hochauflösend 2k bis 4k, 24-bit lin bis 30-bit log auf unseren 35-mm-Cine-Recordern. Die belichteten Bildbreiten entsprechen mit horizontal 1828 (2k) und 3656 (4k) Pixeln dem Cineon®-Digital-Film-System von Kodak©. http://www.pixelpartner.de/filmrecording.htm
Ich bin Kameramann und drehe hauptsächlich auf Video, was nicht unbedingt einfacher ist als Film.
Meine Quelle: Ich lese den Kameramann, Cut und Professional Produktion. Die 2k Auflösung bringt wie gesagt optimale Qualität ab dem Dreifachen der Bildhöhe und akzeptable Qualität ab dem Zweifachen der Bildhöhe. Im Kino sollte aber schon ab einem Betrachtungsabstand des Einfachen der Bildhöhe optimale Qualität erreicht werden. Bei digitaler 2k-Projektion sind Pixel zu erkennen. Bei 4 k nicht.(nicht signierter Beitrag von 89.50.135.155 (Diskussion | Beiträge) 14:04, 25. Apr. 2006 (CEST))
Zur Auflösung:
Kein Wunder, dass die Höhe der Auflösung auch über Dauer und Preise entscheidet. Man unterscheidet im Prinzip zwischen 2K, das sind 2000 Bildpunkte pro Zeile, und 4K, also 4000 Bildpunkte pro Zeile. Die höhere Auflösung entspricht fast der Filmauflösung und ist damit für Kinozwecke angesagt. Kein Wunder, dass die Höhe der Auflösung auch über Dauer und Preise entscheidet. Doch Auflösung ist, wie wir wissen, nicht alles. Ein Unterschied der Ausbelichtung von Video, bei dem jeder Bildpunkt starr immer an der gleichen Stelle sitzt, zum Film ist, dass auf dem Filmmaterial winzige Farbpigmente nach dem Zufallsprinzip jeweils in der Nachbarschaft zueinander sich abwechseln, eine bestimmte Farbe wiederzugeben, bzw. wegzufiltern. Die effektive Auflösung sinkt dadurch auf die erwähnten 4K, aber durch diesen Effekt wirkt eine Filmaufzeichnung organischer als eine Videobelichtung. Um diesen Effekt abzuschwächen, werden beim Ausbelichten auf Wunsch per Software ähnliche Zufallsmomente bei der Wiedergabe benachbarter Pixel in die Bildinformation hineingerechnet. http://www.movie-college.de/filmschule/medien/filmausbelichtung.htm (nicht signierter Beitrag von 89.50.135.155 (Diskussion | Beiträge) 14:09, 25. Apr. 2006 (CEST))
Pixel Visibility – Sie ist ein augenscheinliches Problem digitaler Projektionen und ergibt sich aus der Kombination von Auflösung, Projektortechnologie, Pixeldichte sowie der Position des Betrachters zum Bild. Während 2k auf eine Entfernung der dreifachen Bildhöhe optimiert ist, muss bei Kinoprojektionen eine durchschnittliche Entfernung von einer Bildhöhe berücksichtigt werden. Um also die gleiche visuelle Qualität zu erreichen, bedarf es einer mindestens doppelt so hohen Auflösung wie der von 2k, also 4K. (...)
http://www.ffa.de/start/content.phtml?page=digikino_technik_standard (nicht signierter Beitrag von 89.50.135.205 (Diskussion | Beiträge) 08:48, 27. Apr. 2006 (CEST))

Vertikale und horizontale Auflösung

"Vertikale und horizontale Auflösung können sich unterscheiden, was nicht-quadratische Bildpunkte bedeutet." Das stimmt so nicht, wenn man als Auflösung die Anzahl der Pixel pro .. betrachtet. nur das Bild ist dann wie üblich nicht quadratisch. --> Ändern, streichen? (nicht signierter Beitrag von 80.137.249.227 (Diskussion | Beiträge) 10:53, 14. Mär. 2006 (CET))

Unterschied zwischen Bildpunkt und Pixel?

Was genau ist denn nun der Unterschied zwischen Bildpunkt und Pixel? Der Artikel Pixel sagt, dass es genau das selbe ist. Und auch in diesem Artikel wird nicht klar, was der Unterschied sein soll. 1600*1200 Bildpunkte ist das selbe wie 1920000 Pixel. Einmal multiplizier ich die Zahlen aus, und einmal nicht. Die Angabe xxx * xxx enthält natürlich mehr Informationen (Breite mal Höhe der Auflösung), aber letztlich die selbe Einheit Bildpunkte=Pixel. Wenn mir niemand sagt, was der Unterschied ist, werde ich das entsprechend ändern. --Coma 16:46, 28. Jan 2003 (CET)

Der Unterschied zwischen Pixel und Bildpunkt ist so gering, dass die Diskussion darüber an Haarspalterei erinnert. Ein Pixel ist "nur" ein Punkt eines Bildes. Bildpunkte hingegen sind eigendlich das Selbe, implizieren jedoch eine Ortsangabe in Form von Breite mal Länge. Ein Bildpkt kann eindeutig lokalisiert werden, ein Pixel hingegen nicht. Ich weis, das ist unbefriedigend, habe aber im Moment keine Zeit dies auseinanderzuklamüsern. Werde dies später tun, wenn gewünscht. Noamik 01:00, 2. Feb. 2003 (CET)
Das Problem bei Bildpunkt und Pixel ist, dass die beiden fast identisch sind, allerdings aus einer Unterschiedlichen Begriffswelt kommen. Bildpunkt kommt wahrscheinlich aus dem Hardwarebereich, Pixel ist hingegen eindeutig der Software zuzuordnen. Um´jetzt aber alles zu verwirren, wird das Wort Bildpunkt aber auch oft im Grafik- Designbereich verwendet, da man dort meist auf eine genaue Lokalisierung (Breite mal Höhe) angewiesen ist. Generell aber kann man sagen, dass Pixel etwas "hoeherwertiger" ist, ein Bildpunkt kann z.B. aus mehreren Pixeln berechnet werden. Dies geschieht zum Beispiel in sämtlichen Anti-Aliasingverfahren. Intern rechnet man dort mit hoeherer Auflösung (->mehr Pixeln) als man letztendlich Bildunkte erhält. Dies ist zwar bestimmt nicht der Weisheit letzter Schluss zu dem Thema, aber besser kann ichs glaub ich leider nicht erklären.
Noamik 17:56 3. Feb. 2003 (CET)
Das mit den Koordinaten kann ich so nicht nachvollziehen. Auch Pixel besitzten nach meiner Auffassung Koordinaten. Und im allgemeinen Sprachgebrauch scheint man sowieso keinen Unterschied zu machen. Also gebrauchen höchsten Grafiker, Hardwarespezies oder sonst eine "Randgruppe" die Begriffe nicht synomym. Dann muss man sagen, wer sie warum nicht synomym verwendet und wo der Unterschied liegt. Ob ich ein Bild in Datenform vorliegen habe, oder es tatsächlich auf dem Bildschirm angezeigt wird, macht für mich auch keinen Unterschied. Eventuell sollte man diese Diskussion nach [Pixel]] oder Bildpunkt verschieben... --Coma 13:00, 4. Feb 2003 (CET)
... oder ganz abbrechen. Wie du sagtest, interessieren tut der Unterschied nur "Randgruppen" (wie mich) die sich intensiv mit dem Thema beschäftigen, und für die hatte ich mir den Artikel sowieso nicht gedacht, weswegen ich den Unterschied auch nicht ausführen wollte. Wenn die Bemerkung aber nur Verwirrung stiftet, sollte sie wirklich gestrichen werden. Mir ist inzwischen auch aufgefallen, dass ich nicht wirklich in der Lage bin das auseinanderzufriemeln, so dass eine Streichung wohl wirklich das sinnvollste ist.
Noamik 21:12, 12. Feb. 2003 (CET)
Keiner, auch nicht fast keiner. Der Unterschied fängt da an, wo ein digitales Bild gedruckt wird, also an der Grenze von digital zu analog! Ein Punkt eines digital gespeicherten Bildes wird als Pixel bezeichnet. Die Anzahl der Pixel in horizontaler Richtung PRO LÄNGENEINHEIT (z.B. 72 Pixel pro Inch = 72 ppi) ist die Bildauflösung. Die Menge aller Pixel eines Bildes (Höhe x Breite) ergibt das, was plakativ bei einer Digicam in Megapixel als Qualitätsmerkmal bezeichnet wird. Bei einem RGB-BILD kann ein Pixel maximal ca. 16,7 Mill. unterschiedliche Farbtöne haben, erzeugt aus einem Gemisch aus max. 256 Rot-, 256 Grün- und 256 Blautönen. Anders siehts aus, wenn ein Bild gedruckt wird. Ein Drucker kann vielleicht 600 (oder mehr) Punkte PRO LÄNGENEINHEIT nebeneinander drucken (600 Punkte=dots pro Inch = 600 dpi), jeder Punkt hat jedoch in der Regel nur eine (1!) Farbe (je nach Druckermodell). Zudem sind diese Farben in der Regel Cyan, Magenta, Gelb (Yellow, und häufig noch Schwarz, im englischen auch "Key" genannt (ergibt eine Farbmischung im CMYK-Modus). Unterschiede in der Helligkeit eines Bildpunktes können also nur durch Variation der (Druck-)Punktgröße erreicht werden.
Kurz: Um einen Punkt = ein Pixel = die kleinste Einheit eines digitalen Bildes zu drucken, bedarf es mehrerer gedruckter Punkte. Wer jetzt glaubt, das man mit einem 600 dpi Drucker alle Details (Pixel) eines Bildes mit maximal 200 dpi drucken kann, glaubt das Richtige. (nicht signierter Beitrag von 217.255.75.82 (Diskussion | Beiträge) 22:31, 24. Apr. 2004 (CEST))

Monitore

Haben Monitore wirklich eine "feste Auflösung" (vorletzter Absatz des Artikels)? Nun gut, LCDs natürlich ja, aber Röhrenmonitore auch? Was passiert wenn man einen 17-Zöller nimmt und statt der üblichen 1024x768 nur 800x600 drauf los lässt? Findet dann im Röhrenmonitor eine Art von Interpolation statt oder wird die Elektronik so umgestellt, dass der Kathodenstrahl einfach weniger Zeilen abfährt und größere (?) Pixel darstellt? 141.14.159.46 20:10, 4. Aug 2003 (CEST)

Mit fester Auflösung ist nat. die feste Punktzahl der Lochmaske gemeint. Aufgrund der Technik ist so gut wie keine Interpolation nötig, jedenfalls nicht horizontal. Wie das vertikal gemacht wird, weiß ich auch nicht. --Coma 20:23, 4. Aug 2003 (CEST)

Temp1

Beschreibung Auflösung Verhältnis Pixel modulo 8 == 0 modulo 16 == 0
XGA/(2×2), x × 4/3y 512 × 384 4:3 196 608 ja/ja ja/ja
x × y 512 × 288 16:9 147 456 ja/ja ja/ja
PAL/SECAM, 4/3x × 2y 768 × 576 4:3 442 368 ja/ja ja/ja
2x × 2y 1 024 × 576 16:9 589 824 ja/ja ja/ja
XGA, 2x × 2_2/3y 1 024 × 768 4:3 786 432 ja/ja ja/ja
2¼x × 3y 1 152 × 864 4:3 995 328 ja/ja ja/ja
3x × 3y 1 536 × 864 16:9 1 327 104 ja/ja ja/ja
3x × 4y 1 536 × 1 152 4:3 1 769 472 ja/ja ja/ja
4x × 4y 2 048 × 1 152 16:9 2 359 296 ja/ja ja/ja
2 048 × 864 64:27 ~ 2,37 1 769 472 ja/ja ja/ja
WSXGA/(2×2) 800 × 450 16:9 360 000 ja/nein(->448) ja/nein(->448)
WSXGA+/(3×3) 560 × 350 14:9 196 000 ja/nein(->352) ja/nein(->352)
1080/(3×3) = 720/(2×2) 624 × 352 < 16:9 219 648 ja/ja ja/ja
640 × 360 16:9 230 400 ja/ja ja/nein(->352)
WUXGA/(3×3) 640 × 400 16:10 256 000 ja/ja ja/ja
1080/(3×4) 640 × 272 40:17 ~ 2,35 174 080 ja/ja(<-270) ja/ja
576 × 256 9:4 = 2,25 147 456 ja/ja ja/ja

(nicht signierter Beitrag von Crissov (Diskussion | Beiträge) 23:02, 21. Feb. 2005 (CET))

Temp2

Bevorzugte Auflösungsserien
x 4:3 16:9 ÷8 ÷16 ÷a
128 96 72 16 8 1
256 192 144 32 16 2
384 288 216 48 24 3
512 384 288 64 32 4
640 480 360 80 40 5
768 576 432 96 48 6
896 672 504 112 56 7
1024 768 576 128 64 8
1152 864 648 144 72 9
1280 960 720 160 80 10
1408 1056 792 172 88 11
1536 1152 864 192 96 12
1664 1248 936 208 104 13
1792 1344 1008 224 112 14
1920 1440 1080 240 120 15
2048 1536 1152 256 128 16
x 4:3 16:9 ÷8 ÷16 ÷a
160 120 90 20 10 1
320 240 180 40 20 2
480 360 270 60 30 3
640 480 360 80 40 4
800 600 450 100 50 5
960 720 540 120 60 6
1120 840 630 140 70 7
1280 960 720 160 80 8
1440 1080 810 180 90 9
1600 1200 900 200 100 10
1760 1320 990 220 110 11
1920 1440 1080 240 120 12
2080 1560 1170 260 130 13
x 4:3 16:9 ÷8 ÷16 ÷a
192 144 108 24 12 1
384 288 216 48 24 2
576 432 324 72 36 3
768 576 432 96 48 4
960 720 540 120 60 5
1152 864 648 144 72 6
1344 1008 756 168 84 7
1536 1152 864 192 96 8
1728 1296 972 216 108 9
1920 1440 1080 240 120 10
2112 1584 1188 264 132 11
Glatt durch sechzehn bzw. durch acht teilbare Zeilenzahl hervorgehoben.

(nicht signierter Beitrag von Crissov (Diskussion | Beiträge) 23:02, 21. Feb. 2005 (CET))

y 3:4 9:16 colspan="3" ÷16
144 192 256 9 12 16
288 384 512 18 24 32
432 576 768 27 36 48
576 768 1024 36 48 64
720 960 1280 45 60 80
864 1152 1536 54 72 96
1008 1344 1792 63 84 112
1152 1536 2048 72 96 128
1296 1728 2304 81 108 144
1440 1920 2560 90 120 160

(nicht signierter Beitrag von Crissov (Diskussion | Beiträge) 17:39, 23. Feb. 2005 (CET))

Wie groß ist ein Bild zu sehen?

(Frage aus Artikel hierher verschoben. Anton)::

Wie groß ist ein Bild von x Zentimetern Höhe aus einem Betrachtungsabstand von y Metern zu sehen?

Es ist eine Relation. Wird der Betrachtungsabstand verdoppelt halbiert sich die gesehene Größe des Bilds. (umgekehrte Proportionalität y = 1 geteilt durch x)

Ein andere wäre zu sagen, dass aus 75 cm Entfernung das Objekt seine Größe hat. Das ist realistisch, wenn man aus dieser der Entfernung auch ein Objekt mit einem Lineal zu messen ist. Entfernst du dich nun von dem Objekt, kannst du seine gesehene Größe ja auch messen, wenn du das Lineal in 75 cm Abstand vor dir hältst. Beispiel: Mein Monitor ist 32 cm breit. Aus einem Meter Abstand ist er so gemessen ca. 16,5 cm breit. Aus zwei Metern ist er so gemessen ca. 9,5 cm Breit. Wenn 32 cm = Abstand 1. Ein Meter wäre demnach die Verdopplung. 2 Meter ist die Verdopplung von 1 Meter. Abstand 1 müsste demnach 50 cm oder 60 cm sein. Also seine "normale Größe" hat ein Monitor im Abstand von 50 cm - 60 cm. Das könnte man vielleicht in der Trigonometrie wiederum verwenden um eine Formel aufzustellen.

10cm gemessen aus 75 cm sind 10 cm. 1,5 m wäre die Verdopplung. Da bild müsste also 5 cm groß erscheinen. Gemessen aus 1,5 m habe ich 4 cm. Legt man 50 cm zu Grunde, wird der Abstand verdreifacht. Das Bild müsste also 3 mal kleiner sein. Auch dass haut so nicht hin. Aus 2 Metern waren es gemessen ca. 3 cm. Der Abstand hatte sich also ver 3,33facht. Abstand 1 wäre dann 60 cm. 1,5 m von 60 cm sind dass 2,5fache. Das Bild würde 2,5mal kleiner - ergo ein 10 cm Bild wie gemessen 4 cm groß erscheinen.

Es ergibt sich daraus die Formel:

Gesehenes Bild (cm) = Bildgröße (cm) geteilt durch den Abstand (cm) mal dem Betrachtungsabstand 1 ( 60cm)

Eigentlich möchte ich nur herausfinden, wie stark ich ein Bild verkleinern muss, damit es am Monitor so groß erscheint wie in einem Betrachtungsabstand von 1,5 m. Man könnte auch mit den dpi Zahlen argumentieren. Für die Monitoranzeige benötigt man 72 dpi. Diese zeigt bei errechnet 77,78 cm ein scharfes Bild an, was auch beim messen hinkommt. Aus 1,5 Meter Entfernung reichen 36,6 dpi. Das Bild wäre also 5 cm groß zu sehen. Aus zwei Metern Entfernung reichen 27,4 dpi. Das Bild wäre dann 3,81 cm groß zu sehen. Bei 10m Entfernung reichen 5,5 dpi. Das 10 cm Bild wäre dann 0,76cm groß zu sehen. Demnach wäre der Betrachtungsabstand 1 = 76 cm. Bei einem Betrachtungsabstand 1 von 60 cm wäre das 10 cm Bild aus 10 m Entfernung noch 0,6 cm groß zu sehen. Ich denke mal, dass zwischen 60 cm und 76 cm dieser Betrachtungsabstand 1 irgendwo schon genau definiert wurde und er je nach Größe des Objekts anders gewählt werden muss.

Denn:

Gesehenes Bild (m) = Bildgröße (m) geteilt durch den Abstand (m) mal dem Betrachtungsabstand 1 (0, 6m)

ergäbe für einen 100 Meter hohen Turm bei einem Betrachtungsabstand von 2m gerade mal 30 Meter und bei einem Betrachtungsabstand von 10m eine gesehene Größe von 6 m.

Wird der Betrachtungsabstand 1 mit 10 m gewählt ergibt sich folgendes: Dann sieht der 100 m Turm nach Formel bei 2 Meter Entfernung 500 m hoch aus. Aus 10m Entfernung 10 m und aus 100 m Entfernung sähe er 10 Meter hoch aus. Aus 1000 m Entfernung sähe er nur 1 Meter hoch aus. Aber sieht ein Turm aus 10 m Entfernung 100 m hoch aus? Man muss sich also fragen, wann sieht etwas so groß aus wie es ist. Das ist der Betrachtungsabstand 1. Ganz genau läßt sich das wohl nicht definieren, und das Gehirn rechnet das gesehene Bild aus Erfahrungen und Erwartungen in eine Schätzung der realen Größe des Objektes um. Passend, wenn auch nicht beabsichtigt, ist hier Reinhard Mey's Zitat: "Über den Wolken muss die Freiheit wohl grenzenlos sein, alle Ängste alle Sorgen, sagt man, blieben darunter verborgen, und dann, würde was uns groß und wichtig erscheint plötzlich nichtig und klein". Aus 10.000 m Höhe ist der Turm bei einem Betrachtungsabstand 1 von 10 m noch etwa 10 cm groß zu sehen. Es sind aber wohl eher 10 Millimeter - oder? (nicht signierter Beitrag von Anton (Diskussion | Beiträge) 21:23, 1. Feb. 2006 (CET))

Die Überlegungen sind grundsätlich richtig. Das Gehirn rechnet allerdings Bilder aus Erfahrungen und Erwartungen in eine Schätzung der realen Größe des Objektes um, so dass ein Bild aus doppelter entfernung nicht auch zwingend halb so groß ist. Auch haben wir aus der Vogelperspektive eine andere Größenwahrnehmung. Siehe:
http://www.psy-mayer.de/links/Mond/mond.htm (nicht signierter Beitrag von 87.193.16.29 (Diskussion | Beiträge) 18:09, 4. Feb. 2006 (CET))

Relevanz der Portablen Konsole PSP in der Auflösungsliste

Wieso wird die PSP in der Liste der " Bildauflösungen in der computernahen Technik angegeben"  ? Nur weil 1 Gerät diese Auflösung unterstützt ist es noch lange nicht relevant für diese Liste, man könnte ja gleich die Auflösungen jedes Taschenrechners, meines Digitalweckers und jedes Handytypen in die Liste einfügen. Ich bitte darum die PSP, wenn dann in eine Extraliste mit Nintendo DS etc. zu packen. Ich würde das ja gern selber machen nur kann ich das nicht editieren danke. (nicht signierter Beitrag von BLiNdTwilight (Diskussion | Beiträge) 01:49, 26. Apr. 2007 (CEST))

Vektor-(Font)-Auflösungen

Wieso erscheinen Vektorgrafiken, z.B. auch die Fontsvorschau auf dem Moni zunächst in super-Qualität, die dann beim Einfügen durch eine offenbar niedrigere Auflösung ersetzt wird? Die Vektor-Anzeige ist physikalisch doch auf dieselbe Monitorauflösung angewiesen! Wieso kann der Moni in der Vorschau also offenbar eine höhere Auflösung anzeigen, als die, mit der er am PC eingestellt ist?? (nicht signierter Beitrag von HJJHolm (Diskussion | Beiträge) 10:55, 30. Okt. 2010 (CEST))

Die Vorschau, sowie das fertige Ergebnis werden erzeugt von irgendeinem Programm auf deinem Rechner. Dieses rendert eine Rastergrafik, die dann im Bildwiederholspeicher der Grafikkarte abgelegt wird und ständig wiederkehrend an den Monitor geschickt und gegebenenfalls skaliert wird. Du hast recht, dass der Monitor die Grafik besser skalieren könnte, wenn er sie als Vektorgrafik und nicht als Rastergrafik angeliefert bekäme. Aber so wird das nicht gemacht. Das hätte auch den Nachteil, dass der Monitor dann für diese Aufgaben selbst einen Rechner eingebaut bekommen müsste, auf dem dann irgendeine proprietäre Software liefe. Ein Skalierer für Rastergrafik ist viel leichter zu implementieren. Das Problem läßt sich meist dadurch lösen, dass du von vornherein die native Auflösung des Monitors verwendest. -- Sloyment 11:25, 12. Jul. 2011 (CEST)

Unverständlicher Abschnitt

Der letzte Abschnitt unter "Einordnung" ist unverständlich / verstümmelt. Bitte korrigieren. -- 15:37, 8. Jul. 2011 (CEST) (ohne Benutzername signierter Beitrag von 213.221.214.166 (Diskussion) )

Da hattest Du recht. --Roland Berger 11:19, 9. Jul. 2011 (CEST)

Ich finde den ganzen Artikel recht unverständlich. Insbesondere fehlt der Grundaspekt des Pixelseitenverhältnisses, also an welchen Stellen von quadratischen bzw rechteckigen Pixeln ausgegangen wird. --Siehe-auch-Löscher 11:12, 22. Sep. 2011 (CEST)

Fachbegriffe

Ich bin kein Profi auf diesem Gebiet, aber folgendes Wort kam mir beim Durchlesen etwas komisch vor: drübermatscht Ist das tatsächlich ein Fachbegriff aus diesem Gebiet ? Dann sollte er näher erklärt werden !

Schöne Grüße --217.84.135.93 14:38, 29. Okt. 2011 (CEST)Thomas

"Drübermatscht" ist unglücklich. "Bestreicht" oder "abdeckt" passt besser. --axelvetter 23:58, 26. Dez. 2011 (CET)

Auflösungen der Formate VHS, S-VHS und Hi8

Die Angaben zu den Auflösungen der drei Formate stimmen nicht. Die Anzahl der sichtbaren Zeilen beträgt bei PAL immer 576, bei NTSC 480. Davon kann nicht abgewichen werden, da die Fernseher das Signal sonst nicht darstellen könnten. Die horizontale Auflösung eines quadratischen Abschnitts liegt bei 240 Spalten bei VHS bzw. 400 bei den beiden Highband-Systemen. Auf 4:3 hochgerechnet sind das 320 bzw. 530 Spalten. --axelvetter 00:02, 27. Dez. 2011 (CET)

SVCD

Die Angabe zur Auflösung von einer SVCD (640x480) stimmt einfach nicht. Es sind 480x480 oder 480x576. (nicht signierter Beitrag von 195.14.209.35 (Diskussion) 11:31, 5. Jul 2012 (CEST))

Native Auflösung

Dieser Abschnitt ist doch eigentlich überflüssig. Die Auflösung wird vorher definiert als feste Pixelzahl pro Zeile bzw. Spalte. Damit ist doch schon alles klar und eindeutig. In welcher Form das Signal kommt und wie es auf diese feste Anzahl von Pixeln verteilt wird ist doch für diesen Artikel völlig irrelevant! "Native" Auflösung == Auflösung des Geräts. Punkt aus. Solche Diskussionen über das Hoch- und Runterskalieren, falls Quelle und Ziel eine unterschiedliche Auflösung haben, wird doch zur Genüge in anderen (und dafür vorgesehenen) Artikeln beschrieben. (nicht signierter Beitrag von 139.20.53.46 (Diskussion) 15:20, 13. Mär. 2012 (CET))

Es hat eben nicht jedes Gerät eine native Auflösung, Röhrenmonitore haben das nicht. --MrBurns (Diskussion) 02:55, 21. Okt. 2012 (CEST)

Die erreichbare Auflösung ist bei CRTs leicht höher als die dot pitch

Und nicht wie jetzt im artikel steht "deutlich darunter". Der Grund ist, dass sich die Helligkeit auch innerhalb eines Phosphor-Flecks oder -Streifens ändern kann. Man sieht das auch an den technischen Daten, z.B. mein Sony GDM-FW900 (Tinitron) hat laut Handbuch eine maximale horizontale Auflösung von 2304 Pixel und das sichtbare Bild ist ca. 482,1 mm breit (Ich bekomme mit meinem 50cm-Lineal ein übereinstimmendes Ergebnis von 482mm), macht eine Pixelbreite von gerundet 0,21mm, im Handbuch steht aber Streifenabstand 0,23 - 0,27 mm, also eindeutig mehr als der Pixelabstand bei der maximalen Auflösung und wenn ich den Monitor auf die maximale Auflösung stelle ist das Bild noch recht scharf, wenn ich es so einstelle, dass es ziemlich genau den sichtbaren Bereich ausfüllt. Bei Lochmasken wird auch oft eine Auflösung als Maximum angegeben, bei der wenn nur der sichtbare Bereich genutzt wird die Pixell etwas gerinegr sind als die dot pitch, das Bild ist dann unschärfer als insso einem Fall bei Streifenmasken, aber immer noch brauchbar. Ich werde den text daher entsprechend ändern. --MrBurns (Diskussion) 03:51, 21. Okt. 2012 (CEST)

Bildauflösung bei Fotografien

Mir fehlt die Bildauflösung bei Fotografien. Die Korngröße, Kristallgröße, Linien pro Millimeter . . . 193.81.140.144 20:00, 10. Mai 2014 (CEST)

Hast du eine Idee, woher nehmen? --Friedrich Graf (Diskussion) 20:15, 10. Mai 2014 (CEST)
Das mit der Fotografie ist natürlich ein recht komplexes Thema, weil da neben der Auflösung des Aufnahmemediums (Zahl der Pixel, Korngröße,...) oft die optische Auflösung oder die Anzahl der tatsächlich untercheidbarfen Linien (die neben der Pixelzahl auch noch von der optischen Auflösung und dem Bildrauschen beeinflusst wird. Daher das müsste man mahl richtig und wohl auch bequellt darstellen. Das Grunsätzlichste ist aber schon unter Auflösung (Fotografie). --MrBurns (Diskussion) 00:12, 11. Mai 2014 (CEST)

Frage zum Bild

Der Graph im Artikel hat angeblich eine logarithmische Achse. Aber zu welcher Basis denn? Die Skalenstriche sind äquidistant, aber die Werte folgen keiner erkannbar sinnvollen Reihe. Bei logarithmischer Darstellung würde ich erwarten, dass die äquidistanten Skalenstriche in irgendeinem gleichbleibenden multiplikativen Abstand sind (mal 2, mal 10, mal e, ...), der der Basis der "weglogarithmisierten" Potenz entspricht. --2003:63:2F35:5C00:E9DB:6574:F00A:A497 20:25, 10. Jun. 2014 (CEST)

Reicht dir das Beispiel als Antwort? --Friedrich Graf (Diskussion) 20:29, 10. Jun. 2014 (CEST)

Inwiefern erklärt das meine Frage? Ich weiß, was eine logarithmische Achse ist. Das Bild im Artikel hat keine lineare Achse, aber deswegen ist es nicht automatisch eine logarithmische Achse (wie mir aber dessen Unterschrift suggerieren will). Eine logarithmische Achse zeichnet aus, dass deren äquidistante Skalenstriche in einem konstanten Verhältnis stehen (1-zu-10, 1-zu-2, 1-zu-e oder sonstwas). Das Bild im Artikel weist diese Eigenschaft aber nicht auf, sondern macht willkürliche Sprünge (und kann deswegen keine logatithmische Skala haben). --2003:63:2F35:5C00:3D97:AD27:D5F3:181C 07:27, 11. Jun. 2014 (CEST)

  1. Die Bildbeschreibung stammt vermutlich hierher: https://commons.wikimedia.org/wiki/File:Display_resolution_standards.svg
  2. Warum muß in der Abbildung die Skala irgendwelche "üblichen" Einteilungen haben? Oder wolltest du auf etwas anderes hinaus?
... ehrlichgesagt verstehe ich dein Problem nicht. Die Abbildung stellt eine logarithmische Darstellung per Definition dar. Was also stört dich?
--Friedrich Graf (Diskussion) 07:51, 11. Jun. 2014 (CEST)

Habe es eben selber rausgefunden. Das Bild ist korrekt, aber die Beschriftung desselben ist sehr verwirrend. Es ist tatsächlich eine logarithmische Skala, die Skalenstriche sind um den Faktor 1,25 auseinander. Was allerdings an der Achse dransteht, sind NICHT die Skalenschritte. Denn sonst müsste nicht 512, sondern 500 dranstehen. Es sind vielmehr die tatsächlichen Werte der Punkte an die Skalenstriche geschrieben. Das ist sehr verwirrend, da die Punkte selbst ja auch schon beschriftet sind (direkt am Punkt mit sowas wie "VGA"). Was also gemacht wurde: EINIGE echte Skalenmarkierungen weggelassen (500, 1000, 2000, 4000) und durch minimal verschobene, tatsächliche Werte (512, 1024, 2048, 4096) ersetzt, wohingegen die restlichen Skalenstriche an der Achse echte Skalenmarkierungen des entsprechenden Logarithmus sind. Das ist didaktischer Unsinn (auch wenn "mathematisch-formal" nicht falsch ist). Man zeichnet die Skalenstriche einer Achse immer im selben Verhältnis, je nachdem welche Skalierung man wählt. Auslassen oder Verschieben von einzelnen Skalenstrichen und ersetzen durch echte Punktmarkierungen ist extrem verwirrend - insbesondere wenn sie optisch so dicht liegen. Ein bisschen so, als würde ich an eine lineare Achse nur die Skalenmarkierungen "0,1,3,7.4,18,2,50,51.2" ranschreiben, statt "0,1,2,3,4,...,55". --2003:63:2F35:5C00:3D97:AD27:D5F3:181C 07:53, 11. Jun. 2014 (CEST)

Hast du eine Formulierungsidee für eine bessere Beschriftung? --Friedrich Graf (Diskussion) 11:48, 11. Jun. 2014 (CEST)

Naja, neuplotten und dabei an der Achse NUR die Skalierung (und nicht die Werte der Datenpunkte) ranschreiben, so wie man halt üblicherweise einen Graph zeichnet (siehe deinen Beispielgraphen hier auf der Disk). ;) Übergangsweise wäre es möglich, in die Bildunterschrift zu schreiben, dass es zwar logarithmisch aufgetragen ist, allerdings an der Achse einige Zahlen für die Datenpunktwerte (die mit den nicht-gestrichelten Linien) anstatt für die Skala stehen (die Skalenwerte dort sind einfach weggelassen, würden aber minimal links von den Datenpunktwerten stehen udn sich daher mit diesen überlappen, weswegen sie wohl weggelassen worden sind - was ja für meine ursprüngliche Verwirrung sorgte ;) ). --2003:63:2F35:5C00:D505:6E75:D19A:661E 12:07, 11. Jun. 2014 (CEST)

Soweit, so richtig. Hast du aber eine Formulierungsidee? Wenn ja, dann trau dich und ändere die Beschriftung. --Friedrich Graf (Diskussion) 15:47, 11. Jun. 2014 (CEST)
Willkommen im Club der Autoren :-)
--Friedrich Graf (Diskussion) 21:58, 11. Jun. 2014 (CEST)

Sinn

Wenn Auflösung im technischen Sinn wirklich etwas anderes als im physikalischen Sinn ist, kann man den beteiligten Technikern nur Glück wünschen. Aber schon der erste Satz: „Die Bildauflösung ist ein umgangssprachliches Maß für die Bildgröße einer Rastergrafik.“ Das ist eine umgangssprachliche Verwendung des Begriffs Bildgröße, bei dem Oma zu Recht an Zentimeter denkt, die hier nicht gemeint sind. Gemeint ist die Dateigröße oder allgemeiner Datenmenge. Auch toll: „Die Kenntnis der nativen Auflösung eines Anzeigegeräts ist deshalb wichtig, weil ... Bei Röhrenmonitoren gibt es keine „native Auflösung“ ...“ Gute Besserung. --84.157.210.52 18:51, 11. Sep. 2015 (CEST)

Die Dateigröße ist wieder etwas anderes. Damit ist die Zahl der Bytes pro Datei gemeint. Die lässt sich nur bei unkomprimierten Bitmaps direkt aus der Bildgröße (= Bildauflösung) berechnen. Und dann auch nur, wenn man weiß, welche Farbtiefe verwendet wird. Sonst hängt die Dateigröße von vielen Faktoren ab, ein PNG mit 10.000x10.000 Pixel hat, wenn es komplette weiß oder schwarz ist, eventuell nur ein wenig KB, ein Foto mit der selben Größe hat als PNG hingegen fast die Dateigröße einer gleich großen Bitmap. Bildgröße hat natürlich bei digitalen Bildformaten eine andere Bedeutung als bei analogen, was auch daran liegt, dass ein digitales Bild keine definierte Größe in cm hat, die ergibt sich erst durch die Darstellung oder den Ausdruck. Wenn ich z.B. ein gleich großes Bild auf einem gleich großen Monitor mit der halben Auflösung anschaue, hat es doppelt so viele cm. --MrBurns (Diskussion) 23:32, 11. Sep. 2015 (CEST)

Beim Röhrenmonitor

Dieser Absatz hat meines Erachtens einige Fehler.

Der Absatz begründet, warum Röhrenmonitore keine Auflösung haben sollen. Aber genau diese haben sie. Wir haben damals Röhrenmonitore extra mit bestimmten Bandbreiten gekauft, um auch bestimmte Auflösungen hinzubekommen. Sehr wohl gibt es bestimmte "Native Auflösungen", Beispiel bei Netzwelt über ViewSonic P227fB oder Heise über Sony Gravuretron.

Durch die Maske wird die Auflösung begrenzt. Aber im Gegensatz zu einem TFT-Bildschirm kann man einfach andere Auflösungen fahren, systembedingt leuchten dann mehrere Pixel gleichzeitig, bzw. werden mehrere Bildpunkte verschluckt.

Die Fokussierung bedeutet nur eine gewisse Überlappung der Zeilen, es werden nicht mehrere Zeilen gleichzeitig angestrahlt. Hier unterscheiden sich auch Fernseher und Monitor: Der Zweck, weshalb die Geräte gebaut wurden, bestimmt die Fokussierung. Computermonitore sind feiner fokussiert, damit die Buchstaben gestochen scharf erscheinen, Fernseher waren eher unscharf - das Bild sollte nicht flimmern.

Wer schonmal an einem CRT-Monitor programmiert hat, weiss sehr wohl, dass man einzelne Bildpunkte ansteuern kann, und diese sogar genau getroffen werden - abhängig vom RAMDAC, den die Grafikkarte und der Monitor kann - prinzipiell kann ich aber einen einzelnen Bildpunkt ansteuern, und zwar genau diesen einen. Ansonsten würde eine Schrift nie gestochen scharf auf einem Monitor zu sehen sein.

Insofern: Es gibt eine Auflösung auch für Röhrenmonitore, diese Monitore schimpfen nur nicht über falsche Auflösungen, sondern schlucken sie bzw. man kann durch die Einstellungen des Monitores viel ausgleichen.

Du verstehst da was falsch: ein Röhrenmonitor hat natürlich Pixel, wenn er ein Bild anzeigt, aber er hat keine im Gerät vorgegebenen Pixel. Er hat ein Lochmaske, Schlitzmaske oder Streifenmaske. Eine Lochmaske besteht zwar aus einzelnen Punkten und eine Streifenmaske aus einzelnen Streifen, jedoch haben die nichts mit den Pixeln zu tun. Wenn der Monitor so eingestellt ist, dass die Pixelgröße genau der Lochmaske entspricht (was fast unmöglich ist, weil man neben der Auflösung auch die Breite und Höhe des Bildes ändern kann), wird ein Pixel i.A. trotzdem mehreren Lochmasken-Punkten entsprechen, weil eine genau Überlappung nur zufällig möglich wäre. Die Fokussierung bedeutet auch nicht, dass der Elektronenstrahl für eine Farbe genau ein loch trifft, sondern dass die Winkel stimmen (die 3 Elektronenstrahlen kommen aus leicht unterschiedlichen Winkeln, die Lochmaske und die Farbpunkte sind darauf abgestimmt, siehe Grafik unter Lochmaske, bei der Streifen- und Schlitmaske funktionierts im Prinzip genauso, aber eben nur in horizontale Richtung, siehe Datei:Schlima.jpg). Aus diesem Grund kann man sogar eine Auflösung verwenden, die etwas höher als das Raster der Lochmaske ist. Wenn die Pixel aber sehr viel kleiner sind als das Raster, werden tatsächlich einige nicht mehr dargestellt, weil sie gerade auf den Bereich zwischen zwei Löcher treffen. Aber es gibt eben anders als z.B. bei LCDs keine fixe Obergrenze, außer das was sich durch die Frequenzbereiche des Monitors ergibt. Auflösungen, bei denen die Pixelgröße in etwa dem Lochmaskenraster sind übrigens sogar schlecht, weil sie zu Moire führen. --MrBurns (Diskussion) 04:12, 18. Mai 2017 (CEST)

VHS Auflösung vertikal

VHS hat, wie alle analogen Bandaufzeichnungsverfahren (SVHS, Beta), die volle PAL-Auflösung von 576 Bildzeilen! Nativ zeichnet ein Video-Recorder sogar die vollen 625-Zeilen des kompletten PAL-Signals auf - ja, inklusive Austastlücke, Videotext und Channel-Videodat (letzteres ist sogar als Aufzeichnung sogar noch zu gebrauchen). Eine Bildhöhe von 240 Zeilen ist völliger Quatsch, es hat nie einen Videorecorder mit einem zwangsläufig digitalen Zwischenspeicher für eine komplette Bildzeile gegeben.

240 Zeilen sinds bei VCD in "VHS-Qualität" (im NTSC-Format), eventuell kommt die Verwirrung daher. Ich konnte sogar manchmal bei Videoaufnahmen den Teletext lesen und bestimmte Seiten aufrufen (habs ein paar mal getestet). Manchmal gings aber auch nicht. Aber ich denke, das hängt von der Aunahmequalität ab, die durchaus schwanken kann, auch zwischen verschiedenen SP-Aufnahmen. --MrBurns (Diskussion) 02:04, 3. Nov. 2017 (CET)

Ratio oder Doppelpunkt

Hier wird mal ∶ und mal : für die Seitenverhältnis-Angabe verwendet. Auch wenn Ratio richtig erscheint, ist es doch etwas schwieriger damit zu suchen (weshalb ich auch auf das Problem aufmerksam geworden bin). Was auch richtig sein mag, es sollte auf einen der beiden festgelegt werden. 77.190.161.132 2017-07-31, 16:54

Doppelpunkt - Die Ratio-Zeichen wurden 2013 eingeführt mit Änderung https://de.wikipedia.org/w/index.php?title=Vorlage:Ratio&diff=125603891&oldid=121723084. Sie tauchen überall dort auf, wo die Vorlage:ratio wirksam wird. Dort könnte man gegebenenfalls die Änderung rückgängig machen. Aber ob das nach sieben Jahren eine gute Idee ist? Als Benutzer will ich, wenn ich nach "A:B" suche, dass die Suche mir Fundstellen mit beiden Schreibweisen liefert. Zum Vergleich: Ich erwarte, dass eine Suche, die ein Leerzeichen enthält, auch Stellen findet, die ein geschütztes Leerzeichen oder ähnliches enthalten. Ich gehe davon aus, dass die Durchschnittsbenutzerin das normalerweise auch will. So lange die Suche das nicht leistet, sollten wir hier Doppelpunkte verwenden. Die typografisch reine Lehre könnten wir einführen, wenn die Suche das drauf hat. --RainerBlome (Diskussion) 23:05, 10. Okt. 2020 (CEST)

Computer (erl.)

Warum werden 2048∶1080 und 8192∶4320 nicht auf 256:135 gekürzt? (nicht signierter Beitrag von 95.129.205.198 (Diskussion) 12:01, 17. Aug. 2020 (CEST))

Weil die Schreibweise A:B hier keinen Bruch darstellen soll, sondern ein Zahlenpaar. Es geht eher um die absoluten Anzahlen der Bildpunkte in beiden Richtungen, weniger um das Verhältnis zwischen den beiden Zahlen.--RainerBlome (Diskussion) 22:41, 10. Okt. 2020 (CEST)
Da habe ich am Thema vorbei argumentiert. Ich hatte nicht gerafft, dass es eine eigene Spalte für das Seitenverhältnis gibt. Ja, das Seitenverhältnis für diese beiden sollte auch gekürzt werden. Das geschah nicht, weil Vorlage:Ratio dieses Seitenverhältnis nicht kannte. Ich habe dort die fehlende Zeile eingetragen, jetzt werden die beiden gekürzt angezeigt. Der Wert für 4K-DCI (4096:2160) war nur deshalb bereits gekürzt angezeigt, weil jemand für 4K-DCI, und nur dafür, den gekürzten Wert von Hand eingetragen hatte. Das habe ich entfernt, wird jetzt auch "automatisch" gekürzt. --RainerBlome (Diskussion) 23:58, 10. Okt. 2020 (CEST)
Archivierung dieses Abschnittes wurde gewünscht von: --RainerBlome (Diskussion) 23:58, 10. Okt. 2020 (CEST)

Auflösung eines Röhrenmonitors

Im Abschnitt Bildauflösung#Farb-Röhren steht eine Reihe von Behauptungen, die ich hier mit Spiegelstrichen zitiere. All diese Aussagen sind entweder nicht eindeutig klar verständlich, oder ich zweifle sie an. Keine der Aussagen ist belegt.

  • Die einzelnen Bildpunkte einer Schlitz- oder Lochmaskenröhre sind in keinem Fall individuell ansprechbar so wie etwa die eines TFT-Displays.
  • die einzelnen Unterteilungen [können] nicht individuell angesteuert werden

Die Formulierungen "in keinem Fall individuell", "keinesfalls" und "können nicht individuell" suggerieren, die Helligkeiten der Punkte seien nicht unabhängig voneinander steuerbar. Es mag eine gewisse Kopplung zwischen aufeinander folgenden Punkten geben, aber konzeptionell sind die Helligkeiten der Punkte durchaus unabhängig voneinander. Gerade diese Unabhängigkeit macht den Begriff "Auflösung" aus.

  • Die einzelnen Bildpunkte stellen daher auch keinesfalls die „native Auflösung“ dar.

Was denn sonst? Es ist unklar, ob mit "Bildpunkt" und "Unterteilung" die einfarbigen Subpixel gemeint sind, oder die RGB-Tripel. Ein CRT-Monitor mit 0,26 mm Tripel-Abstand ("pixel pitch") bringt bei einer Schirmdiagonalen von etwa 16 Zoll etwa 1280 Pixel horizontal auf die Waage. Passt.

  • Die erreichbare Auflösung liegt vielmehr etwas darüber.
  • die erreichbare Auflösung [ist] etwas höher [...] als die Anzahl der Streifen.

Ich finde diese Aussagen irreführend. Was soll der Begriff "erreichbare Auflösung" bedeuten? Die höchste Eingangssignal-Auflösung, bei der ich ein Bild bekomme? Das ist nicht, was ich unter Auflösung verstehe, wenn ich ein Gerät kaufe.

Grundsätzlich: Für mich bedeutet Auflösung auch "Wie viel Information kann ich übertragen?" Ein Gerät A hat nur dann eine höhere effektive Auflösung als ein Gerät B, wenn das von A produzierte Bild mehr Information transportiert als das von B produzierte Bild.

Ich behaupte: Die Auflösung einer Farbröhre ist auch durch die Lochmaske (siehe Punkt 8 im Bild) und die den Löchern zugeordneten Farbpunkte begrenzt, und zwar hart. Da gibt es kein "etwas darüber", wenn man von den Subpixeln absieht, die hier aber auch nicht mehr Information übertragen können. (Das gezielte Ansteuern von Subpixeln kann bei geeignetem Bildmaterial, zum Beispiel schwarzer Schrift auf weißem Grund, die wahrgenommene Bildschärfe steigern, indem so getan wird, als hätten die Subpixel alle die gleiche Farbe.) Eine Modulation des Elektronenstrahls mit höherer räumlicher Auflösung ist wegen der Maske nicht sinnvoll. Das Eingangssignal hat dann zwar eine höhere Auflösung, das resultierende Bild jedoch nicht. Das resultierende Bild wäre nicht von einem resultierenden Bild zu unterscheiden, dessen Eingabe exakt die Auflösung der Maske besitzt, und passende Helligkeitswerte. Weil es nicht zu unterscheiden ist, hat es keine höhere Auflösung. Vergleichbar wäre das mit einem TFT-Monitor mit Full-HD-Panel (1920x1080), der auch bei einem 4K-Eingangssignal mit 3840x2160 ein Bild liefert, aber eben nur ein Full-HD-Bild. Wenn mir jemand so einen Monitor als "4K" verkaufen wollen würde, würde ich das als Betrugsversuch sehen.

  • Bei Schlitzmasken und Lochmasken muss die Fokussierung des Elektronenstrahls so gewählt sein, dass er immer gleich mehrere Bildpunkte überstreicht, da es sonst zu Moiré-Effekten käme.

Ich gehe davon aus, dass wir hier nicht von dem Moiré-Effekt reden, den ein kariertes Kleidungsstück des Nachrichtensprechers hervorruft, sondern von einer räumlich inhomogenen Wiedergabe eines gegebenen konstanten Farbwerts. Ich behaupte: Dieser Effekt tritt nur bei Ungenauigkeiten von Fertigung und Ansteuerung auf und lässt sich durch geringe Toleranzen vermeiden. Außerdem sagt der Satz implizit: Die räumliche Auflösung der Modulation des Elektronenstrahl wird absichtlich geringer gehalten als die der Maske. Das widerspricht der obigen Behauptung, die Auflösung sei höher als die der Maske.

  • Bei einer Streifenmaskenröhre kann es nicht zu Moiré-Effekten kommen, so dass die Fokussierung des Strahls wie bei einer Schwarzweißbildröhre nicht darauf Rücksicht nehmen muss.

Für Moiré-Effekt braucht es keine zwei Dimensionen. Im Grunde ist das eine Schwebung, und der Effekt kann auch bei Streifenmasken auftreten.

Da die Hersteller rausholen wollen, was geht, werden sie auch mit Konvergenz und Bandbreite so nah wie möglich an die Auflösung der Maske heran kommen wollen. Im Endergebnis erwarte ich, dass die "native Auflösung" einer Farbröhre der Auflösung der Maske entspricht.

Ich bitte um Kommentare oder Belege. --RainerBlome (Diskussion) 02:52, 11. Okt. 2020 (CEST)

U(W)QHD

UWQHD, 1440p	Ultra Wide QHD (QHD)	3440	×	1440	43:18	2.389	1∶1	4.953.600
QHD    1440p	Quad High Definition	3440	×	1440	21∶9	21∶9	1∶1	4.953.600

(nicht signierter Beitrag von 2003:C2:471E:D700:B087:8721:59DB:94E1 (Diskussion) 03:45, 9. Apr. 2021 (CEST))

Du zitierst zwei Zeilen aus der Tabelle unter Bildauflösung#Computer. Die zwei Zeilen verwenden dieselben Pixelzahlen, aber leicht unterschiedliche Seitenverhältnisse und unterschiedliche Namen (Beschreibungen). Was genau möchtest du sagen? --RainerBlome (Diskussion) 23:06, 17. Apr. 2021 (CEST)

Dual QHD (erl.)

Die Auflösung 5.120 × 1.440 wird wohl als Dual QHD bezeichnet und ist in letzer Zeit häufiger in der Praxis zu sehen, sollte diese in die Tabelle mit aufgenommen werden?

--84.160.151.175 16:16, 13. Aug. 2020 (CEST)

https://de.wikipedia.org/w/index.php?title=Vorlage:Monitoraufl%C3%B6sungen&diff=203100105&oldid=201160495 erledigtErledigt --RainerBlome (Diskussion) 11:12, 18. Apr. 2021 (CEST)