• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Frage zu Monitorauflösung und Grafikkarte

Hobbieknipser

Themenersteller
Hallo,

nutze derzeit einen schon älteren Eizo (EV2436WFS3) 24" Monitor. Auflösung 1920x1200, Format 8:5

Habe nun mal geschaut, was so an 27" Monitoren angeboten wird, und war etwas enttäuscht, habe keinen 27" im Format 8:5 gefunden, sondern nur die 16:9 Teile, die ich eigentlich nicht haben wollte.
Für die Fotografie im 3:2 Format, empfinde ich einen 16:9 eher nachteilig, weil er ja bei Hochkantaufnahmen keinen "Mehrwert" hat.

Die vorhandene Grafikkarte muss, so wie ich gelesen habe, auch zum Monitor kompatibel sein, ist in meinem Fall eine HD Graphics 4600.

Kann mir jemand behilflich sein, was an Monitorauflösungen mit meiner Grafikkarte geht, bzw. nötig oder Sinnvoll ist?
 
Der "Mehrwert" findet sich in der höheren Auflösung sprich UHD, 4X, 3840x2160pix. Da paßt 1920x1200 mit sehr großzügigem Überschuss hinein!
Über die Auflösung entscheiden auch die vorgesehenen Anschlussmöglichkeiten. Nur an HDMI sowie DisplayPort DP bekommt man die gängigen höheren Auflösungen. Ich weiß Thunderbolt&Co. gibt es auch noch.
Daraus ergibt sich die Frage nach "HD Graphics 4600", ist damit der Chipsatz oder eine dedizierte Grafikkarte oder interne Lösung gemeint?
 
Fotografie kann auch 16:9 sein oder auch 4:3.

Aber auch bei 2:3 machen 16:9 Monitore Sinn, denn man braucht bei der Bearbeitung auch Platz für die Bedienelemente an der Seite.

Hier ist dann auch die Auflösung von 2K bei 27Zoll sinnvoll. Dann können kleine Schriften gewählt werden, die trotzdem noch lesbar sind.

Übrigens ein 16:9 27 Zoll und ein 16:10 (oder 8:5) passen wunderbar nebeneinander. Von der Höhe ist es nur 1cm Unterschied. Der Hauptunterschied liegt in der Breite.

Ob die HD Graphics 4600 das alles kann ist fraglich. Hauptvoraussetzung für eine höhere Auflösung (bei 27 Zoll wäre WQHD ganz gut, 4K schon fast zu viel) ist HDMI 1.4 oder Display-Port.

Vielleicht hilft das ja weiter:

https://www.intel.de/content/www/de/de/support/articles/000023781/graphics.html

https://www.technikaffe.de/anleitun...wqhd_aufloesung_2560x1440_ueber_dvi_und_hdmi/
 

Anhänge

Hallo,

nutze derzeit einen schon älteren Eizo (EV2436WFS3) 24" Monitor. Auflösung 1920x1200, Format 8:5

Habe nun mal geschaut, was so an 27" Monitoren angeboten wird, und war etwas enttäuscht, habe keinen 27" im Format 8:5 gefunden, sondern nur die 16:9 Teile, die ich eigentlich nicht haben wollte.
Für die Fotografie im 3:2 Format, empfinde ich einen 16:9 eher nachteilig, weil er ja bei Hochkantaufnahmen keinen "Mehrwert" hat.

Die vorhandene Grafikkarte muss, so wie ich gelesen habe, auch zum Monitor kompatibel sein, ist in meinem Fall eine HD Graphics 4600.

Kann mir jemand behilflich sein, was an Monitorauflösungen mit meiner Grafikkarte geht, bzw. nötig oder Sinnvoll ist?

Ich habe einen Laptop, Thinkpad 500 GB SSD mit 8 GB RAM, 6 Jahre alt Intel(R) Core(TM) i7-4500U CPU @ 1.80GHz 2.40 GHz auch HD Graphics (??), die keine 4 k sondern nur 3200x2000 ausgeben kann. Im Modus "Bildschirm duplizieren" steht als Bildschirmauflösung 3840x2160. Ehrlich - Ich betreibe damit seit 2 Wochen einen Dell U3219Q. In der Funktion keine Probleme. Nutze ihn derzeit viel mit Lightroom lernen...
Warum sollte ich mir zu einem 6 Jahre alten Laptop einen "passenden" Monitor kaufen?? Der nächste Laptop wird garantiert 4k-Auflösung leisten und dann mit USB-C verbunden. Dann bin ich auf dem aktuellen Stand der Hardware, wenn ich beides gleichzeitig neu kaufen müsste.
Das halte ich für mich für sinnvoll...
Mit der Entscheidung 4k auf 32 Zoll habe ich mich an die Empfehlung für Arbeitsplatzgestaltung orientiert.

Thomas
 
Zuletzt bearbeitet:
Hier ist dann auch die Auflösung von 2K bei 27Zoll sinnvoll. Dann können kleine Schriften gewählt werden, die trotzdem noch lesbar sind.
(y)

Vielen Dank auch für deine Infos!
Dann könnte ein 2 K Monitor, mit einer Auflösung von 2560x1440 Pixeln, im 16:9 Format ggf. ein passender Monitor zu meinem jetzigen sein.
Wobei sich dann die Frage ergibt, oder warte ich, bis ich mir in 1-2 Jahren alles neu kaufe, also PC plus Monitor, und dann neu schaue.
 
Das ist keine reine Hardware Frage, wenn Du alte Software nutzt (z.B. LR 5 oder 6 ) , dann ist die nicht unbedingt in der lage, auf einem 4K Monitor so zu skalieren, wie Du Dir es wünscht.

Und wenn Dir bislang die integrierte Grafik reicht, dann ist halt die Frage, ob Du bei einem neuen Rechner Geld in die Hand nehmen möchtest
zudem ist die Frage, was Du für den Monitor ausgeben willst, 27 mit 2K und vernnünftiger sRGB Abdeckung gibt es ja schon relativ günstig. Wenn Dir das rcith, ich finde es ok.

Nächstes Thema, willst/kannst Du Dir einen deutlich größeren Bildschim ginstellen, bei dem 4K dann sinnvoll ist. Bringt ja auch nichts, wenn Du dann die Schrift hochskalieren musst, und am Ende nicht mehr siehst, als bei 2k.
 
Es ist eine integrierte Grafikkarte.

... und was sie leistet, hängt von der Prozessorgeneration (Alter des Computers) und der Leistungsstufe (Einsatzbereich/Preisklasse) .

Beispiel mein Prozessor:
Intel(R) Core(TM) i7-4500U CPU @ 1.80GHz 2.40 GHz

4500 = vierte Generation
i7 = im oberen Segment (darunter wären i5 und i3 - darüber i9)
U = speziell für Laptops geeignet, da energiesparend

Die Leistung der Grafikeinheit kann ich daher hier entnehmen...klick intel.com

... ich habe "nur" die Intel® HD-Grafik 4400
HD 4600 dürfte vom Grundsatz her den 4k-Bereich abdecken

Thomas
 
Zuletzt bearbeitet:
unnötiges Vollzitat entfernt, scorpio

Es ist ein Intel(R) Core(TM) i5-4590 CPU @ 3,30GHz verbaut
Speicher sind bei mir 20480 MB drin.
 
Zuletzt bearbeitet von einem Moderator:
unnötiges Vollzitat entfernt, scorpio

Alles richtig, ich bin aktuell nicht wirklich unzufrieden, habe, wenn auch schon älteren 24" Eizo. Denke eben darüber nach, ggf. was besseres anzuschaffen.
 
Zuletzt bearbeitet von einem Moderator:
Hi,
ich habe mir vor einem 1,5 Jahren einen neuen Monitor - den Dell U3219Q mit 4k - gegönnt. Obwohl mein Rechner deutlich besser war, und mit einer leistungsfähigen GPU, musste dann etwas später ein neuer PC her. LR geht da ganz schön in die Knie. Zuvor hatte ich einen 27“ mit WQHD Auflösung. Auch für den musste ich seinerzeit eine neue Grafikkarte kaufen. Und damit meine ich NVdias Quadro, nicht so einen Murks, wie intel HD....
Wenn du also wirklich aufrüsten möchtest, sollte dein Geldbeutel praller gefüllt sein, als du derzeit annimmst...
Aber es lohnt sich!
 
Kein bißchen.
...bringt eine teuer Graka leider gar nichts.
...Wieso auch?!

Es ist auf jeden Fall abhängig von der eingesetzten Software, über die hier nichts geäußert wurde. Was natürlich schade ist, da diese durchaus den Unterschied machen könnte. Tatsächlich kann also auch eine intel HD zufriedenstellend funktionieren, soviel will ich mal zugeben. Und dann ist es natürlich kein "Murks". Sry dafür.

Es mag an dir vorbei gegangen sein, dass es inzwischen viele Bildbearbeitungsprogramme gibt, die die GPU Leistung ein wenig / ein wenig mehr / sehr intensiv nutzen. Sogar mein altes LR 6.14 gehört dazu!

Dazu gibt es viel in den verschiedenen Diskussionsfäden zu lesen; sollte es dich interessieren.

Eine teure GPU würde ich für Bildbearbeitung auch gar nicht empfehlen; oder zumindest nur dann, wenn das verwendete Programm einen Nutzen daraus ziehen kann. Es gibt ja auch welche für 100-150 EUR, die gut abliefern.

Ein Extrembeispiel ist Denoise AI (und die anderen AI Programme). Diese verwenden ganz maßgeblich die neuen Möglichkeiten und beschleunigen die Berechnung bis hin zum Vielfachen! So viel zur Frage "Wieso auch?".

Ich finde es übrigens ganz logisch, dass sich nicht nur Spiele, sondern auch andere grafik-lastige Programme beschleunigen lassen. Warum sollte da die Bildbearbeitung nicht dabei sein?
 
Zuletzt bearbeitet:
Ein Extrembeispiel ist Denoise AI (und die anderen AI Programme). Diese verwenden ganz maßgeblich die neuen Möglichkeiten und beschleunigen die Berechnung um Zehnerpotenzen! So viel zur Frage "Wieso auch?".
Du hast einen Hang zu extremer Übertreibung. Komm mal zurück auf den Teppich. Übertreibung als Stilmittel ist in einem Roman vielleicht angebracht, aber weniger bei technischen Sachverhalten.
Ich finde es übrigens ganz logisch, dass sich nicht nur Spiele, sondern auch andere grafik-lastige Programme beschleunigen lassen. Warum sollte da die Bildbearbeitung nicht dabei sein?
Weil Spiele vornehmlich mit den 3D-Funktionen der Grafikkarte arbeiten, Bild- und Videobearbeitung nur in seltenen Spezialfällen, sich aber ansonsten im 2D-Raum bewegen. Da ist eine Beschleunigung der Funktionen nicht in allen Bereichen derart möglich, schon gar nicht in "Zehnerpotenzen".
 
Zuletzt bearbeitet:
Du hast einen Hang zu extremer Übertreibung.
Da ist eine Beschleunigung der Funktionen nicht in allen Bereichen derart möglich, schon gar nicht in "Zehnerpotenzen".

Sry, war gerade so im Überschwang... Das gilt in dieser Dimension tatsächlich nur z. Bsp. für meine Rendering-Software.

Ich habe es korrigiert und ein "Vielfaches" daraus gemacht. Ich postete im Oktober mal meine damalige Beobachtung auf meinem Rechner mit dem Denoise AI:

Zur Grafikkarte (übrigens eine RTX 2060 Super):
Trotz meiner Ryzen 3800X 8-core CPU erledigt meine GeForce den Task über 6 mal so schnell! 15 Sekunden oder > 1,5 Minuten sind ein spürbarer Unterschied.

Welche CPU könnte das leisten? Dass die Grafikkarte ehemals für 3D-Berechnungen gedacht war, ist mir dabei völlig schnuppe, wenn DAS dabei heraus kommen kann.
 
Zuletzt bearbeitet:
Ich schrieb ja: "Bild- und Videobearbeitung nur in seltenen Spezialfällen".
Ich glaube kaum, dass das des Hobbieknipsers Anwendungsprofil ist.
Deshalb schlage ich vor, der geneigte Helfer konzentriert sich bei seinen Beratungen auf den Fragenden, nicht auf seine eigenen Belange.
 
Ich schrieb ja: "Bild- und Videobearbeitung nur in seltenen Spezialfällen".

Wenn das Blättern durch Bilder, wie auch hinein und heraus Zoomen in LightRoom ein deratiger Spezialfall ist, mag ich dir durchaus recht geben. Da ist ein messbarer Einsatz der GPU vorhanden, was sich allerdings auch erst bei 4k Monitoren bemerkbar macht. Und darüber reden wir hier ja...:
Monitorauflösung und Grafikkarte!

Aber es muss wohl jeder selbst lernen... ich lasse es nun.
 
WERBUNG
Zurück
Oben Unten