• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs April 2024.
    Thema: "Sprichwörtlich"

    Nur noch bis zum 30.04.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
WERBUNG

Wie schnell ist der LRc Bildexport mit GPU?

_Micha_

Themenersteller
In diesem YouTube Video wird aufgezeigt, dass mit (Geforce) Grafikkarten der Lightroom Classic 12.1 RAW zu JPG Export um Faktor-X schneller ist als mit der dort verwendeten alten i7 8700K CPU. Mich würde interessieren wie es mit neuen CPUs mit >= 8 Kernen aussieht. Kann dazu jemand etwas mitteilen? Wer also eine aktuelle CPU und GPU (>= RTX 3060) hat: Beides mal gegeneinander laufen lassen und das Resultat hier einstellen, Danke!
 
Zuletzt bearbeitet:
Vielleicht hilft dir ja das etwas weiter:

https://www.dslr-forum.de/showpost.php?p=16491049&postcount=11

Mich hat das Thema auch in der letzten Zeit um getrieben, weil ich mir eine neue Grafikkarte aus genau diesem Grund zulegen wollte. Ich habe wenig verbindliches gefunden, mich aber trotzdem für eine RTX 3060 entschieden. Ich hab dann mal selbst gemessen - nicht mit Lightroom, sondern mit Darktable. Darktable hat einen Schalter, mit dem erhält man sehr granulare Zeitangaben.

Der Beschleunigungsfaktor CPU / GPU hängt in starkem Maße von dem ab, was gemacht wird. Je nach Modul war eine Beschleunigung von 2fach bis 74fach (Ryzen 5 3600 vs RTX 3060) feststellbar. Bei großen Datenmengen und aufwendigen Berechnungen ist die Beschleunigung tendenziell höher, aber gibt auch Ausnahmen. (wer mehr wissen will: http://foto.zenz-home.de/wissen-bildbearbeitung/darktable-und-opencl-ein-benchmark.html)
Ich denke diese Erfahrungen lassen sich auch auf Lightroom übertragen.

Fazit: So ein Test wie in dem Video sagt wenig aus (außer dass es mit GPU schneller ist und mit einer schneller GPU noch schneller) und er ist auch nicht mit anderen vergleichbar. Um zu wissen, wie sich eine moderne CPU verhält, müsste der gleiche Test mit der modernen CPU gemacht werden. Aber selbst dann kann es sein, dass sich bei der eigenen Bearbeitung von Bildern ganz andere Faktoren ergeben.
 
Ich habe mal 200 CR.2 Dateien (mit ein paar Einstellungen) einer 7D Mark2 als .psd exportiert:

CPU: 12900K (24 threads bei 100%) : 96 sec
GPU: RTX 3060/12GB VRAM : 39 sec

Dann bei denselben Dateien "Dunst" und "Klarheit" verstellt:
CPU:264 sec
GPU: 91 sec

Btw. wenn ich eine Datei von ACR in Photoshop öffne, ist die GPU je nach Bildeinstellungen 5 mal so schnell wie die CPU.
 
Kann dir keine Infos zu einem Desktop 8-Kerner Liefern, morgen Mittag kann ich einen 6800H 8-Kerner Mobil CPU und einer 3070TI Testen.
Bei einem 16-Kerner und 3090 sieht es so aus.

85 NEF aus z6II, 14Bit, alle Bearbeitet, 1:1 Vorschau erstellt, Objektivkorrekturen an, Bearbeitung quer Beet allso ganz normale Bedingungen,
Exportiert als WQHD, keine Schärfung, kein Wasserzeichen, jpg Qualität 100%

5950x und 3090
ohne GPU 19 sek -> 99% aus allen 16 Kernen
mit GPU 12 sek

7950x und 4090
ohne GPU 11 sek -> 99% auf allen 16 Kernen
mit GPU 10 sek

Bei meinem alten System 3950x und 2070TI hat die GPU Unterstützung garnicht Funktioniert.
 
Nachtrag

6800H -> 3070TI beides Mobil,

75 Bilder aus einer D780, (andere als beim Test Gestern Abend),
14Bit, alle Bearbeitet, 1:1 Vorschau erstellt, Objektivkorrekturen an, Bearbeitung quer Beet allso ganz normale Bedingungen,
Exportiert als WQHD, keine Schärfung, kein Wasserzeichen, jpg Qualität 100%


6800H und 3070TI (Mobil)
ohne GPU 25 sek -> 99% aus allen 8 Kernen
mit GPU 22 sek
 
Danke an Marco R. und stevenskl für die Beantwortung meiner Frage.
Nach derzeitigem Stand, sieht es eindeutig danach aus, das es sich selbst mit einer High-End CPU lohnt eine passende GraKa dazu zu nehmen, laut Adobe:
System requirements to use GPU for Export, Recommended:
8 GB of dedicated GPU RAM or 16 GB of shared memory
Da Nvidia mit viel Abstand Markführer ist würde ich an Adobes Stelle zusehen, das es mit diesen Karten "absolut keine Probleme" gibt, d.h. AMD würde ich deshalb nicht in Betracht ziehen.
 
Zuletzt bearbeitet:
Danke an Marco R. und stevenskl für die Beantwortung meiner Frage.
Nach derzeitigem Stand, sieht es eindeutig danach aus, das es sich selbst mit einer High-End CPU lohnt eine passende GraKa dazu zu nehmen

oder halt ein Mac wo selbst die Notebooks fast alle modernen Intel Desktop deklassieren, dass kannst Du Dir zum test ja auch mal anschauen.
 
"Wie grün ist das Gras auf der anderen Seite?"
Hier mal Werte, bei denen wirklich alle Parameter anders sind:

M1 Mac
C1
75 24MP Fuji RAFs
Alle mit Objektivkorrekuren, Schärfung, Entrauschung, Klarheit,
teilweise mit mehreren Bearbeitungebenen und Reparaturmasken.

mit GPU: 2:41min
ohne: 3:13min
 
Beim Bildexport sehe ich das nicht so entscheidend, ob ich nun 3 Min. oder 4 Min. für den Export von 100 Bildern brauche, ist doch egal.
Entscheidend ist für mich die Frage GPU/CPU beim Rendern von Videos z.B. aus AfterEffects oder mit Topaz VideoEhance. Und da macht es einen signifikaten Unterschied in Größenordnungen: eine Stunde mit GPU oder 5 Stunden über CPU...
 
oder halt ein Mac wo selbst die Notebooks fast alle modernen Intel Desktop deklassieren.

Das halt ich für ein Gerücht. Das mag ja beim Erscheinen des M1 noch so gewesen sein. Aber man vergleiche die Performance des aktuellen AMD Top Laptop-Prozessors gegen den M2 Max. Da lässt der AMD den M2 ziemlich alt aussehen. Zumindest was die Perfomance angeht. Und selbst bei der Effizienz hat man extrem aufgeholt. Da ist der M2 aber immer noch ein Stück besser. Beim Preis dafür allerdings dafür auch gut über dem AMD angesiedelt und der ist bei Cinebench und Passmark mehr als doppelt so schnell. Bei Geekbench immerhin noch 25% schneller.

https://nanoreview.net/en/cpu-compare/apple-m2-max-vs-amd-ryzen-9-7945hx
 
Zuletzt bearbeitet:
LRc V12.2.1: Export von 513 *.dng Bildern mit je 24 MPixeln zu UHD JPGs mit 85 % Qualität, sRGB Farbraum und allen Metadaten; CPU: AMD R7 5800X; GPU: Nvidia Geforce RTX 3060, 12 GB; 2 x 16 GB DDR4 3200 MHz RAM
  1. mit GPU: 9 min 50 s
  2. ohne GPU: 10 min 50 s
Wenn in LRc die GPU Unterstützung aktiv ist (also allgemein, nicht nur zum Export), dann nimmt die VRAM Verwendung von 0,8 GB auf ca. 6 GB zu, manchmal auch fast 11 GB! Die eigentliche GPU-Auslastung ist nie größer als 25 %. Bei mir stehen deshalb die Lüfter der Grafikkarte, die GPU hat nur ca. 42 Grad. Demzufolge bringt eine Leistungsfähigere GPU z.Zt. kaum Vorteile in Adobe LRc. Der Austausch meiner Geforce GT 1030 (2 GB) war auf jeden Fall Sinnvoll, ich bin zum ersten mal mit der Verarbeitungsgeschwindigkeit von LRc zufrieden. :)
 
Zuletzt bearbeitet:
Nun die Vorteile sind nicht nur im Export zu suchen, Bildvorschau, Bildbearbeitung, Rendern der Vorschauen, das alles wird von der GPU auch unterstützt.
Damit Programme egal welcher Art optimal laufen, sollte die Hardware auch abgestimmt sein.
Bei Lightroom brigt das Lesen und Speichern auf 2 Verschiedene Medien auch noch mal ein paar Sekunden. Eine schnelle NVMe auch nochmal ein bissle, schneller Ram auch was, und so sumiert sich jede Komponete ein wenig zum Endergebnis hinzu.
 
WERBUNG
Zurück
Oben Unten