• Herzlich willkommen im "neuen" DSLR-Forum!

    Wir hoffen, dass Euch das neue Design und die neuen Features gefallen und Ihr Euch schnell zurechtfindet.
    Wir werden wohl alle etwas Zeit brauchen, um uns in die neue Umgebung einzuleben. Auch für uns ist das alles neu.

    Euer DSLR-Forum-Team

  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • DSLR-Forum Fotowettbewerb neu erfunden!
    Nach wochenlanger intensiver Arbeit an der Erneuerung des Formates unseres internen Fotowettbewerbes ist es Frosty als Moderator
    und au lait als Programmierer gelungen, unseren Wettbewerb auf ein völlig neues Level zu heben!
    Lest hier alle Infos zum DSLR-Forum Fotowettbewerb 2.0
    Einen voll funktionsfähigen Demowettbewerb kannst du dir hier ansehen.
  • Neuer Partner: AkkuShop.de
    Akkus, Ladegeräte und mehr (nicht nur) für Digitalkameras und Drohnen
  • Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2024
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien der Eigenmarken "Upscreen", "Brotec", "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs März 2024.
    Thema: "Arbeitsmittel"

    Nur noch bis zum 31.03.2024 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • Frohe Ostern!

    Wir wünschen allen DSLR-Forum Nutzern, ihren Familien und Freunden sowie unseren Sponsoren und Partnern und deren Familien und Freunden ein frohes Osterfest.

    Euer DSLR-Forum Team!
WERBUNG

Panasonic GH6

Aber geschätzte 2800€ für die GH6 ist schon ne Kröte die es zu Schlucken gilt !

Bin gespannt was kommende Neuerscheinungen ( Canon R7 / SONY A7IV ... ) für ein ähnliches Preislevel bringen, die Entscheidung für das Geld der GH6 muß dann wohl geziehlt überlegt sein.
 
Wird halt wieder stark videoorientiert sein und sowas verkauft man halt durch Specs.

120fps in 4k gibt es aktuell nur bei Sony oder Canon. Da geht es dann ab 4200€ los.

Wobei eine Z-Cam E2 ebenfalls 120(160fps) in 4K kann und das sogar in Prores. Das ganze gibt es dann für 1900€.

Eventuell hat Panasonic noch ein oder zwei Überraschungen auf Lager die den Preis definitiv rechtfertigen.
 
@mcvh

"wirklich"...:rolleyes:
nochmal: lies meine Beiträge so, dass sich deren Kontext auch Dir erschliesst...kann natürlich auch sein, dass Du lediglich stänkern willst...dann erledigt sich jede weitere Antwort meinerseits in Zukunft..."bei aller Liebe"...:cool:

@SALE

wäre begrüssenswert, aber mir ist es letztlich egal, solange man dem User die Möglichkeit bietet, 2 fast identische Bodies zur Auswahl zu haben...
Pana scheint das ja nun umzusetzen (wie bei FF auch)
 
Zuletzt bearbeitet:
Aber geschätzte 2800€ für die GH6 ist schon ne Kröte die es zu Schlucken gilt !

Bei den Rückläufigen Stückzahlen wird man sich an solche Kröten gewöhnen müssen. Die Zeiten wo jeder meinte er brauche eine DSLR, weil der Nachbar auch eine hat mit Massenfertigung dürften vorbei sein. Fotohobby mit Systemkameras wird wieder so elitär werden wie in 1960er Jahre. Wenn man da mal zusammenrechnet wielange ein Arbeiter für eine SLR + Trinity ( 2,8/35 + 1,8/50 + 3,5/135) arbeiten musste.... da ist man mit € 2800,- wohl noch gut bedient.
 
Aber geschätzte 2800€ für die GH6 ist schon ne Kröte die es zu Schlucken gilt !

Bin gespannt was kommende Neuerscheinungen ( Canon R7 / SONY A7IV ... ) für ein ähnliches Preislevel bringen, die Entscheidung für das Geld der GH6 muß dann wohl geziehlt überlegt sein.

Wird denn jemand gezwungen sich eine 4k-Hybridkamera zu kaufen? Ich bin nach wie vor der Meinung, dass für 99 % der Privatanwender FullHD nach wie vor ausreichend sind. Auch bei Nachbearbeitung und Schnitt sind die Anforderungen bei 4k-Material nicht gerade niedrig. Da braucht man eh einen potenten Rechner, insofern ist das nun mal kein billiges Hobby.
 
Bei Panasonic war es zuletzt üblich, bei neuen Produkten den $ - Preis 1:1 in € anzuwenden. Aber 2500 € ist immer noch nicht wenig :rolleyes:
 
Wird denn jemand gezwungen sich eine 4k-Hybridkamera zu kaufen? Ich bin nach wie vor der Meinung, dass für 99 % der Privatanwender FullHD nach wie vor ausreichend sind. Auch bei Nachbearbeitung und Schnitt sind die Anforderungen bei 4k-Material nicht gerade niedrig. Da braucht man eh einen potenten Rechner, insofern ist das nun mal kein billiges Hobby.

Wir leben im Jahr 2021, da filmt jedes billo Smartphone 4k.
Und jeder halbwegs aktuelle Rechner verarbeitet 4k-Material problemlos. Egal ob Apple, AMD oder die vergleichsweise lahmen Intel Chips.

Und selbst auf einem steinzeitlichen FullHD Display sieht man den Unterschied zwischen OOC 1080p und herunterskaliertem 4k. Auf einem zeitgemäßem 4k Monitor bzw. Fernseher ist es ein Unterschied wie Tag und Nacht.

Edit: Ich bin übrigens der Meinung, dass 100% der Privatanwender selbst entscheiden sollten was für sie ausreichend ist.
 
Zuletzt bearbeitet:
Auch bei Nachbearbeitung und Schnitt sind die Anforderungen bei 4k-Material nicht gerade niedrig. Da braucht man eh einen potenten Rechner, insofern ist das nun mal kein billiges Hobby.

Hätten wir 2014, hätte ich dir da zugestimmt aber 4k im Schnitt stellt keinerlei Probleme mehr da.

Hatte eine kurze Zeit einen aktuellen MacMini für 699€ und auf dem ließen sich 6K schneiden wie Butter, 8K aus Testzwecken lief auch einwandfrei.

Die aktuellen Entwicklungen im CPU/GPU Bereich rennen den Auflösungen davon.

Die neuen M1 Macs machen das nebenbei. Auch das iPad.

Ja war selber überrascht. Warte noch auf das neue Macbook und dann werde ich hauptsächlich darauf arbeiten.
Die GH5s bekommt ja das Prores Raw Update, die GH6 wird das sicherlich auch so regeln.
 
Die GH5s bekommt ja das Prores Raw Update, die GH6 wird das sicherlich auch so regeln.

Natürlich wird der Formfaktor mit einem Ninja V nicht grade kleiner. Da ist dann fast so eine Kastenkamera wie die BGH1 oder Z Cam die bessere Option. Ausser man will Prores RAW nur Zeitweise bzw nutzt auch viel Fotografie. Wenn man die GH6 dann wirklich ganz nutzen will braucht man auch gleich den Ninja V+, sonst ist man bei 4k 60 und 5.7k 30 am Ende. 2500€ für die Kamera + 1800€ für den Ninja, unter 4500€ wird man da nicht auf dem Laden gehen selbst wenn man schon eventuell Objektive und Speichermedien/Akkus hat.
 
Natürlich wird der Formfaktor mit einem Ninja V nicht grade kleiner. Da ist dann fast so eine Kastenkamera wie die BGH1 oder Z Cam die bessere Option. Ausser man will Prores RAW nur Zeitweise bzw nutzt auch viel Fotografie. Wenn man die GH6 dann wirklich ganz nutzen will braucht man auch gleich den Ninja V+, sonst ist man bei 4k 60 und 5.7k 30 am Ende. 2500€ für die Kamera + 1800€ für den Ninja, unter 4500€ wird man da nicht auf dem Laden gehen selbst wenn man schon eventuell Objektive und Speichermedien/Akkus hat.


Und wenn man gleich noch 5 Leica Objektive kauft ist man bei 20.000€.

Was soll denn dieses Vorrechnen?

Persönlich habe ich bereits alle Objektive, Akkus, und einem Atomos Rekorder. Was also fehlt ist nur die Kamera. Auch brauche ich nur Raw bei 24-30p.

Jeder der mehr filmt als paar Blümchen bei einem Spaziergang der nutzt ohnehin einen externen Monitor, der Formfaktor ist da also völlig egal.

Mal davon abgesehen dass mein Rücken nicht bricht wenn ich die 300gr. des Atomos V noch dabei habe.

Es ist wichtig dass die GH6 die Möglichkeit bietet, ob es jemand nutzt oder lieber nur mit seinem 14-42 Kit-Objektiv loszieht ist dabei völlig irrelevant.
 
Und wenn man gleich noch 5 Leica Objektive kauft ist man bei 20.000€.

Was soll denn dieses Vorrechnen?

Die Objektive kosten aber egal ob GH6, GH5 etc aber gleich viel.

Ich find das keinen falschen Ansatz die Preise zu errechnen wenn ich die Möglichkeiten der Kamera nutzen will. Wenn ich nur 4k RAW haben will komme ich mit 1200€ bei der BMPCC4k am günstigsten weg. Wenn ich einen Monitor brauche bekomme ich den auch günstig dazu. Wenn mir ProRes RAW lieber ist bekomme ich das mit GH5s/Z-Cam + Ninja V für um die 2500€. Und wenn ich halt die GH6 haben will und da die Vorzüge ganz nutzen will bin ich bei 4500€. Sollte die GH6 intern ProRes RAW haben wäre sie deutlich besser zur (sogar eigenen) Konkurrenz aufgestellt. Simples Aufpreis gegen Mehrnutzen.
 
Meine Erwähnung von Prores Raw wäre ein schön Feature welches es auch so mit Sicherheit geben wird. Was genau willst du nun also diskutieren?

Etwa die Tatsache dass ein Externer Rekorder teuer ist? Ja welche Überraschung. Sind dir die Dinger zu groß und unpraktisch? Dafür kann ich nichts.

Fakt ist. Wenn die GH6 erscheint wird sie gekauft und von mir mit einem externen Rekorder genutzt. Wenn mir danach ist auch mit dem neuen Atomos V+

Blackmagic interessiert mich nicht mehr und eine Z-Cam e2 besitze ich bereits.

Die Tatsache dass aktuelle Systemkameras und vor allem deren Flaggschiffe teuer sind ist dir ja wohl nicht entgangen. Deine lustige Rechnung kann man nämlich auch auf jede andere Kamera anwenden. A7s III samt Rekorder 5000€, A1 samt Rekorder direkt flauschige 9000€.

Für dich mag das alles teuer sein aber die 120fps 4k in Raw gibt in dem Fall dann nur mit der GH6.

Die 120fps der Z-Cam über einen Externen Rekorder sind über den HDMI Port auf nur 10Bit beschränkt, da nutzt also Raw ohnehin nichts.
 
Etwa die Tatsache dass ein Externer Rekorder teuer ist? Ja welche Überraschung. Sind dir die Dinger zu groß und unpraktisch? Dafür kann ich nichts.

Zumal hier sowieso von Äpfeln und Birnen die Rede ist. Wenn von Größennachteilen gesprochen wird sollte man auch bedenken dass ein Gimbal bei den kleinen Kastencams vergleichsweise obligatorisch ist. Abgesehen davon gibt es noch viele weitere, je nach Anwendungsgebiet gewichtige Unterschiede. Wer bspw. Wert auf Zeitlupe legt ist mit den kleinen Blackmagics schlecht beraten.
 
Hatte eine kurze Zeit einen aktuellen MacMini für 699€ und auf dem ließen sich 6K schneiden wie Butter, 8K aus Testzwecken lief auch einwandfrei.
Hat die Software wirklich 6k/8k geschnitten, oder nur eine ausreichend flotte Vorschau genieriert?
Wie lange dauerte denn das Exportieren...


Die aktuellen Entwicklungen im CPU/GPU Bereich rennen den Auflösungen davon.

Der Stromverbrauch der PC ist ja auch entsprechend wieder am Ansteigen, allen Klimabeteuerungen zum trotz. Wobei von 1080p = 2 MiP ==> 4k = 8 MiP ==> 8k = 33MiP dann gerne noch 60p und 10 Bit Farbtiefe....
Macht ca. 40 fache Rohdatenmenge, soviel Verbesserungen bei den CPU sehe ich Ryzen Hin oder Her nicht wirklich, und daß Grafikkarten mit 6Pin Stromanschluss nur noch in Abverkaufware zu bekommen ist, spricht Bände.

Ich hoffe, daß mit 5.7k = Doppelte Pixelzahl zu 4k und damit genug Bearbeitungsreserve dann Vernunft in den Markt einkehrt. Und das soll die GH6 dann ja auch anbieten.
 
und daß Grafikkarten mit 6Pin Stromanschluss nur noch in Abverkaufware zu bekommen ist, spricht Bände.

Hat auch viel mit Marketing zu tun. Viele der Karten die gleich 2x 8Pin Anschlüsse oder ähnliches haben brauchen den eig gar nicht.
der8auer auf Youtube hat mal bei einer 2080 TI die hälfte der Stecker abgeschnitten und siehe da, es funktioniert. Aber mehr Anschlüsse setzen viele mit besserer Stromversorgung gleich.


Der Stromverbrauch der PC ist ja auch entsprechend wieder am Ansteigen, allen Klimabeteuerungen zum trotz. Wobei von 1080p = 2 MiP ==> 4k = 8 MiP ==> 8k = 33MiP dann gerne noch 60p und 10 Bit Farbtiefe....

Bei selber Visueller Qualität brauch ich bei 10-Bit aber weniger Bitrate, aka weniger Daten. Zumindest bei den gängigen komprimierten Formaten. Du hast weniger Quantisierungsfehler bei 10-bit als bei 8-bit selbst wenn du ein 8-bit Signal als 10-bit enkodierst. Zumal wir ja zb beim Fernseher in der Zeit in der wir von 1080p auf 4k gegangen sind von MPEG-2 auf HEVC gegangen sind. Zwar hat sich auch die Bitrate von ~20Mbps auf ~30 erhöht, aber angesichts der 4x Pixelmenge mit massiv weniger Artefakten ist das erstaunlich wenig.
 
Hat die Software wirklich 6k/8k geschnitten, oder nur eine ausreichend flotte Vorschau genieriert?

Auch der Schnitt läuft butterweich. Es kommt immer auf das Dateiformat an. Bei Prores und Blackmagic Raw sind 6k und 8K kein Problem, vermutlich würden sogar 12K laufen mit etwas Anpassung.

Komprimierte Formate sind da schon etwas anstrengender für das System. Wenn man aber bedenkt was so ein Mac Mini kostet ist das wirklich Ergebnis wirklich klasse.

Der Stromverbrauch der PC ist ja auch entsprechend wieder am Ansteigen, allen Klimabeteuerungen zum trotz. Wobei von 1080p = 2 MiP ==> 4k = 8 MiP ==> 8k = 33MiP dann gerne noch 60p und 10 Bit Farbtiefe....
Macht ca. 40 fache Rohdatenmenge, soviel Verbesserungen bei den CPU sehe ich Ryzen Hin oder Her nicht wirklich, und daß Grafikkarten mit 6Pin Stromanschluss nur noch in Abverkaufware zu bekommen ist, spricht Bände.

Klimabeteuerungen? Ein Macbook Air M1 verbraucht 16watt und mein Windows Rechner im Idle vermutlich 30watt.

Wenn sowas bei dir Besorgnis aufkommen lässt dann würde ich dir dazu raten deinen Kühlschrank, welcher Tag und Nacht läuft, vom Strom zu nehmen und deinen Pudding auf dem Balkon zu lagern.

Die Prozessoren werden immer sparsamer, Jahr für Jahr. Es gibt aber halt Leute die wollen die maximale Leistung aus ihren Komponenten, solche werden dann halt ebenfalls angeboten.

Mal abgesehen von dem Mining-Schwachsinn ist das auch völlig in Ordnung so.


Ich hoffe, daß mit 5.7k = Doppelte Pixelzahl zu 4k und damit genug Bearbeitungsreserve dann Vernunft in den Markt einkehrt. Und das soll die GH6 dann ja auch anbieten.

5.7k wäre die dreifache Pixelzahl gegenüber 4k und auch hier sind die Datenmengen unerheblich. Vermutlich wieder maximal 50Mb/s.


Hat auch viel mit Marketing zu tun. Viele der Karten die gleich 2x 8Pin Anschlüsse oder ähnliches haben brauchen den eig gar nicht.
der8auer auf Youtube hat mal bei einer 2080 TI die hälfte der Stecker abgeschnitten und siehe da, es funktioniert. Aber mehr Anschlüsse setzen viele mit besserer Stromversorgung gleich.

Gerade der Bereich hat eben nichts mit Marketing zu tun hat. 99% aller Grafikkarten würden nicht einmal starten wenn ein Kabel nicht ordnungsgemäß eingesteckt ist oder Kabelstränge fehlen.

Vor allem die Grafikkarten-Hersteller sind berühmt für ihre Einsparungen, könnte man sich das anlöten einer weiteren Stromversorgung sparen, wären die Hersteller die ersten die darauf verzichten würden.

Und natürlich sind mehr Anschlüsse gleichzeitig eine bessere Stromversorgung und zwar eine die mehr Sicherheit bietet. Ein PCIe-Stromanschluss darf Maximal 150watt aufnehmen. Sollte eine Karte 150watt brauchen, dann ist es für die Karte und das Netzeil einfach sicherer diese aufzuteilen.

Eine Seilschlinge nutzt man ja auch nicht mit 95% ihrer Bruchlast sondern fügt einfach eine zweite Schlinge hinzu.
 
Zuletzt bearbeitet:
Bei selber Visueller Qualität brauch ich bei 10-Bit aber weniger Bitrate, aka weniger Daten. Zumindest bei den gängigen komprimierten Formaten. Du hast weniger Quantisierungsfehler bei 10-bit als bei 8-bit selbst wenn du ein 8-bit Signal als 10-bit enkodierst. Zumal wir ja zb beim Fernseher in der Zeit in der wir von 1080p auf 4k gegangen sind von MPEG-2 auf HEVC gegangen sind. Zwar hat sich auch die Bitrate von ~20Mbps auf ~30 erhöht, aber angesichts der 4x Pixelmenge mit massiv weniger Artefakten ist das erstaunlich wenig.

Die Bitrate sind die Übertragene Datenmenge. Rohdatenmenge steigt mit Pixelzahl und Bittiefe. Daß heute dank effizienterer Komprimierung mit relativ geringerer Bitrate -zumindest bei wenig bewegten-Bildern bessere Qualität übertragen wird, liegt an den Codecs.
... die allerdings mehr Rechenpower benötigen... sprich neue Hardwareverkaufszyklen ausgelöst haben.
Zudem verbietet niemand auch ein 720p-Video in HVEC zu kodieren. Dann kann man eine noch höhere Qualitätsstufe bei derselben Bitrate einstellen, sehr angenehm bei Bewegung im Bild....
Was Decoder und Grafikhardware beim Anzeigen an Strom verbrauchen skaliert aber gut mit der Bildgröße, wenn ich das mit meinem Stromzähler mal so vergleiche. Und ja auch die "besseren" Codec verlangen mehr Strom, weil die Prozessorauslastung oder die Hardware-Decoder mehr strapaziert werden.
 
Auch der Schnitt läuft butterweich. Es kommt immer auf das Dateiformat an. Bei Prores und Blackmagic Raw sind 6k und 8K kein Problem, vermutlich würden sogar 12K laufen mit etwas Anpassung.

Anzunehmen, weil die Software bei Schnitt nur verkleinertes Bildmaterial darstellt, und erst beim Export die volle Auflösung rechnet. So zumindest meine Software.

Klimabeteuerungen? Ein Macbook Air M1 verbraucht 16watt und mein Windows Rechner im Idle vermutlich 30watt.

Ich habe in der c't in den Tests die Energieverbäuche sehr genau verfolgt. Mit den Core-i der 7 ...8...(9) Generation konnte man ein Windows-Rechner auf einem sparsamen Board mit 17..20 W Idle aufbauen. Eventuel eine Geforce 10x0ti mit 4W Idle dazu. Und kam dabei bis in die 8-Kerne 4.5 Ghz Region.

Seit Ryzen sind 35W Idle wieder Sparsam, eher 45W wenn ex PCI-X 4 sein darf. Dazu kommt, das Verschwinden der Grafikkarten mit 4-7W Idle und ~75W inzwischen hat sich der Markt zu 12..15W Idle bei 150...250W verschoben, damit auch große Displays mit höchster Detailrate...
Entsprechend gibt Es Gold-Netzteile mit unter 400W wie ich es hier habe auch nichtmehr am Markt. Ja die Spitzenperformance/W hat sich dank kleinerer Dyes verbessert, dennoch Verbrauchen die Rechner generell mehr als vor 3...5 Jahren, sofern man keine reine Surf/ Büro-Kiste mit integriertem Chipsatz wählt, weil man ja auch noch RAW-Bilder entwickeln will.
Wenn jetzt solche Geräte in großen Mengen verkauft werden, dann wird sich das in der CO-2 Bilanz niederschlagen. Wenn ich nur sehe, was mein Neffe als nächstes Ausbauziel so anpeilt... Dabei hat sich der Stromabschlag meiner Schwester bereits duch seinen bisherigen Rechner mit dem 8400k um ein gutes 1/3 erhöht, und das war vor Home-Schooling.
 
Gerade der Bereich hat eben nichts mit Marketing zu tun hat. 99% aller Grafikkarten würden nicht einmal starten wenn ein Kabel nicht ordnungsgemäß eingesteckt ist oder Kabelstränge fehlen.

Vor allem die Grafikkarten-Hersteller sind berühmt für ihre Einsparungen, könnte man sich das anlöten einer weiteren Stromversorgung sparen, wären die Hersteller die ersten die darauf verzichten würden.

Und natürlich sind mehr Anschlüsse gleichzeitig eine bessere Stromversorgung und zwar eine die mehr Sicherheit bietet. Ein PCIe-Stromanschluss darf Maximal 150watt aufnehmen. Sollte eine Karte 150watt brauchen, dann ist es für die Karte und das Netzeil einfach sicherer diese aufzuteilen.

Eine Seilschlinge nutzt man ja auch nicht mit 95% ihrer Bruchlast sondern fügt einfach eine zweite Schlinge hinzu.


Das ist in den 150W schon drin. Das die Karten nicht starten liegt eher am Phaseshifting und am Sensor Pin. Wenn du die Pins einfach überbrückst startet die Karte ohne Probleme.
https://www.youtube.com/watch?v=LQZa-FsvlOo
Wenn du mal Zeit haben solltest.


Zudem verbietet niemand auch ein 720p-Video in HVEC zu kodieren. Dann kann man eine noch höhere Qualitätsstufe bei derselben Bitrate einstellen, sehr angenehm bei Bewegung im Bild....

Denkst du jemand hätte jemals HEVC Hardware Decoding in jedem neuen Endgerät verbaut wenn es kein 4k gegeben hätte? Kaufen sie jetzt diesen neuen Fernseher/Reciever/Bluray Player mit besserem Codec? So kannst du nichts vermarkten und neue Standards einführen. Mit "diesem neuen 4k HDR Bluray Player" hingegen schon. Das du dann HEVC Hardware decoding hast. Mein S905X basierter SBC hat 4k/60fps/10-bit h265 decoding in einem 5W TDP package. Und das Ding ist schon 5 Jahre alt.
 
WERBUNG
Zurück
Oben Unten