Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Nvidia RTX 4080/90 Preissenkung, Konkurrent AMD RX 7900 XT(X) startet in Kürze



Newsmeldung von slashCAM:



Als Nvidia vor zwei Jahren die RTX 2080 mit der RTX 3080 ablöste, war diese nach der Vorstellung lange Zeit kaum verfügbar. Grund für die hohe Nachfrage war unter andere...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Nvidia RTX 4080/90 Preissenkung, Konkurrent AMD RX 7900 XT(X) startet in Kürze


Space


Antwort von teichomad:

Der erste Hersteller mit High End GPUs unter 600 € gewinnt die Herzen der Gamer. Kann doch nicht so schwer sein normale Preise an zu bieten.

Space


Antwort von MrMeeseeks:

@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.

Space


Antwort von Gabriel_Natas:

MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.

Space


Antwort von cantsin:

Würde mich nicht wundern, wenn wir bald wieder bei 500-700 EUR für eine Highend-Grafikkarte landen, jetzt, wo das Crypto-Mining abgestürzt ist. Man muss wahrscheinlich noch ein Jahr warten, bis sich die neue Realität vollständig auf den Markt niederschlägt.

Space


Antwort von dienstag_01:

Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.

Space


Antwort von DKPost:

Gabriel_Natas hat geschrieben:
MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.

Space


Antwort von Gabriel_Natas:

DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.

Space


Antwort von cantsin:

dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...

Space



Space


Antwort von DKPost:

Gabriel_Natas hat geschrieben:
DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Das kannst du ja so sehen. Deine Definition von Leistung ist aber falsch. Du bekommst massiv mehr Leistung für das gleiche Geld. Gleichzeitig verlangen Spiele aber auch nach wesentlich mehr Power. Dafür können aber die Grafikkartenhersteller nur bedingt etwas.

Space


Antwort von dienstag_01:

cantsin hat geschrieben:
dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Die Meinung würdest Du ggfs. ändern, wenn Du mal 4K-h265-Material in der Timeline hattest, oder auch anspruchsloseres Material wie ProRes, und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung "Your GPU Memory Is Full" ausspuckt...
Die Meldung kenne ich von meiner 2GB Karte. Jetzt, mit einer 3050 mit 8GB hatte ich sie noch nicht wieder.
4K-h265 in der Timeline habe ich auch, das ist nur Mist, wenn es nicht hardware-decodiert wird. Dafür braucht es aber auch nicht so ein Geschoß von Grafikarte.

Space


Antwort von teichomad:

MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
1900€ für eine Gaming GPU sind eindeutig zu viel.

Space


Antwort von teichomad:

DKPost hat geschrieben:
Gabriel_Natas hat geschrieben:


Aber die Grafikkartenpreise sind absurdum schnell explodiert.
Eine GTX 780 TI hat damals (2013) 650€ gekostet. Die wohl damals beste Grafikkarte auf dem Markt.
Für 650€ kriegt man heute ja kaum eine RTX 3060, also bestenfalls Mittelklasse.
Und Inflationsbereinigt wären 650€ in 2013 heute 730€.
Also selbst inflationsbereinigt sind die Grafikkartenpreise mehr als verdoppelt worden.
Meine GTX 1080 gab es damals für unter 500€. Wenn ich die heute ersetzen wollen würde, würde ich mehr bezahlen als den Neupreis meines PC Systems. Das ist doch Wahnsinn.
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.
Erschreckend wie leicht sich viele diesen Wucherpreisen beugen.

Space


Antwort von DKPost:

teichomad hat geschrieben:
DKPost hat geschrieben:


Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Das ware doch zu Zeiten der 780 genau so. Alles neu, kleinere Fertigung etc.
Erschreckend wie leicht sich viele diesen Wucherpreisen beugen.
Was war denn da genauso? Alleine schon 3GB gegen 24GB ist ein massiver Preisunterschied in der Fertigung.
Wie gesagt, ich halte die aktuellen Preise auch für zu hoch, aber solche Vergleiche sind einfach Unsinn.

Space


Antwort von MrMeeseeks:

Gabriel_Natas hat geschrieben:
DKPost hat geschrieben:
Das ist aber auch eine Milchmädchenrechnung. Die neuen Karten haben ein vielfaches an Speicher der zwei bis drei Generationen neuer ist, dazu komplett neue Kerne, Chips in einem viel kleineren Fertigungsverfahren etc.
Ich will die Endpreise nicht groß verteidigen, aber die Herstellung ist eben auch deutlich teurer als früher. Wenn man Leistung pro Euro rechnet relativiert sich das ganz schnell.
Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.

Dein Vergleich mit dem Neuwagen hinkt in absolut allen Bereichen. Der Aufbau eines Chips einer neuen GPU Generation enthält so viele Veränderungen wie alle Autos der letzten 50 Jahre zusammen.

teichomad hat geschrieben:
MrMeeseeks hat geschrieben:
@Teichomad

Dann fang doch mal an und steck Milliarden in die Entwicklung und verkauf dann deine Forschungen und das spätere Produkt zu Schleuderpreisen. Die 1900€ für eine RTX4090 sind lachhaft, deine 600€ aber auch.
1900€ für eine Gaming GPU sind eindeutig zu viel.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.

Nur weil irgendwelche Gamer, die finanziell aus dem letzten Loch pfeifen und seit 2 Jahren ständig über die Preise weinen, meinen sie verdienen das beste zu den günstigsten Preise, muss Nvidia da noch lange nicht ihr Zeug verschleudern.

Grafikkarten sind kein Wasser und kein Brot sondern reine Luxusartikel. Wer meint er brauch die Leistung einer RTX 4090 hat genau 2 Möglichkeiten...das Ding kaufen oder den Schnabel halten. Der Markt regelt sich dann selber.

Space


Antwort von teichomad:

MrMeeseeks hat geschrieben:
Gabriel_Natas hat geschrieben:


Ich Vergleiche die Topgrafikkarten von damals mit den Topgrafikarten von heute.
Und Heute bekommenich füe die gleiche Leistung (Leistung in dem Fall als Beispiel aktuelle Spiele in mittlerer bis hoher Grafikeinstellung) dann bekomm ich weniger Leistung für mein Geld
Benchmarks oder theoretische Leistungswerte sind irrelevant. Was zählt ist, was mir die Grafikkarte nützt, was ich damit jetzt machen kann.
Und in dem Fall sind die Preise explodiert.

Z.B. die Neuwagenpreise in Deutschland sind im gleichen Zeitraum von 2013 bis 2022 von durchschnittlich 27k auf 37k gestiegen.
Die gleiche Leistung (ein Neuwagen) kostet dort 37% mehr (Inflationsbereinigt 25%). Bei Grafikkarten sind wir bei 300% mehr.
Du checkst das einfach nicht. Seit dem Iphone 4 hat sich der Preis auch einfach verdoppelt. Ein Smartphone, eine GPU oder Ähnliches wird veröffentlicht und hat die aktuellste und beste Leistung, um also Neuerungen im nächsten Produkt zu verbauen brauch es einfach viel Geld an Forschung und Materialkosten. Eine neue GPU würde niemand kaufen wenn das teuerste Modell nur 10% mehr Leistung bietet als das vorherige, es brauch also immense Kosten um die gewünschten Sprünge zu erreichen die für den Endkunden interessant sind.

Dein Vergleich mit dem Neuwagen hinkt in absolut allen Bereichen. Der Aufbau eines Chips einer neuen GPU Generation enthält so viele Veränderungen wie alle Autos der letzten 50 Jahre zusammen.

teichomad hat geschrieben:


1900€ für eine Gaming GPU sind eindeutig zu viel.
Nö totaler Quatsch. Das ist die schnellste und modernste GPU die Nvidia aktuell anbietet, die können verlangen was sie wollen und jeder mit entsprechend viel Geld sollte in der Lage sein das selber beurteilen zu können. Ich besitze Objektive die gefühlt 5% Schärfer sind als andere Modelle und dennoch 300% teurer waren aber auch hier gibt es eine Zielgruppe dafür.

Nur weil irgendwelche Gamer, die finanziell aus dem letzten Loch pfeifen und seit 2 Jahren ständig über die Preise weinen, meinen sie verdienen das beste zu den günstigsten Preise, muss Nvidia da noch lange nicht ihr Zeug verschleudern.

Grafikkarten sind kein Wasser und kein Brot sondern reine Luxusartikel. Wer meint er brauch die Leistung einer RTX 4090 hat genau 2 Möglichkeiten...das Ding kaufen oder den Schnabel halten. Der Markt regelt sich dann selber.

Nvidia zählt auf Leute wie dich ! Und die 4k Framedrops der 4090 wirken jetz auch nich direkt wie 1900 Mücken ^^

Space


Antwort von Hayos:

MrMeeseeks hat geschrieben:
...muss Nvidia da noch lange nicht ihr Zeug verschleudern.
Klar, die absurden Milliardengewinne von Nvidia in den letzten Jahren haben sicher gaaar nichts mit überhöhten Preisen zu tun ;)

MrMeeseeks hat geschrieben:
Der Markt regelt sich dann selber.
Jepp und das passiert ja auch gerade, siehe Slashcam-News und oder hier:
https://www.pcgameshardware.de/Geforce- ... s-1407559/

Space


Antwort von Jörg:

cantsin schreibt
und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
diese Warnmeldung war ständiger Begleiter.
seitdem hier eine 3080 werkelt ist sie verschwunden, Fusion macht fast Spaß, (sofern Spaß da überhaupt aufkommen kann),
zumindest kann man damit nun arbeiten.
Eine testweise 3060 hatte diese Option nicht, trotz 12 G Speicher.

Ist doch wie immer:
der Eine kauft, der Andere nicht...

Space



Space


Antwort von DKPost:

Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.

Space


Antwort von DeeZiD:

DKPost hat geschrieben:
Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Genau und gerade die 40xx-Serie hat wieder einige krasse Optimierungen für Resolve und kann nun damit am M1 Max/Ultra vorbeiziehen. Es wird also wieder spannend.

Space


Antwort von Gabriel_Natas:

DKPost hat geschrieben:
Für Leute die ernsthaft damit arbeiten und die Power auch ausnutzen können stellen sich Fragen nach dem Preis und den Vergleichen zu irgendwelchen 10 Jahre alten Karten doch garnicht.
Wenn die Karte doppelt so schnell rendert wie eine alte hat man den Preis doch innerhalb von wenigen Tagen wieder drin. Doppelt so schnell ist hier natürlich nur ein Beispiel.
Das sind doch die wenigstens. Die Profis, die damit Geld verdienen sind doch nur ein paar % des Grafikkartenmarktes.
Und für alle, die damit kein Geld verdienen lassen sich 1000+ Euro für ne Grafikkarte nicht darstellen.
Und wenn ich damit Geld verdienen würde, dann würde ich eh auf Mac umsteigen. Die haben dank M1/M2 das wesentlich bessere Preisleistungsverhältnis.
Die Preise sind total überzogen, hauptsächlich wegen Skalper und Miner. Und die fallen jetzt hoffentlich weg. Dann müsse NVIDIA und AMD noch einsehen, dass die Goldrauschjahre vorbei sind und man wieder normale Preise für normale Konsumenten aufrufen muss.

Space


Antwort von MK:

Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile.

Keine Ahnung wie sich die Entwicklungs- und Produktionskosten in den letzten 20+ Jahren entwickelt haben, für eine Highend-Karte heutzutage 800 - 1000 EUR zu bezahlen halte ich aber nicht für so unrealistisch.

Space


Antwort von Bluboy:

Ich schätze für einen berufmäßigern Videioschnippsler ist das ein Monatslohn oder weniger.

Also alles im grünen Bereich. kein Grund zu Aufregung

Space


Antwort von cantsin:

MK hat geschrieben:
Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile.
Laut Moore's Law (das ja noch weitgehend gültig zu sein scheint), nachdem sich die Anzahl der Transistoren auf einem Chip alle zwei Jahre verdoppelt, müsste sich bei Grafikkarten seit 1999 die Transistorenzahl bzw. die Komplexität knapp um den Faktor 2 hoch 12=4096 erhöht haben, ohne dass es zu signifikaten Kostensteigerungen gekommen ist. 1999 kam die Geforce 256 auf den Markt, die erste Grafikkarte, die als "GPU" beworben wurde. Die hatte 17 Millionen Transitoren, während eine heutige RTX 4090 76,3 Milliarden Transistoren hat, was also ziemlich genau dem genannten Faktor entspricht. Der RAM hat sich mit 24 GB ggü. 32 MB übrigens "nur" um den Faktor 750 vergrößert.

Selbst wenn man mal annimmt, dass die Produktionskosten sich trotzdem verdoppelt haben sollte, sollte es eine RTX 4090 dann immer noch für 720-860 EUR statt wie aktuell für über 2000 EUR im Handel geben...

Auch wenn meine obige Rechnung natürlich alle möglichen spekulativen Faktoren hat - wenn man sich parallel die Preis- und Leistungsentwicklung bei CPUs und RAM seit 1999 ansieht, scheint da bei den GPUs irgendetwas aus dem Ruder gelaufen zu sein bzw. Moore's Law zu widersprechen.

Space


Antwort von teichomad:

Ich finde es schade dass Nvidia seinen Kunden durch die die Marke reich geworden ist solche Preise zumutet. Die Haben einfach gecheckt dass Kunden wie bei Apple etc. bereit sind für das Beste arsch viel Kohle hin zu blättern. ATI könnte auch mal bisschen zurück schalten.
600 - 800 Euro sind doch voll in Ordnung für High End. Für Forschung haben die damals doch auch Kohle verballert. Wäre mal interessant wie die Herstellungskosten sind, auch im Vergleich zu damals.

Space


Antwort von Blackbox:

Dass die Wirkung des Moorschen Gesetzes nicht an die zivilen Kunden weitergegeben wird mag - unter anderem - auch seinen Grund darin haben dass Nvidia intensivst in die US-amerikanische Waffenentwicklung verstrickt ist.
Im Rahmen der Kriegsvorbereitungen für den Indopazifikkonflikt zeichnet sich ja seit längerem ab, dass KI, teilautonome Waffensysteme, Echtzeit-KI-Auswertung von Aufklärungsdaten, etc. quasi 'Kriegsentscheidend' sein werden.
Siehe auch die global wirksamen US-Restriktionen gegenüber den (ehemaligen) Chinageschäften von Firmen wie ASLM.
Nicht unwahrscheinlich, dass die zivilen Endkunden indirekt die ohnehin bereits überlegenen Waffentechologien der USA unfreiwillig mitfinanzieren (müssen?).
Die Entwicklung und weitere Miniaturisierung von Computerleistung nebst KIPerfektionierung und die zunehmende Verfügbarkeit von automatisierten Killermaschinen sind im Grunde nicht mehr voneinander trennbar. Videotechnikemtwicklung und 'autonome' Waffentechnik sind im Kern kaum noch voneinander zu unterscheiden.
Die praktische Anwendung wird ja seit längerem im Nahen und Mittleren Osten ausführlich 'getestet'.
Stichwort 'Drohnenmorde'.
https://www.digit.fyi/us-ai-report-call ... ace-china/
Neu ist die Integration von Nvidia in den militärisch-industriellen Komplex der USA übrlgens definitiv nicht:
https://www.heise.de/newsticker/meldung ... 19830.html

Space


Antwort von markusG:

Jörg hat geschrieben:
cantsin schreibt
und Dir Resolve auf Grund Deiner Korrekturnodes und Plugins die beliebte Fehlermeldung
"Your GPU Memory Is Full" ausspuckt...
diese Warnmeldung war ständiger Begleiter.
seitdem hier eine 3080 werkelt ist sie verschwunden, Fusion macht fast Spaß, (sofern Spaß da überhaupt aufkommen kann),
zumindest kann man damit nun arbeiten.
Eine testweise 3060 hatte diese Option nicht, trotz 12 G Speicher.
Kannst du das kurz erläutern? Bezieht sich der letzte Satz auf die Warnmeldung oder den "Spaß"?

Space



Space


Antwort von markusG:

Blackbox hat geschrieben:
Dass die Wirkung des Moorschen Gesetzes nicht an die zivilen Kunden weitergegeben wird mag - unter anderem - auch seinen Grund darin haben dass Nvidia intensivst in die US-amerikanische Waffenentwicklung verstrickt ist.
Sollten die Grafikkarten dann nicht sogar günstiger sein? Über die Leistung beschwert sich denke ich ja niemand. Und wenn Nvidia seine Pferdchen im trockenen hat (den kommerziellen Servermarkt gibt es ja auch noch), sollten sie ja flexibel in der Preisgestaltung sein und locker ihr R&D stemmen, gell?

Space


Antwort von Jörg:

sollten sie ja flexibel in der Preisgestaltung sein ich finde, die sind seeeehr locker in der Preisgestaltung...
wie momentan wohl alle Hersteller und Erzeuger.

Space


Antwort von balkanesel:

MK hat geschrieben:
Highend-Grafikkarten waren um 1999 für 500 - 600 Mark zu haben... Inflationsbereinigt sind das heute 360 bis 430 EUR.

Allerdings hatten die damals auch nur 32 bis 64 Megabyte Speicher, recht einfache Kühlsysteme, kaum Stromverbrauch und nur eine handvoll Bauteile....
ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.

Space


Antwort von MK:

balkanesel hat geschrieben:
ich hab mir um die Zeit eine Wildcat gekauft mit knapp unter 500MB Speicher und 1600.- DM bezahlt.
Da wäre dann eher eine Quadro vergleichbar die bei ähnlicher Leistung auch deutlich mehr als die Consumerkarten kostet... größerer Speicher, Software ECC und die angeblich ausgereifteren Treiber rechtfertigen da bestimmt auch nicht unbedingt den x-fachen Preis.

Space


Antwort von markusG:

Jörg hat geschrieben:
ich finde, die sind seeeehr locker in der Preisgestaltung...
Tja wer nicht bereit ist so viel zu bezahlen - es gibt ja noch Mitbewerber. Gerade im Schnittbereich sollte das ja relativ schmerzfrei sein. Bei den Cuda/OptiX zentrischen Anwendungen mag das vlt. anders sein.


https://www.youtube.com/watch?v=6T9d9LM1TwY

Wobei ich bezweifle, das Marktdruck alleine reicht. Lamentieren aber eben auch nicht.


Profis können nach wie vor davon profitieren, dass die Software auf Consumer-HW läuft (und mitunter besser als auf Profi-HW), das war nicht immer so und hat viele Türen geöffnet.

Space


Antwort von Jost:

dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.

Space


Antwort von dienstag_01:

Jost hat geschrieben:
dienstag_01 hat geschrieben:
Wer sich für Arbeiten im Videobereich so eine Grafikkarte zulegen möchte, sollte nicht auf mein Mitleid spekulieren ;)
Vollkommen oversized.
Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.
Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)

Space


Antwort von iasi:

dienstag_01 hat geschrieben:
Jost hat geschrieben:

Bin da nicht so sicher. Klar, für Wald und Wiese reicht unter DR auch ein IPad Pro. Das Ding hat überhaupt keine dezidierte Grafikkarte.
Aber irgendwo muss KI angedockt werden. Irgendwo muss das gerechnet werden. Welche Grafikkarten-Generation wird überhaupt unterstützt?
Ich bin höchst misstrauisch, dass die Hardware-Entwicklung mithält mit der KI-Entwicklung. Ändern sich Standards, stehst Du da. Erinnere Dich mal an die Zeit, als nur Quicksync Hardwarebeschleunigung für H.265-Encodierung konnte.
Dass die neuen GPU für Wald und Wiese oversized sind - keine Frage. Wie gut sind sie aber gerüstet für KI? Wer kann ausschließen, dass sie in vier Jahren bereits undersized sind?
Ich zweifele an der Zukunftssicherheit.
Man sollte Hardware sowieso für die Bewältigung der Aufgaben anschaffen, die derzeit zu erledigen sind und nicht für irgendwelche Möglichkeiten/Eventualitäten in der Zukunft. Denn erstens kommt es anders und zweitens als man denkt - Lebensweisheit ;)
Andererseits sollte man auch die Anforderungen von morgen im Auge behalten.

oversized muss aber wirklich nicht sein.

Space


Antwort von andieymi:

Dass hier noch nirgends das Wort Oligopol gefallen ist?
Der Markt für dezidierte GPUs ist da eigentlich ein Paradebeispiel und die momentane Entwicklung symptomatisch, was mit Preisen auf solchen Märkten passiert.

Fertigen lassen beide wohl bei TSMC, die kriegen dann die Preisgestaltung über TSMC direkt mit. Das ist dann nicht mal mehr eine Absprache, sondern eigentlich schon fast wiederum die Abhängigkeit von einem Monopol:
https://www.hardwaretimes.com/nvidia-am ... ps-report/

Bleibt wirklich nur zu hoffen, dass Intel da mit der Arc-Serie auf die Beine kommt, anders ist der Markt kaum mehr zu retten.

Das ist ja auch das schöne Problem mit solchen Schlüsseltechnologien, dass nicht einfach mal der 3., 4., 5. Anbieter um die Ecke kommt, weil die Einstiegshürden extrem hoch sind. Sowohl technisch (wer lässt nicht bei TSMC fertigen? Naja, nur Intel kann das selbst... Samsung wird wohl keinerlei Interesse haben, in der Nicht-Mobile-Computing-Branche mitzuspielen.), als auch gerade Treiberseitig (wie viel an Optimierung liegt, spürt Intel wohl gerade auch bei Arc), wo sich die Softwarestudios defacto ausschließlich auf AMD/nVidia konzentrieren.

Wobei: Moment. Intel baut die Arc ja auch bei TSMC. Shit.

Das ist das schöne bei Volkswirtschaft. Dass jeder nur an die Marktwirtschaft denkt und dann jammert, wenn die Probleme auf der anderen Seite liegen. Was wäre die Reaktion auf Monopolisten aus Fernost? Zölle. Blöd nur, dass dann für Konsumenten alles noch teurer wird. Blöde, wenn man jegliche europäische Halbleiterfertigung ausgerottet hat und sich zu 100% abhängig von Taiwan gemacht hat. Da versteht man fast, wie sehr der Westen unter dem Deckmäntelchen der Menschenrechte das Auge auf Taiwan hat. Wenn da China kommt, dann ist's hier vorbei mit allem was in 0 und 1 denkt.

Space



Space


Antwort von Gore:

Muss mich auch mal eben kurz zu Wort melden bezüglich des Grafikkartenspeichers: Videomaterial in der Timeline eines Schnittprogramms zu haben, ist ja die eine Sache. Hat jemand von euch aber auch Erfahrungen mit GPU-Renderern in Cinema 4D oder in Blender gemacht?

Danke schon mal. :-)

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Neue Nvidia Oberklasse GPUs im Januar - RTX 4070 / Ti und RTX 4080 Super
Radeon RX 7950 XTX und XT - AMD verrät versehentlich RTX 4090 Konkurrent
Beste Grafikkarte für DaVinci Resolve? Nvidia GeForce RTX 4080 Super
Blackmagic DaVinci Resolve Update 16.2.7 bringt Unterstützung für neue Nvidia RTX 3080, RTX 3090 und RTX 3070 GPUs
AOC Moss M7 - Mac Mini Konkurrent mit 32 GB/2TB und AMD Prozessor für 521 Dollar
Neue Grafikkarten Generation von AMD - RX 7900 XT(X) mit zwei Video Engines
AMD Radeon RX 7900 GRE
AMD Radeon RX 7900 GRE mit 16GB und 256 Bit - preiswerte Grafikkarte für DaVinci Resolve?
AMD RX6/7 Intel Arc und Nvidia RTX 4 - Kommt jetzt die GPU-Schwemme?
Nvidia bringt neue Profi-Grafikkarten für Workstations: RTX A5000 und RTX A4000
Neue Nvidia RTX 4090: Doppelt so schnell wie RTX 3090 Ti - aber 1.949 Euro teuer
Neue Nvidia NVIDIA RTX 2000 Ada für $625
PL- auf L-Mount Konverter Sigma MC-31 in Kürze verfügbar
Atomos Ninja V wird ProRes RAW in 6K aufzeichnen -- Preissenkung für Shinobi // IBC 2019
Red Komodo Konkurrent in Sicht?
Preissenkung bei Kinefinity - TERRA 4K, MAVO 6K und MAVO LF
DJI Ronin 4D Gimbalkamera wird ausgeliefert - ohne ProRes RAW, aber mit Preissenkung
AMDs Radeon RX 7900 jetzt (schon wieder nicht mehr) verfügbar




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash