Door Daan van Monsjou

Redacteur

Prijzen van videokaarten in 2024

De meeste gpu's worden onder adviesprijs verkocht

24-02-2024 • 06:00

202 Linkedin Whatsapp

Artikel

We hebben een aantal jaren van turbulente videokaartprijzen achter de rug. In de covidperiode stegen de prijzen van videokaarten explosief wegens aanhoudende chiptekorten en een te hoge vraag. Sinds pakweg 2022 zijn de prijzen net zo hard gedaald, toen de vraag instortte vanwege economische onzekerheid en verkopers die met overtollige voorraden zaten.

Inmiddels zijn we in rustiger vaarwater beland. De huidige gpu-generaties, bestaande uit AMD's Radeon RX 7000- en Nvidia's GeForce RTX 40-series, zijn ongeveer anderhalf jaar op de markt, en de prijzen lijken al een tijdje relatief stabiel. AMD's line-up was volgens het bedrijf al even compleet, en met de recente RTX 40 Super-releases van Nvidia lijkt ook de opstelling van team groen vrij afgerond. Een goed moment om de balans op te maken.

In dit artikel bespreken we hoe het staat met de videokaartprijzen anno 2024. We gebruiken data uit de Tweakers Pricewatch om uit te zoeken wat webwinkels momenteel vragen voor een videokaart. We bekijken ook wat de voorraden zijn en bespreken de release van Nvidia's recente RTX 40 Super-videokaarten en de huidige prijzen van de vorige gpu-generatie.

Pricewatch-data

De prijzen in dit artikel zijn gebaseerd op uit voorraad leverbare videokaarten in de Pricewatch. Daarbij gaat het om videokaarten die binnen 24 uur kunnen worden geleverd via webwinkels die bij de Pricewatch zijn aangesloten. De prijzen in dit artikel zijn op 20 februari verzameld.

Prijsverloop Radeon RX 7900 XT
Het prijsverloop van een AMD Radeon RX 7900 XT-videokaart.

Prijzen gemiddeld bijna 9 procent onder de introductieprijs

Over het algemeen valt op dat vrijwel alle videokaarten uit de huidige generatie onder de adviesprijs worden verkocht; gemiddeld gezien liggen de prijzen ongeveer 8,68 procent onder de adviesprijs die AMD en Nvidia bij de introductie van hun kaarten aankondigden.

In Nvidia's GeForce RTX 40-serie wordt alleen de onlangs uitgebrachte RTX 4080 Super iets boven de adviesprijs verkocht, hoewel dat verschil met minder dan 3 procent niet erg hoog is. Alle andere RTX 40-kaarten zijn voor minder te krijgen dan de adviesprijzen die Nvidia bij de releases aanhield. Dat geldt ook voor de GeForce RTX 4090, die lange tijd duurder was dan de adviesprijs van 1959 euro, maar recent weer in prijs is gedaald.

De RTX 4080 heeft de afgelopen maanden de grootste daling doorgemaakt. Die videokaart is inmiddels voor iets meer dan 1200 euro te koop, wat ruim 18 procent minder is dan de adviesprijs van 1469 euro. Daarbij valt ook op dat diezelfde RTX 4080 duurder is dan de krachtigere RTX 4080 Super, maar daar gaan we straks dieper op in.

Ook de RTX 4070 is fors in prijs gedaald, maar daarbij moet gezegd worden dat Nvidia de adviesprijs van die kaart onlangs heeft verlaagd. Het bedrijf deed dat vanwege de release van de RTX 4070 Super, die een krachtigere gpu met meer CUDA-cores heeft. De adviesprijs van de gewone 4070 werd daarop met 50 dollar verlaagd naar 549 dollar.

Bij AMD zijn alle RX 7000-videokaarten onder de adviesprijs verkrijgbaar. Dat geldt vooral voor de twee hoogst gepositioneerde videokaarten. Daarbij is vooral de Radeon RX 7900 XT een uitschieter. Die videokaart werd geïntroduceerd met een adviesprijs van 1049 euro, maar is inmiddels voor iets meer dan 760 euro te vinden in de Pricewatch, een daling van ongeveer 27,5 procent.

Daarbij moet wel opgemerkt worden dat de Radeon RX 7900 XT officieel slechts 110 euro, of 9 procent, goedkoper moet zijn dan de duurdere RX 7900 XTX. Die XTX-variant had een aanzienlijk krachtigere gpu met maar 14 procent meer compute-units en 4GB extra GDDR6-geheugen, wat maakte dat de Radeon RX 7900 XT bij release relatief gezien te hoog geprijsd was.

Ook de laagst genoteerde prijs van een RX 7900 XTX ligt inmiddels overigens ruim 15 procent onder de introductieprijs van 1159 euro. De overige AMD-kaarten worden ook allemaal onder de adviesprijs verkocht, hoewel het verschil met de introductieprijs bij die videokaarten wel een stuk kleiner is.

Het aanbod: vooral bij Nvidia groot

Wat betreft voorraden zijn zowel Nvidia- als AMD-videokaarten goed leverbaar. Van iedere videokaart heeft minstens iedere variant tien verschillende modellen die binnen 24 uur leverbaar zijn. Dat geldt vooral voor Nvidia. Het aanbod van Nvidia's RTX 40-serie is duidelijk groter dan dat van de RX 7000-serie van AMD.

Vooral de RTX 4070 en RTX 4070 Ti zijn ruim verkrijgbaar, met respectievelijk 47 en 44 verschillende modellen die direct leverbaar zijn. De RTX 4080 Super is het minst goed leverbaar, maar daarvan zijn nog steeds 18 verschillende varianten beschikbaar.

Bij AMD's Radeon RX 7000-serie is het aanbod minder breed. De best verkrijgbare RX 7000-kaart, de RX 7800 XT, is met zestien verschillende exemparen minder goed leverbaar dan de RTX 4080 Super, die het laagste aanbod heeft onder de Nvidia-kaarten. Tegelijkertijd biedt ook dit merk voldoende keuze, met minimaal tien verschillende leverbare modellen per gpu.

RTX Supers: vooral de RTX 4080 non-Super is buitenproportioneel duur

Nvidia bracht onlangs drie nieuwe videokaarten op de markt: de RTX 4070 Super, 4070 Ti Super en 4080 Super. Deze kaarten dienen als vervanging voor de bestaande RTX 4070, 4070 Ti en 4080, met uitzondering van de RTX 4070, die beschikbaar blijft naast de krachtigere RTX 4070 Super. De nieuwe Super-serie beschikt over betere specificaties en in het geval van de RTX 4080 Super ook een lagere adviesprijs dan het uitgaande model.

Om te bekijken hoe de prijzen van de nieuwe Super-kaarten zich verhouden met de restvoorraad van de non-Supers, hebben we het gemiddelde van alle leverbare videokaarten in deze serie genomen. Daarnaast hebben we de prijzen van 'identieke modellen' met elkaar vergeleken, die beschikbaar komen van hetzelfde merk, in dezelfde productserie en met dezelfde koeler.

Het is opvallend dat de RTX 4080 nog altijd stukken duurder is dan de krachtigere RTX 4080 Super. De officiële adviesprijs van de RTX 4080 is welliswaar 200 euro hoger dan die van de 4080 Super, maar de laatstgenoemde heeft meer CUDA-cores en is daardoor gemiddeld genomen sneller dan de RTX 4080 non-Super.

De prijzen van de 'gewone' RTX 4080 zijn wel gedaald, maar deze kaart is bij de huidige prijzen absoluut niet aan te raden; de Super-variant is gemiddeld genomen ruim 9 procent goedkoper en volgens onze review een paar procent sneller dan de gewone 4080. Dat maakt de gewone RTX 4080 in alle opzichten een slechte koop.

De overige RTX 40 Super-kaarten zijn wel duidelijk duurder dan hun non-Super-tegenhangers. De RTX 4070 Super is gemiddeld ongeveer 10,7 procent duurder dan de gewone 4070, die tegenwoordig verkrijgbaar is voor ongeveer 652 euro en met een minimale prijs van 587 euro. De 4070 Ti Super kost gemiddeld 1059 euro, met een minimale prijs van 889 euro voor het goedkoopst leverbare model. De gewone RTX 4070 Ti, die officieel niet meer verkocht wordt, is nog verkrijgbaar voor gemiddeld 926 euro, oftewel 14,42 procent minder.

Last-genkaarten: ruim onder de adviesprijs, maar geen aanraders meer

Tot slot bekijken we de videokaartprijzen van de vorige generatie: Nvidia's RTX 30-serie en AMD's Radeon RX 6000-kaarten. Die generatie kwam beschikbaar in tijden van grote chiptekorten en werd daarom bij release en in de periode daarna geleverd met torenhoge prijzen. Daar kwam in 2022 al geleidelijk een einde aan.

De meeste videokaarten uit de vorige generatie zijn ruim onder de adviesprijs leverbaar, met een gemiddelde van 12,24 procent onder de introductieprijs. De RTX 3080 is daarbij een uitschieter; de minimale prijs van een 3080-videokaart ligt op het meetmoment op 1377,45 euro, ruim 91 procent hoger dan de introductieprijs van 719 euro. Ook de prijs van de Radeon RX 6950 XT van AMD ligt hoger dan de introductieprijs, hoewel dat prijsverschil met ongeveer 14 procent bescheidener is.

De overige last-genkaarten liggen onder, op of rond de introductieprijzen. Dat wil niet zeggen dat nieuw verkochte gpu's uit de vorige generatie nog een aanrader zijn. In veel gevallen is er een alternatief uit de vorige generatie beschikbaar dat rond dezelfde prijspunten betere prestaties biedt. Er zijn wel enkele kaarten die nooit een opvolger hebben gekregen in AMD's RX 7000- en Nvidia's RTX 40-series. Dat geldt vooral voor lager gepositioneerde videokaarten, zoals de RTX 3050 en de Radeon RX 6400.

Voor iets meer dan de prijs van een RTX 3070 Ti kun je bijvoorbeeld ook een RTX 4070 krijgen, die gemiddeld 17,6 procent sneller is. De Radeon RX 6900 XT is ook sterk in prijs gedaald sinds zijn introductie, maar wordt wat prestaties betreft ruimschoots ingehaald door de RX 7900 XT die voor minder wordt verkocht. Dit blijkt uit onze prestatiecijfers uit de Best Buy Guide van februari 2024. Bovendien blijkt dat de voorraden van de last-gen-gpu's relatief klein zijn, met lager gepositioneerde RTX 30-kaarten zoals de RTX 3050, 3060 en 3060 Ti als enige echte uitzondering.

Tot slot

Uit onze Pricewatch-data blijkt duidelijk dat videokaartprijzen vrijwel unaniem onder de adviesprijs verkrijgbaar zijn, met de nieuwste videokaart op de markt, de RTX 4080 Super, als enige uitzondering. Dat geldt in het bijzonder voor de high-end videokaarten van AMD, die 15 tot 27 procent onder de introductieprijs over de toonbank gaan.

Deze generatie videokaarten was bij introductie echter relatief duur, zeker in het geval van Nvidia. De adviesprijs van een RTX 4070 lag bij release bijvoorbeeld dichter bij de oorspronkelijke adviesprijs van de RTX 3080 dan die van de RTX 3070. De RTX 4080-adviesprijs lag bij introductie weer dicht bij die van een RTX 3090, en ook de nieuwe RTX 4080 Super is nog altijd honderden euro's duurder dan een 3080.

De prijsstrategie van AMD werd deze generatie ook licht aangepast, zij het in (veel) mindere mate. De Radeon RX 7800 XT heeft bijvoorbeeld evenveel compute-units als een op papier lager gepositioneerde RX 6800. Daarbij moet wel gezegd worden dat de introductieprijs van de RX 7800 XT juist iets lager was dan die van de RX 6800.

Wel lijken de prijzen, die nu dus vaak onder de introductieprijzen liggen, de afgelopen maanden redelijk stabiel. De volgende generaties laten daarnaast nog even op zich wachten. Nvidia's RTX 50-serie wordt eind dit jaar of begin 2025 verwacht. AMD's Radeon RX 8000-kaarten verschijnen volgens AMD's roadmap dit jaar nog, hoewel het gerucht gaat dat 'team rood' in die generatie geen kaarten in het topsegment zal uitbrengen.

Het is onwaarschijnlijk is dat videokaartprijzen nog terugduiken naar prepandemische niveaus. Maar met de stabiliserende prijzen en de recentste videokaartreleases, lijkt dit ons een relatief veilig moment om een videokaart te kopen. Nvidia heeft met zijn Super-refresh kaarten op de markt gebracht die betere prestaties leveren voor dezelfde of lagere prijzen. AMD heeft de prijzen van zijn kaarten laten zakken, vooral in het geval van de high-endmodellen. Dat maakt dat je nu meer videokaart voor je euro krijgt dan een jaar geleden.

Lees meer

Reacties (202)

202
200
108
0
0
70
Wijzig sortering
Het kan aan mij liggen, maar ik vind GPU's veelste duur ten opzichte van wat ze te bieden hebben. Oké als je gewoon een GPU moet hebben omdat je oude kapot is oké, maar als je een GPU hebt van na 2016 dus 10xx series van Nvidia of AMD equivalent, dan zie ik niet in waarom je een nieuwe GPU zou kopen.

Competitive online games draaien op vrijwel alles. Voor single player games heb je niemand om je voor uit te sloven, dus er is weinig sprake van bragging rights voor extra FPS. Waarschijnlijk ben je met een console goedkoper uit en heb je een betere ervaring.

Ik heb nu een reguliere 2070 en een 2060m in mijn laptop. Die laptop GPU upgraden gaat sowieso niet, maar zo lang die 2070 het nog doet zie ik geen reden om een nieuwe GPU aan te schaffen. Als ik meer FPS wil kan ik gewoon wat pracht en praal uitzetten wat verder toch weinig toevoegt. Het is leuk hoor al die slidertjes op ultra, maar het verschil in performance ten opzichte van de kwaliteit van graphics door die slidertjes op high of medium is niet evenredig.
Dit inderdaad. Tweakers kan me nog zo vaak blijven vertellen dat GPU's goedkoop zijn, maar zo beleven velen van ons dit gewoon niet. Ik heb een 2060 Super (geïntroduceerd Q3 2019!) en wil ik echt significant erop vooruit gaan dan moet ik er 500 euro tegenaan gooien. Dat is idioot veel geld wat ik er gewoon niet voor over heb.
Eens met jouw sentiment. Hier twee game pc's , waarvan een met een 2080 en een met 3080. De ene in 2018 799 euro nieuw, die andere eind 2022 zoiets voor 600 euro tweedehands. Nu is een 4080 tweedehands 1.000 euro 8)7
Ik geef je gelijk dat het duur is hoor. Maar 799 euro in 2018 is 1059 euro in 2024 met de inflatie van het CBS.

Een tweedehands 4080 is dus 59 euro goedkoper dan die 2080 (en meer dan 2x zo snel). Die 3080 was een goede deal, daar kom je niet zo makkelijk overheen gok ik.
Die inflatie is natuurlijk een factor bij sommige dingen, maar bij elektronica wordt het toch algemeen sneller in opvolgende jaren. Daar moet je volgens mij niet een prijsverhoging mee legitimeren, anders zou je stagnatie hebben in prijs/performance, enkel voorrecht om nog eens 10x meer te betalen voor 10x hogere prestaties, dan houdt het snel op voor haast iedereen. Die factor 2 performance is historisch laag in 5 jaar, dat is al één belangrijk deel van mijn teleurstelling in deze vroeger sneller innoverende markt rond gelijkblijvend prijspeil.
Het andere deel is dan de prijs zelf.
Maar 799 euro in 2018 is 1059 euro in 2024 met de inflatie van het CBS. Een tweedehands 4080 is dus 59 euro goedkoper dan die 2080
... maar die 2080 was toen wel nieuw, niet tweedehands. Een 4080 super is nu 1.150 euro, en nauwelijks enkele procenten sneller dan de 4080. 5 jaar later, heb je dan +143% performance in gpu.userbenchmark.com als ik die mag geloven, aan een volledig inflatie gecorrigeerde prijs met daar bovenop nog eens 91 euro extra. In historisch perspectief kun je dan met sprongen van 5 jaar een VooDoo kaart tegenover een Geforce 2 zetten, of een FX5800 tegenover een GTX280, en die GTX280 weer tegenover de GTX680 dan nog vijf jaar later. Dat was nauwelijks meer te vergelijken in performance, 300%+. Dan valt op de prijs/performance is nu enorm aan het afremmen, historisch traag zelfs, en NVidia's financiën zijn historisch nooit zo goed geweest....
https://www.techpowerup.c...eta-later-today#g199624-3
Derde screenshot uit dit artikel laat die historische performance stijgingen goed zien.

[Reactie gewijzigd door OruBLMsFrl op 25 februari 2024 21:39]

Mijn doel was vooral om de prijzen in perspectief te zetten met inflatie.

Zoals ik hier beneden al ergens schrijf, hoeveel pakken melk, vierkante meters huis of liters benzine moest je vroeger neerleggen voor je 2080 en hoeveel zou je nu moeten neerleggen voor een 4080. Het verschil is niet zo héél groot.

Wat je verder zegt klopt inderdaad, vooruitgang in technologie ging vroeger, in relatieve zin, een stuk sneller dan nu. Maar goed, bij telefoons, wasmachines en auto's gaat het allemaal nog een stuk trager en die worden ook duurder.

Ik heb recentelijk 1000 euro neergelegd voor een telefoon die nauwelijks iets beter kan dan een telefoon uit 2018 (Ik snap eigenlijk niet eens waarom ik het doe. Als ik heel eerlijk ben zou ik zeggen dat 400 euro voor een telefoon meer dan genoeg is. Ik merk veel meer verschil bij een GPU upgrade dan een telefoon upgrade. Haal er ook veel meer plezier uit).

In dat licht is die 143% performance upgrade die je krijgt 2080 naar 4080 zelfs een héle goede deal haha.

Overigens deel ik je sentiment hoor. Ik zou ook graag die enorme performance upgrades zien die we vroeger hadden 😜

[Reactie gewijzigd door DLSS op 25 februari 2024 22:29]

True true, telefoon upgrade is voor mij inmiddels ook meer camera upgrade geworden dan iets anders. Maar voelt zeker ook dan overpriced.

Godzijdank is elektronica niet altijd zo geweest, met een pc privé project van destijds 5.000 gulden had je dan nu onderhand door inflatie een auto kunnen betalen van de prijs van een deftige pc. Kijk je naar laptops van vijfhonderd euro dan is het hallucinant in verhouding, wat je daar allemaal aan chips koopt, chassis en compleet scherm en accu en alles erbij ipv een enkele printplaat en in essentie maar één grote rekenchip met ook wat geheugen eromheen. Het grote uitmelken is er sinds corona helaas volle bak in gekomen en in gebleven lijkt het wel.

[Reactie gewijzigd door OruBLMsFrl op 25 februari 2024 22:36]

Wauw, jij bouwt ze dus al sinds het gulden tijdperk? Ik bouwde mijn eerste PC in de tijd van de GTX 9xx serie haha.

Ondanks alles probeer ik wel nog steeds van technologie te genieten.

Vorige week had ik een vrije avond voor mezelf. Lekker een speciaalbiertje gepakt en met volle teugen genoten van Cyberpunk met de nieuwe path tracing update op mijn zelfgebouwde pctje 😅. Was een geslaagde avond.

En wie weet, misschien worden de prijzen weer wat meer acceptabel met de volgende generatie. Het lijkt in elk geval een heel klein beetje af te koelen.
Nou, ik heb in 2014 een geforce GTX 770 gekocht voor ongeveer 250 euro, met inflatie is dat nu 320 euro.
Links om of rechts om 590 euro voor een 4070 is wel VEEL meer geld voor een kaart uit de zelfde tier binnen de lineup.

De GTX 780 Ti het top model dus, as in 2014 ~610 euro, met inflatie is dat 780 euro.
nu is de 4080 super 1150 euro, wederom VEEL duurder.


Tl;Dr, inflatie is een stukje van waarom de prijs nu hoger is maar absoluut niet het hele verhaal.
Helemaal eens hoor. Ik stel inderdaad alleen dat het niet zó erg is als het op het eerste gezicht lijkt.

Overigens waren de titan black en de titan Z de topmodellen van de GTX 700 serie. MSRP van de black was 1000 dollar en die van de Z was 2999 dollar.

Verhoudingsgewijs presteert de 4090 stukken beter dan de 4080s, dat was volgens mij niet het geval met die titans versus de 780ti. Ook ten opzichte van de 2000 dollar MSRP van de 3090ti (die marginaal beter presteert dan een 3080) is de 4090 een goede deal.

Voor de top modellen is het verhaal dus vreemd genoeg een stuk beter.
Officieel waren de titan kaarten destijds gepositioneerd als prosumer kaarten en maakten IIRC geen onderdeel uit van de geforce lijn van kaarten, ofwel de kaarten die voor gaming gepositioneerd waren.
De eerdere titan kaarten hadden dan ook aan paar features van de workstation kaarten die bij latere titan kaarten eruit gehaald zijn.
Dat is dus ook een van de redenen waarom ik geen titan vs 4090 vergelijking heb gemaakt om het zo eerlijk mogelijk te houden.
Maar het klopt verder wel wat je zegt, de titan kaarten waren ook toen absurd duur, maar goed, dat zie je bijna altijd met halo-tier producten ofwel het-beste-van-het-beste
De titan kaarten waren onderdeel van de Geforce lijn. Ze heten officieel de Geforce GTX titan Black en de Geforce GTX Titan Z.

Wikipedia heeft ze ook samen ingedeeld met de GTX 780ti in het Enthusiast segment van de GTX 700 lineup: https://en.wikipedia.org/wiki/GeForce_700_series

Maar goed ik vind wel dat je gelijk hebt. De marketing was gericht op 'prosumer' (waarschijnlijk om de hoge prijs te verantwoorden)

Laten we de Titans daarom maar weglaten en de laatste topmodellen er bij pakken:

RTX 2080ti launchprijs in Nederland: €1249 in 2018 = €1.723 in 2024 (~27% sneller dan de 2080 in 4k hoogste settings)
RTX 3090 launchprijs in Nederland: €1549 in 2020 = €1.976 in 2024 (~15% sneller dan de 3080 in 4k hoogste settings)
RTX 3090ti launchprijs in Nederland: €2050 in 2022 = € 2.315 in 2024 (~24% sneller dan de 3080 in 4k hoogste settings)
RTX 4090 launchprijs in Nederland: €1959 in 2023 = € 2.155 in 2024 (~40% sneller dan de 4080 in 4k hoogste settings)


Je ziet een kleine prijsdiscrepantie bij de 2080ti... dat is waarschijnlijk omdat daar boven destijds nog de RTX Titan stond. (Ik denk dat de 3090 en 4090, ondanks de marketing van de titans, voor Nvidia intern wel echt de vervanging zijn van de Titan kaarten)

Eigenlijk is er niet zo gek veel veranderd in het topsegment in de afgelopen 6 jaar. De 4090 is zelfs een wat betere deal dan de 3090/3090 ti.

Ben benieuwd of die lijn doorgetrokken wordt in de RTX 50xx serie.

[Reactie gewijzigd door DLSS op 26 februari 2024 17:08]

Huh, dan heb ik dat verkeerd onthouden, my bad.

Ik vind het wel jammer dat de prijzen van de GPUs zo hard omhoog worden gejaagd door Nvidia en AMD volgt het helaas gewoon. Het maakt het gewoon steeds lastiger voor gewone stervelingen om een leuke gpu te kunnen kopen om spellen te kunnen spelen.
Hopelijk zien we verandering als intel hun battlemage lijn aan kaarten uitbrengt.
In principe hoef je geen top model te hebben om plezier te hebben natuurlijk.

Het is ook heerlijk tweaken met een xx60 of xx70 kaart. Een 3060ti of een RX 6700XT zijn een stuk krachtiger dan een PS5/Xbsx bijvoorbeeld, en kost niet de hoofdprijs. (Al zal een PC altijd wel wat duurder zijn het is een meer 'enthusiast' product.).

Mocht je interesse hebben, hier heb je een leuke DF video waar ze de ps5 vergelijken met de wat voordeligere/oudere GPU's van AMD/Nvidia

Je kan trouwens ook wel wat meer met een PC qua productiviteit. Er zijn ook meer games beschikbaar op het platform (bovenop de xbox en playstation exclusives). Daarnaast kan je elke controller die je blieft gebruiken en zijn games over het algemeen wat goedkoper.

[Reactie gewijzigd door DLSS op 26 februari 2024 17:23]

Klopt je hebt absoluut geen top model nodig echter is het probleem wel dat een xx70 kaart van 320 naar bijna 600 euro is gegaan dus de prijzen zijn bijna verdubbeld en dat is wat het steeds lastiger maakt om een leuke game bak te bouwen. binnen de zelfde prijs klasse krijg je minder waar voor je geld doordat ook de software steeds zwaarder word.
De video van DF zal ik zeker bekijken.
Ik ben altijd een PC gamer geweest, ik heb wel een paar uitstapjes gedaan naar consoles maar het was nooit echt 100% mijn ding. Zeker in mijn jongere jaren heb ik als een gek lopen tweaken met custom windows installs om net een paar mb ram terug te krijgen en een paar gb op mijn hdd want upgraden was niet mogelijk door gebrek aan geld :X .
Exactly the same here, ik heb een GTX 1660 Ti. Als ik echt wil upgraden, moet ik een RTX 4060 16GB, RTX 4070, of een RX 7800 XT nemen, die allemaal tussen de 450€ en 600€ kosten. Mijn GTX 1660 Ti heb ik in 2019 nieuw kunnen krijgen voor 350€ (MSI GeForce GTX 1660 Ti Gaming X 6G)
350€ zou ik er nog wel voor over hebben.
Dus dunno, zo goedkoop vind ik het allemaal niet.

edit: Typ0s

[Reactie gewijzigd door Exoronic op 24 februari 2024 16:51]

Tweakers kan me nog zo vaak blijven vertellen dat GPU's goedkoop zijn, maar zo beleven velen van ons dit gewoon niet.
Dat zeggen ze dus niet. Ze zeggen enkel dat het nu een veilige periode is om een GPU te kopen omdat de prijzen niet meer gaan dalen en dat de prijzen lager zijn dan een jaar geleden.

Wil je 4k + Raytracing dan moet je idd diep in je buidel tasten maar je kan perfect een €1000 PC samenstellen die 1080P zeer vloeiend afspeelt. Tussen de 60-100 fps op high. Die €1000 is echt al jaren een bedrag dat je kwijt bent voor een gemiddelde game PC die elk spel op high kan draaien.

Het verschil in vergelijking met vroeger is dat je nu meer toeters en bellen hebt. Die heb je helemaal niet nodig voor een uitmuntende gamebeleving. 4K en Raytracing zijn gewoon leuke nice to haves maar absoluut geen noodzaak.

Ik zeg niet dat GPU’s niet duurder zijn geworden maar gaming aan zich hoeft niet duurder te zijn. Dat was tijdens corona helemaal anders.

Ik heb ooit een GPU gekocht in 2001 aan €250, een midrange Nvidia en die kaart was super klein met een mini koeler en ik moest die zelfs overklokken om 30fps te halen op need for speed van toen. Een paar jaar later kon die zelfs niet meer mee met nieuwe games. Dat waren pas bummers. Zelfs de high-end kaarten van toen waren €400-500 en die waren snel waardeloos.

De huidige midrange kaarten zijn veel dikker en zitten bom vol chips en naar mijn gevoel gaan ze langer mee wat nieuwe games betreft.
Onbedoelde Nvidia shill? Vergelijk de prijzen a.u.b. met wat normaal is als je de klassement en doortrekt van de 10xx/20xx serie en wellicht wat inflatiecorrectie daar overheen. De markt is bezopen, courtesy van Nvidia. De vergelijking met introductie prijzen zeggen letterlijk niks omdat de msrp al ruim 2x is wat had moeten zijn.
Ik geloof dat wij het met elkaar eens zijn?

Daarom staat de titel van dit artikel me ook zo tegen. Ze worden onder de adviesprijs verkocht, de suggestie wordt gewekt dat ze dus goedkoop zijn. Maar die adviesprijzen slaan gewoon nergens op en dat is nu al een tijdje gaande.

Volgens mij begon dit met de 10xx serie, waar de strategie ineens werd, "wil je een budget optie? tough shit, koop de vorige generatie maar". De 1060 was een prachtkaart maar daar is de ellende begonnen, dat de categorie onder de 300 euro gewoon werd verwaarloosd.
Dat is voor het duurdere segment. In tegenstelling met wat frequent beweerd wordt vind ik dat AMD ook in het duurdere segment nog goed concureert met Nvidia. De RTX 4090 is superduur gewoon omdat AMD geen 100% equivalent heeft, hoewel deze GPU in veel games maar een heel beperkt aantal % sneller is dan de RX 7900 XTX en je het verschil in veel games echt niet gaat merken.
https://gamegpu.com/rpg/role-playing/last-epoch-test-gpu-cpu
https://gamegpu.com/rpg/r.../nightingale-test-gpu-cpu
https://gamegpu.com/actio...-of-new-eden-test-gpu-cpu

In het 200-400 EUR segment daarentegen zijn de prijzen hetzelfde gebleven of beter geworden dan vroeger. Ik heb 290 EUR betaald een maand geleden voor en snelle versie van de RX 7600 en deze is veel sneller dan bvb de RX 580 8GB die ik vroeger voor 300 EUR gekocht heb.

Dus voor 1080p/1440p gaming krijg je in het 200-400 EUR segment misschien wel meer waar voor je geld dan vroeger, want games zijn niet veel zwaarder geworden dan vroeger, de vooruitgang in GPU snelheid is sneller gegaan.
Geloof je dat echt? Volgens mij is die vooruitgang juist al jaren aan het afvlakken en heeft deze dominante marktpositie van Nvidia innovatie keihard geremd. Geen idee of je actief hebt meegemaakt maar in de jaren 90 tot 2012 ong. had je elk jaar een generatie die er rustig 100-200% performance bovenop gooide waardoor high end kaarten van een jaar oud dropte van 500 naar 200 euro. Je kreeg bergen nieuwe features for weinig extra kosten. Beetje inflatiecorrectie eroverheen en je kan een trend leggen waar we nu zwaar achter lopen kwa performance en prijsstelling. Het is te triest voor woorden om nu een pc gamer te moeten zijn.
Het hangt ook van je financiële situatie af natuurlijk... Ik ben van een 3070 naar een 7900XT gegaan. Nodig? Nee. Maar op de 3070 begon ik te merken dat ik de settings dermate omlaag moest zetten (vooral in Starfield) dat het me echt op ging vallen. Het geld mis ik niet. Dus voor mij is de afweging wil ik een betere game ervaring, of een wat hoger cijfertje op mijn bankrekening?
En nee ik ben alles behalve rijk, maar tegelijk is er niet echt iets wat ik zou willen kopen wat ik niet kan (zolang we het niet over huizen hebben of zo).
Sorry maar in starfield maken de settings niet zo veel uit. Een lege planeet op ultra is net zo saai als op low. Dat had je prima kunnen draaien met een 3070.
Zit je gewoon te trollen? Een groot gedeelte van de game speelt zich af in steden en juist daar is de game het zwaarst. En hoeveel je op die lege planeten rond loopt heb je grotendeels zelf in de hand.

Ik heb het geprobeerd maar moest met de 3070 in New Atlantis echt de resolutie scaling omlaag zetten om acceptabele framerates te houden. En nou ben ik niet eens zo'n pixelpeeper maar in dit geval zag ik dat de beeldkwaliteit daar duidelijk van omlaag ging. Dat was wel bij release, kan zijn dat het nu beter zou draaien.

En ja ik weet dat het hip is om starfield te haten, en ook ik ben over bepaalde aspecten teleurgesteld, maar alsnog ben ik blij dat ik de game in volle glorie heb mogen ervaren. Elke singleplayer bgs game sinds elder scrolls 4 heb ik mij zeer veel uren mee geamuseerd en ook starfield heb ik toch alweer 180 uur in zitten op steam.
Starfield heeft af en toe hele rare keuzes gemaakt met wat wel en niet te renderen of te background processen. In new atlantis worden bijvoorbeeld veel dieren en interacties tussen dieren nog steeds verwerkt die je niet eens ziet, waardoor als je de natuur inloopt opeens allemaal karkassen kan vinden van (oude) non player interacties. Ik ben blij dat ze eindelijk weer open steden aandurfde en buiten het ondergrondse gedeelte is het echt een grote open stad, maar ze moeten nog wat uitzoeken welke keuzes ze maken voor wat wel en niet te verwerken in de achtergrond.

Ben benieuwd naar de creation kit omdat alle oudere versies ze altijd een 'render-budget' lieten zien om te zorgen dat een level designer niet teveel details toevoegde en ik vraag me af in hoeverre al die steden aan die budgetten voldoen.

[Reactie gewijzigd door vduits op 24 februari 2024 23:07]

Ik heb een upgrade gedaan van een 3080 naar 4090 om vergelijkbare redenen.

Voor liefhebbers van atmosferische games zoals Alan Wake en Cyberpunk met alle ‘bells and whistles’ aan. Biedt een high-end kaart veel meerwaarde.

Het is veel geld, maar ik geniet echt met volle teugen!
Denk dat je daar iets redelijk cruciaals noemt en fundamenteel is kwa probleem op de planeet nu. Videokaarten en huizen zijn luxe items geworden waarbij de een voor veel mensen onbereikbaar wordt.
Met een 1000 serie of equivalent mis je gewoon teveel futures zoals Ray-tracing, DLSS en ook FPS.
De meeste monitoren zijn al high refresh rate van 144hz en hoger.

Mijn main monitor is 165hz. Dan ga ik met een 1080ti gewoon niet voldoende hebben. Ook het verbruik is dan te hoog voor de FPS die ik krijg.

Momenteel heb ik een 4080 Super in mijn pc die zeer stil is tijdens gamen wat ik erg belangrijk vind en zuinig. Daarbij is die ook nog eens supersnel en haal ik in nagenoeg alle games 144hz+ op 1440P.

Het verschil tussen ervaring op PC en console is dag en nacht door gecapte FPS hoewel de PS5 en Series X wel gelukkig vaan de 30 fps af zijn. Ook console gamen is iets wat je moet liggen.

De prijzen zijn natuurlijk wel erg hoog momenteel. Maar laten we niet vergeten dat alles extreem omhoog is gegaan. Kijk je boodschappen van 7 jaar geleden tov van nu. Dan zit je ook makkelijk gemiddeld 50% erbij. En dat doet iedereen dus met verhogingen.

Ik heb mijn 4080 S aan 1119€ gekocht de Asus tuf gaming wat nog steeds te duur is. Ik denk dat de echte goed waarde ergens tussen de 850 en 1000€ had moeten liggen om echt goed nar verhouding te zijn. Het is na de 4090 die echt veel te duur is zo een beetje de snelste gpu op de markt.

Ook het verhaaltje vroeger gaat wat mij betreft niet meer op. Als je ziet hoe een oude videokaart was zo klein en met weinig componenten tov nu dat verschil moet ook meegenomen worden.

Mijn GPU kan ook renderen met bv Blender wat dan zeer snel gaat. Voor mij is een kaart van 7 jaar hopeloos veroudert en zou dat niet werken. Als je echt enkel casual een game speelt is het nog wellicht te doen.

Maar ik wil juist een game met pracht en praal zoals Pandora of wat ik veel speel World of Warcraft met veel FPS.
Jij gaat er vanuit dat mensen RTX missen, maar dat valt best wel mee bij de gemiddelde gamer. Daar naast vreet het FPS dat je dan weer recht moet trekken met DLSS.

En jij kiest voor een monitor van 165 hz maar iemand met een 1000 serie kaart heeft als het al mee zit 100-144 hz max en als ik naar gamers om mij heen kijk komt 27 inch 60 hz op 1080 ook nog genoeg voor. Ja het is niet het type gamers dat rondhangt op Tweakers, maar ze gamen wel.

Ik game op 1440 ultrawide en ik heb echt niet het idee dat mijn hele leven anders wordt als ik RTX op max kan zetten. Zelfs toen mijn kaart nieuw was heb ik het na een week in elke game (ok dat waren er toen niet veel) uitgezet om meer fps te krijgen. RTX is zeker mooier maar altijd fps over graphics hier.

[Reactie gewijzigd door Beakzz op 24 februari 2024 22:18]

Hier al jaren 25" 60hz 1080p monitor. Ik weet niet of meer pixels of Hz nou echt zo'n grote invloed hebben op de speelervaring? Heb altijd het idee gehad dat het voornamelijk marketing was.
Je weet totaal niet wat je mist! Dat is voor mij dezelfde stap ongeveer van een TN panel naar een Oled scherm gaan.

Het verschil tussen 60 en 165hz is dag en nacht. Zeker als je goede hardware hebt zodat je geen lage 1 en 0.1% FPS hebt welke super vervelend zijn.

Als je games speelt en je hebt een goede pc is dat beslist een upgrade die je niet mag missen.
Voor mij ging een wereld open toen ik mijn 165hz scherm kocht. Achteraf heb ik spijt dat ik dit niet veel eerder heb gedaan.

Ook kost het amper nog geld een high ref scherm zoals een TN of VA panel, zelfs IPS is betaalbaar.
Enkel Oled is nog duur anders zou ik dat ook hebben als scherm. Ik game niet op mijn oled TV wat wel supermooi is om te zien. Heb daar even een Series X op gehad op 120hz.

Geloof mij als je een 165hz scherm hebt en dan naar 60hz terug moet is dat een enorme stap terug.
Ik ga er eens over nadenken ;) Het is misschien betaalbaar maar vind het nog steeds een hoop geld :) Dankje voor het delen van je ervaring :)
Als je een FPS speler bent zou ik er niet te lang over nadenken en gewoon doen :)
Tegenwoordig kosten die 144hz schermen minder dan 200€, en bij deals nog veel minder voor een 24 of 27inch scherm. Natuurlijk moet je videokaart het ook wel aankunnen.
Weinig FPS hier! Maar speel nu nog op een bijna antiek TN scherm ;) Ik ga eens de pricewatch afstruinen :)
Ik zou bij de vraag en aanbod afdeling kijken, waar toch regelmatig 144 of 165hz monitoren voor 150 euro te vinden zijn!
Hierover ben ik het 100% met je eens over het scherm van 60 of 75hz naar een 144hz !
Ik was voornamelijk een CSGO + paar andere FPS games speler, toen ik naar 144hz ging van 75hz was er een enorm verschil. Maar om huidige games op 144hz constant te spelen heb je natuurlijk ook de nodige hardware nodig :)
Tegenwoordig kan je ook al schermen kopen die +500hz hebben aan ook natuurlijk +500€ prijzen.
Het verschil is merkbaar bij 60 of 75hz naar de 144hz, maar van bv 144hz naar 240 of +500hz is naar mijn menig niet meer zo voelbaar en enkel een gat in je beurs :)
De benodigde hardware voor 240 of +500hz is dan ook onbetaalbaar voor de doorsnee gamers.
4K niet maar 1440P met 144Hz is een verademing en de sweet spot qua prijs en kwaliteit. Je gaat het verschil merken vooral op je monitor je je van dicht bij bekijkt. En je kan dan ook veel programmas naast elkaar zetten zonder dat het te krap is.
Ik weet niet of mijn 4060 Ti erg happy word van 1440p :) maar thanks ^^
Persoonlijk vond ik de overstap van 1440p 60hz naar 4k 120hz gigantisch.

Ik zou het echt eens proberen.
Ik zeg dat RTX een van de features is, niet de! Ik game ook niet vaak op RT in sommige spellen zoals WOW. Maar wel in Avatar daar staats die wel aan. Of in AW2.

Kijk eens naar digital foundry die hebben net nog een consolte tegen wat oudere kaarten test gedaan met de PS5 tegen o.a 3060,4060 en 6700 non XT. Ze liggen allemaal in de buurt. Maar 1 ding hebben ze gemeen, ze komen zelden over 60 FPS in 1440.

Een 2e waarom je meer FPS wilt hebben, er is niet vervelender dan een FPS dip waardoor je beeld even een soort freeze heeft. Met veel power zoals mijn 4080 S is dat iets wat amper voorkomt. Met een 1000 serie kaart kijk je meer naar een slide show dan je echt gamed.

En ja je kan alle settings naar beneden zetten om het te compenseren, maar games worden juist gemaakt om ze volledig te benutten in alle pracht en praal.

Een 60HZ scherm is voor mij enkel om filmpjes mee te kijken en te surfen., Gamen, nee dank je!
Als je goede ogen hebt zie je een ongelofelijk verschil tussen 60 en 165hz!

Als ik game moet het een vloeiende ervaring zijn zonder stotteren. Ik betaal daar graag meer voor.
Met veel power zoals mijn 4080 S is dat iets wat amper voorkomt. Met een 1000 serie kaart kijk je meer naar een slide show dan je echt gamed.

De GTX 1070 en hoger zijn echt nog redelijk goed voor de meeste 1080p games, inclusief 50% van de nieuwe games die momenteel uitkomen.

De GTX 1060 6GB kan vaak ook nog redelijk goed nieuwe games draaien op 1080p. Niet alle nieuwe games, maar wel een groot aantal. Je kunt toch nooit alle games spelen, daar heeft niemand de tijd voor.

Het punt dat hogere fps geen zin meer heeft voor de meeste mensen zit rond 85 fps. Dat is het punt waar de meeste mensen geen verschil meer ervaren met nog hogere framerates. Dus tenzij je een competitief spel speelt is het eigenlijk energieverspilling om je GPU meer dan 85 fps te laten halen.
165Hz is dan wel met 8 bit.

Als het je om goede beeldkwaliteit gaat blijf dan bij 144Hz, dan heb je tenminste 10 bit kleur.
Het geluk is dat we nu DLSS hebben en FG. Dit maakt de wat goedkopere kaarten langer houdbaar en is er minder snel een nieuwe kaart nodig. De huidige middenklasse zoals de 4060 kan nog wel even mee, en zeker als je op 1080p gamed. Zelfs voor 1440p kan de 4060 nog even mee, maar dan zit je weer met maar 8 GB Vram. Voor 1440p is de rtx4070 ruim voldoende en kom je prestatie tekort dan kun je in de weer gaan met DLSS en FG en laat je eventueel ray tracing voor wat het is.

De rtx4080 en de rtx4090 zijn meer kaarten geworden voor de enthousiasteling. In vol ornaat gamen op 4K vraagt binnen afzienbare tijd voor een behoorlijke investering.

Ik denk dat de gemiddelde thuisgebruiker geen 4080 of 4090 nodig zal hebben.

Aan de andere kant kan ray tracing prachtig zijn, maar vergt wel weer een duurdere kaart dan zonder.

Door deze technieken op de 40 serie kun je de levensduur van je kaart flink rekken en dat is wel heel goed nieuws. Dan kun je eventueel nog schakelen van ultra naar high of medium. Ook verlaagd DLSS het Vram gebruik omdat de frames op een lagere resolutie gerenderd wordt. Ray tracing kost je wel Vram.
DLSS is mooi, maar het vervelende is dat het een soort lapmiddel geworden is om slechte optimalisatie te verhelpen.
Anders bekeken: het is een gedeelde optimalisatie die NVidia één keer doet voor een hele verzameling games, in plaats van elke individuele studio voor elke game opnieuw.

Want laten we reëel blijven: optimalisaties waren vroeger óók al vaak "dat ziet toch niemand".
Games die slecht draaien zijn van alle tijden. DLSS is inderdaad een lapmiddel, maar zonder DLSS hadden die games ook gewoon slecht gedraaid hoor. Die slechte performance komt door beperkte tijd en/of budget (of in mindere mate "skill issue" van de developers) tijdens de ontwikkeling. DLSS weghalen lost de kern van het probleem niet op. Het schaamteloos releasen van games die slecht draaien is bijna een traditie. Ik weet nog GTA San Andreas dat gelockt was op 25FPS en kapot ging als je dat afzette, of GTA 4 dat amper te draaien was op de hardware van die tijd. Je had ook Far Cry 3 dat wel goed speelde op PC, maar op consoles dan weer onder de 20FPS zakte als er iets op het scherm gebeurde. Niet veel later had je dan Batman Arkam Knight, dat ook een enorm slechte reputatie op PC had. En dan de periode dat UE4 populair begon te worden en daarmee ook de shader compilation stutter struggle in gang zette.

Spijtig genoeg is het dus altijd al een ding geweest, en dat gaat het ook gewoon blijven. Blijf weg van preorders en volg kanalen zoals Digital Foundry. Vaak helpt een tijdje wachten wel, maar niet altijd. Wees je bewust van wat je koopt en wat je verwachtingen zijn.
Heb je recent nog wat video’s van digital foundry gezien? Consoles waren ten tijde van release echt een goede deal, maar hangen qua performance een beetje op het niveau van 300€ GPU’s.

Het is een makkelijke, snelle oplossing. Maar een 450€ GPU weet in de regel de beeldkwaliteit van een console quality mode al te combineren met de FPS van de prestatie modus.

Daarmee is een console nog altijd de goedkopere optie. Maar als je ziet dat die soms al sub-1080p moeten draaien met upscaling artifacts voor een speelbare framerate, zou ik daar nu niet meer voor kunnen kiezen. Zeker niet nu er een PS5 Pro voor de deur staat, die ook zeker voor amateurgamers aantrekkelijk is ;)

Maar je hebt wel volledig gelijk dat je goede prestaties uit oude pc hardware kunt halen. Maar er is echt wel meer mogelijk. Wat dat betreft fijn dat de consoles de boel terughouden :)

[Reactie gewijzigd door Cid Highwind op 24 februari 2024 10:14]

Heb je recent nog wat video’s van digital foundry gezien? Consoles waren ten tijde van release echt een goede deal, maar hangen qua performance een beetje op het niveau van 300€ GPU’s.
Ik heb de PS5 paar maanden terug gekocht voor 430 euro met controller. Dan heb je dus voor 130 euro meer dan de GPU voor de PC wel een volledige oplossing. Dus met moederbord, kast, opslag, CPU, controller, en geheugen. Dat ga je dus niet redden met een PC. Dus afhankelijk van je situatie (ik heb nog een laptop van het werk voor andere PC toepassingen), is het echt nog steeds wel een betere deal.
Heb je ook niet nog een online abbo nodig?
Ik speel alleen singleplayer spellen, dus dan niet.
Als je enkel single-player spellen koopt (en zeker rond release) dan blijft een console inderdaad een heel pak goedkoper.

Wil je online spelen (minstens 72 euro per jaar) of kan je wel een jaartje wachten op nieuwe releases (Steam sales gaan veel dieper dan op de PS store), dan kan het op termijn toch wel de moeite zijn om voor PC te gaan. Je gaat nog altijd iets duurder uitkomen, zeker als je van scratch moet bouwen. Maar al je die PC up-to-date houdt door telkens enkel het nodige te upgraden is het zeker betaalbaar om gewoon bij te blijven.

Stel dat je rekent over een periode van 5 jaar, dan kom je op 360 euro voor online te spelen. Samen met de 430 voor de console zit je plots op zo goed als 800 euro. Ik vind dat persoonlijk nog net iets te krap om echt waar voor je geld te krijgen, maar voor 1000 euro geraak je echt wel aan een mooi systeem dat in veel games richting dubbel zo snel als een PS5 gaat. En dan zit je op het AM5 platform, dus binnen 5 jaar kan je er een nieuwe CPU en GPU in steken en ben je gewoon mee met de volgende generatie consoles.

Het moeten betalen voor online maakt echt een groot verschil. Je geeft je geld vooral uit op andere momenten aan andere dingen. En dan praten we nog niet over het soort games die je speelt en wanneer je die wilt spelen. Ik koop persoonlijk AAA vaak pas een jaar of 2 na release, vaak voor maar 20 euro en soms zelfs minder. Ga je verder terug, dan zakken prijzen regelmatig onder de 10 euro. Dat soort deals zijn moeilijk te vinden op console. Als je echt op elke euro moet letten kan dit een manier zijn om toch uitgebreid te kunnen gamen.

Voor ieder wat wils :)
Het grappige is dat als je een VPN gebruikt letterlijk een jaar lang voor een scheet online hebt en het zelfde met games, geen region lock. Consoles kunnen echt ongelooflijk goedkoop als je een VPN hebt een CC en een site eneboo of zoeits, ben het al vergeten ben zelf een 7800x3d & 4090 speler.
Helemaal met je eens. Je ziet het een hoop gamers goed praten met dingen als het is nou eenmaal een hobby en een hobby is duur of het zelfs terug rekenen naar kosten per dag of uur, maar het blijft gewoon te duur voor wat het is.

Het is ook niet dat ik het niet kan betalen, maar ik wil het niet betalen dus hobbel ik rustig door met mijn 2080 die eigenlijk alles wat ik speel 60-120 fps kan draaien op high settings 1440 ultrawide. Eigenlijk zijn er vorig jaar pas games gekomen die slecht draaien op mijn systeem, maar dat voelt eerder aan als devs met te weinig tijd/skills om te optimaliseren dan dat het games zijn die echt een stap hebben gemaakt die verklaart waarom mijn systeem het niet kan draaien. Starfield, Forza Motorsport 8 en Cities Skylines om precies te zijn. De eerste 2 presteren veel beter op de series X.

Door het langer gebruik maken van een GPU heb ik ook ingezien hoe weinig games ik speel die echt een top of the line GPU vereisen. De laatste 10 jaar trekken indie games mij veel meer door originele concepten of juist oude genres weer leven in te blazen en voor de rest is het Apex en Rocket League. Echt de enige reden die ik nu zou hebben om bv. een 4070TI super te halen is dat simracen met VR nu net aan is (Reverb G2)

[Reactie gewijzigd door Beakzz op 24 februari 2024 10:26]

"Te duur" is 100% subjectief. Ik vind een Playstation 5 te duur, gezien hoe beperkt dat apparaat is vergeleken met een PC.
Nee ben het niet met je eens. Een console is op release net aan/verliesmakend en zo ver ik weet maakten ze er een tijdje €100 winst op en dat zakt nu al weer in door de slechte Yen die de inkoop opdrijft. Het kan wel zijn dat iemand (in dit geval jij) de PS5 te duur vindt natuurlijk, maar dat maakt het nog niet te duur.

Nvidia GPU’s zijn vanaf het begin zwaar winstgevend. Als de PS5 ineens €1000 was geweest met dezelfde specs dan had je verhaal geklopt. En ik zei voor wat het is en niet voor wat je er mee kan. En al die andere dingen die je met een PC kan lukken ook zonder die high end GPU (als gewone consument)

Edit : voor de duidelijkheid ik vind te duur absoluut niet subjectief. Als ik voor 2000 euro jouw kamer wil komen stofzuigen zal je dat duur vinden en zelfs de rijkste man in de wereld zal dat te duur vinden ook al kan hij dat makkelijk betalen. Er zit een grens aan teveel betalen alleen sommige praten dat recht met een hobby is nu eenmaal duur ;)

[Reactie gewijzigd door Beakzz op 24 februari 2024 16:52]

Duur is per definitie een subjectieve term. Net als goedkoop, lekker, mooi, lelijk, etc. Het is een woord dat jouw mening over iets duidelijk maakt. Meningen zijn altijd subjectief en dus "duur" of "te duur" dus ook.

[Reactie gewijzigd door EnigmaNL op 24 februari 2024 19:55]

Meningen zijn altijd subjectief.
Echter kunnen meningen wel beargumenteerd worden met allerlei vergelijkingen en degelijke. Het is wel objectief gezien dat je met precies dezelfde specs een iets duurdere PC koopt en dat de spellen voor de console beter geoptimaliseerd zijn, dus de games spelen beter met precies dezelfde hardware op de PC. Er zijn allerlei testen gedaan door allerlei PC bouwers op YouTube. Jij kan nu gewoon op YouTube intypen: Build pc same specs console of iets dergelijks. En dan zie je tal van videos die daar op ingaan.

[Reactie gewijzigd door Remzi1993 op 26 februari 2024 17:27]

Een PC mag meer geld kosten, maar hij hoeft niet duurder te zijn aangezien een PC 100x veelzijdiger is dan een console.

Games zijn overigens lang niet altijd goed geoptimaliseerd op console, dat is een fabeltje.

[Reactie gewijzigd door EnigmaNL op 25 februari 2024 13:14]

En een console is niet up te graden. Daar heb je ook genoeg lag of stutter. Het spel The Witcher 3 next gen draaien ze niet zo makkelijk op een console. Althans niet met alle toeters en bellen ingeschakeld. Nu is de markt voor console gaming best aardig en als je er blij mee bent heb ik daarop niets in te brengen.
Een game-PC kun je zo zwaar maken als je wilt. Je kunt op hogere framerates spelen en meer grafische settings toepassen. Maar ja, deze luxe heeft zijn prijs en de een heeft het er voor over en de ander helemaal niet :)
Ninja edit zag ik wat niet gek is want ik zat hier onder ergens te typen toen ik de pop-up kreeg 😅

Ja ik vind de officiële beschrijving echt tekort doen aan hoe het in de praktijk ervaren wordt. Als we het volledig theoretisch houden dan heb je gelijk, maar ik vind (gaan we weer) dat iets echt te duur kan zijn. Als er tussen het maken en de verkoop een onredelijk prijsverschil zit bv (ja I know)

Als de weerman zegt dat het koud wordt morgen ga ik echt niet bellen om te zeggen dat het subjectief koud zal worden, want iemand in Alaska vindt dat warm. Nou ja dit was het wel voor mij. Moet er op uit 👋🙃
Vrijwel akkoord. Ik zit nog steeds op mijn 1080ti, probleem zit hem dat ik een 49in heb gekocht. Ja de 1080ti kan het aan, maar vaak op medium. Op mijn oude 27in was het zelfde verhaal, medium+high voor deftige resultaten.

Ik wil gewoon een opfrissing zodat ik wat ik speel op high kan zetten met deftig fps, ivgm met nu (call me lazy).

Maar de prijzen hangen me de keel uit, ik zou dolgraag XTX aanschaffen, had gedacht met super release een prijsdaling te zien, maar nada. Dusja wachten geblazen.
Koop een 2 hands 6900xt en je kunt alles op high zetten. Hoeft echt niet de hoofdprijs te betalen.
Ik had mijne een jaar geleden ofzo voor 400 euro. Al was dat dan wel een vriendenprijs. Mijn 6700XT kon ik voor niet zoveel minder verkopen. Maar tegenwoordig zitten de tweedehands prijzen van de 6900XT daar niet meer zover van af. Ding heeft nog steeds zeer prima performance en de huidige marktprijs is dus ook niet verkeerd.

[Reactie gewijzigd door Amanoo op 25 februari 2024 00:17]

Nee, het ligt niet aan jou, want bij elk artikel over videokaarten klaagt 9 van de 10 reaguurders steen en been over de prijzen van videokaarten.

Waarom ze te duur zouden zijn voor wat ze te bieden hebben, wordt zelden of nooit uitgelegd. Zelden, want er zijn een paar reaguurders die diesize en het aantal transistoren vergelijken met voorgaande generatie videokaarten en de prijzen van destijds.

Voor wat betreft ze te weinig te bieden zouden hebben, ga ik niet met je mee. Dat is namelijk persoonlijk. Want wie wil gamen op hoge resolutie, met name laatste generatiespellen op ultra wide gamerbeeldschermen met hoge refreshrate, eventueel op Ultra met RT aan, heeft een hele dikke videokaart nodig. Zelfs een rtx4090 an €2k is niet snel genoeg om de nieuwe Samsung G9 G95NC aan te sturen. Je kunt ook kiezen om op 1080p en 60Hz te blijven spelen en dan is PC gaming niet zo duur meer

Persoonlijk vind ik de prijsstijgingen relatief meevallen. In de beginjaren van 3D PC gaming had ik minstens elke 2 jaar een nieuwe machine nodig, dat is allang niet meer nodig. Mijn 1440p machine is nu 7 jaar oud en voor mij is dat een record.

Hobbies kosten geld en sommige mensen willen de beste ervaring, dat jij dat niet bent, doet niet terzake. Je hoeft niet te reageren. Wat ik niet persoonlijk bedoel, ik bedoel 'je' als in 'men' dit geldt ook voor mij.

[Reactie gewijzigd door ABD op 24 februari 2024 14:46]

Ik weet dat ik niet hoef te reageren, dat hoeft inderdaad niemand, maar ik doe dat wel. Gewoon voor de lol of mijn zegje te doen. Ik moet net als ieder ander ook weleens mijn frustraties kwijt.

Tuurlijk heeft iedereen een subjectieve ervaring, maar er zijn wel bepaalde metrics waar je naar kunt kijken om te bepalen of iets "te duur" is. Helaas wordt er altijd shady gedaan over dergelijke zaken, maar als je gaat kijken naar productie kosten en winstmarges in de hele keten nu, ten opzichte van een aantal jaren geleden, heb ik het idee dat er per unit nu velen malen meer winst wordt gemaakt dan voorheen.

Dat terwijl gaming steeds meer mainstream is geworden en de afzet markt alleen maar groter. Dat en dan ook nog eens de mining hype en dan ook nog eens de coronacrisis waardoor de vraag vanuit de markt een behoorlijke tijd behoorlijk hoog is geweest. Ik snap dat commerciële partijen primair behoren te denken aan de belangen van hun aandeelhouders, maar dat gaat in zaken als prijsbepaling voor hun producten natuurlijk direct ten koste van de financiële belangen van de klanten.
Waarschijnlijk ben je met een console goedkoper uit en heb je een betere ervaring.
Ja, met een console ben je (veel) goedkoper uit. Maar nee, een console geeft je geen betere ervaring....bij lange na niet.
Ligt aan de console denk ik. OK, een Nintendo switch niet, maar een PS5 kan toch prima mee met een deftige gaming PC.
maar een PS5 kan toch prima mee met een deftige gaming PC.
Een PS5 staat qua rekenkracht ongeveer gelijk aan een 5800X3D CPU i.c.m. een RTX3060 GPU, en dat noem ik al geen deftige game PC meer. Dan zou er toch minstens een RTX4080 of een RTX4090 in moeten zitten om het een deftige gaming PC te kunnen noemen.
In theorie heb je gelijk, maar je betaald gewoon onredelijk veel meer voor een wat betere ervaring. Ik kan heel goed begrijpen dat mensen naar console overstappen. Het is echt niet zo dat je zit te balen dat bepaalde RTX effecten minder mooi zijn. Zolang de FPS maar op 60 fps kan blijven met leuke graphics dan is dat voor veel mensen meer dan voldoende (komt wel op een kritisch punt met deze gen)

Zelf moest ik altijd weer het nieuwste van het nieuwste hebben en dan was het iig bij mij toch vaak van is dit het nou? Met mijn 2080 op 1440 ultrawide zit ik nog vaak zat te genieten van (in mijn ogen) mooie games. Zelfde met de series X trouwens.

Ik geef echt helemaal niks om RTX. Tenminste niets wat je niet kunstmatig kan bereiken en dus niet overdreven veel fps opvreet. RTX vol aan en dan DLSS aan zetten en net doen of je dat niet ziet. Dat snap ik echt niet.

Punt is dat ultra geen hele andere ervaring geeft dan high settings en als je op 1440 gamed je geen 4080/4090 of iets dergelijks nodig hebt. Natuurlijk kan je wel vinden dat je het nodig hebt 😉

[Reactie gewijzigd door Beakzz op 24 februari 2024 19:40]

Ik denk eerder RTX3070 want games zijn beter geoptimaliseerd voor de console en die slechte optimalisatie voor de PC vreet meer GPU.
Digital Foundry heeft toevallig gisteren een video gemaakt over precies dit onderwerp.

De PS5 is ongeveer gelijk aan een 3060: https://youtu.be/PuLHRbalyGs?si=vPoomwU7fwcRfdgu (De 3060ti is een flink stuk sneller)

Een last-gen 3070 komt niet eens in zicht: https://youtu.be/QrXoDon6fXs?si=3cCsCCuEmJCaju4Q

Daarmee is de PS5 overigens nog steeds een prima console en waar voor je geld. Ik zou alleen een PC adviseren als je van atmosferische single player games houdt zoals Alan Wake en Cyberpunk etc.

Daar is de meerwaarde van een high-end PC wel gigantisch: https://youtu.be/tXfwvohROPA?si=i165o22odBamiOIx
Ik had tot voor kort een GTX1060 6GB, die ik een jaar geleden heb gewisseld met een RTX2060 van mijn zoon, die de duurste HP Omen met de RTX4090 had gekocht.
Ik merk voor wat ik speel weinig verschil. Maar gezien het prijsverschil zou dat wel moeten.
Als ik meer FPS wil kan ik gewoon wat pracht en praal uitzetten wat verder toch weinig toevoegt
En daar zijn sommige mensen het dus niet mee eens. Die willen per se de laatste nieuwe games spelen op een 4K scherm met alle instellingen op Ultra++.

In mijn geval speel ik spellen op 2560x1440 met de meeste instellingen op High (want zelf vind ik Ultra en Super Ultra en whatever inderdaad niks meer toevoegen), en de meeste van mijn spelen zijn 3-10 jaar oud. Ik heb dus een RX 6750 XT met 12 GB RAM, en dat zie ik de komende 5 jaar ook nog niet veranderen. Ik ga die GPU pas upgraden als ik een spel wil spelen op 2560x1440 met instellingen op High, dat niet meer stabiel 60 FPS haalt.
Hangt er denkelijk ook wel vanaf op welke resolutie je speelt. 4K Gaming vereist een boel zwaardere hardware om al die pixels heen en weer te schuiven…
Mid range gpu's can de 10xx serie zijn gemaakt voor 1080p daarna is 1440p en 4k veel meer gemeengoed geworden. Als je op 1080p zit red je het misschien nog met een 1070 oid, maar daarnaast bijv een zak sperziebonen van 500 gram zit ook rond de €3 alles wordt duurder, we worden gewoon oud.
Competitive online games draaien op vrijwel alles. Voor single player games heb je niemand om je voor uit te sloven, dus er is weinig sprake van bragging rights voor extra FPS.
Ehh, ik speel liever mijn single player games ook op minimaal 144hz, met raytracing. Niet voor de bragging rights, maar 60fps vind ik gewoon niet een voldoende smooth ervaring.

[Reactie gewijzigd door PjotterP op 24 februari 2024 19:51]

Ze zijn ook te duur. Ik heb een rx 6600 voor 200 euro gekocht. Lijkt me genog geld voor een video kaart. Ding voelt gewoon high end. Kan alles echt dik prima spelen.

De lijst hierboven staat geen enkele kaart tussen voor die prijs, dat is werkelijk absurd.
Het artikel lijkt ook niet heel diep in te gaan op welke prijs er voor 2019 als low mid en high-end wordt beschouwd ten opzichte van nu.

Alleen dat de markt niet genoeg hapt naar de adviesprijs en dat ze daarom weer daar onder moeten gaan verkopen.
Het kan aan mij liggen, maar ik vind GPU's veelste duur ten opzichte van wat ze te bieden hebben. Oké als je gewoon een GPU moet hebben omdat je oude kapot is oké, maar als je een GPU hebt van na 2016 dus 10xx series van Nvidia of AMD equivalent, dan zie ik niet in waarom je een nieuwe GPU zou kopen.

Competitive online games draaien op vrijwel alles. Voor single player games heb je niemand om je voor uit te sloven, dus er is weinig sprake van bragging rights voor extra FPS. Waarschijnlijk ben je met een console goedkoper uit en heb je een betere ervaring.

Ik heb nu een reguliere 2070 en een 2060m in mijn laptop. Die laptop GPU upgraden gaat sowieso niet, maar zo lang die 2070 het nog doet zie ik geen reden om een nieuwe GPU aan te schaffen. Als ik meer FPS wil kan ik gewoon wat pracht en praal uitzetten wat verder toch weinig toevoegt. Het is leuk hoor al die slidertjes op ultra, maar het verschil in performance ten opzichte van de kwaliteit van graphics door die slidertjes op high of medium is niet evenredig.
Inderdaad! Ik heb een Steam Deck gekocht ipv weer een pc te bouwen en ik denk dat ik liever een Xbox koop dan zo veel geld aan een videokaart uit te geven.

[Reactie gewijzigd door Remzi1993 op 25 februari 2024 04:59]

een GTX10 serie trekt het echt niet meer anno 2024 als je nog een beetje op hoge kwaliteit wil gamen en raytracing kun je helemaal vergeten, nog los van het feit dat steeds meer game,s 8gb+ vram vereisen om soepel te draaien.
Die GPU’s blijven gewoon duur hahaha. Zeker die 3080 die in prijs bijna is verdubbeld.
Ik game nog rustig een paar jaar op mijn 6800xt.
Ik vind het, als je er even in verdiept bij het kopen, nog wel meevallen. Net even gekeken en ik heb in 2019 een RX 5700 XT gekocht voor 457 euro. Weleens waar bij de introductie, maar ik weet nog dat ik geluk had en dat daarna de prijzen stegen. Als ik nu in het overzicht kijk zie ik dat de 7700XT 459 euro kost.

Nu is het wel appels en peren vergelijken, maar als ik overige producten vergelijk met de prijzen uit 2019 dan weet ik bijna zeker dat het allemaal een stuk duurder geworden is.

[Reactie gewijzigd door grote_oever op 24 februari 2024 08:02]

Nvidia heeft geleerd tijdens corona dat mensen 1000+ euro voor een gpu over hebben. Dat houden ze in stand hoewel de vraag nu veel lager is. Ze hopen dat als ze dit lang genoeg volhouden, dat de markt het accepteert. En met de AI hype verkopen ze liever datacenter GPU's dan gaming GPU's.

Voor AMD en Intel is de AI markt niet zo lucratief: https://www.visualcapital...-comparing-ai-chip-sales/

Ik heb eigenlijk geen idee waarom AMD en Intel niet harder concurreren met Nvidia met gaming GPU's. Het zijn niet de chip prijzen, anders waren cpu's ook duurder.

[Reactie gewijzigd door lordawesome op 24 februari 2024 08:23]

Zowel Intel, AMD als Nvidia zeggen allemaal hetzelfde, het steeds kleinere maken van de GPU's maakt ze steeds duurder. Voorheen werd niet meteen de nieuwste verkleining gebruikt, wat nu wel het geval is, en welke in het begin een relatief lage yield heeft. Het is niet zo simpel als dat Nvidia gezien heeft dat men rustig 1000+ wil betalen, anders zouden die vergelijkbare AMD kaarten ook vele malen goedkoper zijn, maar dat zijn die niet, die zijn vergelijkbaar in prijs.
Toen betaalde ik 770 euro voor een 3060 Ti, nu betaal je 400 voor een 4060 Ti, dus zo erg is het ook niet.
Toen betaalde ik 770 euro voor een 3060 Ti, nu betaal je 400 voor een 4060 Ti, dus zo erg is het ook niet.
Ik ben inmiddels oud genoeg om te herinneren dat je voor 400 euro een high-end kaart kon kopen. Niet een instappertje. En vergis je niet. De chips van de 4060 kaarten van nu zijn wat vroeger instappers zouden zijn.

Nvidia heeft succesvol de prijzen weten te verhogen en heeft succesvol de segmenten van kaarten omhoog weten te schuiven. Waar high-end vroeger de beste kaarten had te bieden, hebben ze daar nu gewoon twee segmenten boven geplakt met een prijs richting de 2000 euro.
Kijk oude benchmarks eens terug. De high-end was toen twee kaarten in SLI en zat je ook al snel boven de €1000.

SLI werkt nu niet meer (althans, je krijgt er geen performancewinst van in games) dus zijn er kaarten boven de €1000 verschenen voor diezelfde doelgroep.

[Reactie gewijzigd door Wolfos op 24 februari 2024 09:51]

Kijk oude benchmarks eens terug. De high-end was toen twee kaarten in SLI en zat je ook al snel boven de €1000.
Sorry, nee. Je hebt het mis.
Een Voodoo II 12MB kaart kocht je destijds voor zo'n 250 euro. Dus als je er twee in SLI zette dan zat je op 500 euro. Maar je had daarbij altijd nog een 2D kaart nodig. De Voodoo kaarten konden alleen 3D doen.

De Riva TNT 2 kaarten die zowel 2D als 3D konden kocht je destijds voor zo'n 280 euro.

Allemaal ruim minder dan de 1000 euro waar jij het over hebt.
Dan heb je het wel over de absolute begintijd, want vanaf 2000 is de high-end altijd tussen de $500 en $700 geweest (gulden/euro prijzen afhankelijk van koers). Een GF2 Ultra was $500 :)

€400 voor de high-end is maar zelden voorgekomen, dat waren uitschieters. Dichtste daarbij in de buurt zonder dat het een shrink betrof zal R300 (9700 Pro) geweest zijn.

Verder volledig met je eens dat de huidige prijzen absurd zijn, mijn 1080 Ti kostte me mét waterblok €730.
Je vergeet even de inflatie , 250 euro destijds is een pak meer waard dan vandaag.
Ook toen was een enkele kaart de maatstaf voor benchmarks, dat is het hele idee immers.

de X60 kaarten waren altijd de budget oplossing, de X70 de midrange, de X80 de toppers en dan nog voor een meerprijs van 150 euro de Ti voor een kleine tien procent meer performance.

De basisprijs lag, zoals aangegeven, lang tussen de 350 tot 600 euro, afhankelijk van het jaar waarin je kijkt. Nu kost een X80 kaart dus het dubbele, en dat is niet terug te voeren op inflatie alleen.

de X90 kaart is een recente ontwikkeling, maar is volgens mij altijd rond de 2000 geweest in de praktijk.

De observatie dat de prijs omhoog gekropen is wegens gebrek aan werkelijke concurrentie is een correcte.
Het hele SLI voor games was nooit echt een succes merkte ik met 2x 1070. Hier gaat het nu erg over gaming maar de huidige generatie NVidia kaarten is ook enorm bruikbaar voor 3D renderen op de GPU of bijvoorbeeld lokaal je eigen AI dingetjes draaien.

En het zou heel prettig zijn als bijvoorbeeld de 4090 een NVLink optie had gehad zodat je met renderen het geheugen van kaarten bij elkaar kon gebruiken en je met 2x 4090 dus 48GB aan VRAM had.

Dat NVidia dat bewust heeft weggelaten begrijp ik heel goed. Je bent namelijk momenteel een dief van eigen portomonee wanneer je de Pro serie van NVidia koopt voor bijvoorbeeld het renderen van 3D. Belachelijk dure kaarten voor relatief weinig performance. Je -moet- echter wel wanneer je meer dan 24GB VRAM wilt kunnen benutten.

En bij het 3D renderen telt iedere CUDA/RT core in tegenstelling tot het wel heel matig ondersteunde SLI verhaal in games. Maar feitelijk is een kaart als de 4090 een 'koopje' wanneer je geld verdient met 3D animaties/renderen etc.

Voor gamen allemaal nogal overkill maar ik vind het facinerend wat je tegenwoordig kan doen met je 'simpele' desktop + een zware GPU. Voor een 'game' kaart vind ik de 4090 vrij bizar geprijst en NVidia wil hem ook vooral als een game kaart positioneren in de markt maar feitelijk hakt hij behoorlijk in op de verkoop van hun professionele serie kaarten.

Ik durf ook wel te beweren dat NVidia bepaalde bedrijven de 'required specs' laat aanpassen zodat er geen game GPUs in staan maar alleen maar de Pro serie. Solidworks is bijvoorbeeld zo'n programma terwijl dat echt wel beter draait op een goedkopere game kaart dan de 'requirements' die ze nu noemen.
Die 400 euro van toen is 600 nu en dan kan je iets kopen dat elke game in 4k kan
Spelen.

Wat je vergeet is dat vroeger die "high end" kaarten huidige games niet op 60fps konden spelen. Far cry anyone?
met een X70 kaart wordt het juist ontraden om 4K te spelen, wel zijn het perfecte 1440P kaarten in de meeste gevallen.

Tevens kon je ook toen spellen hebben die kaarten op de knieen kregen, zoals Cyberpunk bij release eigenlijk alles op zijn knieen kon krijgen als je alles op zijn hoogst zette (en met toekomstige kaarten beter én mooier draaide)

[Reactie gewijzigd door skullsplitter op 24 februari 2024 11:56]

https://www.techpowerup.c...-founders-edition/31.html

Kan zowat elke game aan op 4k ultra. In de games waar dat niet gaat ga je weg van die ultra of gebruik je dlss om aan 60fps te komen. Die kaart heb je vanaf 560 euro.

Aan amd kant vind je de 6800xt die iets goedkoper is en even goed in 4k scoort.

Je hebt gelijk van cyberpunk echter op 4k high haalde de beste kaart toen (3090) wel 60fps de kaarten erna 3090 ti konden dat wel op ultra.
Idd de kaarten zijn veel krachtiger geworden en ze kosten meer om te produceren.

Ik heb een Asus Tuf Gaming RTX 4080 Super 16gb die ik aan 1119€ heb gekocht gloednieuw met garantie en ben enorm tevreden over deze kaart.

Nog nooit zo een stille en snelle en ook energiezuinige kaart gehad. Tevens ziet de kaart er geweldig uit en is van aluminium afwerking.

Vroeger was Far cry en anderen spellen 60fps 4k onmogelijk. Tegenwoordig doen veel kaarten dat al en de betere veel hoger om een veel betere ervaring te krijgen. Mensen die geen high refresh scherm hebben weten niet wat ze missen. En als een game soepel loopt is dat al een zeer belangrijk aspect.

Ook mogen we de inflatie niet vergeten.
Hoewel de videokaarten zeker duurder zijn geworden ook wat naar verhouding is het nog steeds niet extreem.

Veel mensen weten bv niet meer wat de eerste home pc's koste. Zo een 5000 gulden gemiddeld en wat je daarvoor terug kreeg kan je niet vergelijken met nu! Idem met laptops die waren ook die prijzen destijds in de jaren 90.

We zijn een heel eind gekomen. En sommige zaken zijn gestegen en andere weer goedkoper geworden.
Men hoeft ook niet een dure videokaart aan te schaffen. Zat goedkoop te verkrijgen.
Dat kan, maar ik reageerde op het feit dat de prijzen uit de corona tijd niet in stand zijn gehouden zoals lordawesome beweerde. Ik kan me in het prijzen topic nog herinneren dat mensen tegen de 2000 euro neer wilden leggen voor een 3080.

Nog geen 2 jaar later heb je betere prestaties voor nog geen 600 euro. Overigens had het weinig te maken met corona, maar kwam het omdat je een kaart (net zoals ik heb gedaan) gewoon bijna volledig terug kon verdienen door er mee te minen. Zeer lucratieve tijden.
Als je oud genoeg bent om te herinneren dat je een high end voor 400€ kon kopen kan je je ook herinneren dat die kaarten klein waren en simpel te produceren.

Vanaf de GTX 200 serie begonnen de kaarten te groeien en ook de prijzen. Nu zijn high end kaarten nagenoeg altijd met een GPU sag omdat ze makkelijk 2kg totaal halen.

Uiteraard is de printplaat niet zwaar en zo groot maar het aantal features op een kaart is zoveel gestegen. Vroeger kon je amper wat met een kaart. Nu kan je AI renderen en high end gamen.

Ook de kwaliteit is enorm omhoog gegaan. Neem de inflatie mee dan kan je niet in het verleden blijven hangen wat veel mensen doen.

We horen nog veel mensen zeggen dat de 1080ti de laatste goede bang for buck kaart was die zeker heel lang is meegegaan.

Maar die is 7 jaar oud inmiddels en was toen iets van 699€ bij introductie. Tel daar voor het gemak 50% inflatie bij over de 7 jaar wat we zeker halen zit je ook op 1000€ ruim. Ik heb dus een 4080 Super gehaald wat in de 80 range de beste kaart is.

Nvidia heeft daar nog een 90 serie aan toegevoegd voor mensen met teveel geld en mensen die AI en andere zaken doen.

Verhoudingsgewijs zijn ze zeker wat duurder geworden maar ook niet dusdanig wat veel mensen denken want die vergeten alle andere zaken even voor het gemak.
Idd, zelfs mijn Gigabyte Windforce 980 kostte al 600 euro, dat was niet eens het duurste model van hun, voor dat geld heb je nu een 4070 met de prestaties van een 3080 waar iedereen anderhalf jaar geleden nog lyrisch over was en 1200 euro was een koopje. Je moet gewoon kopen wat je wil hebben en kan betalen en anders niet.
Als je oud genoeg bent om te herinneren dat je een high end voor 400€ kon kopen kan je je ook herinneren dat die kaarten klein waren en simpel te produceren.
Ik ben ook oud genoeg om mij te herinneren dat componenten steeds goedkoper worden om te produceren en dat door schaalvergroting de prijzen voor productie verder dalen.

Nvidia maakt record winst na record winst, heeft een marge van iets van 70% en is op de beurs nu zelfs twee miljard dollar waard. Maar prima. Leg mij nog eens uit waarom kaarten duurder zijn geworden. De #1 reden dat de kaarten zo duur zijn geworden is omdat Nvidia de prijzen heeft verhoogd. Dat het komt door gestegen productiekosten, dat is een fabeltje.
Begrijp me niet verkeerd, ik ben het met je eens dat het duur is.

Maar een 2080 had je bijvoorbeeld voor 799 euro in 2018. Als je dat met inflatiecijfers van het CBS doorrekent naar 2024 dan kom je uit op ongeveer 1059 euro. Voor dat bedrag heb je bijna een 4080 (die meer dan 2x zo snel is)

Geld is fors minder waard dan vroeger

[Reactie gewijzigd door DLSS op 25 februari 2024 14:46]

Toen betaalde ik 770 euro voor een 3060 Ti, nu betaal je 400 voor een 4060 Ti, dus zo erg is het ook niet.
En vroeger betaald je dat voor een 1080 of 980

[Reactie gewijzigd door Remzi1993 op 25 februari 2024 05:18]

Ik heb toen gewoon 600 betaald voor mijn 980 hoor en dat is al bijna 10 jaar geleden. Wel 6 jaar mee gedaan en nog verkocht voor 150.
Dus goedkoper dan de 80 generatie nu. Die inflatie is niet 200% Nvidia is heel erg hebberig geworden en de gamers accepteren het massaal. En AMD doet gewoon mee, want als je lange tijd een duopolie markt heb is er niet echt concurrentie. Nu Intel mee doet zijn er 3 partijen, maar eigenlijk ook te weinig voor concurrentie. Er moeten minimaal 4 tot 5 partijen zijn voor goede en gezonde concurrentie (onderzoek EU jaren geleden).
De 980 komt uit 2014 en de launch price was 550 dollar.

550 euro in 2014 is 759 euro in 2024. Een 3060ti is niet net zo duur als een 980. Geld is toch echt minder waard dan toen.

Druk de prijs van de GPU bijvoorbeeld eens uit in vierkante meters huis, pakken melk of liters benzine. Hoeveel vierkante meters huis, pakken melk of liters benzine kon je vroeger krijgen voor de GTX 980?

Waarschijnlijk is dat verschil niet zo groot als het verschil in euro’s doet vermoeden.
Intel is nieuw heeft de software en driver nog niet op orde dus zijn geen aanrader ongeacht de prijs. Je wilt niet klooien met buggy games waarbij driver en software gerelateerd is. Dat wordt steeds beter. En omdat ze alle bij op features in de software stack achterlopen ook in render features blijven ze mindere alternatief.
Voor markt waar puur om gamen gaat. Waar RT niet boeit . Maar de prijs wordt wel met alle factoren rekening gehouden. En daardoor is high-end met handicap die features mist andere features minder zijn en op basic feature soms kroon pakt. Daar ga je geen dure te produceren chip voor ontwikkelen.
Dit is voor intel de achterstand in de software stack om AMD en vooral nV bij te benen.
Voor AMD is erfenis van de donkere cpu dagen die ex ATI afdeling zwaar gereduceerd heeft en nvidia vroeg en lang ingezet heeft op uitgebreide software stack en dev sdk die dev bind. En daarmee kan iNtel < AMD < nV bieden maar ook grotere prijs.
Dat AMD tegen hanger altijd wat minder kost om 2 redenen feature set ook feature performance ook minder is. En dat nvidia daardoor en ook de markt goodwil veel meer kan vragen. En als AMD wilt groeien dan helpen lage bodem prijzen niet voor dat moet AMD maar ook intel in geval van lage GPU ASP ook productie kosten efficient maken. Een dikke high-end chip is niet productie efficient en money pit als ver van de kroon pole positie neemt. HBM2 avondtuur is daar voorbeeld van dure innovatieve mem die helaas chip duur maakt en als de performance tegen valt tov concuurrent je in prijs probleem komt.
Die software stack voorsprong en adoptie in de markt kom je moeilijk tussen en haal je ook niet zomaar in.

Daarnaast nV chips hebben redelijk die-space dedicated voor RT Tensor en zijn daar ook goed in. Waar bij AMD chips de RT performance in hardware minder verhouding is.
Je betaald bij nV ook voor die RT en tensor hardware als het komt niet voor niks dat hadden in de GTX periode gewoon meer shader beteken en zonder die RT en tensor manie had je nu bij gelijke non RT Tensor architectuur bij even grote chips size heel veel meer cuda cores en dus raster performance.
En niet te vergeten de scalpers mbt cryptomining wat nu op zijn gat ligt.
Zonder het te weten, maar is een 7700 qua positionering wel te vergelijken met een 5700?

Als je eerst een medium kaart kocht voor 450€ en nu een small kaart voor 450€ dan is wel degelijk een verschil. Ik denk dat het getal in de naam misleidend is (kan zijn).
is inderdaad niet volledig te vergelijken, de RX 5700 XT was toen het topmodel van AMD, maar was bij de concurrentie eerder te vergelijken met de 2070 (super) serie. Om in verhouding dezelfde snelheid tov Nvidia te hebben moet je dus naar de 7800 XT kijken
Ik vind het, met het oog op 2019, juist tegenvallen. Ik kocht toen een nieuwe RX590 voor 220 euro en heb nu voor een tweedehands RX 6800 zo'n 375 euro neergeteld omdat ik niet ruim het dubbele van die RX590 uit wilde geven voor een 7800XT.
Een 3080? De goedkoopste is nu 640 €. Ik had er 1 voor 770 Euro eterwijl die dingen nauwelijks te krijgen waren back in 2020. Kort daarna kon je ze idd voor het dubbele halen, Man wat een VIP gevoel was dat die 2 jaar.

Binnenkort de 5080 voor (gokje) een slordige 1300 ballen. Geen probleem vroeger kocht ik elke generatie een nieuwe GPU, prijzen 2 keer zo hoog? Dan wachten we ook 2 keer langer met vervangen.

[Reactie gewijzigd door dezwarteziel op 24 februari 2024 09:41]

Dan had je mazzel, legio mensen hebben nooit hun pre order gezien voor die prijs. Waar onder mijn broertje.
Zijn kaart werd geannuleerd en dan kon ie wel weer opnieuw in de queue, voor uiteraard de corona scalpprijzen..........

Leuk verhaal van Nvidia, AMD en Intel over de schaalverkleining en de kosten. Maar veel mensen zijn vergeten dat de RTX3000 juist een prijsverlaging inzette omdat mensen steen en been klaagden over de prijzen van de 2000 serie. Helaas werd dat onmiddelijk ongedaan gemaakt door coronamaatregelen en niet te vergeten de crypto hype op dat ogenblik.

2000+ voor een videokaart? Take my money!! De chipbakkers zijn het niet vergeten.

[Reactie gewijzigd door arbraxas op 24 februari 2024 10:48]

Ik had er ook een op de kop weten te tikken voor rond de 800 euro. Hierbij wel gebruikgemaakt van de fora hier op Tweakers. Draait nog steeds als een trein 3,5 jaar later.
Die is er gewoon niet meer, dat is geen maatstaaf.

De 4070 is al sneller. Totaal geen reden om naar die kaart te kijken.

Edit: sowieso is die hele last-gen tabel voor NVidia kaarten waardeloos, want de enige aantrekkelijke kaart bij een beperkt budget is de 3060 Ti, maar voor hetzelfde geld heb je een 4060 Ti.

[Reactie gewijzigd door JDx op 24 februari 2024 07:14]

Het is net andersom voor hem, hij heeft die 6800XT al.
Dan brengt de 4070 wel verdomd weinig voor het geld wat je er voor neer moet leggen.

Verder is er nog een 2e hands markt, zeker hier op tweakers en dan kan die 6800XT best een interressante optie zijn.
Voor diezelfde 6800XT heb ik in peak corona nog 800 euro betaald. Dus ik vind die prijzen van GPUs echt meevallen eigenlijk haha :P
De 4070 is wel flink gezakt, maar het prijsverschil met de 4070 Super blijft te klein, of het prestatieverschil te groot, goed voor de Super, maar had eigenlijk gehoopt de 4070 nu rond de 500 te kunnen scoren.
ze zijn al een tijdje gestopt met grote prijsdalingen bij de introductie van nieuwe kaarten, ze verkopen eerst de huidige voorraden en de nieuwe kaart leggen ze op een gelijk of hoger prijsniveau. Misschien binnen een half jaar als de shops echt niet van hun non-super varianten meer af geraken door dit te kleine verschil dat we daar verandering in gaan zien :/
De 4060 Ti (8GB) en 4070 zijn net bijna $30 verlaagd in China, wellicht waait dat nog over.
ik denk dat je met de huidige economische situatie in China rekening moet houden. Door de sancties en het wegtrekken van productie is het heel waarschijnlijk dat ze in een recessie zitten zonder dat de officiële cijfers dat weergeven.
Zou kunnen, want ik lees net ook dat het geen echte prijsdaling is, maar dat je er een voucher bij krijgt ofzo, maar het verschil met de Super is gewoon te klein om voor die paar tientjes tot misschien 80 euro meer voor een gewone 4070 te gaan. Ik bedoel als je toch 600 neer legt, waarom dan geen 680.
dat is exact de reden waarom ze zo veel verschillende kaarten uitbrengen. Stick to your budget.
Nou een beetje kosten baten afwegen mag ook wel, de stap daar boven is wel weer enorm, had graag 16GB gehad, zoals in de 4070 Ti Super zit, maar dat is niet mijn budget. Van de 4070 naar de 4070 is een stapje van 12-17% wil je naar de 4070 Ti Super dan is dat een stap van 67% minimaal!
Als je in die prijsklasse een 16GB kaart wil dan zou je naar de RX 7800XT kunnen kijken. Die is op veel vlakken ook sneller dan een 4070.

Ik heb trouwens wel een 4070 gekocht en geen 4070 Super. Want je kunt wel bezig blijven met "als je even iets meer uitgeeft heb je nog meer performance". De 4070 zat al iets boven mijn soft-limit van 500 dus een 4070S voor minimaal 640 euro is echt teveel.

Al met al wel een lekkere upgrade van 2080S naar 4070. Ook erg blij met een kaart die aan de goede kant zit met stroomverbruik en warmteproductie.
Die 16GB gaat me juist om AI en dat trekt AMD nog niet lekker.
Nvidia en Amd moet bij nieuwe generaties wat doen aan stroom verbruik,en wat lager prijs
Rumours zeggen dat met de RX 8000 series AMD gaat focussen op de entry level en mid-range om de kaarten daar zo goed mogelijk en goedkoop mogelijk te maken.

Veel geluk als je serieus denkt dat Nvidia hun kaarten goedkoper gaat maken.
Rumours over AMD producten kloppen zelden. Dat zou je nu toch wel moeten weten na alle nonsens recentelijk nog weer over de 8x00G serie. En hun marketingsstrategie verder lijkt in sommige opzichten inmiddels verdacht veel op die van Nvidia en Intel : consolideren, consolideren en consolideren. En vooral reviewers en influencers manipuleren om te doen alsof dat niet zo is :D
Ik wacht deze generatie wel uit.
Ik ben nog dik tevreden met mijn RX6800.
Ruim een jaar geleden tweedehands gekocht, hij heeft zelfs nog een tijdje in de mijnen gewerkt, maar hij doet het nog prima.
Is ook nog altijd een goede optie. Er staat nog een XFX 6800 in de pricewatch die net iets minder kost dan een 7700XT maar die daar wel gewoon betere prestaties voor levert.

Speelt Helldivers 2 netjes op 60 fps in 2160p. En als bijkomend voordeel is het nog een relatief zuinige kaart die zich vrij eenvoudig laat undervolten.

Als de 7900 XT een 6800 XT prijs mee had gekregen, wat gezien de specs passend was geweest, was er een reden tot upgraden wellicht. Maar met deze prijsstrategie voelt de 7000 serie eerder als een refresh dan een nieuwe generatie.
Ik deel de undervolt ervaring niet. Krijg de kaart niet stabiel op wat dan ook onder de 1000mV waar 1025 mV de standaard is. Veel wilde verhalen op Reddit doen daar niets aan af, het blijft gewoon silicon lottery.
De kaarten blijven extreem duur in vergelijking met andere componenten in een computer. Ik ben benieuwd of de prijzen bewust kunstmatig hoog worden gehouden? Heel veel concurrentie is er helaas niet in deze markt.
Ik heb er zo zelf geen informatie over, maar misschien verteld het aandeel dat grafische kaarten hebben in het portfolio van AMD en nVidia ons iets. Is dat aandeel relatief kleiner aan het worden ten opzichte van AI hardware en consoles dan wordt het belang van de discrete grafische kaart productie minder groot. Dit lagere belang kan een reden zijn om minder hard te lopen in de concurrentiestrijd. Dit is maar een observatie, onze blik op veranderingen in de markt is een beperkte. In dit rapport
MordorIntelligence - GPU market overview is te zien hoe die GPU markt de laatste jaren is gegroeid. Als we ons tegelijkertijd realiseren dat PC gaming geen groeimarkt is dan betekend dat iets voor het relatieve aandeel van PC GPU's in de totale markt. Dat neemt in ieder geval af. PC graphics wordt nog wel genoemd als een aanjager voor de ontwikkeling van GPU's.
The growing demand for advanced technologies, like AR, VR, and AI, is further fueling the GPU demand, as these technologies require high-speed analysis, for which GPU is an ideal option. AI chips have surpassed GPUs in performance and energy efficiency. However, GPUs are still an indispensable part of high-performance computing. Apart from AI, GPUs also have a solid general-purpose computing capability.
Onduidelijk is of daar alleen stand-alone PC gaming mee wordt bedoeld, of ook consoles of gaming as a service.

Even een disclaimer over de bron: mij totaal onbekend. Hoe gezaghebbend ze ondanks haar tot de verbeelding sprekende naam is vind ik lastig te beoordelen. De link vind ik wel informatief.

[Reactie gewijzigd door teacup op 24 februari 2024 13:03]

Als je de prijzen van GPU naast de inflatie legt zijn ze niet zo extreem hoog als je misschien zou denken. Maar je hebt waarschijnlijk inderdaad gelijk als je ze vergelijkt met andere PC componenten. Zo had ik er nog niet naar gekeken.
Bij Azerty heb je al een 4070 voor 544,99 euro, dus geen 587.
"De prijzen in dit artikel zijn op 20 februari verzameld."

De prijs was toen ook hoger...
Ah ok, ik wist dat die prijs gister in ieder geval ook al zo was, maar 20 februari geen idee.
Toen het artikel werd geschreven was dat waarschijnlijk nog 587 euro, en daarna is de prijs waarschijnlijk gewoon verlaagt door Azerty (gisteren of vandaag)
Nvidia heeft zich gepositioneerd als het Apple van de GPU-fabrikanten. De hoge prijzen betalen mensen toch wel voor het beste van het beste. En het werkt, ze concurreren niet echt meer met AMD. Nu zie je dat de concurrentie op de budget kaarten tussen Intel en AMD gaat en dat Nvidia zich buiten de markt prijst. Het interesseert ze ook niet zoveel meer omdat ze nog maar een fractie van hun inkomsten binnenhalen uit GPU verkopen en voornamelijk uit datacenters. Het begin van deze video van Gamers Nexus legt het haarfijn uit.
Op rts na scheelt een 7900xtx zichtbaar niks met een 4080s op superultrawide, ik kan het weten ik heb beide gespeeld.
Dus mijn inziens is de meerprijs voor een 4080s het echt echt niet waard tov een 7900xtx, maar er blijven mensen die perse nvidia willen hebben en met die mensen kun je geen redelijke discussie voeren aangezien ze bevooroordeeld zijn
Het zijn en blijven kunstmatig hoge prijzen. Als een shitty midrangekaart al meer kost dan een complete console dan weet je dat de koper bedonderd wordt.
Het lijkt wel of ze pc gamers bewust naar console’s willen pushen.

Geen nieuwe vga kaarten is niet echt een optie. Maar 5-7 jaar met een kaart doen ipv 3-5 jaar wel. Net zoals mobieltjes nu ook vaker 2-3 jaar meegaan ipv 1-2 jaar bij de early adopters. Deels omdat er weinig nieuwe features komen maar ook omdat ze extreem duur zijn geworden.
Een 6600 die je console graphics geeft kost 200 euro.
Hoe het ermee staat? Nou als ik alleen naar Nvidia kijk dat vind ik dat alles vanaf de RTX 4070Ti nog steeds een paar honderd euro teveel kost.. Leuk als ze nu al iets onder de adviesprijs zitten, maar daar heb je weinig aan als die adviesprijs veel te hoog is..

€1200,- voor een 4080 terwijl slechts 1 generatie geleden de 3080 nog rond de 800 zat slaat nog steeds nergens op.. Dat is een prijsverhoging van 50%.. Waardoor er amper tot geen vooruitgang is wat betreft de prestaties die je voor je geld krijgt.. Dat de 4090 absurd duur is kan je nog accepteren omdat het simpelweg het halo product is (een soort Titan), er niks niks snellers bestaat, en voor de mensen die het niks uitmaakt wat iets kost zolang ze maar het beste van het beste hebben.. Maar de modellen eronder horen gewoon een stuk betere prijs/prestaties verhouding te hebben, en dat doen ze helaas nu niet echt meer.. Een RTX 4080 hoort rond of onder de €1000 te kosten, wat een AMD 7900XTX nu ook kost.. En een RTX 4070Ti maximaal rond de €750-800 ofzo.. Ik sla deze (qua prijs kansloze) generatie videokaarten dus gewoon over.. Mijn RTX 3080 die ik in 2020 gekocht heb voor iets meer dan €800 kan gelukkig nog wel even mee.. Begin 2025 maar weer eens kijken hoe het ervoor staat qua videokaarten, met hopelijk ook weer nieuwere betere CPU's voor gaming op de markt (AMD 8800X3D?).. Mijn Intel i7 10700K is dan ook wel weer aan een upgrade toe..
Heb je het hele artikel gelezen? Die 3080 die volgens jou "rond de 800" zit, is momenteel dus €1377. Daarmee is de €1203 van de 480 een prijsverlaging van meer dan 10%.

En gezien het feit dat NVidia de GA102 en AD103 GPU's ook in professionele kaarten van duizenden euro's kwijt kan, is het niet echt te verwachten dat er veel prijsverlagingen in het vooruitzicht liggen.
Je skipt voor het gemak even over het stukje van de introductieprijs van 719 euro? Daarmee moet je het natuurlijk vergelijken en niet de huidige prijs, die niet redelijk is aangezien deze kaart al geruime tijd uit productie is.
Dat dus. En daarnaast; dat je nu nagenoeg exact de game-prestaties van een 3080, op zowel 1440p als 4K, krijgt met een 4070 van nog geen €600,-.
De huidige prijzen van 3080's zijn dus ook op die manier bezien totaal niet relevant!
Totaal niet relevant waar hij nu nog voor in de pricewatch staat, de 3080 is allang EOL wat betreft nieuwverkoop.. De adviesprijs was €719,- bij release in 2020, en zoals gezegd heb ik er toen één kunnen kopen voor iets meer dan €800,-..

[Reactie gewijzigd door Inflatable op 25 februari 2024 01:42]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee