Ninja Theory maakt systeemeisen Hellblade II bekend: RTX 4080 voor 4k nodig

Ontwikkelaar Team Ninja heeft de systeemeisen voor Hellblade 2 voor de pc bekendgemaakt. Om de game op 1080p-resolutie te draaien, zijn minimaal een Core i5-9600- of Ryzen 5 3600X-cpu en een RTX 2070 of RX 5700 XT nodig. Voor 4k is minimaal een RTX 4080 of RX 7900 XTX vereist.

Ninja Theory deelt de systeemeisen van Senua's Saga: Hellblade II op X. Er worden de minimale eisen voor vier grafische tiers beschreven. Ongeacht de preset wordt minstens 16GB geheugen en 70GB aan vrije ssd-opslagruimte vereist. De game biedt ondersteuning voor de upscalingtechnieken DLSS 3, FSR 3 en XESS 1.3. De ontwikkelaar laat ook weten dat de game ondersteuning biedt voor ultrawidemonitors. Hellblade 2 verschijnt op 21 mei. Naast Windows, verschijnt de game ook voor de Xbox Series X- en S-consoles.

Systeemeisen Hellblade 2

Door Kevin Krikhaar

Redacteur

04-05-2024 • 13:14

130 Linkedin Whatsapp

Reacties (130)

130
129
37
0
0
74
Wijzig sortering
vram gebruik valt reuze mee dus.
Het leek erop dat 8gb vram anno 2024 echt te weinig is.
Is voor veel games ook zo, ligt er ook aan op welke fps je wilt spelen natuurlijk, ze geven geen fps waardes op in de tabel, dus zal vast 30 fps zijn. De meeste gamers spelen tegenwoordig graag hoger dan 30 fps.
Misschien hetinner ik me verkeerd maar je hebt vram niet nodig om hogere FPS te halen zover ik weet. Daarvoor is de CPU bepalender. Meer Vram is voornamelijk nodig om de high textures in te laden.
Als je te weinig vram hebt krijg je in ieder ge al flinke dips in je fps Dus ja en nee. Je moet genoeg hebben om geen dips te krijgen en daar naast genoeg compute power om de frame rate te halen. Een 4090 met Bv 8gb gaat voor geen meter werken. (tenzij het over oude games gaat maar games die meer dan 8gb nodig hebben draaien niet lekker op zo'n kaart als die zou bestaan).

[Reactie gewijzigd door Astennu op 5 mei 2024 01:03]

Games draaien perfect op die kaart alleen moet je of texture size op low zetten of weinig textures inladen.

Indoor only game met weinig view depth heeft geen isssue.

Een game als battlefield met veel outdoor view area moet veel meer textures inladen.

De game designer heeft daar nog invloed op door reuse van de zelfde textures te doen. Of juist niet.

Maar dat heeft allemaal weinig met compute te maken.

[Reactie gewijzigd door Scriptkid op 5 mei 2024 10:00]

Zo zwart wit is dat niet. Als je videokaart niet voldoende VRAM heeft dan staat je GPU ontelbare clockcycles te wachten terwijl er data ingeladen wordt vanuit ander geheugen. Dan tankt je fps enorm. Sommige games hebben ingebouwde mechanismes die dan de texture kwaliteit verlagen of gewoon stoppen met inladen, maar bij andere is je performance dan weer gewoon slecht. Als je met de in game settings het VRAM gebruik niet onder de capaciteit van je videokaart kan krijgen dan blijft je fps laag.

CPU is alleen bepalend voor hoge fps als de game daadwerkelijk veel CPU tijd nodig heeft per frame. Niet iedere game heeft dat.
Het wordt tegenwoordig weinig meer gebenchmarked want 7800X3D all the things bij iedere reviewer, maar er zijn nog altijd zat games die icm een 4090 binnen 5% van dezelfde fps zitten op een 3 jaar oude i5

Wat bepalend is voor hoge fps is de resource waar je het eerst zonder zit. Dat verschilt per game.

[Reactie gewijzigd door youridv1 op 6 mei 2024 09:20]

Als je VRAM bottlenecked krijg je ook fps drops.
30 fps komt nog uit de pentium 1 tijd, het is al jaren minstens 60 fps.
De meeste gamers spelen tegenwoordig graag rond/hoger dan 144 fps.

[Reactie gewijzigd door mr_evil08 op 4 mei 2024 21:09]

De meeste gamers? Console gamers? Steam die laat zien dat de meeste pc gamers op 3060 niveau zitten? En mensen die 4K willen aansturen met een 30 serie?

De meeste gamers zouden het natuurlijk willen in een ideale wereld, maar er zitten legio gamers op max 60 fps.
Hier gaat de 3080 vaak genoeg op 4k native. Niet elke game natuurlijk, maar heel veel wel. Uitstekende prijs kwaliteit nog steeds dat ding. Laat staan een 3090 met nog wat meer performance, is ook een 30 series. Als opvolger straks een 4080 of 5070, als die prijzen flink lager liggen dan nog altijd dikke duizend euro nu.
Je ziet toch dat ik reageer op zijn 144hz opmerking? OF speel jij 144hz met je 3080 op 4K? (en dan hebben we het over moderne AAA games natuurlijk)
Nee, 60-120 is hier dan de target waar het wat toevoegt, bijvoorbeeld Forza kan dat wel en komt ie wel netjes naar 80-90 effectief. Met die combinatie van opmerkingen gaat het om:
"En mensen die 4K willen aansturen met een 30 serie?"
Daar was me even niet duidelijk dat het niet enkel om 60 fps in plaats van 30 fps ging wat terecht voor de consoles genoemd werd, maar zelfs 4k op nog hogere rates dan 60 fps. Persoonlijk zie ik bij veel games de hogere refresh rate niet zo opleveren, maar ik speel meer sim dan fps. Bij racing is het wel heerlijk soepel beeld dankzij VRR, zelfs al is het geen 120, boven de 60 merk je toch al vergeleken met locked op 60.
ik heb een mid end card en voor shooters als CoD schroef ik alles naar beneden om 1440p 144hz te halen
Ik denk ook dat mr_evil08 zich vergist in wie "de meeste gamers" eigenlijk zijn.. Ik denk dat hij het over hardcore PC gamers met een flink budget die vooral compentatieve shooters spelen bedoelt als hij het over spelen met 144+fps heeft.. Maar dat zijn dus echt niet de meeste gamers, dat is maar een kleine niche groep van gamers.. Op de consoles is sowieso inderdaad nog steeds 30-60 fps de norm..
Niet elke gamer heeft het budget, zit veel schooljeugd tussen dat geeft het vertekend beeld op steam.
144hz is al jaren de standaard.

[Reactie gewijzigd door mr_evil08 op 5 mei 2024 10:18]

In de Pentium III tijd ging alles naar 72Hz, dat leek toen het meest stabiel en rustig voor je ogen. Het is opvallend dat 60Hz en 60fps terug is gekomen.

Dus 144Hz (2x72) is dan wel weer logisch, 120 (4x30, 2x60) niet.

[Reactie gewijzigd door djwice op 5 mei 2024 08:39]

75hz, had vooral te maken door de CRT schermen die flikkeren op 60hz.
Ik kon ze er zo uitpikken op 60 of 75 draaide.

Op gegeven moment kwam LCD en was het weer 60hz een tijdje, veel gamers zijn pas laat geswitched van CRT naar LCD om die reden.

[Reactie gewijzigd door mr_evil08 op 5 mei 2024 10:22]

In de Pentium III tijd ging alles naar 72Hz, dat leek toen het meest stabiel en rustig voor je ogen. Het is opvallend dat 60Hz en 60fps terug is gekomen.
Dat ging, zoals @mr_evil08 ook zegt, om CRT flicker. CRT's hebben last van knipperen bij lage frequenties. 60 is al laag. LCD's hebben dat niet, dus kwam 60 Hz "terug." Omdat we ons niet langer zorgen hoefden te maken over knipperen en gezeur met de frequentie van het stroom net zoals vroeger.

Er is geen "logische" frequentie bij progressive scannende LCD's/OLED's. Er is geen grondtal waar de frequentie een veelvoud van hoeft te zijn. 144Hz is handig omdat het een veelvoud van 24 is, waar veel films in geschoten worden. Dan heb je geen last van tearing als je netflix kijkt op je gaming monitor. Maar tegenwoordig met VRR gaat het eigenlijk nergens meer over.
Dank je voor de uitleg. Er zijn geen fosfor deeltjes meer die elke keer aangeslagen moeten worden zoals bij een CRT.

Wel mooi tegenwoordig dat je alleen (delen in) het beeld verandert wanneer dat nodig is.
Is variabele refresh rate en HDMI/DisplayPort al zo ver dat je ook slechts een deel van het scherm kunt wijzigen? Bijvoorbeeld bij desktop alleen de models van het uitklappen de menu, de muis cursor of de nieuwe letter zijn zijn omgeving?
Dat is in principe inherent aan hoe LCD werkt. Als de kleur van een pixel niet verandert, dan hoeven de kristallen van die pixel niet te bewegen. De backlight staat ten slotte los, dus alleen bij kleurverandering hoeft er iets te gebeuren.

Elke frame wordt wel in zijn geheel naar de monitor verstuurd en gescand. Maar het skippen van pixels levert ook geen tijds- of performance winst op en het supporten daarvan vereist wel veel complexere logica in het display. Nu kan het beeldje vanuit de pc zo over de interne buffer van de monitor geschreven worden en daarna worden geflushed. Dat kan dan ineens niet meer omdat je dan image processing moet gaan doen in het scherm zelf.

Variabele refreshrate is gemaakt om ervoor te zorgen dat de buffer niet overschreven wordt terwijl hij naar het paneel geflushed wordt. Niet omdat er dan minder werk gedaan hoeft te worden oid.
Op een lagere refreshrate werken bespaart wel vermogen.

LCD pixels zijn ook niet set and forget. Als je de spanning van ze af haalt, blijven ze niet staan zoals ze stonden. Dus je moet ze als je ze niet update wel actief in de oude stand houden. Vandaar dus ook dat ze bij iedere update gewoon overschreven worden.
Bijvoorbeeld bij desktop alleen de models van het uitklappen de menu, de muis cursor of de nieuwe letter zijn zijn omgeving?
Dit gaat niet over het scherm, maar meer over wanneer componenten op je scherm zichzelf opnieuw tekenen. Bijna ieder OS doet standaard al exact wat jij omschrijft. UI componenten tekenen zichzelf alleen opnieuw als ze veranderen. Het is niet zo dat de alle applicaties maar de hele tijd met de refreshrate van je scherm aan het updaten zijn ofzo. Dat is een videogame/3D specifiek ding.Als jij met een ander window bezig bent (als de applicatie dus geen "focus" heeft), dan updaten de meeste applicaties hun GUI bij benadering niet of zo minimaal mogelijk.

In de basis reageert een grafische component alleen maar op events (klik, muis hover, drag, focus, etc). Dus als er geen events binnen komen, doen ze ook letterlijk niks. Dus als jij niet met ze interacteert en ze niet op de achtergrond worden geupdate, dan nemen ze ook bij benadering 0 CPU/GPU tijd in.

[Reactie gewijzigd door youridv1 op 6 mei 2024 13:35]

Ik zat er meer aan te denken wat als er een e-inkt scherm aan m'n usb-c gaat hangen.

Kan die dan door HDMI/DisplayPort per (groepje) pixels worden veranderd, via het bestaande protocol of moet de monitor dan zelf het verschil uitrekenen, en dus de state opslaan.
Dat gebeurt inherent al, ook bij E-ink. Jij overschrijft de hele buffer en de controller scant het hele display. Als een pixel niet verandert, hoeft daar geen energie aan uitgegeven te worden.

Waar jij aan denkt wordt veel toegepast als compressie techniek voor streaming om wille van bandbreedte, maar een usb-c kabel heeft bandbreedte zat.

Het is niet zuiniger dan gewoon de hele buffer updaten. Je telefoon moet dan namelijk gaan berekenen wat hij wel en niet hoeft te versturen en de monitor moet dan weer op basis daarvan weer kijken welke pixels hij in zijn buffer aan moet passen en dan de hele buffer flushen. Dat vereist enorm veel meer schrijf acties om de write pointer steeds te verzetten dan het kost om in 1 burst de hele buffer te overschrijven. Individuele adressen overschrijven kost 2 cycles. Als je alles in 1 keer update heb je alleen voor de eerste pixel 2 cycles nodig en voor de rest maar 1. Als meer dan de helft van je scherm dus update ben je trager dan als je gewoon de hele buffet zou overschrijven.
En dit zijn geen cycles van je CPU of GPU, die op meer dan 2GHz lopen. Dit zijn clockcycles van een embedded controllertje van een paar cent.

Het overzetten dan de buffer op het paneel is ook nog eens hardware, geen soft of firmware feature en heeft eigenlijk niet de optie om gedeeltelijke frames toe te passen. Helemaal onderaan de streep moet er een volledige buffer zijn, dus waarom dan zou je een compleet nieuw soort paneel controller moeten ontwerpen die magnitudes complexer is, zonder dat je er iets mee op schiet.
Waar je nu af kan met uitontwikkelde hardware voor het flushen van de buffer naar de pixels heb je dan ineens een complete microcontroller met volledige ARM kern nodig.

[Reactie gewijzigd door youridv1 op 6 mei 2024 20:49]

Ik heb leren programmeren op een C64. Als ik een poppetje over het scherm wilde laten lopen (sprite), werkte ik alleen die pixels in het video geheugen bij van waar het poppetje was en waar hij moest zijn (rechthoekjes), dat kostte minder rekenkracht dan het hele scherm opnieuw updaten in het video geheugen.

Maar goed, dat ging nog naar de CRT via de kabelaansluiting, je deed de geheugen update op het moment dat de kathodestraal weer terug naar zijn beginpunt ging, zodat er geen flikkering was.

Andere tijden.
Dus wellicht is het minder complex dan het lijkt? Was de C64 veel krachtiger dan die microcontrollers waar je het over hebt?

____
Ik vraag me trouwens af of de status van e-inkt pixels überhaupt wel uit te lezen zijn. De status houden kost geen energie, in welke stand ze ook staan, dus is er niets te meten?
Dus hoe 'scant' de controller dan de display?
En niet voor elke wijziging van het e-inkt scherm wordt het hele scherm zwart tussendoor. Soms geeft dat rare artefacten trouwens, dus het deels updaten gaat nog niet altijd perfect.

[Reactie gewijzigd door djwice op 6 mei 2024 23:14]

Ik heb leren programmeren op een C64. Als ik een poppetje over het scherm wilde laten lopen (sprite), werkte ik alleen die pixels in het video geheugen bij van waar het poppetje was en waar hij moest zijn (rechthoekjes), dat kostte minder rekenkracht dan het hele scherm opnieuw updaten in het video geheugen.
Je hebt het hier dan ook over intern geheugen van de C64. Niet de externe geheugen chip op een monitor.
De C64 is niet sneller dan een moderne goedkope microcontroller, maar we hebben het hier niet over roeren in RAM.
De diff toepassen op de microcontroller zelf is snel zat ja, maar het paneel zelf heeft ook nog een hardware buffer. Tenzij je de hardware buffer van het paneel in het RAM van de microcontroller wil bakken.
Dus hoe 'scant' de controller dan de display?
Kun je doen met een ordinaire flipflop die je parallel met de pixel aanstuurt, een NAND gate en een NOT gate.
Met de NAND gate compare je de flipflop en het inkomende signaal. Als ze niet matchen wordt de uitgang van de NAND hoog en bij de opgaande flank inverteer je de flipflop en bij de neergaande flank de pixel. De neergaande flank komt omdat de NAND gate en de flipflop in een feedback loop zitten.
Bij het aansluiten van het display reset je 1x alle flipflops en pixels en dan kun je gaan.
En niet voor elke wijziging van het e-inkt scherm wordt het hele scherm zwart tussendoor.
Ik mag hopen van niet, dat zou tegen het punt van een e-inkt in gaan.

[Reactie gewijzigd door youridv1 op 7 mei 2024 10:22]

Houden flipflops hun state als ze geen spanning krijgen? Net zoals het e-inkt scherm?
Dat type flipflop bestaat ja.
Oh, ja er bestaan immers NVMe's 8)7
(me feeling not so smart having asked)

[Reactie gewijzigd door djwice op 7 mei 2024 17:18]

FPS boeit toch niet voor VRAM,

als je alles in laad en het past is er geen drawback voor fps. Maar als het niet past dan gaat de fps omblaag door het swappen.
Dus je zegt; als je genoeg VRAM hebt en alles past dan heb je geen last met FPS, en als het niet past gaat je FPS omlaag omdat het moet swappen.

Dan heeft het toch echt wat met elkaar te maken?
Nee want je moet 8gb of meer hebben.

Dat geven ze juist aan. En als je dat hebt heeft ram geen impakt meer op je fps dan gaat het puur op de rest van je systeem, en de code van de game.

Ik reageerde op de opmeking dat ze bij 8bg vram geen fps rating hebben staan.

[Reactie gewijzigd door Scriptkid op 5 mei 2024 09:56]

merk er anders niks van. Heb een 8GB gaming laptop. 1800p, nogsteeds nergens tegen vram restricties aangelopen.Allocating is niet hetzelfde als verbruik.
Nee, dat waren gewoon enkele die intressant wilde doen.
Voor de overgrote meerderheid van games is dat voldoende.
Ligt aan op welke resolutie je speelt, gros speelt kennerlijk nog op 1080p.
Alles op ultra en 1440p, eventueel high texure pack erbij ga je makkelijk over 8gb vram.

[Reactie gewijzigd door mr_evil08 op 5 mei 2024 10:29]

Nee hoor 1440p zelfs op ultra zit je zowat altijd onder de 8gb zelfs meestal in 4k ook.
Mods of extra texture packs dlc spreek ik niet maar gewone in game settings.
Tot raytracing inschakeld wordt, cyberpunk bijvoorbeeld.
Voor de casual gamer op lager settings geen probleem dan voldoet 8gb tot nu toe.

[Reactie gewijzigd door mr_evil08 op 5 mei 2024 15:23]

Neen want die kaarten kunnen raytracing niet aan op dergelijke resoluties.

https://www.techpowerup.c...rtx-4060-ti-16-gb/30.html

4060 ti 8gb vs 16gb Moest er op 1440p of 4k echt een probleem zijn dan zou je dat hier duidelijk op terug zien.

Op raytracing is het verschil idd een pak groter, echter nuttelos.
Op cyberpunk 2077 haalt de 8gb versie 11 en de 16 gb versie 13 fps. 16% beter maar totaal nutteloos want dat draait langs geen kanten. Op 1440p is er al nul verschil (en 27fps).


je zal hier en daar een uitzondering kunnen vinden ongetwijfeld maar in de praktijk maakt dat voor dergelijke kaarten geen verschil in 99% van de games zelfs op 1440p en meesta zelfs bij 4k.
Is het ook, maar games laten gewoon textures weg en dan is het probleem er niet.
Denk je op high textures te spelen maar ziet het er hier en daar slechter uit dan medium omdat textures gewoon op low blijven hangen.

[Reactie gewijzigd door Torched op 5 mei 2024 10:43]

Denk dat dat een engine ding is met LOD of dynamic textures.
Er bestaat nog zoiets als shared video memory natuurlijk ;-)
Op 4k werkt valt dlss niet zo op. Quality mode is perfect en is intern 1440p, wat een 3080 vraagt. Dat is vrij normaal voor een modern spel.
Dit kan ik bevestigen. Op 1080p gebruikte ik het nooit omdat het echt blurry was. Op 4K is het vrijwel niet te zien, zeker op Quality mode.

Frame Generation voegt wel merkbare latency toe, maar hopelijk kan dat apart uitgezet worden.

Zie geen reden om het niet te gebruiken, zelfs bij games waar je al ruimschoots boven de refresh rate zit van je monitor, qua fps. Je GPU load is minder, minder warmte, meer fps = lagere latency. Het enige nadeel zou eventuele artifacts kunnen zijn, maar dit is me nog nooit opgevallen. In ieder geval bij de games die ik speel, daar is de implementatie vrij goed.
Ik snap ook alle kritiek niet op upscaling technieken. Veel mensen zien het als een "nep" techniek om slechte optimalisatie te verbergen. In hun ogen gaat elke ontwikkelaar laks om met optimalisatie, die upscaling technieken toevoegen.

Maar wat ze niet begrijpen, is dat juist door de optimalisatie ontwikkelaars juist meer ruimte krijgen, kijk maar naar Cyberpunk 2077 en Path tracing. Geen enkele GPU kan Path Tracing draaien, maar dankzij door DLSS 3.0, Frame Generation, Ray Reconstruction en zelfs technieken zoals ReSTIR is het mogelijk dat we games met Path Tracing kunnen genieten.

Daarnaast zorgt ook dat oudere hardware ook nog iets langer met de tijd kan meegaan. Met andere woorden, je hoeft minder snel up te graden en je krijgt meer waar voor je geld.

Aleen de artifacts en ghosting kunnen een probleem zijn. Op lagere resoluties kan het blurry zijn, dat zijn weer de nadelen inderdaad.

[Reactie gewijzigd door Toonen1988 op 4 mei 2024 15:34]

Upscaling vind ik prachtig. Frame generation waarbij er extra frames worden toegevoegd daar ben ik persoonlijk geen fan van, ook niet in single player games, omdat ik een hekel heb aan de latency die er mee gepaard gaat. Maar de een boeit dat meer dan de ander.
Toen ik mijn RTX 4080 kocht, had ik nog een Ryzen 7 1800x met 32gb op 3000 mhz. Was toen op de 14th generatie van Intel aan het wachten.

Ik behaalde ongeveer 55 FPS in Cyberpunk 2077, alles op het hoogste, 4k en Path tracing. Met frame generation had ik zelfs boven de 60fps.

Maar ik voelde inderdaad een grote delay.

Toen kwam de i9 14900kf uit, waar ik eentje van heb gekocht. 32gb geheugen van 6000mhz erbij geprikt en mijn RTX 4080. Ik behaal iets van 80 tot 90 FPS, alles op het hoogste 4k, DLSS op quality met frame generation en ik heb geen enkel input delay, of latency issues.

Ik heb zo'n vermoeden dat die latency wordt veroorzaakt als je je hardware al tot een limiet hebt bereikt. Dit is iets wat ik uit eigen ervaring kan vertellen.

Maar kan me vergissen, misschien dat het ergens anders door wordt veroorzaakt.

[Reactie gewijzigd door Toonen1988 op 4 mei 2024 16:53]

Frame generation werkt het best op een zo hoog mogelijke framerate vanwege de daarbij zijnde lage latency.

Het werkt op lage framerates juist averechts, omdat de kaart al moeite heeft met sub60fps en dan ook fg moet toepassen.
Mijn vermoeden zijn dus correct, dat het juist averechts werkt als je systeem al moeite heeft om een game op 60FPS te laten draaien.
Stel zonder FG haal je maar 30fps. Maar doordat je frames genereert op basis de huidige frame en de volgende frame, komt de eerstvolgende 'echte' frame dus nog later aan dan dat die meteen weergegeven wordt. Omdat dus eerst die fake frame moet gegenereerd en weergegeven worden.

Met andere woorden het zal er vloeiender uit zien dan 30fps, maar de delay zal aanvoelen alsof je op 20fps speelt.
Zolang als die delay onder de 100ms zit valt dat echt niet op voor de meeste.
De gemiddelde reactiesnelheid van mensen is ongeveer 200ms. (lager voor jongeren en mannen) Daar 100ms bij doen lijkt mij echt wel merkbaar voor de meeste mensen.

Er zijn namelijk genoeg mensen die het verschil tussen 30 en 60FPS merken, wat slechts een verschil is van 16,7ms

[Reactie gewijzigd door Robbedem op 5 mei 2024 09:10]

Dat is appelen en peren : visueel is dir sneller te zien dsn qua reactie.

Het is trouwens eerder 250 ms , goede rond de 200 ms . Tel daarbij al de andere latency ende extra latecency van frame generation (20-40 ms) valt weinig op.
Precies dit dus. Daarbij zijn er genoeg games waar text, logos, hekwerk en andere kleine details veel duidelijker zijn zelfs dan native. Mits het goed toegepast wordt. Echt idioot ziek hoe sommige games van 40fps onspeelbaar, naar 80 a 90 fps gaan door iets aan te vinken op 4k. Vette techniek.
Absoluut. En het wordt steeds beter! DLSS 2 quality mode is nu vergelijkbaar met DLSS 3 op balance mode. Dus weer een gratis performance. Ik zit nu 4 jaar op mijn 3080 en 4k en zit absoluut nog niet aan een upgrade te denken. Vroeger deed ik dat om de 2 jaar.
Oh, en daar komt nu nog FSR framegen bij via een DLSS 3 mod. Lang leve AI.
Mensen nemen totaal ook niet mee in hun oordeel dat develoeprs al super veel faken en qua rendering om tot een resultaat te komen. Reflecties worden al decenia door hacks als screen space reflections, cube mapping etc afgehandeld in plaats van echte reflecties.
Zal wel aan mij liggen maar ik vind DLSS blurry op 4K ondanks Quality, de enige setting die redelijk is wordt DLAA genoemt.

En frame-gen al helemaal, het ziet eruit als hoge fps maar voelt hetzelfde als lage fps(frame-time,s schieten door het dak), geeft gevoelsmatig behoorlijk lag.

Het zijn leuke technieken maar ik gebruik het nooit om die reden.
Om die reden game ik voorlopig nog mooi door op een 1440p monitor met de 4080 zodat alles op ultra kan.

[Reactie gewijzigd door mr_evil08 op 4 mei 2024 21:18]

Is per gamer verschillend.

Onderstaande rijtje gaat bij mij meestal uit want ik hou van scherpte, enige van DLSS wat ik gebruik is DLAA.

ambient occlusion
Motion blur
Bloom
Chromatic abberation
Depth of field
Lens flare
Dus het is voor de meesten een hell om de game draaiende te krijgen?
Dat valt bes5 wel mee, medium moet prima te doen zijn voor de meeste.
Wellicht voor sommige tussen medium en recommend haalbaar is, very high zal wellicht niet weg gelegd zijn voor de meeste.
Ik denk dat jij denkt dat er veel mensen zijn die een RTX2070 of hoger hebben, ik denk dat dat enorm tegen zal vallen. De meeste die ik ken hebben een 2060(super) of nog een 1060/70.
En daarom accepteren we N=1 niet als data.

https://store.steampowere...e-Survey-Welcome-to-Steam

Uit de top 10 zijn er "maar" 4 een 10/20-series.

NVIDIA GeForce RTX 3060
5.55%-1.16%
NVIDIA GeForce GTX 1650
4.20%+0.25%
NVIDIA GeForce RTX 3060 Ti
3.59%-0.34%
NVIDIA GeForce RTX 2060
3.50%-0.48%
NVIDIA GeForce GTX 1060
3.39%-0.21%
NVIDIA GeForce RTX 3070
3.38%-0.48%
NVIDIA GeForce RTX 3060 Laptop GPU
3.35%+0.39%
NVIDIA GeForce RTX 4060 Laptop GPU
2.77%+0.49%
NVIDIA GeForce RTX 3050
2.67%+0.26%
NVIDIA GeForce GTX 1050 Ti
2.40%+0.06%

[Reactie gewijzigd door TV_NERD op 4 mei 2024 15:49]

Hoewel er zeker "veel" mensen met een rtx2070 of hoger zijn, bevestigt deze data ook dat er veel mensen dat niet redden.
Een rtx 3060 zal in veel gevallen niet beter presteren dan een rtx2070, dus die is een twijfel geval. Net als de 4060 laptop. Maar los daarvan zijn de nummer 2, 4, 5, 7, 9 en 10 meeste gebruike gpu's langzamer dan de 2070.
Alleen de nummer 3 en 6 uit de top 10 zijn echt sneller.
Het grappige is dat een GTX 1080 meer raw power heeft dan een RTX 2060 en RTX 2070. Sterker nog, de GTX 1080 zou zelfs tussen een RTX 3060 en RTX 3070 liggen. Alleen kwa nieuwste technieken zoals Ray Tracing en upscaling technieken valt natuurlijk de GTX serie's volledig door de mand.

Een RTX 3060 zal inderdaad niet beter presteren dan een RTX 2070 inderdaad. Sterker nog, volgens Userbenchmark zou een RTX 2070 zelfs 4% hoger scoren.

Wat iedereen doen heeft verbazen en waar veel mensen over boos zijn geworden is dat een RTX 3090 waar mensen één jaar tot anderhalve jaar op hebben moeten wachten, een slechtere kaart kregen voor meer geld dan een RTX 4080.

Mensen vergissen soms in de GPU serie's. De xx50, en xx60 zijn de instap modellen, de xx70 de midrange en xx80 en xx90 de high end. Wanneer je nu een RTX 4080 koopt, zal pas de instap modellen bij de 7000 serie's pas de high end van nu evenaren.

Kortom een high end kaart van 2016, kan kwa performance de meeste kaarten uit deze lijst eruit duwen. Alleen kwa nieuwste technieken zoals upscaling zit niet op een GTX serie's. Maar kwa raw power, duwt een high end kaart uit 2016 nog de meeste weg uit deze lijst. Alleen tegen de RTX 3060 ti en de RTX 3070 kan de GTX 1080 niet tegen op boksen.

[Reactie gewijzigd door Toonen1988 op 5 mei 2024 00:14]

1080 tussen 3060 en 3070?

Eerder een 3060 dan maar enigszins een 3070.

Ik ben ten tijde van de gpu crisis naar een 3070 gegaan vanaf een 1080 en het verschil was behoorlijk groot.

Toen van een 3070 naar een 3080ti en weer een gigantische jump.

Moet er wel bij vermelden dat dit op 2k is en de gpu's altijd gepaard zijn met i7 cpu's of beter.

De betreffende game waarvoor ik altijd upgrade is de battlefield reeks en daar ging het toch wel met minimaal 50% omhoog vanaf een 1080 naar 3070 waarbij het stroomverbruik met een kleine undervolt nagenoeg hetzelfde bleef.


Ik moest even verifiëren via gamebenches op youtube maar de 3060 is in vele spellen sneller dan een 1080.....

Ik denk dat je je vergist met de 1080ti welke substantieel sneller is.

[Reactie gewijzigd door TRAXION op 5 mei 2024 00:28]

Daarom zeg ik GTX 1080 zou zelfs tussen een RTX 3060 en RTX 3070 liggen. Wat dus betekent, beter dan een 3060, maar slechter dan een RTX 3070. :9

Het klopt, het ligt meer tegen de RTX 3060 aan kwa performance. Maar het is gewoon even als grove indicatie.
Als je graag op de pc gamed ja dan wel, dan zal je nu toch onderhand een 20 serie moeten hebben.
Met een 10 serie ga je het gewoon niet meer redden, je hoeft echt geen 4080ti te kopen ofzo maar een 20 of mocht je geld hebben 1 in de 30 serie heb je nu wel nodig.
De 1080ti en de 5700xt kunnen toch met realistische settings nog aardig mee op 1080p60 volgens recente videos van Hardware Unboxed en Gamers Nexus.
Forbidden West doet zelfs high settings op de 5700xt van mij.
Ik vind het bijzonder hoe lang het blijft leven dat RTX super nieuw is en dat nog haast niemand dat heeft. RTX 20 (Turing) word eind dit jaar alweer 6 jaar oud! Traditioneel gezien zitten ze nu aan het eind van hun levensduur. Althans, wat de nieuwste games betreft.

[Reactie gewijzigd door Wolfos op 4 mei 2024 17:18]

Dat valt bes5 wel mee, medium moet prima te doen zijn voor de meeste.
Medium (1080p) vereist behoorlijk wat rekenkracht en de Steam hardware Survey geeft aan dat ongeveer een derde van de Steam gamers voldoet aan die minimale eisen voor Medium (1080p). Dat is verre van de 'meeste'.

Ervan uitgaande dat een 3060/4060 beter presteert dan een 2070.

Na de laatste flop van Ninja Theory, Bleeding Edge, zou het me geheel niets verbazen dat ook deze game flopt. Want kennelijk hebben ze niet geleerd van EA's Immortals of Aveum en wat onrealistische hardware requirements betekenen voor de sales...

Bron:
https://store.steampowere...e-Survey-Welcome-to-Steam
review: Nvidia GeForce RTX 4060 - De kleinste chip voor de grootste doelgroep
Waarbij ze van native rendering uit gaan. Gooie er een leuke AI saus over heen en het kan nog best wel eens draaien. Maar goed 21 mei weten we het zeker.
Ik vind de systeemeisen erg meevallen. Prima te draaien op elke redelijk moderne pc.
Het punt is dat de meeste mensen/gamers geen 'redelijk' modern systeem hebben. En wat jij en ik 'modern vinden, kan heel verschillend zijn. 5+ jaar doen met een machine is niet heel ongekend. En een 2070 5 jaar geleden was gewoon ~€550, dat waren enorme prijzen toen... Toen de 3060 uit kwam was deze verre van betaalbaar en 4060 kaarten hebben nu een prijskaartje wat vroeger aan een 970 hing...

Wat voor mij een goede benchmark is voor redelijkheid, draait het op low 720p op een Steam Deck? If not, you have a performance problem. Wil je het op 8k 240fps spelen op drie 4090s, be my guest, maar zorg er voor dat je game fatsoenlijk speelbaar is op bijna alle hardware, anders loop je legioenen potentiele klanten mis!

En of wat men stelt als minimum eis ook daadwerkelijk de realiteit is, moeten we nog maar zien, bij de eerste Hellblade waren er ook behoorlijk wat performance issues...
Zou deze eens doornemen:
https://store.steampowere...e-Survey-Welcome-to-Steam

Ja, de meeste gamers die AAA games op hun PC spelen (belangrijke onderscheiding) zullen deze game gewoon kunnen draaien.
Het is niet zo dat mensen videokaarten kopen en dan gaan zitten wachten tot games er eens gebruik van gaan maken. Het werkt andersom. Mensen kopen een nieuwe videokaart als de games die ze willen spelen dat vereisen.

En als je een Steam Deck gekocht hebt met de indruk dat je de allernieuwste games gaat spelen dan ben je niet goed voorgelicht.

[Reactie gewijzigd door Wolfos op 4 mei 2024 17:25]

En als je een Steam Deck gekocht hebt met de indruk dat je de allernieuwste AAA games gaat spelen dan ben je niet goed voorgelicht.
Fixed. Veel nieuwe spellen draaien prima op de Deck. Er komen voldoende spellen uit die grafisch niet het maximale nodig hebben en/of die wel goed geoptimaliseerd zijn.
De bottleneck is voornamelijk bandbreedte en daar lopen indie games ook weleens tegenaan. Slime Rancher 2 en Sons of the Forest draaien bijvoorbeeld ontzettend goed op desktop PC's maar Steam Deck heeft moeite met beide. Dit komt omdat een desktop GPU minimaal iets van 300GB/s aan bandbreedte heeft, en de Steam Deck maar 88.

Het is niet zozeer dat ze niet goed geoptimaliseerd zijn, ze zijn alleen niet geoptimaliseerd voor handhelds.

[Reactie gewijzigd door Wolfos op 5 mei 2024 12:06]

Is dat zo? Ik merkte niet echt problemen met SR2?

En wat ik van andere online kan vinden is het ook best prima:
https://www.protondb.com/app/1657630?device=steamDeck
https://steamdeckhq.com/game-reviews/slime-rancher-2/

Uiteraard, heb ik standaard mijn verwachtingen bijgesteld naar beneden.
En in vergelijking met een desktop, zal de desktop uiteraard het beter doen.
Low @ 1080p raadt een GTX 1070 (8 jaar oud) en i5-8400 (7 jaar oud) als minimum spec. aan.
De xbox series S zal waarschijnlijk hetzelfde doen als deze configuratie (of misschien zelfs ietsjes beter).
Dus als je hebt nog de mogelijkheid om hiervan te kunnen genieten mits je systeem niet zou voldoen en een upgrade te duur zou zijn. Series S met 3 maanden gamepass heb je zo gehaald voor 280 euro.

Stel je PC’s CPU voldoet al aan de sys. requirement dan zou een AMD RX6600 met 8GB is ook te vinden voor 199 euro, volgens TPU is het ongeveer gelijk aan de RTX 2070; https://www.techpowerup.c...n-rx-6600-fighter/30.html
Op 720p medium moet wel lukken :+
Nee hoor, dit is 4k native.
Met lagere kaarten en dlss e.d. gaat dat prima werken zolang de game goed geoptimaliseed is.
Medium is goed te doen. En een mix tussen high medium, low, waarschijnlijk ook.

Tweaken noemen ze dat.
Hmmm heerlijk zo'n diagram zonder een FPS target :p.
Ik ga er van uit dat het 30FPS, gezien de series X tussen medium en recommended zit (spec-wise) en dat zal met dynamic resolution en 30 FPS target spelen.
Die 30fps zou wel eens kunnen kloppen, maar onder de tabel staat dat je met verschillende upscalers betere resultaten kan krijgen, dus dat lijkt te suggereren dat de tabel zonder upscaling is.
Ooh native ultrawide ondersteuning.. en play anywhere titel, gelukkig geen keuze dus maken of ik voor PC of Xbox versie moet gaan.
Het is ultrawide only. Anders letterbox. Wtf toch? Verwachten ze soms dat wij in de cinema gaan gamen? |:(
Ik kijk hier al lang naar uit! 4k 120 zal het niet worden op de 7900xt, maar wellicht brengt fsr3 (eindelijk) wat!:D Hopelijk is ie een beetje stabiel wanneer die uitkomt, want ik overweeg gamepass voor enkel deze game :)
Ik kan toch de enige niet zijn die denkt : “doe eens wat meer moeite !”.

Hoeveel pareltjes werden er in het verleden niet gemaakt met maar enkele KB’s aan beschikbaar geheugen. Als je bekijkt hoe ze bv op de N64 en PS1 creatief moesten programmeren, om de beperkingen van een systeem moesten heen werken, en toch vloeiende 3D beelden op het scherm konden tonen

Programmeren was een Kunst met grote K. Nu lijkt het allemaal wel “eenheidsworst” , we nemen “off-the-schelve” engine en gooien er een pak textures tegenaan, consument koopt toch wel nieuwere hardware |:(
Nee je bent helaas vast niet de enige die dat denkt zonder daar ook maar enige onderbouwing voor te hebben...

Dit lijkt een game te worden die grafisch enorme indruk gaat maken. Het is nog even afwachten of het eindproduct de beloftes waar kan maken natuurlijk, maar nu al roepen dat ze er geen moeite in zouden stoppen alleen omdat ze zeggen dat je voor de hoogste settings op 4K een 4080 nodig gaat hebben (wat ik niet heel gek vind eigenlijk), slaat nergens op.

Maar het staat je vrij om andere games te kopen. Er zijn meer games dan ooit tevoren, vooral praktisch ontelbaar veel indie games die gemaakt zijn door kleine teams of zelfs door iemand alleen, net zoals in die tijd die jij beschrijft.
Nou geen onderbouwing ? Het feit dat er meestal off the shelve engines worden gebruikt geeft mij al aan dat er minder moeite wordt gestopt in het programmeren naar de “beschikbare hardware”.

Je kan toch moeilijk ontkennen dat de meest developers nauwelijks nog kaas hebben gegeten van rechtstreeks tegen de hardware programmeren. Assembler, is dat zelfs nog een vak tijdens de opleiding ? Ik geef toe ik herinner mij het ook nog maar vaag van tijdens de opleiding, maar toch.

Hieronder een video met hoe het er 20 jaar geleden aan toeging.

YouTube: Why the limitations of the N64 and PS1 mattered
Ik weet het, ik ben zelf opgegroeid met de Commodore 64 en nog assembly geleerd... Maar als je verwacht dat dat nu nog gebeurt dan heb je volgens mij echt geen benul van wat er komt kijken bij het maken van een hedendaagse game. Engines zijn tegenwoordig zo groot en complex dat je eigen engine schrijven voor één game meestal gewoon echt geen optie is. En in assembly schrijven is nergens voor nodig (compilers en interpreters zijn heel goed geworden, het is echt niet meer als basic vs assembly vroeger) en eigenlijk ook gewoon effectief onmogelijk op de schaal waarop nu gewerkt wordt.
Je kan toch moeilijk ontkennen dat de meest developers nauwelijks nog kaas hebben gegeten van rechtstreeks tegen de hardware programmeren.
Game devs zouden gestoord zijn om tegenwoordig nog in assembler te programmeren. Je weet van te voren niet welke features de CPU, GPU en de rest van het systeem heeft waar de software op gaat draaien. En je kunt moeilijk je code voor 1000en combinaties van hardware optimaliseren. Daarnaast is het dev-proces niet te overzien als je een moderne game in assembly maakt. Er zijn zoveel features in een game en er werken zoveel mensen aan dat assembly niet te managen is. Je kan dat soort projecten niet doen zonder een hogere taal.
Zelfs op consoles wordt het al een paar generaties amper meer gedaan.
YouTube: Why the limitations of the N64 and PS1 mattered
Nostalgische nonsense.
Ik weet 100% zeker dat als er in die tijd een console uitkwam met huidige mogelijkheden (met de daarbij horende ontwikkeltools) dat niemand meer naar de PS1 of N64 zou kijken. De kwaliteit van de games heeft niks met de beperkingen te maken. Ik vind bijvoorbeeld het overgrote deel van PS1 en N64 games best wel bagger. Altijd al gevonden. En de games die ik goed vond/vind kunnen meestal alsnog betere graphics en/of geluid gebruiken.
En verder verkocht de PS1 een heel stuk beter dan de N64. Waarom? Omdat de N64 aanzienelijk minder krachtig was. Dat terwijl de beperkingen van de PS1 toen ook al duidelijk waren. Maar er was niks beters op de markt.
Dat je nu geen assembler meer gaat programmeren dat lijkt me logisch , maar nu kiezen ze gewoon een engine en liefst eentje die meteen op alle platformen werkt. Is een developer heden ten dagen nog wel in staat om een eigen “engine” te maken. We zijn nu wel helemaal naar het andere eind van het spectrum afgedwaald, tot het niveau … ik wil er zelfs niet over nadenken.

Stiekem hoop ik eigenlijk terug op een console met eigen hardware, eentje op performante applesillicon ofzo , zou een boost kunnen zijn voor nieuwe engines.

Dromen mag :*)
Stiekem hoop ik eigenlijk terug op een console met eigen hardware, eentje op performante applesillicon ofzo , zou een boost kunnen zijn voor nieuwe engines.
Apple silicon zou dan geen eigen hardware zijn, tenzij het een apple console wordt. Maar denk niet dat apple dat wil. Veel te gewoon.

En het zou geen boost zijn voor een nieuwe engine. Wat zou volgens jou niet mogelijk zijn met huidige (zelfs off-the-shelve) engines? Volgens de industrie zelf is er in ieder geval wel genoeg processing power. Het meeste geld gaat tegenwoordig naar de mensen die de artwork produceren. Een 'betere' engine zal er dus alleen maar voor zorgen dat je meer artwork nodig hebt en dat de games dus duurder worden om te maken. En dat heeft niks met de engine te maken..

Anyway, droom maar lekker verder. :D
Nieuwe hardware, dus geen intel, amd, nvidia, geeft altijd nieuwe inzichten en mogelijkheden. Bedenk al eens hoeveel koeler alles zou draaien met iets als apple sillicon.

En. At de industrie betreft ,… t’ja die kiezen de weg van de minste weerstand geen moeite doen, maximaal rendement

[Reactie gewijzigd door klakkie.57th op 5 mei 2024 13:55]

Eeh, je had het over nieuwe game engines en nu kom je met warmteontwikkeling?.,. |:(
Volgens mij weet je niks te verzinnen wat beter kan zijn aan een gameengine. Is ook niet zo makkelijk omdat de grote game engines tegenwoordig extreem veel kunnen en extreem flexibel zijn. En eerlijk gezegd denk ik ook dat je geen idee hebt wat een typische game engine allemaal doet anders had je dit soort fantasieen niet gehad.

Verder is het zo dat iedereen nu ook gewoon een eigen engine kan schrijven voor willekeurige hardware. Het is alleen enorm veel werk en dus doet bijna niemand het. Je hebt wat indie devs die kleine engines maken, vooral voor 2D. En je hebt wat grote bedrijven die een high-spec in-house engine maken die ze hergebruiken. Maar die zijn over het algemeen niet beter dan de engines die je in kunt kopen, zeker als je op meerdere platformen wilt uitbrengen.
Maar uiteindelijk zijn de engines al lang niet meer de beperkende factor. De beperkende factoren zijn creativiteit en tijd/geld.
Misschien best eens de eerste reacties lezen, het gaat er net om dat ze steeds hogere hardwareisen hebben en niet meer innoveren om het met beperkte hardware beter te doen … maw betere gameengine.

Bij mij staat warmteontwikkeling beperken met stip op de eerste plaats. Huidige generatie consoles zijn gewoon “kachels”.

[Reactie gewijzigd door klakkie.57th op 5 mei 2024 14:46]

Misschien best eens de eerste reacties lezen, het gaat er net om dat ze steeds hogere hardwareisen hebben en niet meer innoveren om het met beperkte hardware beter te doen … maw betere gameengine.
Je praat maar wat. Die commerciele engines zijn supperefficient in wat ze doen.
De PS1 verkocht een stuk beter omdat deze op volwassenen was gericht, met edgy marketing. En omdat deze CD’s gebruikte. Meer content, erg indrukwekkende video’s en als klap op de vuurpijl een stuk makkelijker te kopiëren dan een cartridge van de N64.

De N64 was in alles sterker en beter, behalve audio en de hoeveelheid content die een game kon bevatten.
De N64 was in alles sterker en beter, behalve audio en de hoeveelheid content die een game kon bevatten.
LOL. Boute uitspraak. Op papier mischien (en dan enkel in sommige opzichten), maar in de praktijk totaal niet. Nintendo heeft zn console gewoon zonder enige hinder van kennis samengesteld. Ze hebben er features ingestopt waar je gezien de rest van de hardware gewoon geen zinnig gebruik van kon maken.

Zie deze voorbeelden.
F-Zero X op N64:
https://www.youtube.com/watch?v=HrEa_EFHHgA
Wipeout 3 op PS1:
https://www.youtube.com/watch?v=ko7xLisVs5c

Beide games kwamen rond 2000 uit. Dat was een tijd waarin developers de desbetreffende consoles binnestebuiten kenden en dus alle truuks konden toepassen.
Het verschil is immens. N64 heeft al moeite om de weg te renderen, De PS1 gooit er ook nog complete getexturede omgevingen tegenaan. Het is niet eens te vergelijken.

Ik zou zelfs willen beweren dat Wipeout 1, die al in 1995 uitgekomen was, er beter uitzag dan deze F-Zero X van 5 jaar later.
En zo zijn er meer PS1 games die de vloer aanvegen met de N64. In ieder geval qua graphics. Kijk bijvoorbeeld naar de Grand Tourismo games. Geen enkele N64 die daarbij in de buurt komt.
Muah, engines passen tegenwoordig best wel wat trucage toe om mooiere beelden op je scherm te tonen dan eigenlijk mooier zou moeten zijn. Realtime raytracing is bijvoorbeeld echt onmogelijk zonder de shortcuts die tegenwoordig genomen worden. Dan heb je ook nog Nanite en Lumen in UE5, wat ook voor dingen zorgt die zonder shortcuts simpelweg niet mogelijk zijn. Werken met hero-models en zonder LOD's, en realtime global illumination vergt echt veel meer grafische kracht dan we nu eigenlijk hebben, tenzij er systemen zijn onder de motorkap die trucage uithalen.

Sure, je kunt zelf je engine schrijven, maar er is bijna niet op te boksen tegen wat er al beschikbaar is. Het is nu ook vele malen complexer dan het ooit was in de 90's.

'en toch vloeiende 3D beelden op het scherm konden tonen'
Weet je hoeveel 3D games vroeger de 30fps niet eens consistent haalden met regelmatige drops naar de 20 of 15fps? :+ Er waren 60fps-games, maar dat was verre van de norm.
Tegenwoordig zijn ze lui. Kon me ook games herinneren. die zagen er net zo goed uit als een nieuwere game, maar de eisen waren veel hoger..
Lui? Ik denk dat de meesten meer uren draaien dan jij en ik. Crunch is echt een ding in de business. Ok vervolgens gerust aan de kant geschoven te worden zonder rechten, want de meesten werken niet in Nederland.

Nee. De enkele reden is dat scope en complexiteit hun tol vragen en het budget eindig is. Als een spel tien jaar kost om te maken werkt het immers ook niet. En niet iedere uitgever heeft het budget er twee keer zoveel mensen tegenaan te gooien. Soms is het goed genoeg of moet men gewoon keuzes maken.
Ik vermoed dat je "luiheid" bedoelt, maar volgens mij is het eerder "hebzucht" van managers.

Dat gezegt zijnde, ga ik m'n i5 wisselen voor een N100. een 65W TDP voor een 6W TDP en ik ga er op vooruit, dus waarom zou je tijd & enrgie steken in "optimalisatie" ? Wacht een generatie of 2/3 en je kunt alles spelen met basis stuff.

De beste games (imho) zijn niet per definitie gemaakt door de beste "programmeurs", maar door de beste "creative minds".
Das wel erg cru wat mij betreft.
Dit is toch gewoon evolutie?

Je gaat jouw comodore kunsten toch ook niet vergelijken met mainfraimes van weleer?

Omdat alles geavanceerder wordt is er ook meer rekenkracht nodig.

Maar het klopt wel dat het niet heel best geoptimaliseerd is voor oudere hardware.
Maar is die evolutie altijd ideaal ? Het is gewoon een skillset die men niet meer beheerst. Je ziet dit ook bij gewone applicaties werkt het traag , dan gooit men er gewoon wat extra resources tegenaan. “Vroeger” was het gewoon een erezaak om het onderste uit de kan te halen, geen idee waarom we dat verleert hebben. Je zou net verwachten dat onder druk van zaken als milieu we net spaarzamer zouden gaan omspringen met beschikbare resources.
Er is niks verleerd, je herrinert je het gewoon niet goed. Vroeger kon je iedere twee jaar een nieuwe videokaart kopen voor de nieuwste games, anders kreeg je gewoon een crash bij het opstarten. De minimumeis van Half Life 2 is een videokaart die een halfjaar eerder uitkwam :+

Je gaat nooit iedereen tevreden stellen. 3D games hebben altijd target hardware, en sluiten dus altijd wel iemand buiten. Dat is nooit anders geweest. Wat wel anders is, is dat alles een stuk schaalbaarder is en je nu zelfs met veel oudere hardware de nieuwste games kan spelen zoals die 10 jaar oude GTX 1070 uit de systeemeisen.

[Reactie gewijzigd door Wolfos op 5 mei 2024 12:31]

Wat een rare en verwarrende manier om de minimale hoeveelheid VRAM er nog apart onder te zetten?

Er is immers geen enkele kaart met minder dan 16GB Vram welke het prestatieniveau van een 4080/7900XTX haalt, net als eentje met minder dan 10GB welke op het niveau 3080/6800XT zit.

@starfight
Een 2060 is altijd een 6GB kaart (of ik moet een of ander obscuur OEM of China-only model over het hoofd zien :+ ) Mogelijk ben je in de war met de 1060 welke met 3,5 en 6GB geleverd is, maar deze zit ongeacht de hoeveelheid geheugen natuurlijk sowieso al fors onder de minimale aangeraden 1070.

Mijn punt is dat met deze specifieke systeemeisen dan ook dat alle kaarten welke minimaal het prestatieniveau van de aangeraden kaarten halen per categorie halen per definitie al voldoen aan de gevraagde hoeveelheid Vram. Vandaar redundant, als jij kijkt naar hoe jouw kaart presteert t.o.v. de referentiekaarten hier dan weet je in welke categorie die valt want die hoeveelheid Vram heb je gegarandeerd wel.

Als het nu andersom zou zijn en er in de systemeneisen RTX3060 + minimaal 10GB zou staan is het natuurlijk wat anders en een zinnige toevoeging, dan is het expliciet duidelijk dat een RTX3070 die instelling mogelijk niet gaat trekken ondanks dat het normaliter wel de snellere kaart is.

[Reactie gewijzigd door !mark op 4 mei 2024 14:13]

Omdat niet iedereen letterlijk deze kaarten heeft, maar iets vergelijkbaars, waar de hoeveelheid vram kan verschillen.
Bijvoorbeeld een 3060 of 4060 welke beiden niet in de tabel staan.
Of een 2060 die zowel in 3, 4, 6 en 8gb vram bestaat.
Zo kan je een afweging maken of je ermee op minimum of medium mee zou kunnen spelen

[Reactie gewijzigd door starfight op 4 mei 2024 13:29]

Of een 2060 die zowel in 3, 4, 6 en 8gb vram bestaat.
Fout.
De 2060 maakt gebruik van een TU106 of TU104 en heeft een geheugenbusbreedte van 192 bits. 192÷32=6. Voor de leken onder ons: dit houdt in dat er zes (of twaalf in clamshell mode) geheugenchips gebruikt worden.
Een 4 GiB 2060 zou gebuik moeten maken van zes 5.3̅ Gib IC's, welke natuurlijk niet bestaan. Op dezelfde manier is het onmogelijk een 2060 te creëren met 8 GiB VRAM.

Verder kan ik in de TechPowerUp GPU databse uberhaupt geen Turing kaart vinden met 3 GiB VRAM, laat staan een 2060.

Dus je kunt 3, 4 en 8 van je lijstje schrappen en 12 toevoegen, want er bestaan enkel 6 en 12 GiB versies van de GTX 2060.

[Reactie gewijzigd door DvanRaai89 op 4 mei 2024 20:56]

Ik ging gewoon uit van dit artikel:
nieuws: Nvidia GeForce RTX 2060 lijkt varianten met 3GB, 4GB en 6GB te krijgen

Ik weet dat er een kaart is welke in 3/4 geheugenopstellingen bestaat (kan ook zelfs 1060 oid zijn) maar ik wou geen deep dive gaan doen om de juiste te vinden als mijn uiteindelijke punt van "niet iedereen heeft deze exacte kaarten en kan daarmee afleiden wat wel of niet kan" hetzelfde blijft
Nvidia: “Hold my beer”
Er is immers geen enkele kaart met minder dan 16GB Vram welke het prestatieniveau van een 4080/7900XTX haalt, net als eentje met minder dan 10GB welke op het niveau 3080/6800XT zit.
Dat is nu waar, maar eind dit jaar is er een nieuwe generatie: dan sta je daar misschien met je 5070 en 12GB RAM: welke settings kan je dan draaien?
Prima zo, ik lees al vaker dat de graphics er mooi uit zien, waardoor ik al dit soort specs verwachtte.

Verschijnt het ook voor gamepass op de pc? Of is het alleen op xbox beschikbaar?

[Reactie gewijzigd door Orangelights23 op 4 mei 2024 13:23]

Yes op dag 1 al beschikbaar met Gamepass.

[Reactie gewijzigd door slamhk op 4 mei 2024 13:24]

Anoniem: 2080528
@slamhk4 mei 2024 15:44
Yes op dag 1 al beschikbaar met Gamepass.
Om 10:00 uur om precies te zijn, althans zo geeft de store van MS het aan _/-\o_
Ook op pc in dit geval? Toen ik nog GP had, weet ik nog dat het niet altijd duidelijk was of het pc en/of console was.
Beide versies hebben first party games vanaf release day. 3th party kan inderdaad verschillen.

[Reactie gewijzigd door loki504 op 4 mei 2024 20:18]

Anoniem: 2080528
@Orangelights234 mei 2024 19:29
Geen idee, wellicht gaan ze tegelijk live.


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee