Jedec legt GDDR7-geheugenstandaard vast, tot dubbele bandbreedte van GDDR6

Jedec heeft de JESD239 GDDR7 Sgram-standaard gepubliceerd. Dit type geheugen is gericht op grafische kaarten en AI-accelerators, die begin 2025 worden verwacht. GDDR7 moet in staat zijn om een bandbreedte van 192 GB/s per 'apparaat' te behalen, het dubbele van GDDR6.

Deze hogere snelheid wordt mogelijk gemaakt door het gebruik van pulse amplitude modulation. De PAM3-interface gebruikt met +1, 0 en -1 drie verschillende niveaus om drie bits te versturen per twee cycli, ten opzichte van twee bits per twee cycli in het geval van de traditionele non-return-to-zero-interface.

De standaard biedt ook andere nieuwe features. Zo moet de accuraatheid van training worden verhoogd terwijl de trainingstijd tegelijkertijd afneemt. Daarnaast wordt de hoeveelheid onafhankelijke kanalen verdubbeld van twee bij GDDR6 naar vier bij GDDR7. Wat de capaciteit betreft noemt Jedec 16 tot 32 gigabit, alsook ondersteuning voor een dualchannel-mode om de capaciteit te verdubbelen. Tot slot heeft de organisatie met oog op betrouwbaarheid ook features zoals foutcorrectie toegevoegd.

Verschillende grote partners zoals AMD en Nvidia hebben van het moment gebruikgemaakt om hun enthousiasme uit te spreken over de standaard. Wanneer de eerste producten met deze technologie op de markt zullen komen wordt echter niet vermeld. Volgens geruchten zal Nvidia de GB202-gpu koppelen aan GDDR7-geheugen. Tom’s Hardware verwacht deze producten rond begin 2025.

Door Idriz Velghe

Nieuwsredacteur

05-03-2024 • 21:26

48 Linkedin Whatsapp

Submitter: Balance

Reacties (48)

48
48
13
0
0
24
Wijzig sortering
Zucht continue uitstellen van het kopen van een nieuwe gpu, nu ik bijna de knoop eens heb doorgehakt komt deze info voorbij. Weer uitstellen en wachten heb ik niet echt veel zin in... Vaak genoeg gehad dat ik net nieuw spul koop en er al weer snel een opvolger is of al in de startblokken stond. Futureproof is blijkbaar onmogelijk.

[Reactie gewijzigd door dutchnltweaker op 5 maart 2024 21:51]

Het is gewoon een nieuwe standaard. Productie duurt echt nog wel even. Kaarten nu zijn sterk genoeg dat ze nog wel een paar jaar mee gaan hoor
Dit is nooit een argument want dan zou de techniek stil komen te staan.

Geheugen zal steeds sneller moeten worden om weer opnieuw next-gen prestaties te kunnen leveren. Wat ik wel voel of denk is dat het ooit op zal houden.

Omdat GPU technologie zo snel gaat, gaan spel developers hun games minder snel optimaliseren wat geld bespaard en hier zie ik een zuiver spagaat.

Beide kampen moeten een duit in het zakje doen en dan is je toekomst voor beide partijen gebaad.

Kortom zal er meer harmonie moeten komen tussen spelontwikkelaars en videokaarten makers. Dan pas zal deze techniek volop benut kunnen worden.

Sowieso goed nieuws
Dit is nooit een argument want dan zou de techniek stil komen te staan.
Het is een argument waarom @dutchnltweaker niet persé moet wachten op GDDR7 om een nieuwe kaart te kopen. Een perfect geldig argument, want net omdat techniek niet stilstaat is het onmogelijk om te wachten tot men klaar is met ontwikkelen.
Tegen dat de GDDR7 kaarten op de markt komen (en betaalbaar zijn) is de aankondiging van GDDR8 daar al. Men is waarschijnlijk al bezig met de grondlegging ervan.
Dit is nooit een argument want dan zou de techniek stil komen te staan.
De techniek komt stil te staan als je je aankoop uitstelt? :P Nog los van dat je @dutchnltweaker wel erg veel invloed op de markt toeschrijft is het natuurlijk juist andersom. Als consument meer geld investeren betekent meer reden om die koopgekte te stimuleren met meer aanbod.

Nu al je aankoop gaan uitstellen omdat er een nieuwe GDDR-standaard is aangekondigd is absoluut zinloos omdat dit zeker nog een jaar gaat duren, als het niet veel langer is, en als je je aankopen uitstelt vanwege nieuwe dingen in het komende jaar kun je altijd wel je aankopen blijven uitstellen. Na GDDR7 heeft TSMC vast al weer 3nm voor GPU's klaarstaan, en daarna heeft NVidia weer iets nieuws bedacht. Nog los van dat die nieuwe dingen ook zinvol moeten zijn want pleur gewoon een wat bredere geheugenbus op je GPU en je hebt die hele GDDR7 niet nodig. Een hippe techniek is nog geen interessant product.
Sorry maar met de inkomsten van de AI markt denk ik niet dat nvidia zich heel erg druk maakt over het optimimalieren van games...
Nvidia maakt geen games
Waarom zou er minder geoptimaliseerd worden? Ik hoor dat vaak, maar is dat echt zo? Volgens mij is het juist zo dat engines en de rest meer geoptimaliseerd zijn dan ooit. Bepaalde snelle algoritmes die om de zoveel tijd beter worden, worden door devs ook echt wel geïmplementeerd. Denk aan culling, texture/object streaming, raytracing, physics en nog veel meer.
Jup ik denk ook dat optimalisatie juist beter gaat. Vooral Unreal engine lijkt hier op voor te lopen maar kan ook dat die gewoon het meest open zijn over hoe en wat ze doen.
Het is vaak eerder een keus/nalatigheid als de devs niet de optimalisaties effectief gebruiken maar dat is niet de schuld van de engines
Gewoon kopen wat je op het oog had. Tenzij je altijd het nieuwste van het nieuwste wil hebben, ga je waarschijnlijk veel plezier hebben met je aankoop. Die GDDR7 komt wel een keer. In de tussentijd heb je dan wel lekker genoten van je aankoop.
Er is doorgaans iedere 2 jaar een nieuwe generatie met 20-30% performance increase.
In de tussenjaren is er een refresh waarbij er meestal 5-10% performance wordt gehaald.
De RTX 40-series heeft net de refresh achter de rug.
Eind van dit jaar / begin volgend jaar staat de nieuwe generatie op stapel.
Netjes volgens planning.
Daarover gesproken: bij de podcast Broken Silicon van Moore's Law is Dead werd de verwachting uitgesproken dat RDNA 4 niet eens GDDR7 gaat gebruiken. Deze generatie willen ze snel uitbrengen en hier vooral focussen op goede prijs/performance en vanwege gebrek aan bedrijven die in eerste instantie deze chips kunnen maken zullen ze in eerste instantie (te) duur zijn.

Nvidia zal het de komende generatie waarschijnlijk wel hebben, maar waarschijnlijk dus wel duur.

AMD gaat dit pas in RDNA 5 inzetten, maar dat duurt waarschijnlijk tot iets van Q4 2025, dus dat is lang wachten.
Haal gewoon een nieuwe kaart. Als je wacht ga je alleen maar zitten wachten. Futureproofing gaat niet met hoe snel technologie vooruit gaat.

Koop een kaart, en dan als die niet meer genoeg performance levert voor jou, verkopen en nieuwe kopen.
Dacht ik ook een tijdje. Toen - 4 jaar terug bijna - de 2070S gekocht, uiteraard zijn er nu snellere, maar hij is nog steeds snel en renders gaan veel sneller dan op m'n oude computer ( ongeveer 48x zo snel).
Dan ga je op iets wachten wat al direct verouderd is. PAM-4 wordt al in GDDR6X toegepast, en deze standaard introduceert slechts PAM-3. Dat is dus maar een relatief kleine stap, bedoeld voor entry level / cost-sensitive GPUs. Als je dus een 4070 of hoger wilt kopen, is er met enkel dit bericht weinig op te wachten.

2025 duurt overigens ook nog eventjes. 2025Q4 kan ook nog 20 maanden duren.

[Reactie gewijzigd door Hans1990 op 5 maart 2024 23:14]

Mijn ervaring is dat de beste keuze vaak een x070 is die je dan na 2 jaar weer doorverkoopt en de nieuwe serie x070 voor haalt. Dus dat zou nu de 4070 super zijn (die prijstechnisch ook het meest interessant is in het Nvidia segment). En dan koop je over 2/3 jaar de 5070 (super) en verkoop je je 4070 super lekker door.
En als je voor AMD gaat? Zat te azen op de 7800 serie.
Gewoon kopen wat je nodig hebt, wanneer je het nodig hebt. Komt er een nieuw spel uit wat je echt wil spelen en is een upgrade nodig, dan gewoon doen. Is er een tijdje niets wat je wil spelen dan hoef je ook niets te upgraden. Wil je iets kopen dan kijken naar wat op dat moment het meeste geeft voor het minste geld.

Futureproof is sowieso niet echt een ding bij PC hardware. Wil je dat wel proberen dan geef je een hoop geld uit aan iets dat je niet nodig hebt. Tegen die tijd dat je het wel nodig hebt kan je het veel goedkoper krijgen.

Door te kopen wat je nodig hebt op het moment dat je het nodig hebt geef je altijd zo min mogelijk geld uit en geef je alleen uit wat nuttig is. Je kan soms prima meer dan 6 jaar met een GPU doen. In een ander geval koop je misschien na 2 jaar al weer iets nieuws. Ik koop altijd al alleen spullen wanneer ik het echt ga gebruiken en koop nooit iets voor de toekomst. Op die manier geef je het geld op de beste manier uit.

(Mijn meeste recente aankoop is een upgrade van een 1080Ti naar een 7900XTX. De nieuwe kaart heb ik 2e hands gekocht en mijn 1080Ti heb ik iets van 7 jaar gebruikt. In die 7 jaar was het prima met alles wat ik speelde. Toen kwam er een moment dat ik toch echt moest voor wat nieuwe games en dan maar gelijk iets goeds gekocht. Aangezien ik veel COD DMZ ging spelen heb ik nu een kaart die sneller is dan een RTX 4090 voor de helft van het geld. Geen idee wanneer de volgende upgrade er ooit eens komt. Het hangt volledig af van wat ik wel of niet ga spelen en wat nodig is. Vandaar dat de 1080Ti erg lang is mee gegaan.)
We zijn hier op tweakers dus het mag. Maar een xtx is niet sneller dan een 4090. Iets langzamer geheugen, minder compute cores en games die nvidia iets beter ondersteunen. Wel een goede kaart hoor. En good value for money. Maar meer vergelijkbaar met de 4080.
Bij COD DMZ met de nieuwste drivers op mijn resolutie is de 7900XTX sneller dan de RTX 4090. Ja, de RTX 4090 is bij vrijwel iedere andere game sneller, maar niet bij die game.
Ik zit op een AMD 6650 kaart. Het is nog steeds goed genoeg. De ontwikkelingen gaan zo snel, dat er niet futureproof te bouwen is.
Denk dat ik een jaartje langer meeloop dan jij <insert James Franco: First Time meme>

Het blijft je altijd achtervolgen. Nu lees je erover en weet je dat het eraan zit te komen, destijds (begin jaren 90) wisten we ook dat er ontwikkelingen aan zaten te komen. Vraag is, ga je dan 2 jaar op een houtje bijten omdat je weet dat het eraan komt, of doe je toch maar de huidige upgrade en maak je er gretig gebruik van.

Conclusie: Alles wat je vandaag koopt is morgen alweer achterhaalt.

Tevens, leuk dat de geheugenbandbreedte zoveel hoger is, maar wat brengt dit in FPS gewin of resolutie gewin? Blijven wachten op hoge verwachtingen :Y)
Heb met je te doen.
Je bent blijkbaar niet op de hoogte van de manier waar op de wereld werkt.
Wel lekker goedkoop voor je.
Wacht maar op de PAM64-interface, zal je goedkoper uitkomen als je dit nu uitstel...
Vaak genoeg gehad dat ik net nieuw spul koop en er al weer snel een opvolger is of al in de startblokken stond.
Tja...dat is toch nooit anders geweeest in computerland?
Het lijkt alsof de nieuwe GPU's van team blauw, groen en rood pas eind dit jaar op de markt komen. Dat is nog een flink eind wachten...
Geduld. Het kost je ook best wat geld. Huidige generatie GPU's stellen niets voor.
Volledig met je eens. Speel dit jaar games als Dave the diver, de originele FF7, Mario vs Donkey Kong in afwachting van de nieuwe generatie GPU's.

Nu nog een Arc, RX7800XT (kuch RX6800XT) of een 12GB Nvidia kaart voor 600€ kopen lijkt me niet de beste VFM. Maar nog een klein jaar wachten kan niet iedereen en er zijn veel mooie zware games uitgekomen afgelopen jaar.
Slecht nieuws, ze zijn al waarschijnlijk in een ver stadium voor GDDR8 en GDDR9 ligt waarschijnlijk al bij een klein team in een kinderfase… zo ook de volgende 3 verkleiningen van de chipsets van NVIDIA/AMD en hebben die al 3 generaties vooruit in verschillende stadia.

In ‘computerland’ geldt; zodra je het koopt, al is het net uit, is het al verouderd. En hoe langer jij uitstelt des te dichterbij de volgende release komt. Enige wat je er mee wint is een prijsdaling als je wacht.
Nu een rtx4000 serie kopen is miss niet het slimste. Sept/okt komt rtx5000 uit.
Gewoon nieuwe PC doen als er nieuwe generatie componenten is
Het heeft weinig zin om steeds te wachten op "the latest and greatest", elke keer als er weer een nieuwe technologie aangekondigd wordt. Kijk wat je op dit moment nodig hebt en kunt betalen, schaf het aan en heb er de komende tijd plezier van. Pas als de hardware echt niet meer mee kan met de nieuwste ontwikkelingen wordt het tijd om te kijken wat je er dan voor in de plaats kunt kopen.

Steeds weer uitstellen omdat er weer een nieuwe technologie aangekondigd wordt leidt er alleen maar toe dat je steeds verder gaat achterlopen en er zal toch altijd weer iets nieuws verschijnen op het moment dat de technologie waarop je gewacht hebt eindelijk beschikbaar is.

Doorbreek de wachtcycle en maak een keuze!
Koop wanneer je iets nodig hebt of een grote sprong in performance en/of efficiëntie maakt.

Voor mij is futureproofing niet de allernieuwste tech willen hebben, maar ik zie trends in gaming. In 2023 werd duidelijk gemaakt dat 8 cores en meer dan 8GB VRAM nodig is. Als het aan de game devs ligt, dan heeft iedereen 8 cores en 16GB VRAM.

Mijn 5800X3D en 6800XT zijn al futureproofed. In shooters zoals COD MV2, Warzone,... kan 6 Zen 4 cores niet 8 Zen 3 cores bijhouden. Bij Zen 5 kan dit verschil weggewerkt worden en Zen 6 kan het gebeuren dat mijn 5800X3D niet meer een goedkope hexacore kan bijhouden, dan wordt het tijd voor upgraden.

Voor een verdubbeling tov 6800XT kijk ik naar RTX 4090 performance en wanneer kan ik dat voor minder dan 600 euro krijgen? 2027?

De toegevoegde waarde van GDDR7 is dat de geheugenbus een maatje kleiner mag worden met behoud van performance. 128 bit GDDR7 kan je met 192 bit GDDR6 vergelijken en 192 bit GDDR7 is vergelijkbaar met GDDR6. Dan is het 16 GB aan 128 bit geheugenbus hangen, niet meer zo'n groot nadeel en 24 GB aan 192 bit geheugenbus wordt betaalbaarder.
Ach, nu kun je nog even sparen.

Futureproof is relatief. Je kunt slecht verwachten dat wat je nu nieuw aanschaft over een jaar of 4 nog steeds technisch vooruitstrevend is. Maar je kunt er wel op rekenen dat het de komende jaren prima voldoet. De ontwikkelaars lopen ook niet altijd mee met de laatste technieken.
Ik haal 386 fps met Cyberpunk 2077 op full hd. Op een AMD Rx 6650k Xt.
Weet iemand hoe lang het nog mogelijk blijft om de capiciteit te verdubbelen met elke upgrade van de standaard? is dit puur meer traces voor meer bandbreedte of kom je uiteindelijk tegen een muur te staan van maximale (nuttige) capiciteit, hoe moet ik dit zien?

alvast bedankt voor de moeite
Voor bedrade communicatie is (was) het vaak lonend om hele hoge bandbreedtes op te zoeken. Je hebt geen gedeeld spectrum zoals met RF, dus alle bandbreedte van DC t/m GHz'en is ter beschikking. Het moet natuurlijk wel CE/EMC compliant zijn, maar dat is vaak wel op te lossen door de signalen niet al te sterk te maken.

Dat betekent dat men jarenlang de klokfrequenties en/of breedte van bussen omhoog gooide. Maar bredere bussen kost geld (meer pinnen=meer ruimte, en meer PCB sporen/layers), dus zie je enkel op higher-end apparatuur met meer geheugenchips. Hogere frequentie wordt ook steeds moeilijker om over bvb FR4 PCBs te routen, want dat zwakke signaaltje begint dan toch wel erg veel verlies te krijgen.

Men is al tijdje geleden uitgeweken naar meerdere signaal niveaus. De conventionele representatie van "bits" als spanningen (line levels) heet NRZ-L signalling. Dwz , lage spanning is een 0, en hoge spanning is een 1. Zoiets heet een "symbool", en met NRZ-L heb je 1 bit per symbool geencodeerd. Bij PAM-3 worden er 3 spanningsniveaus gebruikt voor "1.5 bit", namelijk 2 van deze symbolscombineren kan je er 3 bits uit afleiden. Echter, GDDR6X gebruikte al PAM-4 signalen, dus in feite is deze GDDR7 standaard een kosten efficientie implementatie er van.

Kijk je naar RF apparatuur dan is zit hier zeker nog wel enige rek in. De nieuwste WiFi en GSM standaarden gebruiken constellaties met 4096-QAM. QAM wil zeggen dat niet alleen het spanningsniveau maar ook de fase van een signaal wordt gevarieerd. 4096 wil zeggen dat er 2^12=4096 verschillende combinaties mogelijk zijn. Dus ipv "1.5 bit" per symbool oversturen zit men al op 12 bits. Maar bij RF hebben we maar 1 draad: dat is namelijk gedeeld met iedereen. Hiervoor wordt "alles" uit de kast getrokken om alles over dat 1e draadje te laten gaan.

Bijvoorbeeld WiFi7 bevat 4096-QAMen met 320MHz bandbreedte (320MBaud) x 12-bit (2^12=4096) kom je uit op een theoretische max bandbreedte van 3840Mbit/s. Met protocol overhead komt dat uit op 2882MBit/s (1 SISO user met 1 spatial stream). Best rap voor iets wat in feite maar 1-bit bus breed is, en ook "maar" 320MHz bandbreedte gebruikt. De spectrale efficientie van DDR bussen staat niet in deze tabel.. maar voor WiFi6 zit dat dus op 7.5 bits/Hz, Wifi7 zal naar mijn schatting rond 9 uit komen. Ter vergelijking: DDR zou rond de 2 bits/Hz moeten zijn, en met PAM-3 stijgt dit naar 3. Dit alles kan zeker nog een factor 3-4 efficienter, de vraag is alleen of zoiets (snel) kostenefficient gaat zijn.

[Reactie gewijzigd door Hans1990 op 6 maart 2024 11:46]

Top antwoord! Snap ongeveer de helft, maar het geeft zeker aanknopingspunten om op te googelen. Als ik hem +1 kon raten had ik het gedaan. Bedankt voor het uittypen <3
Het antwoord is nee. Teveel verlies wat niet opgelost is.
Ze zullen dit oneindig lang kunnen blijven doen.
De technologie zal telkens nieuwe kansen bieden die benu zullen worden.
"Oneindig" is ook weer overdreven. Er zijn bepaalde fysieke limieten tot waarbij je bandbreedte domweg niet verder kan opkrikken, of in ieder geval niet op een manier die economisch uit kan. We hebben, om maar iets te noemen, nog altijd geen reden om aan te nemen dat dingen sneller dan het licht kunnen reizen, en zelfs veel goede om aan te nemen dat dat niet kan. Nu zijn die theoretische limieten nog lang niet bereikt, dat dan weer wel, maar een woord als "oneindig" moet je niet lichtzinnig gebruiken.
Dat, bepaalde fysieke limieten. word al meer dan 75 jaar gezegt.
Innovatie zal telkens weer nieuw technologie mogelijk maken.
Dat het heel anders zal gaan dan de afgelopen jaren ligt dan voor de hand.
En wat heeft sneller dan het licht kunnen reizen met chip technologie te maken.
En wat heeft sneller dan het licht kunnen reizen met chip technologie te maken.
Behoorlijk wat, omdat elektrische signalen met de snelheid van het licht reizen (bij benadering -- meestal minder, maar in ieder geval niet meer). Chips zijn inmiddels aangekomen bij schalen van nanometers en snelheden van gigaherzen, en op die schalen moet je rekening gaan houden met de lichtsnelheid. Een nanoseconde, in lichttermen, is 30 centimeter. Als je chipje op 10 GHz moet draaien kan elk signaal niet meer dan 3 centimeter afleggen per kloktik, en dat is dus niet alleen van A naar B maar door de hele chip heen en eventuele kanalen daarbuiten (waaronder geheugen). Dat is een van de redenen (er zijn er meer) dat bandbreedte van geheugen wel toeneemt, maar effectieve latency niet; geheugen is vanuit de CPU gezien enorm traag en er moeten allerlei trucen uitgehaald worden om daar zo goed mogelijk mee om te gaan.

Betekent dat dat we aan het einde zijn van wat we met geheugen kunnen doen? Nee, natuurlijk niet. Maar "oneindig" is een woord dat alleen wiskundigen moeten gebruiken.

[Reactie gewijzigd door MneoreJ op 7 maart 2024 09:35]

Ik vraag me af wat je verhaal te maken heeft met snelheid van geheugen.
Dat signalen met de snelheid van het licht gaan heeft niets met reizen te maken.
Als alleen de lichtsnelheid van belang zou zijn bij het sneller maken van geheugen zouden we allang klaar zijn.
Je kan altijd de addresseerbare hoeveelheid geheugen omhoog brengen eventueel ten koste van de bandbreedte door een adres in tweeën te versturen. In principe dus oneindig, het gaat er meer om wat handig is op dit moment.
Dat hangt af van je systeem en wat je ermee doet. Wil je simpel gamen? Koop een xbox. Mijn mening is dat de vereisten simpelweg te hoog worden qua hardware, de games het net niet zijn, en je meestal beter af bent met wat oudere games.
Kan iemand uitleggen wat precies het verschil is tussen deze GDDR standaard en de "gewone" DDR reepjes die ik in mn moederbord schuif?
Volgens mij prioriteert GDDR bandbreedte en DDR latency.
Dubbele bandbreedte, klinkt mooi maar met de huidige gang van zaken zal het wel betekenen dat de "mid-range" kaarten een 64bit geheugenbus gaan krijgen...

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee