Specificaties Intel Lunar Lake-cpu zonder hyperthreading verschijnen online

Er zijn specificaties van een vroege Lunar Lake-processor uitgelekt, waaronder het aantal cores, de hoeveelheid cache en de kloksnelheden. De informatie suggereert dat Lunar Lake geen hyperthreading ondersteunt. Lunar Lake is bedoeld voor laptops en komt eind dit jaar uit.

De Intel Lunar Lake-specificaties werden gepubliceerd door Zhihi-gebruiker XZiar, zo merkte @9550pro op. Die gebruiker publiceerde een screenshot van het Windows-taakbeheer met daarop specificaties van de komende cpu. Het betreft volgens XZiar een zogeheten A1-sample. Dergelijke chips zijn de eerste werkende prototypes die uit de chipfabriek komen. Dat betekent dat de chip niet het definitieve product betreft, hoewel de onderliggende architectuur vermoedelijk weinig gewijzigd zal worden voor de release later dit jaar.

De processor in kwestie beschikt over acht cores en acht threads. Daarmee zou hyperthreading dus niet meer ondersteund worden. Er gingen eerder al geruchten rond dat ook Intels komende Arrow Lake-platform, dat is bedoeld voor desktops, geen hyperthreading meer gaat ondersteunen. Volgens eerder uitgelekte informatie beschikt Lunar Lake over een combinatie van vier Lion Cove-P-cores en vier Skymont-E-cores.

Verder beschikt de processor in kwestie over 14MB L2-cache, verdeeld over 2,5MB per P-core en 4MB voor de vier E-kernen. De chip beschikt daarnaast over 12MB L3-cache. De kloksnelheid betreft in deze sample bijvoorbeeld 1,8GHz, met een boostclock van 2,8GHz. Aangezien het een vroege engineering sample betreft, zal dit waarschijnlijk worden opgehoogd in de releaseversie.

Intel kondigde de komst van Lunar Lake eerder al aan, hoewel het bedrijf nog geen concrete chips heeft aangekondigd. Het bedrijf toonde eerder een Lunar Lake-processor met geïntegreerd ram en bevestigde toen dat de chips later dit jaar uitkomen. Deze laptop-cpu’s komen beschikbaar naast de Arrow Lake-serie voor desktops, die ook dit jaar verschijnen.

De Lunar Lake-processors worden opgebouwd uit verschillende chiplets, net als de eerder verschenen Meteor Lake-serie. Volgens geruchten worden de cpu-cores voor deze processors geproduceerd bij TSMC op het N3B-procedé, hoewel Intel dat nog niet heeft bevestigd. Intel zei eerder dat Lunar Lake deels op zijn eigen 18A-node wordt geproduceerd, hoewel dat ook een ander deel van de cpu kan betreffen.

Intel Lunar Lake-leak via @9550pro
Bron: XZiar, via Zhuhi

Door Daan van Monsjou

Redacteur

19-02-2024 • 11:50

36 Linkedin Whatsapp

Lees meer

Reacties (36)

36
36
18
5
1
13
Wijzig sortering
Het schijnt dat Intel Hyperthreading wil vervangen door meer geavanceerde techniek.
Nee, dat patent is voor het tegenovergestelde.

Bij hyperthreading draai je twee threads op één core. Het idee hierbij is dat een core een relatief groot gedeelte van de tijd aan het wachten is op geheugentoegang. Data lezen uit de cache duurt al snel 15-30 cycles, en data lezen uit RAM gaat over de 100 cycles. In deze tijd staat de core dus te niksen. Met hyperthreading is de CPU in staat om tijdens het wachten een andere thread te draaien. Om dit te doen hoef je alleen maar wat hardware toevoegen om de "staat" van de tweede thread bij te houden, dus het is haast gratis extra rekenkracht.

Moderne CPUs gaan hier nog wat verder in. Een enkele core heeft meerdere reken-units, en deze zijn zelden allemaal tegelijkertijd nodig voor een enkele thread. De units die aan het niksen zijn, kunnen gebruikt worden om langzaam wat voortgang te boeken op de tweede thread.

Het door jouw gelinkte patent beschrijft het draaien van één thread op meerdere cores. Het idee is dat instructies binnen een thread zelden in strikt lineaire volgorde uitgevoerd hoeven te worden, omdat er geen data-afhankelijkheid is. Huidige CPUs gebruiken dit al om verschillende instructies tegelijkertijd uit te voeren op de diverse reken-units van één core, maar met dit patent splitsen ze de instructie-reeks op in meerdere onafhankelijke subthreads die elk een eigen efficiency-core krijgen.

De reden dat je dit wil doen is dat het voor software bijzonder lastig is om de verdeling van parallel werk in te schatten met heterogene cores. Stel dat je een Photoshop-filter wil toepassen op een hele afbeelding: bij 4 identieke cores zou je de afbeelding gewoon in vieren delen, en iedere core een deel uit laten voeren. De cores zullen allemaal ongeveer tegelijkertijd klaar zijn omdat ze allemaal hetzelfde zijn. Als je dat trucje met een efficiency-core probeert dan zal deze véél langer over zijn stukje doen dan een performance-core, waardoor in de praktijk de performance-cores een groot deel van de tijd aan het idlen zijn terwijl de efficiency-cores hard aan het werk zijn. Met de techniek van dit patent kan de CPU tegen het OS zeggen "hey, deze twee E-cores zijn samen ongeveer even snel als een P-core, schedule het maar alsof het een enkele P-core is en ik verdeel het onderling wel".
Zo gek is dat niet.
HT is een vorm van SMT (simultaan multi threading) en is een poging om een processor wat ander werk in de tussentijd te laten doen, terwijl deze wacht op data.
Wachten op data is immers de grootste vertraging in een processor.
In theorie zou je een thread die wacht op data tijdelijk ergens kunnen parkeren, dan de processor een andere thread laten verwerken en pas weer terugkomen op de 1e thread zodra de data beschikbaar is.
Vanuit software engineering zou je hier een asynchroon event sourcing systeem van kunnen maken.
Een event is dan een thread met data waar wat aan verwerkt kan worden door de processor.
In theorie kan iedere core van iedere processor dan een event oppakken en wat gaan verwerken.
Het probleem zit hem in de context.
Een legacy processor zit met allemaal data opgeslagen in lokale registers die horen bij de specifieke thread waar ie aan zit te werken.
Als je thread een stuk flexibeler maakt, moet de context mee verplaatst worden.
Het originele ontwerp van de huidige generatie processors is hier helemaal niet voor gemaakt.
Je ziet ook dat hier veel security issues vandaan komen.
Neem bijvoorbeeld de Meltdown, waarbij een thread in staat is om toegang te krijgen tot data die behoort bij een andere thread die toevallig op dezelfde core wordt uitgevoerd.
Wat mij betreft... terug naar het tekenbord en eens een nieuwe versie van HT bedenken waarbij de scheiding tussen de threads (en bijbehorende data) altijd 100% voorop staan.
Als dat gelijk threads dynamischer maakt op van core naar core te gaan, zou dit toch ook geweldig zijn?
In theorie zou je een thread die wacht op data tijdelijk ergens kunnen parkeren, dan de processor een andere thread laten verwerken en pas weer terugkomen op de 1e thread zodra de data beschikbaar is.
Niet alleen in theorie, ook in praktijk. Dit is hyperthreading

Het probleem is om die twee threads compleet gescheiden te houden indien de security context anders is. Maar zelfs dit hele simpele model wat je hier beschrijft lekt de executie-tijd van de ene thread naad de ander. Daarom moet je die twee threads uit hetzelfde proces kiezen, dan kan je geen security informatie lekken. Bovendien zullen twee threads uit hetzelfde proces beter de L1 cache kunnen delen (zelfde virtuele geheugen)
Een linkje naar een random patent is leuk, maar kunnen de meeste mensen niet zoveel mee. Beetje toelichting zou fijn zijn, zeker voordat mensen zomaar +2's geven.
Wat let je om het gelinkte artikel geen hyperthreading meer gaat ondersteunen te lezen?
Wie zegt dat ik dat niet heb gedaan? ;] Maar ook die verwijst naar hetzelfde patent zonder verder uit te leggen wat de nieuwe technologie dan zou moeten voorstellen.
splitten van de logic is een gevaarlijk iets en zeker op x86, kijk maar wat er allemaal fout gegaan is in branchprediction :D

[Reactie gewijzigd door d3x op 19 februari 2024 13:43]

Ik had eerder verwacht dat anno 2024 er t x86-64 gebied 4 of meer threads per core zouden zijn.
Zoals je voorheen met sparc 8 threads per core had,
Het zorgt er natuurlijk voor dat je core niet hoeft te wachten op nieuwe instructies, en bezig blijft door meerdere threads.
Moet er wel werk zijn voor die threads om bezig te blijven.
Op een server CPU als de sparc is dat meestal geen probleem, maar op de desktop zullen de meeste van die threads niks staan te doen, of zelfs alleen maar de hoofdthread in de weg zitten. En dan heb je je core wel enorm breed gemaakt op 8 threads af te kunnen handelen, maar dan staat dat extra silicium het grootste deel van de tijd niks te doen.
Komt nog bij dat wanneer de typische desktop-workload CPU-bound begint te raken, dit vaak komt doordat 1 thread gebottlenecked is vanwege 1 speciek type instructies, bijvoorbeeld de phyiscs thread van een game die alleen maar floating-point operaties wil doen. Of juist memory-bound door lage cache-efficiency. Beide problemen ga je niet oplossen met hyperthreads, omdat een hyperthread op dezelfde core alleen maar gebruik kan maken van CPU blocks die de andere hyperthread niet ook al nodig heeft. Op zijn best kan je de throughput van andere threads iets verhogen omdat ze iets meer voortgang kunnen maken dan zonder hyperthreading, maar de thread die de bottleneck is zal er niet sneller door klaar zijn. In het geval de limiterende thread memory-bound is kan hyperthreading zelfs negatief uitpakken omdat beide hyperthreads dezelfde L1 cache gebruiken en dus elkaars working set uit de cache kunnen duwen.

Mijn ervaring is dat voor de meeste taken die echt CPU bound zijn, hyperthreading meer kwaad dan goed doet, en het voor taken die toch al niet CPU bound zijn eigenlijk geen bal uitmaakt dat ongerelateerde threads iets meer voortgang kunnen maken. Dit is al bij 2 hyperthreads het geval, laat staan bij 4. De big-core/small-core aanpak die desktop processors nu nemen is eigenlijk gewoon beter en heeft minder nadelen.
De big-core/small-core aanpak die desktop processors nu nemen is eigenlijk gewoon beter en heeft minder nadelen.
Ik vind AMD's versie eigenlijk eleganter: dezelfde core maar dan kleiner met een wat lagere kloksnelheid en dito verbruik. Maar geen gezeik met instructies die de ene core wel maar de andere niet begrijpt.
Ja klopt, hoewel niet-gelijke cores ook prima kan werken als de grote en de kleine cores maar goed op elkaar afgestemd zijn, zoals bij ARM big.LITTLE of bij Apple Silicon. Eigenlijk is het vooral Intel die het ingewikkelder maakt dan nodig, maar dat is vooral omdat ze per se hun oude Atom cores wilden hergebruiken voor de kleine cores.
Heel simpel gezegd waren die CPU's puur gebouwd om zo hoog mogelijke totale processorkracht te halen om zo veel mogelijk I/O af te handelen, met zo min mogelijk energie als alles vol draait. Da's super voor je server (-farm). Die dingen hadden dan ook een behoorlijk lage snelheid, maar wel weer veel cache, geheugenondersteuning en on-board dubbel 10 Gbit/s networking met crypto accelerator (!).

Da's allemaal erg leuk voor een server omdat je daar heel vaak relatief kleine maar data- & IO intensieve taken doet, maar bij een laptop maak je echt andere keuzes.

NB bij een van onze projecten werd zo'n CPU aangeboden. Te duur helaas, en wij waren vooral single threaded bezig (B2B met een klant) dus had zo'n ding geen enkel nut. Machtig mooie techniek, dat wel.

[Reactie gewijzigd door uiltje op 19 februari 2024 15:24]

4 P core,s is matig als hyperthreading ontbreekt.
E-core,s zijn leuk als je niet verder komt dan Excel/Word/Internet, verder heb je er weinig aan in praktijk.

Vandaag de dag leunt nog steeds veel software op single core helaas(ik zie het zelfs in game,s waarbij de main thread teveel vraagt van de CPU waardoor de performance minder is en de rest maar op idle staat).

Hopelijk heb ik het mis en gaat AI daadwerkelijk voor verbetering zorgen net als bij Nvidia DLSS frame generation etc.

[Reactie gewijzigd door mr_evil08 op 19 februari 2024 12:07]

Vandaag de dag leunt nog steeds veel software op single core helaas(ik zie het zelfs in game,s waarbij de main thread teveel vraagt van de CPU waardoor de performance minder is en de rest maar op idle staat).
En dat gaat ook niet veranderen ... Ik werk al jaren in een programmeer taal dat MT ondersteund op een "simpele" manier en ondanks dat, is er vaak weinig reden om MT te gaan voor vele taken. De hoeveelheid code dat je moet toevoegen, oppassen met locks, waits, enz gewoon om iets te paralleliseren, terwijl je programma de taak kan afhandelen op zijn gemak of binnen de second, is het vaak niet waard.

Maar ik zou e-cores niet onderschatten... Een 4-ecores zijn in de praktijk ~8250u wat je vond in laptops een paar jaar geleden. Men vrouw werkt nog altijd met zo een CPU. Dat doet gewoon alles, buiten gamen of enorm zware applicaties.

Ik zeg met een gerust hard dat 95% van de taken buiten gaming, en die paar zware programma's met gemak draaien op een n100/4e-cores.
E-core,s zijn leuk als je niet verder komt dan Excel/Word/Internet, verder heb je er weinig aan in praktijk.
In feiten durft ik zelf zeggen, het omgekeerde argument van die dat je zegde. In de praktijk zijn het vaak de P-cores dat verspild worden met taken te doen waar ze zelf "te krachtig" voor zijn, en als je niet gamed of die zware apps draait, dat je eigenlijk een verspilling hebt.

Persoonlijk zoek ik deze dagen niet meer naar zware laptops maar gewoon van die dingen dat 4 of 8 e-cores hebben en 1 of 2 P cores. Want men compiles gaan snel op de e-cores, de browsen, office enz gaat ook snel op e-cores. En je wilt die 1 of 2 P cores, voor als je echt iets nodig hebt met umph.

Ik raad mensen altijd aan om eens te kijken naar de CPU gebruik op hun P-cores MAAAAAR ook welke frequencies ze op draaien tijdens dat gebruik. Al te vaak zie ik 60% P-core gebruik maar dan zie je dat de boel eigenlijk op 3 of 4Ghz draait, aka, eigenlijk niet 60% van zijn total capaciteit maar dik erronder (als we rekenen al een P-core 5Ghz aankan, en de enige taak is, dat het op 4Ghz, eigenlijk maar 45% echt gebruikt is ).

Ik draai een n100 (4-ecores) als mini-server, ding gebruikt 4W en draait alles alsof het niets is. Ja, ik ga er geen 20 VM's opsmijten of massive cpu encoding maar voor 99% van de taken, perfect ... Zelf voor de single thread taken.

In de praktijk zie ik al een lange tijd weinig nut voor HT... Wat veel mensen niet begrijpen is, dat Window en de meeste andere OS, eigenlijk je HT niet gebruiken als er andere cores beschikbaar zijn. En dat is vaak de issue dat als er primary werkloads op de pipeline zitten, de HT "extra's" dat toegevoegd worden, geen 100% garantie hebben in tegenstelling tot de primary instructies. En dat die eruit gekipt kunnen worden in voordeel van de primary instructies. Gevolg is dat HT enkel goed werkt, bij zeer voorspelbare data zoals ontzippen in parallel of van die taken. Maar bij game data, zorgt HT eigenlijk voor stoters wegens dat uitkippen van HT data. Aka, waarom mensen HT soms uitzetten.

In webserver servers is HT in mijn mening meer nuttig, gewoon wegens de manier dat je draait van data. En die hickups worden gemaskeerd door de latency van de request. Maar voor desktops, is het eigenlijk al lang iets dat weinig toegevoegde waarde heeft, en je ziet dat duidelijk onder Windows enz, hoe het taken scheduled en vaak HT "cores" omzeild. En een E-Core draait circles rondom HT "cores", met het voordeel dat het meer consistent is (aka, er word geen data gedropt en terug in de que geplaatst ergens anders).

Weeral veel te veel geschreven ;)
Wat is het probleem van geen HT wanneer je zelf stelt dat veel software toch maar een enkele thread gebruikt? HT kan dan natuurlijk nog wat extra performance uit die core halen, maar als je toch een aantal E-cores erbij hebt juist voor niet-voorgrond taken, kan ik me prima voorstellen dat als je redelijk wat kan winnen door HT weg te halen dat een interessante optie is.
exact, het idee van HT, SMT was om nog extra threats te kunnen starten afh van de load en gebruik van int en fp breedte. Nu met e-cores kan je het ook offloaden richting andere massa.

een ander voordeel (wat mogelijks de hoofdreden is) is mogelijks nog hogere boost frequenties en meer ruimte binnen PL limits
Zoiets zat ik ook te denken 4xP + 4xE is dan indirect te vergelijken met een 4core plus HT.

Heel wat i3’s zien langskomen zonder HT en voor Simpel desktop werk prima.
Vandaag de dag leunt nog steeds veel software op single core helaas
Volgens mij gaat dat ook niet veranderen. Sommige dingen kunnen nu eenmaal niet door meerdere processors gelijktijdig worden uitgevoerd. Ik vergelijk het altijd met het bouwen van een huis. Je kunt 100 man personeel klaarzetten, maar de stukadoor kan pas aan de slag als de metselaar klaar is. En de schilder kan pas aan de gang als de timmerman de kozijnen heeft geplaatst etc. Wat dat betreft is het inderdaad jammer dat ingezet wordt op veel cores met een lagere snelheid in plaats van wat minder cores, maar wel op een hogere snelheid - ik zou graag de keuze willen hebben.
een vrouw krijgt in 9 maanden een kind. Dus 9 vrouwen.......
Een kozijn kun je misschien ook elders in elkaar zetten, schilderen en dan later alleen snel plaatsen ;)
Nou ja, hoeveel applicaties die veel single threaded performance vragen wil je tegelijkertijd draaien? Hierop kan je al vier van dat soort applicaties op de P-cores draaien en dan kan de kernel ook nog andere taken zoals I/O op een andere processor draaien als dat nodig is. Voor een "slim / silent laptop" is dat niet zo slecht toch?
Er zijn goede redenen waarom meer cores niet altijd helpen. Vooral games zijn een voorbeeld waarin single core performance veel uit kan maken.

In het algemeen werkt parallelisme goed als de workload kan worden verdeeld over meerdere threads. Dat lukt echter alleen als de taken verdeelbaar zijn op een manier dat ze niet achter elkaar hoeven te gebeuren. Ook werkt het tegen als meerdere threads gedeelde staat hebben, omdat er dan locking en synchronizatie strategieen nodig zijn.

Bij een computerspel zijn physics bijvoorbeeld moeilijk parallel te maken, elk frame berust op het vorige. Je kunt in theorie workloads verdelen binnen het frame, maar dat is lastig, en vereist synchronizatie van wat ik ervan begrijp.

Graphics kunnen heel goed parallel werken binnen de gpu, maar dat is anders dan physics en game logica.
Vandaag de dag leunt nog steeds veel software op single core helaas(ik zie het zelfs in game,s waarbij de main thread teveel vraagt van de CPU waardoor de performance minder is en de rest maar op idle staat).
Dat is ongelofelijk maar waar, helaas. Ik merk dit zelf met CAD software; als ik de systeemprestaties bekijk via Taakbeheer, dan leunen pakketten als AutoCAD en Solidworks nog steeds heel erg op hoge kloksnelheden en een zo groot mogelijke (L3) cache, en wordt de multi0treaded opties amper benut. Ik ben dus geen ICT'er, maar ik vermoed dat dit komt omdat er domweg nog heel veel legacy code in dergelijke pakketten aanwezig is, en misschien omdat men bij bepaalde verwerkingsprocessen nog heel erg blijft vasthouden aan downwards compatibility? (Correct me if I'm wrong...)

Bij moderne (lees: later ontwikkelde) tekenpakketten als bijv. OnShape zie je dit overigens veel minder. Maar migreren naar een moderner CAD systeem is wel het laatste wat een mechanical engineer (of diens systeembeheerder) zou overwegen. En dus wordt het systeem met de i9-9900k waar ik nu nog mee werk, volgens jaar waarschijnlijk vervangen door een systeem met een Ryzen 9 7950X3D: 5,7 Ghz turbo klokfrequentie en 128 Mb L3 cache, tegen een acceptabele aanschafprijs (en energieverbruik), daar kan Intel op dit moment niet aan tippen.
Ik verbaas me hier een beetje over. De eerste implementaties van HT hadden relatief weinig nut met een efficientie verhoging van ~10%, tegenover een wat lagere single thread. Dat in combinatie met wat brakke SW support was genoeg voor Tweakers om het meteen weer uit te zetten.

Naar mijn weten is de ondersteuning in nieuwe processors meer richting 30% en is de runtime ondersteuning niet echt een ding meer. Ik zou er echt niet over piekeren om het uit te zetten, of het moet zijn om betere security af proberen te dwingen.

Weet iemand waarom HT niet in de Lunar Lake processors lijkt te zitten? Is de benodigde overhead (met name die space) te groot aan het worden voor veilige processoren? Ik heb even gekeken in andere nieuwssites maar daar zie ik ook weinig terug hierover.
"Weet iemand waarom HT niet in de Lunar Lake processors lijkt te zitten?"... goede vraag!

Misschien te weinig voordelen (snelheid) tov nadelen (security, complexiteit)?

" In 2019 a set of vulnerabilities led to security experts recommending the disabling of hyper-threading on all devices"
Dat HT in het begin weinig effect had komt ook omdat er toen nog veel meer op single-core werd geprogrammeerd: Systemen waren nog niet voorbereid op het gebruik van meerdere (logische) processors. Tegenwoordig kunnen systemen vele vaker veel beter omgaan met meerdere processoren, zowel fysiek als logisch.

Zelf zie ik HT als de keuze tussen een aantal CPUs met veel cache of 2 keer zo veel CPUs met elk de helft aan lokale cache. Het is dan aan het systeem, de programmatuur en de taken om daar gebruik van te maken.

Nu de HT niet meer in de processor wordt aangeboden is dat dus voor de performance tweaker een punt minder om te tweaken. Gelukkig blijven er genoeg over.

Mijn speculaties over de reden van het weghalen van HT: Wat er niet in zit ook niet kapot kan. En met spectre/melt-down hebben we gezien wat er fout kan gaan... Het uitschakelen van HT was daar immers een workaround.

[Reactie gewijzigd door beerse op 19 februari 2024 14:16]

Voor een 'simpele' gebruiker die browst, office taken doet en wat gamet - hoe nutting/noodzakelijk is HT?

Anders gezegd: welk soort software maakt (wanneer) gebruik van de extra threads zodat je verschil zou merken tussen bijvoorbeeld 8 cores met 8 threads of 4 cores met 8 threads?
Alle multithreaded software kan gebruik maken van de HT "virtuele" cores. Het voordeel is / was altijd 30 procent meer vermogen uit je core. Het nadeel is dat twee threads op een core (lang) niet zo snel zijn als een single-thread. En een nadeel is natuurlijk dat je makkelijk (timing) informatie kan krijgen van de thread waarmee je de core deelt.

Heel simpel gezegd: een core bestaat uit verschillende componenten waaronder de ALU. Die ALU heeft allemaal onderdeeltjes voor (integer) operaties. Als de ene thread de adder gebruikt kan bijvoorbeeld de andere core de multiplier gebruiken.

Meer performance kan iedereen gebruiken. Maar met alle aanvallen kost het waarschijnlijk te veel die-space ondertussen tegen te weinig performance. Die "waarschijnlijk" is een op kennis gebaseerde speculatie, ik heb hier geen enkel bewijs voor.

[Reactie gewijzigd door uiltje op 19 februari 2024 13:26]

Het is een manier om een CPU efficienter te gebruiken door meer ondersteuning te geven aan het snel wisselen van threads (verschillende programma's of delen van een programma). Het is niet als je echt meer cores had maar eigenlijk dat een CPU niet altijd 100% bezig is met 1 thread tegelijkertijd, dus kun je in de idle tijd van thread 1, thread 2 draaien. 1 cpu core heeft 100% performance maar die wordt slechts 70% gebruikt (fictief getal) dus die 30% kan gebruikt worden door iets anders. Dit deed je PC al voor hyper threading anders kon multi-tasking niet bestaan maar hyper threading deed dit een beetje efficienter.

Maar het is dus niet dat 1 core met hyperthreading 200% efficienters is. Sterker nog, voor 1 core processen als oude spellen is het zelfs iets langzamer.

Nu het makkelijker is om meer echte cores op een CPU te plaatsen lijkt Intel een andere oplossing te hebben gekozen. Het zal moeten blijken of deze nieuwe aanpak goed werkt. Gamers zetten hyperthreading in het begin vaak uit om een hogere single core performance te krijgen.

Vioor licht gebruik geld dit: Lees de reviews en kiez de prijs/prestatie/energie verbruik die bij jou past.
Of de processoren nu Hyperthreats gebruiken of niet, is toch volledig oninteressant, het gaat toch gewoon om de prestaties en de prestatie per watt?
ARM doet het ook prima zonder.
Hmm, da's te makkelijk. Misschien heb je bij RISC minder kans dat er grote delen van je core uit hun neus aan het eten zijn.

Het is overigens een thread met een D, threat betekend toch echt wat anders (en ja, Engels is net zo mesjogge als Nederlands wat dat betreft).
Je hebt gelijk, ik bedoelde eigenlijk Apple Silicon, dacht dat dit sowieso geen feature was op alle ARM, maar daar lag ik verkeerd.
De vraag is: kun je er een ei op bakken?
Het is toch eigenlijk verbazingwekkend dat Intel noch de concullega's er nog altijd niet in geslaagd zijn de echte cpu-kernen te verbergen voor het OS - zodat een game maar een cpu ziet, die gewoon veel kan en heel snel is. Dat bewijst dat de markt in feite weinig evolutie doormaakt, dat het eerder iteratief verfijnen geworden is. Tijd dat er iets of iemand komt om de zaak grondig op te schudden.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee