ASUS-website noemt 'AMD Ryzen AI 9 HX 170'-laptopprocessor met nieuwe naamgeving

AMD is mogelijk van plan om zijn cpu-naamgeving te veranderen in 'Ryzen AI' met de release van zijn volgende generatie 'Strix Point'-laptopprocessors. Dat blijkt uit informatie van ASUS. De website van die fabrikant noemt laptops met een 'Ryzen AI 9 HX'-cpu.

De ASUS-website bevat de specificaties van drie Vivobook-laptops, die allemaal zijn voorzien van een 'AMD Ryzen AI 9 HX 170'-processor, zo merkte @harukaze5719 op. De chip bevat twaalf cores, mogelijk op basis van de Zen 5-architectuur, naast 36MB-L3-cache en een verbeterde Ryzen AI-engine voor het uitvoeren van AI-rekentaken.

Het lijkt er hiermee op dat AMD's volgende generatie laptopprocessors niet wordt uitgebracht in een Ryzen 8050-serie. Daarmee zou de fabrikant zijn naamschema vergelijkbaar maken met de nieuwe namen van Intels processors. De Ryzen AI 9 HX-serie zou bijvoorbeeld kunnen concurreren met de nieuwe Core 9 Ultra-processors van Intel.

AMD heeft de nieuwe naamgeving van zijn Ryzen-processors nog niet bevestigd. Het is dan ook niet bekend of AMD deze wijziging daadwerkelijk gaat doorvoeren, hoewel de informatie wel afkomstig is van een bekende laptopfabrikant. Onlangs verscheen ook informatie over een Lenovo-laptop met een vermeende Ryzen Pro 8050-processor. Het is daarnaast onduidelijk of de potentiële rebrand ook gaat gelden voor AMD's desktop-cpu's. Gigabyte bevestigde onlangs het bestaan van Ryzen 9000-processors voor desktops.

AMD Ryzen AI-cpu op ASUS-website

Door Daan van Monsjou

Redacteur

08-05-2024 • 14:35

43 Linkedin Whatsapp

Submitter: Vulcanic

Lees meer

Reacties (43)

43
43
12
1
0
22
Wijzig sortering
Intel: We wijzigen onze viercijferige modelnummers naar drie en voegen een leuke marketing term toe aan onze modellen..
AMD: Hou m'n bier ff vast....
> "AI"

> Nog steeds slechte ondersteuning voor Pytorch

AMD momentje.

[Reactie gewijzigd door Osiummaster op 8 mei 2024 14:47]

Maar da's onder windows, is het met linux hetzelfde verhaal?
Oef, niet best. En zoals opgemerkt in de link: da's inderdaad goede reclame voor CUDA. Voor werk en hobby blijf ik dan ook maar bij team green...
Dit lijkt mij niet te kloppen.

Ik heb in het kerstverlof een tijdje gespeeld met ROCm op een AMD Radeon Rx 6700M laptop GPU en alles werkte gewoon prima. Zowel eigen PyTorch code, als ollama en Stable Diffusion.

Performance was beter dan een RTX 3080Ti uit een andere laptop, en ik ervaarde geen compatibiliteit problemen.

[Reactie gewijzigd door sspiff op 9 mei 2024 22:38]

Indien modellen met ONNX of andere tools gecompileerd zijn dan werken ze vaak wel. Het probleem is dat development vaak functionaliteit mist.

Ik heb het zelf 2 maal geprobeerd en daarna opgegeven. Las ongeveer 2 maanden geleden op een forum nog een comment van een andere ziel die zeer veel problemen had in Pytorch met AMD.

ZLUDA scheen wel een oplossing te bieden (CUDA bindings voor AMD) maar Nvidia is vrij hard aan het copyright trollen over CUDA, dus ZLUDA is niet "officieel ondersteunt".

ROCM schijnt nog steeds niet optimaal te zijn maar kan zelf niet oordelen, na mijn slechte ervaringen ben ik op Nvidia.
Ik dacht dat software naar de hardware wordt geschreven en niet dat hardware dan maar aangepast moet worden aan de software (tenzij er standaarden zijn).
Een beetje van beiden. Een hardwarefabrikant kan het best samenwerken met softwarebouwers om problemen met de hardware, drivers en SDKs op te lossen. Zeker bij populaire projecten zoals Pytorch.
Pytorch is Open Source en AMD mag gerust drivers schrijven.

Nvidia heeft sinds 2013 keihard ingezet op software voor Deep-Learning. Ver voordat het echt van de grond kwam. De inversteringen en risico's waren gigantisch en er was toendertijd nog geen indicatie dat AI zo goed zo werken.

Maar de uitbetaling is enorm. Nu heeft Jensen met Nvidia het hele ecosysteem in handen.
*onder Windows* ja, is dat met WSL net zo? Ik heb nog nooit de behoefte gehad om 'native' met Windows wat te developen, altijd WSL gebruikt er mee.
Er zijn zat tools die niet fijn werken met Windows die het perfect met Linux/WSL doen.
Ik heb een keer geprobeerd WSL te gebruiken. Toen ik mijn deep learning images niet kon displayen omdat er geen grafische server bij zit direct uitgezet en maar Ubuntu gaan dual booten.

Snap zelf de waarde van WSL niet. Maar het valt misschien niet binnen mijn use-case.
dit gaat over consumer CPU met een GPU aka APU die taken van windows en andere basis windows apps bepaalde tech gaan gebruiken voor afhandeling buiten de CPU om...

heeft dus niks met ROCM en consumenten GPU te maken en je links zijn 1J OUD, eerder het typische reddit copy paste geblaat en weinig eigen kunnen en eigen werk....
Ik weet niet of je het weet, maar die SW versies hebben heel actieve updates en user base.

updates zijn er constant
https://www.phoronix.com/news/ROCm-6.1-Release-Coming

[Reactie gewijzigd door d3x op 8 mei 2024 15:59]

Dat ROCM verhaal is al sinds 2017-18 aan de gang. Telkens claimt AMD support te hebben en telkens is het gewoon dramatisch en doen bepaalde functies het niet.

Als je moet vechten met drivers om je software werkend te krijgen en zelfs bepaalde functies moet herschrijven omdat ze niet ondersteund worden, houd de pret snel op.
Dat is lekker simplistisch, zeggen dat iemand maar wat napraat van een ander en dan aankomen met een verhaal als "updates zijn er constant". AMD is gewoon een B product in deze markt, altijd al geweest en kijkende naar de development snelheid zal het ook zo blijven.
totaal negeren dat een product een snelle inhaal race kan doen en een hoeveelheid markt kan inpalmen is blijkbaar ook altijd onmogelijk.

nee het is enkel nvidia dat iets kan...A product |:( 9/10 ben jij ook gewoon zo een thuisprutserke en wat reddit blaat volger die geen idee heeft wat bedrijven momenteel allemaal opbouwen met deze technologie.

misschien de laatste informatie opzoeken wat de Instinct verkoop doet momenteel en de roadmap.

[Reactie gewijzigd door d3x op 9 mei 2024 22:08]

Gaat het Llama 3 8B kunnen draaien?
Wel... Dat vreselijke naamschema waar ze net zo goed gewoon konden liegen over hoe oud een chip was heeft gelukkig ook niet lang geduurt. Maar om nu hype woorden te gaan gebruiken in hun merknamen...
Owh god, niet weer een namechange! :+ :(
De marketeers bij AMD hebben weer hun best gedaan om het laatste buzzword in de naam te verhaspelen ;)
De nieuwe naamgeving van Intel is er ook niet veel beter op. Ze zijn allebei slecht, alleen de desktop varianten zijn nog logisch ( voor nu )
AI? Krijg je er een gratis ChatGTP abonnement bij of? Ik ben echt al wel een beetje AI moe...

[Reactie gewijzigd door Macboe op 8 mei 2024 14:41]

Of? Wellicht dat deze cpu een chip aan boord heeft die geoptimaliseerd is voor AI taken? AI is meer, véél meer dan chatGPT.
Allemaal leuk en aardig, maar wat heb ik als consument daarmee te maken?

LLMs zijn tenminste nog een vorm van AI die je als consument gebruikt, maar noem eens een ander AI toepassing die je thuis op de cpu van je PC uit wil kunnen voeren? De handige zaken als framegeneration en upscaling etc zitten/kunnen toch op je GPU ipv CPU?
Maar bij de laptops-processors van AMD zit de GPU al in de CPU, en de NPU zit natuurlijk in de GPU.
Het hele 'AI' van wat men tegenwoordig bedoelt met chatGPT/LLMs, bestaat uit twee sporen:
- Leren; LLM opbouwen, aka Deep Learning
- LLM gebruiken; inferencing

Beide wordt in principe door GPUs gedaan maar inferencing is veel eenvoudiger dan het deep learning-aspect, en ook vele malen minder rekenintensief, dus hier liggen kansen voor CPUs en vooral APUs. Bedenk ook dat een APU niks meer is dan een CPU + GPU; alles wat geaccelereerd kan worden middels hardwarematige instructie(sets) is een interessante kandidaat om te integreren in de APU.

Je moet het dus niet zien als "LLMs maken kan niet/moeizaam lokaal, en grafische intelligente foefjes gebeuren al op de GPU dus er is geen use case". De hele wereld van LLMs staat nog in de kinderschoenen, en chipfabrikanten sorteren slim voor op de technologie.

[Reactie gewijzigd door A Lurker op 9 mei 2024 13:11]

Dit zijn de eerste CPUs die tot 77 TOPS aan AI performance leveren als ik het goed lees. Daarbij heeft Microsoft recent het nieuws gebracht dat er minstens 40 TOPS nodig is om AI lokaal te draaien. In die zin is de naamgeving wel logisch en interessant voor bedrijven die AI voor data privacy niet in de cloud willen draaien.
Krijg ik die TOPS dan bij mijn normale rekenkracht als ik gewoon mijn normale werkzaamheden doe, of moet ik me nu gaan verdiepen in AI gerelateerde zaken, ook al hoef ik daar niets mee te doen?
Die 77 TOPS gaan zeer waarschijnlijk van de xilinx NPU komen, daarnaast houdt je dan gewoon je CPU en GPU rekenkracht.

Ik ga er gemakshalve vanuit dat windows dit straks zelf gaat herkennen en wanneer de NPU aan de TOPS requirement voldoet dat je dan de optie hebt om copilot functies die nu bijvoorbeeld al in microsoft office zitten lokaal kunt draaien, voor de meeste office pc’s worden copilot functies ondersteund door de data naar de cloud te sturen.

Voor mijn bedrijf is dat bijvoorbeeld een reden om geen copilot functies zoals automatische samenvatting in Microsoft Teams toe te laten. Gevoelige data gaat dan immers naar microsoft toe en die data kan lekken of zelfs voor AI training doeleinden gebruikt worden.

Wanneer deze functies opeens lokaal kunnen draaien dan kan dat heel interessant zijn voor bedrijven.

[Reactie gewijzigd door Chocohase op 8 mei 2024 23:17]

Nee, wrs zitten er gewoon AVX-512 instructies in, of iets equivalents.
Waarom gaan PCs tegenwoordig toch langer mee? Komt dat doordat ze krachtig genoeg zijn? Nee! Het komt omdat de grote CPU/GPU makers constant compleet onduidelijke en constant veranderende naamgeving gebruiken! Mensen nemen de moeite niet meer en gaan pas wat kopen als hun PC echt stuk gaat... O-)
Dus de CPU/GPU makers gooien hun eigen ruiten in? Best wel knap dat een gemiddelde Tweaker zoveel slimmer kan zijn dan een miljarden business en ze met een simpel trucje hun omzet zouden kunnen verhogen.
Ik denk dat je dan nog steeds een grove onderschatting maakt van de kundigheid van de meeste mensen om onderzoek te doen naar het volgende apparaat dat ze nodig denken te hebben. Ik ben de meeste mensen niet, maar ik denk niet dat iedereen zich uitvoerig gaat zitten verdiepen in de materie omtrent hun potentiele volgende aankoop. Of dat nou een computer of een tosti-ijzer is.

M.a.w., de meeste mensen kopen maar wat.

[Reactie gewijzigd door _Thanatos_ op 8 mei 2024 15:07]

Ik ga altijd de diepte in bij mijn tech aankopen, dus ik begrijp wat je bedoeld. Maar ik had na de eerste paar regels van dit artikel zo iets van "I can't be bothered!"... En ik doe dit al 30 jaar voor werk en hobby. ;)
Zowel AMD als Intel lopen al decennia achter met hun mobiele chips op hun dekstop en server chips met ongeveer een hele generatie. Zen 5 geloof ik dus niet. Zen 4 wel.
Wie is dan het beste als het komt op mobiele chips?
Dat hangt er maar net vanaf wat je gebruiksscenario is. Ik kan dat hier nu niet in het algemeen gaan uitleggen omdat er zoveel overwegingen zijn. Hangt er ook maar net vanaf wat beschikbaar is in het type apparaat wat je zoekt.
Dat is geen antwoord op mijn vraag. Als AMD en Intel blijkbaar al decennia achter lopen, wie is dan het beste? Achter wie lopen ze al een decennia aan?
Je begrijpt mijn punt verkeerd. Ze lopen achter op zichzelf.
Als ze generatie N desktopchips uitbrengen, komen ze rond die tijd ook altijd met gen. N-1 mobiele chips op de proppen. Die overigens wel een latest-gen naamgeving meerkijgen elke keer.
Maar als je kijkt naar welke kernarchitectuur ze gebruiken zie je wat ik bedoel.
Tweakers, kunnen jullie eens een achtergrond verhaal maken over de (on)zin van naamgeving in de tech wereld?

We lijken het als gebruikers het er vrij unaniem over eens dat het verwarrend is en helemaal niets toevoegd, wat is het dan toch dat bedrijven er wel voor kiezen? Ik bedoel, het gaat over wijzigingen die miljoenen kosten (neem ik aan).

USB is al jaren een grote ramp, de nieuwe Intel naamgeving slaat ook nergens meer op en nu plakt AMD er 'voor de lol' AI tussen?

[Reactie gewijzigd door Alxndr op 8 mei 2024 16:02]

Had het dan 'Raizen' genoemd...


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee