Hirdetés
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Luck Dragon: Asszociációs játék. :)
- kilepoblog: Tanári fizetések: magas béremelést jelentett be az államtitkár - és a VALÓSÁG
- Szevam: Mennyire tipik Z-gen viselkedés? Tipizálható-e egyáltalán?
- sziku69: Fűzzük össze a szavakat :)
- Sub-ZeRo: Euro Truck Simulator 2 & American Truck Simulator 1 (esetleg 2 majd, ha lesz) :)
- Gurulunk, WAZE?!
- sziku69: Szólánc.
- Fenyő: Ingyenes iskolai linux szerver disztrók a Sulix, Huedu utánra
- RetepNyaraB: Kávés szöszölés, az élet, a világmindenség, meg minden
-
LOGOUT
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
Jack@l #57903 üzenetére
1080p, 1440p és 4K. Ezeken fog menni a tesztelés.
#57905 b. : Ez nem elavultság, hanem egy döntés. Az AMD és az NV is fix tranzisztorkeretből építkezik. Ezek nagy részét az NVIDIA tensor magokra költötte. Gyakorlatilag annyira erőteljesen, hogy a multiprocesszor többsége már tensor, és a hagyományos feldolgozók már csak a 35%-át teszik ki.
A nagyobb L2 cache elsődlegesen a tensor miatt van, mert a többi feldolgozó nem tudja nagyon hasznosítani a félkoherencia problémája miatt. De a tensor az jórészt koherens mátrixműveleteket csinál.
Az AMD ugyanúgy kapott egy rakás extra tranzisztort az új generációs node-ból, de azokat nem költötték el csak egy részegységre, hanem több L0-t, több GDS-t, duplázott szálú parancsmotort, több VGPR-t, és újratervezett RB-t használnak. Ezekre költöttek javarészt. Ez is egy döntés, nem tartották annyira fontosnak, hogy nagy tensort építsenek a rendszerbe, noha lesz benne matrix engine, de az is úgy lesz beépítve, hogy meglévő adatutat használnak, és nem terveztek dedikált adatutat rá.
Nyilván dönthettek volna úgy is, ahogy az NVIDIA, de inkább mai játékokra tervezték a GPU-t. Az NV ugyanakkor nagyon hisz a frame-generationben, és ahhoz nem kell erősebb parancsmotor, mert klasszikus input nélkül számol képet.
-
Komplikato
veterán
válasz
Jack@l #57089 üzenetére
"A masik mese meg az volt hogy ssd-vel terrabyte-okat tudnak hasznalni a modellezok amd kartyakon."
Ez nem mese volt, de hol a fenében van egy SSD-s Vega alapú kártya ára, teljesítménye a f*s 6500XT-től? A jelenlegi kártyák meg csak W11 alatt tudnak Direct Storet HA majd kijön a patch, de az se a 4GB-os legaljánál fog profitálni. Azért egy jobb workstation alaplapon mondjuk PCIe 4.0-ás SSD Raid már eléggé nyalogatja a RAM sebességét, ha meg professzionális modellező gépről van szó. -
válasz
Jack@l #57001 üzenetére
Hát nem tudom, van az a szint ahol, ha elfogy a vram egy adott játéknál, nem 10%ot lassul a játék, hanem kb játszhatatlanság szintjére lassul. Na már most mivel a ram sebessége is elég gyors az adat csere is gyorsan kéne hogy történjen ram-vram között de mégse elég gyors.
Szerencse hogy nincs olyan játék ami csak 6 gigás kártyákon indulna el, jól is néznénk ki. -
Abu85
HÁZIGAZDA
válasz
Jack@l #56748 üzenetére
Senki sem mondta, hogy kötelező, de azt írni, hogy nulla fícsőrt használ, miközben az idén áprilisban bevezetett shader modellre épülő shadereket is futtat, eléggé félremagyarázás volt a részedről.
Az új generációs Xbox miatt támogatja a Far Cry 6 a shader modell 6.6-ot. Az Xbox Series S és X alapértelmezett erőforrás-kezelési szintje a Dynamic Resources. [link] - És ezt a kódot, amit erre megírsz, módosítás nélkül át lehet vinni PC-be is, hiszen itt is ugyanígy van kezelve a shader modell 6.6-ban. Logikus az újabb projekteknél ezzel élni, mert ha úgyis leoptimalizálsz egy ilyen kódot, akkor értelmetlen a régi kódbázisra optimalizálni PC-n. Funkcionálisan a Dynamic Resources D3D12_RESOURCE_BINDING_TIER_3 és D3D_SHADER_MODEL_6_6 támogatást igényel, tehát minden implementációba beépíthető, ami minimum D3D12_RESOURCE_BINDING_TIER_3 bekötést támogat. Az NV is be tudná építeni, de kérdés, hogy nekik a D3D12_RESOURCE_BINDING_TIER_3 emulációval ez mekkora sebességvesztéssel jár. Nyilván a Microsoft a Dynamic Resources képességet a hardveres szintű támogatáshoz tervezte, amilyet alkalmaz az Xbox Series S és X, nem az emulált implementációkhoz.
A Far Cry 6-ban sajtóverziójában nincs DirectX 11 fallback. Mint írtam ugyanazt a parancskezelési és bekötési modellt kapta meg, amit az AC: Valhalla használ. Az nehezen hozható össze DirectX 11-gyel, így inkább nem is erőlteti az Ubisoft. Az AC: Valhallának volt ilyen módja egy darabig, de kb. a DirectX 12 kód sebességének a tizedével se megy helyenként. Teljesen máshogy kell megírni egy motort a DirectX 11-hez, és manapság már a DirectX 12-t teszik előnybe.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #56742 üzenetére
A Far Cry 6 elég sok DX12 fícsőrt használ. Még shader modell 6.6-ot is támogat, ha a rendszer képes ezeket a shadereket futtatni. Az AMD és az Intel drivere például képes rá. Az NV drivere a shader modell 6.5-ös fallbacket használja, mert a 6.6-ot még nem támogatja a cég. De egyébként ebből minőségbeli eltérés nem lesz, a shader modell 6.6 kód csak teljesítményoptimalizálás. A lényege annyi, hogy az erőforrás-leírókból is lehet erőforrásokat létrehozni. Annyit nyernek vele, hogy ehhez már nem kell CPU-időt használni, míg a shader modell 6.5-ös fallback CPU-időt igényel. Gyakorlatilag az új kód gyorsabban fut, és kevésbé terheli a bekötés a CPU-t.
Ha megoldották volna, akkor nem lenne szükség DirectX 12-re és Vulkan API-ra. Ehhez képest azt láthatod, hogy a játékok egy része már a DirectX 11-et is kidobta.
-
Yutani
nagyúr
válasz
Jack@l #56467 üzenetére
Ez alapján vihar volt a biliben a sok sírás-rívás, hogy a kártya meghal 8xPCIe 3.0-án:
Nem láttam a tesztben olyan játékot, ahol kritikus lett volna a visszaesés. Sőt, ha valaki fHD@60Hz-en van (mint én), semmit nem vesz észre. Tehát ha lenne normális áron ilyen kártya, meg merném venni.
-
Petykemano
veterán
válasz
Jack@l #56281 üzenetére
De egyrészt a Rocket Lake már tudja a PCIe4-et.
Másrészt a most útnak indult igen népszerű(nek ígérkező) 5x00G (Cezanne) processzorok meg nem. (Nem tudom persze, hogy akad-e 6600XT vásárló, aki 5600G-t vesz 5600X helyett)Én a "maga felé hajlik a keze" típusú szándékosság helyett azt látom, hogy ez PR fogás.
Tehát a tesztek nagy része úgyis PCIe4 rendszerben fog történni. És még ha ki is térnek ennek a hiányosságnak a felderítésére, az csupán 1 slide a 30-ból.
Tehát él Abu érvelése: jobban megéri ugyanarra a helyre 1WGP-t tenni, mint 8x PCIe csatolót. Legalábbis ma így van.
ha úgy alakul, hogy nőne a játékok memóriaigénye, akkor persze már hasznosabb lenne megcserélni. De addigra majd jönnek új kártyák. -
Petykemano
veterán
válasz
Jack@l #56279 üzenetére
Nem érted, vagy nem akarod érteni.
Vagy én nem értem, hogy Te mit akartál mondani.A pcix4-8x = pcix3-16x összefüggés csak elméletben igaz.
A kártya 8x PCIe4 sávval van szerelve. Ez elméletben ugyanakkora sávszélesség, mint a 16x PCIe3. De ha berakod egy olyan alaplapba, ami csak PCIe3-at tud, akkor a kártya csak 8x PCIe3 sávszélességgel tud kommunikálni.
Tehát de:
A jelek szerint aki Doom Eternal-t szeret játszani és ragaszkodik a 6600XT-hez, az jobban teszi, ha PCIe4-es alaplappal rendelkezik.hozzáteszem újra:
Jelenleg ez nem tűnik dealbreakernek. Csak a kártya ebből a szempontból nagyon pengeélen táncol, nincs benne tartalék, nincs benne "Fine Wine". Ha neadjisten 1-2 év múlva már kevés lesz a 8GB (ahogy ma kevés a 4GB) akkor az akinek még mindig csak PCIe3-es lapja van, az csúnya belassulást fog tapasztalni. (Ezt abból láthatjuk majd esetleg, hogy egyre több játékban lesz erősebb az 5700XT, mint a 6600XT. DE reméljük persze, hogy nem így lesz.) -
.Ishi.
aktív tag
válasz
Jack@l #56115 üzenetére
Z1ON fentebb linkelte:
Itt vannak tipikusan AMD-s címek is, de szerintem meglesz az RTX 3060 + 10%. Ha pusztán az MSRP-ket nézzük (legalábbis viszonyítási alapul), akkor szerintem így fog alakulni:
RTX 3060 - $330 - RTX 2070 szint
RX 6600XT - $379 - RTX 2070 Super szint
RTX 3060 - $399 - RTX 2080 Super szint
Így sem tűnik sajna olyan vonzónak ez a kártya.
#56116 Petykemano: Bár nem ismerem a kínai netkávézók sajátosságait, de ha van egy rahedli 1060-asuk, amit le akarnak váltani, akkor nem hiszem (csak és kizárólag az MSRP alapján), hogy 50 dolcsival többet kifizetnek +10% teljesítményért. Szerintem morgyi tapintott rá a lényegre: az RX 6600XT-t az AMD egyszerűen nem akarta beállítani egy nagyon vonzó opciónak. -
Petykemano
veterán
válasz
Jack@l #56092 üzenetére
> Legközelebbb 64 bites 4 gigásat adunk százezeré...
Egy látnok lehetsz
Az év végén megjelenő navi 24 szerintem pont ilyen lesz.
(De lehet, hogy már a 6600-ból is lesz 4GB-os.)> Már procinál is feltűnt, de átvették most a vga-khoz is,
> hogy az also kategóriában sokkal rosszabb a prf/dollar arány, mint a csúcskategóriában.
> Elég "érdekes" marketing stratégia.
Ez a "bármit és mindent is eladunk, ezért inkább azt vedd meg, amit drágábban adunk" stratégia. -
Petykemano
veterán
válasz
Jack@l #55982 üzenetére
Hát...
Szerintem két-három dolog áll a háttérben.Egyrészt a GDDR6 árak. Lehet, hogy az AMD úgy gondolja, hogy nagyobb hatással tud lenni az infinity cache megoldásán keresztül egy termék árazására, mintha a GDDR6 lapkák dráguló árazására hagyatkozna.
Az infinity cache meg amúgy is lehet, hogy ilyen musthave ahhoz, hogy két különálló lapkát egyben lásson a rendszer.
64bit GDDR6 vezérlő helyén monolitikus 7nm-en nagyjából 16MB oo$ fér el.
De ugye tudjuk, hogy a memóriavezérlő rosszul skálázódik, külön gyártva ugyanannyi lapkaméreten elfér 32MB is.Valójában ha a navi21 vonatkozásában akarnánk értelmezni, akkor a kérdés úgy szólna, hogy vajon további 128bit GDDR6-ot tudna-e helyettesíteni további 128MB oo$?
A másik fontos tényező az oo$ vs GDDR6 tekintetében az lehet, hogy az AMD eléggé elkezdte az architektúráit késleltetésre kihegyezni.
[link]
jó, ez nyilván nem most kezdődött, de olyan mintha most már kifejezetten cél lenne. Ami valahol logikus is, hiszen a magas fps-hez (alacsony frametime-hoz) nem csak magas frekvencia kell(het), hanem az is, hogy minél kisebb legyen a várakozási idő, az üresjárat.
Abu meg mintha azt is mondta volna, hogy ez a RayTracingnek is hasznos.További szempont lehet még az, hogy itt az FSR. Ennek a lényege, hogy alacsonyabb felbontáson számolódik a képkocka. Kisebb felbontáshoz nem kell olyan nagy sávszélesség, de az alacsonyabb frametime miatt fontosabb a jó késleltetés.
Számomra az egyetlen kérdés az kapacitás.
Tehát ha ugyanannyi GDDR6 lapkát kell feltenni, akkor nem sok költséget nyertél.Felmerül a kérdés, vajon a VRAM kapacitást nem spórolják-e ki majd az akkor már rendelkezésre álló 16xPCIe5 terhére?
-
Alogonomus
őstag
válasz
Jack@l #55856 üzenetére
A tensor magok használata nélkül is magas már az Ampere kártyák fogyasztása. Munkára fogott tensor magokkal vagy még vadabb fogyasztási értékek jelentkeznének, ami 2,5 kilós 4 slotos kártyákat eredményezne, vagy a tensor magok "felzabálnák" a fogyasztási keretet a hatékonyabb feldolgozók elől, ami meg simán teljesítményveszteséget okozna csak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55834 üzenetére
A probléma az eredeti algoritmussal az volt, hogy nem mindig végez elég jó munkát, illetve nem is gyors.
A "nem is gyorsra" az volt a válasz, hogy megkeresték azokat a részeit az számításoknak, amelyek marhára lassan futnának egy GPU-n. Ilyenek a különböző szögfüggvénye, a négyzetgyök, stb. Ezek azért futnak lassan, mert a fő ALU-kban, nincs rá utasítás egyik GPU-ban sem. Helyettük a multiprocesszorok tartalmaznak pár SFU-t, amelyek el tudják végezni a feladatokat, de úgy 32-, 256- rosszabb esetben 512-szer lassabban. Ez ugye elég nagy szopás ahhoz, hogy valós időben az alapalgoritmus ne legyen alkalmazható. Egyrészt az SFU-k száma nem sok egy teljes GPU-n belül, másrészt az egyes speciális operációk is 8-16 órajel alatt valósulnak meg.
Ezt a problémát kezeli a kódban egy 0x5F3759DF WTF-szerű ötlet, amely a lassan futó operációkat kicseréli alapműveletekre, amelyek több nagyságrenddel gyorsabban futnak, és ezért csak kevés pontosságot áldozol. Emiatt az alapalgoritmus teljesítménye az egyes GPU-kon akár a százezerszeresére is tud nőni, vagyis eljutottál ahhoz a tartományhoz, hogy valós időben alkalmazható legyen.A másik probléma a "nem elég jó munka". Ehhez az alapalgoritmusnak külön kezelték a képi hibákat adó részeit. Ezeket kompletten átírták, illetve a képi hibák lehetőségét mellőzni lehessen. Ugye ennek is az volt a kulcsa, hogy az alapalgoritmust átlagosan a sok tízezerszeresére gyorsították egy GPU-n, tehát most már van miből költeni a jobb minőségre. Ebből jön az élek rekonstrukciója, ami az eljárás alapja.
A további modulnak számító RCAS már csak egy adalék, ami extra helyreállítási munkát végez.
#55835 Petykemano : A Xilinxet nem ezért veszi meg az AMD.
A FidelityFX Super Resolution eleve egy rohadt gyors eljárás. Amellett, hogy ez adja az ismert eljárások közül a legjobb rekonstrukciós minőséget, még ez is fut a leggyorsabban a GPU-kon. Tehető ennél gyorsabbá is, de egy középkategóriás VGA-n sem számol 1 ms-nél tovább, ha azt leviszed 0,9-re, ami egyébként még talán realitás is, akkor sem nyersz vele sok sebességet, mert a képszámítási teljes idejének a töredékrészén optimalizáltál 10%-ot, vagyis a teljes képszámítás időigényén ez jó ha 1%-ot dob.
Jobb minőség sem várható, mert eleve képes arra az algoritmus, hogy a natívval nagyon megegyező minőséget csináljon. Elméletben a natív minőség a referencia. Papíron ennél jobbat nem lehet csinálni. Az más kérdés, hogy a FidelityFX Super Resolution esetében is van olyan, hogy az UQ beállítás szebbnek tűnik, de ugye papíron ez nem lehet szebb, csak szubjektív benyomás szintjén.
Az alacsonyabb felbontásról való rekonstrukción lehet javítani. De ez egy balansz kérdés. Minél alacsonyabb felbontásról skálázol fel valamit, annál nagyobb számítási teljesítmény kell magához a skálázáshoz, hogy jó eredményt érj el. Az AMD nem véletlenül ajánl előre skálázási paramétereket. Azok ugyanis a sweet spotok.
A másik dolog, hogy az AMD régóta tart FidelityFX-es preziket, és sokszor elmondták már, hogy az elmúlt évtizedben arra jöttek rá, hogy sokszor a legegyszerűbb megoldások a legjobb válaszok egy problémára. Semmiféle overengineeringet nem szabad felvállalni. A FidelityFX fejlesztése úgy működik, hogy feltárnak egy problémát, arra átbeszélnek pár megoldást, és abból mindig a legegyszerűbbet választják, mert az esetek 99,99%-ában az a legcélszerűbb. Amikor egy algoritmust bonyolítasz, akkor előjönnek vele a problémák, nehezebben kezelhető lesz, több limitációt kell figyelembe venni, arra nem is biztos, hogy mindegyik fejlesztő hajlandó. Magát a FidelityFX CAS-t is az egyszerűsége adta el. Ugyanezt az elvet követi az FSR is.
#55836 FLATRONW : Mire gondolsz NGU alatt? Hirtelen nem tudom dekódolni.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55832 üzenetére
Mert jóval több is. A Lanczos évtizedek óta a legjobb megoldás skálázásra, nem véletlen, hogy a MadVR is arra épít, de rengeteg olyan operációt alkalmaz, amelyben a GPU-k veszettül lassúak. Az AMD implementációja pont ezen módosít jelentősen, illetve az egész algoritmus problémáit kicseréli olyan eljárásokra, amelyek nem okoznak képi hibákat.
És figyeld meg, hogy mennyien be fogják építeni. Pont az a lényege, hogy semmiféle overengineering nincs benne. Egyszerű megoldás egy egyszerű problémára, ami akármilyen futószalagon belül működik, ráadásul 14 évre visszamenőleg fut a hardvereken.
-
válasz
Jack@l #55728 üzenetére
Nvidia megint gondban van Amd megint jó mert 128 bites kártyát adnak 399 dollárért de 1080TI!!!! saját játékokban, FHD ban CPU limites környezetben. és nem jó az nvidiára abban az 5 játékban az árnyékokra szabott láthatatlan Rt effekt . szóval jó az!...
Amúgy ez megint ilyen megvezetés árpletyka szerintem. Olcsóbb lesz majd a debüt napon mert az összes külföldi fórum fortyog., redditen még az ős / elvakult AMD fanok is morognak. -
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55709 üzenetére
Nincs 4K-s adatsorom róla. Igazából AMD-s sincs. OEM van, és abban csak 1080p-s mérések vannak négy DX12-es játékkal: Dirt 5, WoW: Shadowlands, Hitman 3, Assassin's Creed Valhalla
Viszont a proci egy Ryzen 9 3900, ami 65 wattos, és az NVIDIA DX12 drivere sokkal lassabb ilyen körülmények között. Viszont a 6600 XT úgy ~25%-kal gyorsabb, mint a 3060 Ti. WoW: Shadowlands-ben 40%-kal, de itt be van kapcsolva a sugárkövetés, ami ebben a játékban szintén nem kedvez az NV-nek, azt kikapcsolva már közelebb lennének. Egyelőre ennyi van.
4K-ban szerintem gyorsabb lenne a 3060 Ti, mert saját mérésekből kiindulva erősen látszik, hogy az NV még 1440p-ben is procilimites egy Ryzen 7 3700-zal, ami nem sokkal lassabb, mint a 3900. Az AMD már sokkal gyengébb procin sem limites 1080p-ben sem.
#55710 Raymond : Mint írtam, ár még nincs.
-
Devid_81
félisten
-
Yutani
nagyúr
válasz
Jack@l #55392 üzenetére
Erősebb kártyáknál jön ki a limit alacsony felbontáson, ha nincs alatta elég erős proci. Ez a limit úgy értendő, hogy ugyanazzal a gyenge processzorral az AMD kártyák több FPS-t adnak, mint az erősebb NV kártyák. Példa:
De annak ellenére, hogy kimérhető dolog, eléggé valószínűtlen, hogy előfordul ez a felállás. Ki raknak 3090 alá 1600X-et?
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55384 üzenetére
Ha megnézted volna azt a két linket, amit adtam, akkor tudnád, hogy ez igazából csak a DirectX 12-es játékokban jelentkezik. DirectX 11-ben és Vulkan API-val nem, ott valamiért nincs olyan gondja az NV-nek, hogy hamarabb fut CPU-limitbe.
#55385 Petykemano : Van. Két képet össze lehet hasonlítani pixelenként, és az eltérés erősen objektív adat. De a felskálázis eljárások eleve olyanok, hogy a hiányzó részleteket neuronháló(k) segítségével pótolják. Tehát pixelről-pixelre vizsgálva mindenképpen jelentős eltérés lesz a natív és a felskálázott kép között, mert se a DLSS, se az FSR neuronhálója nem alkalmas arra, hogy hajszálpontosan ugyanazt az eredményt adja, mint a natív felbontás.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55376 üzenetére
Sokkal reálisabb körülmények között bekövetkezik a GeForce-okon a DirectX 12-es alkalmazásokban a procilimit. Lásd linkek.
#55375 paprobert : Persze. A felskálázással hiába lesz 4K a kirakott a felbontás a számolt ennél sokkal kisebb, és arra már erősen érződhet egy procilimit. Ez egy ilyen móka. De nagyrészt ez elkerülhető az erős Ryzenekkel. Mi alapvetően azért mérünk a tesztgépben nyolcmagos Zen 3-mal, mert a hatmagossal már érezhetően büntit kapnak a GeForce-ok 1080p-ben, annak ellenére is, hogy a Radeonok tökre elvannak hatmagossal. Úgy gondolom, hogy 12-magos lenne az optimális, de egyelőre örülünk, hogy van nyolcmagos.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55373 üzenetére
Nem is arról van szó, hogy mit látsz, hanem arról, hogy milyen limitekbe ütközik a rendszer alacsonyabb felbontáson számolt képkockákkal. Erről linkeltem két tesztet fentebb, ahol sok procival és sok VGA-val nézték a problémát. És továbbra is hangsúlyozom, hogy attól ez a jelenség nem szűnik meg, hogy félsz rákattintani a linkekre, mert nem kompatibilisek az adatok azzal a világgal, amit felépítettél magadnak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55371 üzenetére
Attól, hogy nem fogadsz el egy tényszerűen kimért problémát a GeForce-okon, még létezni fog, és nyilván amíg ez kezelhető annyival, hogy 1440p-re rakod a számolt felbontást, hogy GPU-limitbe kerül, addig ez nem akkora para. De ez a gond a felskálázási technikákkal érződni fog, mert azok bizony nem fognak ilyen magas felbontásban számolni, tehát a valóban számolt felbontáshoz közeli limitek fognak élni. Lásd a fentebb linkelt két tesztet. Erre figyelni kell majd a tesztelésnél, mert ha nem raksz elég erős procit a rendszer alá, akkor könnyen lehet, hogy a Radeonok bőven GPU-limitben lesznek akkor, amikor a GeForce-okat még a gyenge proci akadályozza a skálázódásban.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #55369 üzenetére
Az alacsony felbontású számítás miatt alakul ki a CPU-limit. Van egy ismert problémája az NVIDIA kártyáinak, amik miatt a DirectX 12-es játékok gyengébb processzorokkal egyszerűen nem skálázódnak jól. Ez leginkább 1080p-ben és alatta keletkezik. Erről csináltak is teszteket. [link] és [link]
A jelenség megszűnik 1440p-ben és fölötte, de az FSR-rel a számolt felbontás alacsonyabb lesz a beállítottnál, pont úgy, ahogy a DLSS esetében, tehát a CPU-limit ugyanúgy érződni fog a DirectX 12-es játékokban a GeForce-okon, nagyjából úgy, mintha valóban 1080p alatti minőséget számolnál natívan.Ha valaki GeForce-szal játszik, érdemes Zen 3-ra lépnie, lehetőség szerint négynél több maggal, de az optimális a nyolcnál több. A Radeonok DirectX 12-ben sokkal jobban kezelik ezt a problémát, így azok nem skálázódnak annyira rosszul gyengébb CPU-kkal, mint a GeForce-ok. Ez is benne lehet egyébként abban, hogy az AMD miért mér jelentős gyorsulásokat RDNA 2-re az FSR-rel, miközben ezt meg sem közelítik a GeForce-os eredmények. Egyszerűen nem használtak a leggyorsabb Ryzent, hogy a GeForce-okat belefuttassák a CPU-limitbe. Ezt majd külön érdemes megnézni a tesztelőknek, így ajánlott Ryzen 9 5950X-szel dolgozniuk, hogy a GeForce-ok sebessége biztosan skálázódjon, ne a proci fogja vissza őket, amikor 1080p alatti felbontáson számolnak az aktivált FSR-rel. Minimum nyolcmagos Zen 3 kell egyébként, hogy a skálázódás elfogadható legyen, hatmagossal már érezhető, hogy a GeForce-ok olyan limitekbe fut 1080p-ben is, amelyeket a Radeonok meg sem éreznek, ezek nem nagyok, de egyértelműek kimérhetők. Biztosra 16-magos Ryzennel lehet menni. Főleg úgy, hogy FSR-rel simán 1080p alatt is számoltathatsz.
-
Yutani
nagyúr
válasz
Jack@l #55184 üzenetére
Ha már a 3060 is CPU limites, akkor fordulhat elő, hogy a 3080 is az lesz, és adott (alacsony) felbontáson nem fog sokkal magasabb FPS-eket produkálni a kisebb kártyától (viszont ebben a pillanatban nem tudnék rá példát mondani, de biztos van). A mester szerint a felskálázás esetében ugyanez fog jelentkezni. Már ha 1080p-ről vagy alacsonyabbról skálázunk fel 1440p-re vagy 4k-ra. Csak éppen alacsony felbontásról inkább gyengébb kártyákkal fogunk felskálázni, ahol még mindig inkább GPU limit van, mint CPU, szóval...
-
Abu85
HÁZIGAZDA
válasz
Jack@l #54939 üzenetére
Nyilván okkal törődünk egyre többet a konzollal a hírekben és a cikkekben is.
Az oldal felől ez egyszerű tényező. Ha más érdekli az olvasókat, akkor máshoz igazodunk. Egyelőre egyébként nem látom, hogy hatalmas para lenne itt, mert hiába drágák a hardverek, sokan megveszik, és van olvasó bőven.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #54900 üzenetére
Elég sokat. Ugye maga a PCI Express áll a vezérlőből, illetve az I/O kivezetésből. Utóbbival van a gond, mert az nem skálázható. Ez azt jelenti, hogy 28 nm-en is kb. ugyanakkora részt vesz el a lapkából, mint 7 nm-en, vagy modernebb node-on. Mivel a többi részegység skálázható, így jelen pillanatban ott tart a helyzet, hogy egy RDNA2 WGP annyi helyet igényel a lapkán, amennyit egy x4-es PHY tömb. Tehát ha 16 sáv helyett nyolcat használnak, akkor arra a helyre befér két WGP, vagyis 256 darab ALU részelem. És ha ezt tényleg az RDNA2-re számolod, aminél ugye a kisebb verziók 3 GHz környéki működésre vannak tervezve, akkor ennyi ALU lényegében +1,5 TFLOPS-ot jelent. Utóbbi sokkal többet ér, mint nyolc PCI Express sáv. Egyszerűen így gyorsabb lesz a hardver.
-
-
Alogonomus
őstag
válasz
Jack@l #54749 üzenetére
Nincs olyan, hogy "raytracinget", az nem egyetlen művelet. Az Nvidia RT magjai a DXR API rengeteg lehetséges funkciójából egy bizonyos halmaz használatához kimondottan hatékonyak. A maradék funkciókat pedig csak közepes, vagy rossz hatékonysággal tudják kezelni.
Az Nvidia készített egy versenyautót, ami versenypályára nagyon jó, terepre nem annyira. Az AMD készített egy városi autót, ami versenypályára nem ideális, de cserébe terepen is tűrhetően elboldogul. -
Abu85
HÁZIGAZDA
válasz
Jack@l #54742 üzenetére
Az új DXR igazából csak bizonyos lépcsőket átvisz programozhatóba. Tehát a mostani hardverek jók hozzá, csak bizonyos fixfunkciós blokkok nem fognak működni többet. A következő lépés inkább szoftveres szinten lesz lényeges. A hardverek megfelelnek elég sokáig visszamenőleg.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #54665 üzenetére
Miért fizetnének? Van pár sajtósa a gyártóknak. Ők küldik ki a különböző híreket. Erre van fenntartva nekünk egy külön e-mail cím. Némelyik hírt megírjuk, némelyiket pedig nem. Azért jelezni szokták, hogy mi az, ami számukra nagyon-nagyon fontos hír. Ezt sem kötelező megírni, de azért, amit ők maguknak fontosnak tartanak, az jellemzően nekünk is fontos. Általában az van, hogy ami nekik fontos arról mind írunk, és amit nem jeleznek fontosra, azok egy részéről is. Általában kisebb részéről. Amit fontosnak tartanak arra azért éri meg figyelni, mert nehéz hardverhez jutni a mai világban. Ha nem írsz róluk híreket, akkor nem nagyon küldenek hardvert, maximum akkor, ha GeForce Garage tag vagy, de az meg a függetlenség feladásával jár.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #54325 üzenetére
Manapság nem lehet. Korábban írtam, hogy az AMD a driverét védi online hitelesítéssel. Amíg egy hardverhez nem érkezik press meghajtó, addig csak úgy lehet egy nem megjelent GPU-ra meghajtót erőszakolni, hogy ha valaki csatlakozik az AMD szerveréhez a saját azonosítójával. Ezzel teljesen meghatározható, hogy egy kiszivárgott eredmény melyik gépen ment le a világon. Ezért nincsenek manapság korai leakek az AMD-től.
A nem védett meghajtó hétfő este óta érhető el.
Van pár játék, amiben elképesztően gyors az RX 6700 XT. Az RTX 3070-nál 14-20%-kal gyorsabb. Ilyen például a Dirt 5, a WoW: Shadowslands, a Fortnite, az AC Odyssey és az AC Valhalla.
#54326 gejala : Próbáljátok ki a múlt év végi patch-csel. Jelentősen gyorsabb. Nagyjából +30%-ot rakott rá az RDNA2-re. Az Ubi visszaportolta a Valhalla leképzőjében a cache-aware módosításokat. Emiatt működik most annyira durván.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #54160 üzenetére
Ha lassabbra várod, mint az 5700 XT, akkor mindegy, hogy milyen tesztet nézel róla. Igazából nem egy kategória lesz.
A sima 6700 közelebb lesz az 5700 XT-hez.
#54161 Petykemano : Annyit nem hoz, de Devid_81 nincs messze a tippjével. Az ördög egy picit a részletekben rejlik, de egy százalékos tippként nem volt rossz.
Egyébként nem a 6700-on fognak sokan meglepődni, hanem a 6600-on.
Szerintem arra váltani is fognak jópáran. Hogy mondjam, kis 80 wattos 5700 lesz, aprócska méretben.
-
Alogonomus
őstag
válasz
Jack@l #54005 üzenetére
Végül is az RTX 3060-as sorozat perf/watt értéke már látszólag rendben van, szóval az AMD kisebb teljesítményű CPU és GPU termékeihez a Samsung 8 nm is már jó választás lehet, mert a TSMC 7 nm-ért valószínűleg évekig nagy lesz még a verseny, miközben a Samsung még valószínűleg olcsóbban is adhatja a 8 nm-es wafert.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #53970 üzenetére
Beállítanak számítási távolságra vonatkozó határ a kamerától. Ennyi. Ha addig nem talált el valamit egy sugár, akkor arra lefut a miss shader. Ha volt találat, akkor az onnan származó minták alapján jöhet a hit shader.
A problémát alapvetően nem az adja, hogy a hardverek ne tudnának nagy távolságra sugárkövetést csinálni, hiszen a PS5 is megoldja. A gond az API-val van, ugyanis nincs támogatva a dinamikus LOD. Maga a LOD szint akkor kerül beállításra, amikor a sugárt kilövöd, de ekkor még nem tudni, hogy milyen felületeket fog eltalálni. Emiatt manapság az a trükk, hogy a LOD0-ra kilövik a sugarakat, de nem engedik őket messzire, mert ha mondjuk elvinnék a számítási távolságot mondjuk a LOD3-ig, akkor minden LOD1, LOD2 és LOD3 objektumra be kellene tölteni a LOD0 variánst is, és azok a VRAM-on belül súlyos 5-8 GB-ot is felzabálnának.
A PS5 API-ja azt csinálja, hogy a bejárás közben dinamikusan tud váltani. Ki vannak jelölve a határok, hogy hol vannak a LOD szintek, és ha túlmegy a LOD0 távolságon a sugár, akkor sem történik semmi, dinamikusan átvált LOD1-re, onnan LOD2-re, majd LOD3-ra... amíg bele nem ütközik a sugárkövetési távolságba. Ez a pókis játéknál azért kritikus, mert felhőkarcolókat mászol meg, és az tükrözi vissza a pályát. Nem lehet tehát direkt úgy tervezni a tereket, hogy a limitált sugárkövetési távolság ne érződjön, mert eleve a külső terek is körbe vannak véve nagy épületekkel, ahol pedig nincs, oda nem raknak olyan elemet, ami tükröződik.
PC-n ugyanaz erre a megoldás. A Microsoft már csinálja is a traversal shadert, ami ugyanúgy lehetővé teszi a dinamikus LOD-ot. Amint ez megvan, el lehet ereszteni a sugárkövetési távolságot, mert nem kell a LOD3-as távoli objektumokra LOD0-t használni, így nem eszi meg durván egy szimpla RT effekt a VRAM-ot. -
Abu85
HÁZIGAZDA
válasz
Jack@l #53965 üzenetére
A távolság a legnagyobb probléma, mert a tükröződésnek is van egy határa, az ameddig engeded a sugarat. De ha sokáig engeded, akkor a távoli objektumok is látszanak majd. Ez PS5-ön nem baj, de például a PC-s variánsa az RT-nek egyelőre nem támogat dinamikus LOD-ot, tehát a pár pixelt elfoglaló objektumokra is a max LOD-ot kell betölteni. Izgi mi?
Ezért nem nagyon tükröznek PC-n pár virtuális méternél tovább. Leginkább az első LOD szintig mennek csak, az még memóriakímélő. Ha elmennének mondjuk a LOD4-ig, akkor maga a visszaverődés effekt már súlyos GB-okba fájna a memória terhelését tekintve.
Erre lesz egyébként megoldás a traversal shader, amit a Microsoft hoz a DirectX-be. Ilyenkor maga a bejárási lépcső programozható, tehát lehet majd dinamikus LOD-ot alkalmazni. Ugyanezt csinálja a Sony is, csak ők eleve erre tervezték az API-jukat. -
#09256960
törölt tag
válasz
Jack@l #53588 üzenetére
Cyberpunk motorja az a The Witcher motorja, csak kivették a lovat mert nem nézne ki túl jól benne
Régen se arról volt ez a motor híres hogy száguldoztál benne. Keszeg nem sirály
Ettől azért vannak sokkal jobb motorok.
Meg egy Open World-re optimalizált memória kezelés az eltérő a "mész a csőben a Leszbi lánnyal"-tól(LOU2), ott lehet tudni mit kell betölteni, itt meg nem. -
Abu85
HÁZIGAZDA
válasz
Jack@l #53526 üzenetére
Az 1.0-t nyilván a Microsoft gyakorlatilag elintézte, hiszen a inline raytracing sokkal hatékonyabb, csak teremt egy rakás olyan limitációt, amit majd ismét kezelni kell. Ez lehet az egyik oka annak, hogy régen a traversal shader félre volt rakva, majd most hirtelen elővették. Most már bevállalják, hogy inkább ne működjenek a hardverekbe épített fixfunkciós blokkok, de bizonyos problémákra legyen megoldás. Ez igazából nekem erős kapkodásnak tűnik. De mint mondtam, mehettek az early access hardverek felé, csak ne lepődjetek meg rajta, ha hirtelen újakat kell venni, akár pár hónapon belül.
De ha bárki ebben nem kapkodást lát, hanem logikus fejlesztési lépcsőket, akkor elmagyarázhatja, hogy mi értelme a DXR 1.0->1.1->TS lépéseknek. A kompatibilitást már az első frissítés megtörte, majd a másodiknál kiveszik a rendszer alól az erre tervezett hardvereket. Ez nem stratégia, ez kőkemény kapkodás.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #53305 üzenetére
Se a DXR 1.0, se a DXR 1.1 nem támogatja a programozható bejárást. Arra már van ígéret, hogy a Microsoft a következő körben be fogja vezetni, de addig bizonyos algoritmusok, amelyek nagy teljesítménynövekedés, és sokkal alacsonyabb memóriahasználatot eredményeznek, nem implementálhatók szabványos formában.
A Radeon Rays 4.0 használata igényfüggő. Ennek két alapvető módja van. Az intrinsics elég egyszerűen beépíthető, de nagy előnyt sem ad, tehát használni ugyan lehet, de a nyerhető extra nagyjából megáll +10-15%-nál. A programozható bejárás, ami jelentős tényező, de ahhoz nagyon sokat is kell dolgozni. Leginkább akkor éri meg egy játékban használni, ha szabványosan nagy nehézséget okoz a programozhatóság hiánya. A Godfall például erre épít. Ebből nagyjából +40-50%-nyi tempót is lehet nyerni, miközben az effekt memóriahasználatát felezheti is. Emiatt kér a Godfall RT shadows effektje 4-5 GB-nyi VRAM-ot, mert amúgy 8-10 GB-ot igényelne, csak önmagában, tehát minden más, raszterizálással kapcsolatos igény nélkül. Azért én valószínűtlennek tartom, hogy a közeljövőben olyan extrám távolságokra nem lövik majd ki a sugarakat a játékok, mint a Godfall. Nem csak memóriapazarló, de alapvetően nem is hasznos, mert alig van látható előnye. Sokkal jobb ebből a szempontból a többi játék, ahol nagyon limitált távolságra dolgozik csak a sugárkövetés. Persze a Godfall védhető azzal, hogy eléggé open world, nagyon a kültéri területek, de akkor is overkill, amit csinálnak, főleg a memóriahasználatra nézve. A Microsoft külön kiemeli, hogy a DXR-ben nincs flexibilis LOD kezelés, így nem ajánlott a sugarakat a LOD0 határánál tovább lőni, talán a LOD1 még belefér, de akkor már minden LOD1-es objektumra be kell tölteni a LOD0-t is a memóriába, mert a DXR nem támogatja a LOD-váltás a sugár kilövése után.
A Godfall alapból a LOD4-ig dolgozik, vagyis minden objektumra, ami LOD4-ig megvan a jelenetben, arra be kellene tölteni a LOD0-s verziót, emiatt lesz brutálisan memóriazabáló. A Radeon Rays 4.0 annyit csinál, hogy lehetővé teszi azt, hogy a sugár kilövése után is lehessen LOD-ot váltani, és emiatt tud memóriát spórolni. De ilyenkor is így van felépítve, hogy a LOD1-re még a LOD0-t tölti be a sugárkövetéshez, tehát minden objektum két LOD szinten van a memóriában a LOD0-n kívül. Ennek egyébként sok értelme nincs, azon kívül, hogy valamennyire még eszi a VRAM-ot, bár nem annyira, mintha minden LOD0-val lenne betöltve.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #53298 üzenetére
A Hangar 21 nem teljesen DXR 1.1-es, hanem csak részben. A némelyik kód Radeon Rays 4.0-n fut, mivel a DXR nem támogat programozható bejárást. A Radeon Rays 4.0-ra viszont még nincs teljesen felkészítve az AGS 6.0. A driverbe épített aktuális implementáció nagyjából arra elég, hogy a Godfallt futtassa, de a Hangar 21 bonyolultabb, ahhoz egy újabb implementáció kell. Szóval ezt a demót hiába várod. Amíg nem lesznek kiadva az AGS+RR fejlesztések, addig nem futna a mostani szoftverkörnyezeten.
#53296 Petykemano : Az Navi 12.
-
acu
csendes tag
válasz
Jack@l #53156 üzenetére
Na mire összes fanboy identitászavarba került hogy intel és nV is le lett nyomva kisujjból, végre itt egy tradicionális AMD történet ahol gonosz Góliát bácsi bánccsa kicsi szegény több fronton harcoló chipgyártót és nem engedik oda az ampere kártyák felett rotyogó waffer kondérhoz. Lelki béke restored.
-
Callisto
őstag
válasz
Jack@l #53070 üzenetére
Az is voltam és valóban ha nincs idő, akkor szar ügy. De az engineket amiket használnak nem egy alkalommal annyira optimalizálják amennyire tudják. Nyilván elsődlegesen konzolra írt kódot mondjuk nem fognak túl optimalizálni, mert a PC nem a fő bevételi forrás. Business as usual. Egyed amid van.
-
Callisto
őstag
válasz
Jack@l #52780 üzenetére
Nekem az a bajom, hogy óriási architekturális lemaradásban van az AMD még mindig szerintem.
Szép és jó amit tud a Ryzen és az RDNA2, de mi lesz ha Intel kezd el 7nm/10nm-re gyártani? Mi lesz ha az NVidia?
RDNA2 20-25%-kal magasabb órajelen és 7nm-en kerül az Ampere közelébe (RT-ről inkább ne is beszéljünk...). Ez mutatja számomra, hogy architekturálisan nagyon-nagyon messze vannak sajnos. Szeretnék ismét AMD kártyát, de megvárom a jövő évet vele, mert ha most vennék nem AMD-t vennék.
De ez csak az én meglátásom. -
Simid
senior tag
válasz
Jack@l #52627 üzenetére
"nv tsmc 7nm-re megy év elején (de lehet 5nm év második felében), samsung max az alja kártyáknak marad."
Erre tudsz valami hivatalos forrást vagy legalább egy megbízható leaket? Vagy csak álmodtad? Úgy néz ki még a GA103 is samu lesz és nincs hír más lapkáról (a kisebb Ampereken kívül persze).
Nagyon valószínű, hogy 4-5 hónap és pár ezer eladott darab után a GA102/104 nyugdíjba vonul. Zseniális üzleti húzás lenne NV-től... Úgy hogy 7nm-en elegendő kapacitásuk sem lenne.
5nm-ről sem nagyon álmodoznék 2022 előtt NV-nél. Mobilokon kívül kb csak a ZEN4 cpu chiplet ami esélyes jövőre. -
Petykemano
veterán
válasz
Jack@l #52621 üzenetére
még mindig 5%-al kevessebbet megy, jobb gyártástechnológián
Jelentős az előrelépés. Ahogy azt ár többször mondtuk. Az AMD jelenleg az nvidia legnagyobb lapkájával verseng, míg korábban a második legnagyobb lapkát se tudta lehagyni. Ez igaz a Vega64-re és az 5700XT-re is.
Az 5%-ért cserébe átlagosan csak kétharmadannyit fogyaszt. Itt érhető tetten a gyártástechnológiai előny.
Ami "aggasztó", hogy abu ugye azt mondta, hogy az amd már eléggé kimaxolta a 7nm-t az elmúlt 3 generáció alatt, tehát nem valószínű, hogy fognak még megahertzeket találni, 5nm-en meg kezdődik elölről.
Az nvidia viszont a következő körben kiismerheti a 8nm-t és javíthat a frekvencián.
De ez majd a következő generáció zenéje. -
GeryFlash
veterán
válasz
Jack@l #52536 üzenetére
Sehol nem latok 100FPS-es 1440p-s BFV-t (85 es 92-es eredmenyeket lattam).
Es ja, mindenki tudta hogy gyengebb lesz DXR 1.0-nal az RDNA2, az hogy kb azonos kategoriaju kartyaknal, az hogy 10-20% kozott difi szerintem meg az elozetes varakozasok alapjan jonak is mondhato. BFV-ben hozza a 3070 szintjet, Metroban meg kicsit meg felette is.
Persze ertem, 150 dollarral dragabb kartyarol van szo, igazabol megint a regi tortenet, ha a jelenere akarsz venni kartyat akkor jobb a 3070. Ha meg mondjuk erdekelne a 2021Q2 utani gamek DXR1.1-gyel akkor meg nem kerdes se a 3070 se a 3080 10GB se lesz egy jovoallo kartya. De persze ha valaki a legjobb ar/erteku kartyat akarja DXR1.0ra akkor az NV jobb valasztas. Csak nem tudom hany ilyen ember van
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Milyen RAM-ot vegyek?
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- Kínai és egyéb olcsó órák topikja
- Forza sorozat (Horizon/Motorsport)
- Kerékpárosok, bringások ide!
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Nintendo Switch 2
- Hobby elektronika
- Nintendo Switch
- Melyik tápegységet vegyem?
- További aktív témák...
- Beszámítás! Apple iPad Pro 13 2024 M4 512GB Cellular tablet garanciával hibátlan működéssel
- Beszámítás! Lenovo Legion Slim 5 16AHP9 notebook - R7 8845HS 16GB RAM 512GB SSD RTX 4060 8GB Win11
- Csere-Beszámítás! RTX Számítógép játékra! I9 13900K / RTX 4080 / 32GB RAM / 1 TB SSD
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- Intel X540-T2 dual-port 10GbE RJ45 hálózati vezérlő (10Gbit, 2 port, áfás számla, garancia)
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest