- gban: Ingyen kellene, de tegnapra
- Brogyi: CTEK akkumulátor töltő és másolatai
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- zebra_hun: Hűthető e kulturáltan a Raptor Lake léghűtővel a kánikulában?
- Parci: Milyen mosógépet vegyek?
- vrob: Az IBM PC és a játékok a 80-as években
- sziku69: Fűzzük össze a szavakat :)
- gerner1
- Gurulunk, WAZE?!
-
LOGOUT
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
PuMbA
titán
-
S_x96x_S
addikt
válasz
T.Peter #59697 üzenetére
> En az sw/hw kozti elteresrol irtam.
sajnos nagyon nehéz leválasztani a sw és a hw -t az FPS-es eredményről ..
főleg ha a sw-hez hozzátartozik az ABU által említett:
- vajon "a fejlesztők mennyire tartották be az NVIDIA ajánlásait." .. témakör is.
( meg az AMD/Microsoft .. ajánlásait is )a legtöbb (vég) felhasználót ( ~ játékost ) meg
úgyis csak az ár/fps mutató érdekli, ami nagyon változatos ..A játékfejlesztőknek meg kompromisszumot kell kötni a konzolos AMD és a desktop-os nVidia dominancia között - ami nem mindig sikerül és itt az Intel is az ARC -al.
meg van még pár mobil GPU is.Tisztán csak a HW elméleti képessége is érdekes lehet ..
de a Cell procinál (PS3) nem mindig lehetett olyan könnyen gyakorlati teljesítményre átváltani. - vagyis kell a kettőt együtt nézni.Ha félreértettelek volna - akkor elnézést ..
-
Alogonomus
őstag
válasz
S_x96x_S #59692 üzenetére
És ehhez még hozzátartozik, hogy UE 5.1 esetén nem egy kikapcsolt RT melletti - mondjuk 10% - AMD előnyből lesz bekapcsolt RT esetén kiegyenlített a helyzet, hanem a 1440p esetén 1%-os XTX előny növekszik 4%-ra RT esetén, míg a 4K mellett még 96-82 állással 15% hátrányban levő XTX RT esetén már kiegyenlít, sőt 1% low tekintetében a 9% hátrányt 6% előnybe fordítja.
Persze egy mérés nem mérés, másik UE 5.1-es játékban esetleg más eredmény születik majd, valamint AMD processzorral mérve a SAM is valószínűleg jelentett 1-2% előnyt a piros kártyának, viszont az XTX drivere még a most elérhetőnél is kiforratlanabb állapotú volt.
Mindenesetre az első valós játékban mért UE 5.1-es RT eredmények határozottan a piros oldalnak előnyösebbek. -
S_x96x_S
addikt
válasz
T.Peter #59695 üzenetére
> mert nem sok kulonbseg van frame rate-ben hw rt off/on kozott.
"RT Lumen and Nanite" nincs engedélyezve akkor a 4080 4K-ban egy picit jobb.
Ha meg engedélyezve van, akkor már fej-fej mellett van a 2 GPU.
és ez már jelentős eltérés:4K 7900 XTX Fortnite DX12
- "TRS epic, Lumen Epic, Nanite" ON : 45 fps
- "TRS epic, Lumen Epic, Nanite" OFF : 82 fps <---- -
T.Peter
őstag
RX 7900 XTX vs Unreal Engine 5.1 with Lumen, Nanite, Ray Tracing, and TSR! (Tested in Fortnite) - YouTube
Unreal Engine 5.1 | RTX 4090 | Fortnite Updated with Lumen, Nanite, and more! - YouTube
Ezek alapjan mondjuk mindegy, mert nem sok kulonbseg van frame rate-ben hw rt off/on kozott. -
S_x96x_S
addikt
válasz
Yutani #59691 üzenetére
>> Abu85: NV hardverek ... A Fortnite például ilyen program.
> Viszont ahogy bekapcsolod az RT-t, okafogyottá válik a fejtegetésed.Fortnite ( RT Lumen and Nanite enabled ) esetén azért az 7900 XTX elég versenyképes,
és az RTX 4080 nem nagyon tud akkora előnyt mutatni.persze lehet más magyarázat is mint az ABU-é .. de akkor fejtsd ki jobban.
"What's interesting here is that ray tracing performance in Fortnite, which is one of the best examples of RT effects in any game right now, sees the 7900 XTX and RTX 4080 neck and neck. In fact, the Radeon GPU actually does a better job here with RT Lumen and Nanite enabled, and that's a surprising result."
https://www.techspot.com/review/2599-radeon-7900-xtx-vs-geforce-rtx-4080/ -
-
Abu85
HÁZIGAZDA
Nem is klasszikus CPU-limites. Inkább vegyes limit van. A klasszikus CPU-limit az, amikor sorakoznak a VGA-k. Ha nem sorakoznak, de nem skálázódnak annyira, az vegyeslimit.
Én meg isten tudja, hogy hányszor írtam le, hogy az NV hardvereknek nem az a baja, hogy ne tudnának működni, ha a program a root signature-be ment erőforrást, hanem az a bajuk, hogy ha nem így van megírva a program, akkor register flushra kényszerülnek, és ez elveszi a sebességet, amellett, hogy CPU többletterhelést is okoz. De ez játékfüggő. Ha az erőforrás berakható a root signature-be, akkor a flush elkerülhető, és elég csak az ellenőrzést futtatni a CPU-nak a driver által, hogy van-e elég regiszter a bekötéshez. A Fortnite például ilyen program. Tehát meg lehet írni úgy is a játékot, hogy skálázódjon a GeForce hardvereken, csak nem mindig kifizetődő, és az már a motor felépítésétől függ, hogy az-e. Ezért van az, hogy a régi HU-s overhead tesztekben az egyes D3D12 játékokban abszolút nem látszanak a GeForce-ok limitesnek, míg más D3D12 játékokban játékokban elég szar sebességet adnak gyengébb procival. Ez teljesen a játék válogatja, és főleg aszerint, hogy a fejlesztők mennyire tartották be az NVIDIA ajánlásait.
Egyébként attól is függ még, hogy saját memóriamenedzsmentet írtak-e a játékhoz, vagy egyszerűen letöltötték az AMD D3D12MA-ját, és jóvanazúgy, megspóroltak egy év optimalizálást. Ez azért kritikus kérdés, mert a D3D12MA csak a Microsoft ajánlásai szerinti bekötéssel tud működni, a root signature-be kötött erőforrásokat nem támogatja. Ezért nem túl jók a legutóbbi COD játékok GeForce-on, mert az Activision stúdiói leállították a saját memóriamenedzsment fejlesztését, és mindenhova az AMD D3D12MA-t használják. És ezzel jönnek azok a kötöttségek, hogy hiába mondja az NV, hogy nem olyan jó a GeForce-onak, ha nem a root signature-ben van az erőforrás, nem tudják hova helyezni, mert a D3D12MA máshol nem kezeli.
A 7900 XTX az talán pár százalékkal nagyobb sebességet kínálna a HU új tesztjében, mint a 6950XT, mert ott az MDIA. De a tesztelt játékok annyira nem használják ennek előnyeit, tehát maximum 2-3%-ról lenne szó. Kb. úgy nézne ki a teszt, hogy a WD Legion alatt a 4090 tud 90 fps-t a 13100 CPU-val, a 6650XT 98 fps-t, a 6950 XT 99 fps-t, és a 7900XTX tudna 100-101-et.
#59689 Hellwhatever : Kisebb GPU-t viszont használsz hozzá, és ott ugyanúgy létezik ez a jelenség. Alapvetően számolni kell azzal, hogy ha 150 dollár alatti CPU-t használsz, akkor D3D12-re jobb a hasonló árú Radeon, mert kisebb az overheadje a drivernek. De ez nem újdonság. Régóta így van.
-
Hellwhatever
aktív tag
Arra lennék kíváncsi hogy ez mennyire valós piaci szegmens: 3600 + 7900 XT(X)
Execute indirect meg CPU limit ide vagy oda megint nincs válasz a konkurencia zászlóshajójára, amire az RDNA 1 óta nem volt példa (5700 XT vs. 2080 Ti). Az az előrelépés amit az RDNA 2-vel összeszedtek (bemákoltak?) mára nagyjából el is olvadt és ezen egy rommá húzott 7900 XTX se segítene: OC comparison: Radeon RX 7900 XTX vs. Geforce RTX 4080 OC - ComputerBase
Nagyjából itt borul az az elmélet hogy az RTX 4090 fogyasztására adott reakciók miatt skálázta vissza az AMD a 7900 XTX-et... -
Ha az 5800X megfelelően erős lenne akkor az Ampere sem lenne CPU limites a fenti tesztben ,de a az 5800X mellett a 3090Ti CPU limites a 4080 meg 20% kal erősebb: tessék: [link]
Amúgy nincs olyan teszt amiben gyenge CPU mnellett benne van a 7900XTx és a 4080 is.
A HU kizárólag a 4090 et nézte ezért tettem be neked a Forntite FHD tesztet aminél a 7900XTX is CPU limites, a 6950 nel van pariban. Az az érzésem ha a HU tesztben benne lenne a 7900XTX és a 4080 is egy szinten lennének azokkal a CPU -kal. Szerintem amúgy nem rontok el semmit, az Ampere mellett kijött a különbség az 5800X -nél, te is láthatod az Ada-nál meg nem, összenézve a 7900XTX el. -
Néztem ezeket a játékokat,de szinte ugyan annyival gyorsabb FHD-n az RDNA3 mint 4 K-n nincs eltérés amikor CPU limit és amikor VGA limit van a két kártya között, sőt, FHD-n kisebb. ( 4080-7900XTX)
És például ezeken a képeken tökéletesen látszik hogy az Ampere megfekszik FHD-n, a 3090 Ti kikap a 6900XT től, majd 4 K-ban már odaveri vagy 15 % kal. Az Ada- RDNA3 között nincs ilyen. -
Abu85
HÁZIGAZDA
Az Ada ebben az Ampere-hez képest nem változott. Az RDNA 2-höz képest az RDNA 3 annyit változott, hogy kevesebb prociidővel is beéri az execute indirectes játékokban.
Ha pedig látni akarod ezt a limitet az Ada és az RDNA 3 esetében, akkor nézzél AC Valhallát, vagy Cod MW2-t. Azok CPU-limitesek, és a Microsoft ajánlásai szerint vannak írva, vagyis az NV-nek nagyon sok többletterhelése lesz a driver emulációs rétegéken intenzív működése miatt.A CPU-limit önmagában nem számít, ha a Microsoft ajánlásaival ellentétben van írva a program. Akkor a GeForce is tud jól működni. Le is írtam a linkelt hsz-ben, hogy miért. Akkor van nagyon erős többletterhelés a GeForce-on, hogy a Microsoft ajánlásai szerint vannak elhelyezve az erőforrások. Ez régen is így volt. A korábbi HU tesztben sem volt mindig driverből mindent verő a Radeon. Bizonyos játékokban volt az. Nyugodtan nézd vissza.
-
HSM
félisten
Ebben az is benne lehet, hogy a 4070Ti mindenhol nagy számban kapható, ezerféle modell. Ehhez képest 7900XT és XTX alig és kevés fajta van készleten, főleg az AIB modellek ritkásan.
Én egyébként gondolkozás nélkül egy jó AIB 7900XT-t vinnék 4070Ti-k helyett. Van egy 3060-am, engem nem győzött meg különösebben sem a DLSS, sem a driver. Ugyanúgy teszi a dolgát a 6800XT is. Persze, valamivel több a bug, de ezt nálam ellensúlyozza, hogy nincs regisztrációhoz kötve egy halom hasznos funkció, és ezerszer kényelmesebb a felület. -
Hidd el nem kételkedek abban amit írsz csak lássak erre mérést ( ezért kár hogy a HU kihagyta ezt) majd ahol ez látszik, mert jelenleg a régi játékokkal, se gyengébb ( 5800X 5600X ) sincs olyan tesztben ( már kb 1,5 órája nézek videókat és olvasom őket) nem látszik az ami az RDNA2- Ampere helyzet volt 1080p-n . Vagy az RDNA3 nál történt negatív változás vagy az Ada-ban pozitív változás.
A Fortnite egyértelműen CPU limites RDNA3 nál is ugyan olyan mértékben.
Most szerintem engedjük el , mert én tényhívő vagyok, majd ha lesz ilyen teszt visszatérünk rá A HU nem ezt tesztelte ,amit én kérdésként feszegetek. -
Abu85
HÁZIGAZDA
[link] - mert nem olvastad el ezt. Ebben benne van, hogy az NV hardverét is lehet jól működővé tenni, ha az adott motor megszegi a Microsoft ajánlásait, és olyan helyre rakja az erőforrásokat, ahova nagyon nem ajánlott. Ennek megvan a maga baja, de alapvetően megcsinálható. Vannak azonban olyan stúdiók, akik nem tesznek így, például Ubisoft, Infinity Ward, Treyarch, IO interactive, ésatöbbi-ésatöbbi. Ennek ezernyi oka lehet, például akár olyan banális is, hogy egy erőforrásra olyan formátumot használnak, amit nem eszik meg a root signature, tehát akármennyire is követni akarnák az NV ajánlásait, muszáj a Microsoft által javasolt helyére rakni az erőforrást.
Ezért van az, hogy a HU is csak bizonyos D3D12 játékban mér erőteljes limitet, és nem mindenhol. Jellemzően az Ubisoft játékokban, mert azok erőforrás-kezelése teljesen szabványos, ugyanis elég sok olyan formátumot használnak, ami nem tölthető be a root signature-be. Nem tudnak mit tenni ezzel, nem úgy építették fel a motorjaikat, hogy figyelembe vették volna az NV hardverek kényességét, utólag átírni pedig már extrém körülményes lenne, mert minden optimalizálást az aktuális működésre húztak fel. Egyszerűen meg kell várniuk, amíg az NV hoz egy pure bindless hardvert, és akkor az is úgy fog működni, ahogy a Radeonok.
-
Leírtad én meg elírtam hogy ezt nem látom sehol hogy így lenne még nálatok teszten sem. Mit nem értesz meg ezen?
Ott a Fortnite teszt a 7900XTX CPU limites mint az állat a 6950XT vel van egy szinten, mint a 4080 ugyan úgy, 1080 P-n .
Én elhiszem neked, csak mutass már nekem egy 1080P-1440P tesztet ahol a 4080 CPU limites a 7900XTX meg nem.
Pont ez volt a kiindulási kommentemben is... -
Abu85
HÁZIGAZDA
Leírtam már párszor, hogy az RDNA 3-nak a többletterhelése az RDNA 2-nél is kisebb. Emiatt még gyengébb procival is beéri. Ennek az oka, hogy minden olyan előnnyel rendelkezik, amivel az RDNA 2 rendelkezett, és mellé még az MDIA fel tudja venni az execute indirectet alkalmazó játékok parancskötegeit, amikről ad egy információt a drivernek, hogy ha látja a parancsköteget a parancslistában, akkor ne is költsön rá a CPU erőforrást, hanem csak szóljon az MDIA-nak, hogy a GPU-ban letárolt adatot töltse be újra. Ezzel minden ilyen művelet nulla CPU-időt vesz igénybe az RDNA 3-nál. A többi hardver azért bukik ezen, mert nem tudja hol tárolni az előre felvett parancsokat, egyszerűen minden frame során újra meg kell csinálni ugyanazt, míg az RDNA 3 addig csak töltöget, amíg a parancsok ismétlődnek. Tehát az első feldolgozás után minden további ismétlés teljesen ingyenes a CPU oldalán.
Ezt az MDIA-t valószínűleg sokan le fogják másolni a jövőben, mert nem nehéz megvalósítani hardveresen, és elképesztően sokat ér CPU-limites környezetben.
-
Abu85
HÁZIGAZDA
A HU már csinált egy tesztet 4090-nel és 6950XT-vel. [link] - látható, hogy az overhead probléma az erre érzékeny D3D12-es játékokban megmaradt. De ez normális. Ahhoz, hogy ez megváltozzon, az NV-nek pure bindless hardvert kell építeni. Utána ki tudják dobni a driverből a bekötéshez számukra alapvetően szükséges emulátort, ami végeredményben a nagyobb többletterhelést okozza.
-
-
Yany
addikt
Hát nem csak a felső, de a középkategóriában sem képes piacot szerezni: [link] Nem kicsit jobban megy a 4070Ti, mint a Radeonok.
Ez nagyon gyengus. Érdemes lenne valakinek ott a csapatban elfilózni, hogy mivel a teljesítménnyel nincs gond, vajon mivel van. Én már többször is elsoroltam. -
Abu85
HÁZIGAZDA
Megvan ugyanez a különbség az Ada és az RDNA 3 között is. Annyi, hogy az RDNA 3-nak az MDIA miatt, az RDNA 2-höz viszonyítva még kisebb lett a többletterhelése az execute indirecttel dolgozó D3D12 címekben.
A problémát egyébként leírtam elég részletesen ebben a hsz-ben: [link]
-
4080 ról van szó és CPU limitről. CB tesztben UHD fölött és alatt is tesztelik őket és QHD ban is.
[link]
tehát továbbra is kíváncsi lennék arra alacsony felbontáson a 7900XTX hogyan viselkedik a 4090 és 4080 mellett .
CPU limites helyzetben meg van e ugyan az a forgatókönyv ami volt az előző genben, mert nekem nem úgy tűnik, [link] de nem találok teszteket FHD-n régebbi CPU val, mert újabbakkal alacsony felbontáson a 4080 előnye nagyobb. -
PuMbA
titán
válasz
Alogonomus #59671 üzenetére
Ebben a generációban az ár a mindent eldöntő tényező. Az NVIDIA azért ad ilyen gyér specifikációs 4070 Ti-t és azért lesz ilyen gyér a 4060 specifikációja, mert ennyi fér bele az árba ezen a gyártástechnológián. Ez nem feltétlenül baj, mert az előző generáció használtan ott van, az kegyetlen olcsó marad az idők végezetéig, csak így nehéz helyzetben van a 4000-res széria, mert házon belül a 3000-res konkurenciává válik. Kíváncsi vagyok, hogy az NVIDIA hogy akarja ezt kisakkozni.
-
Alogonomus
őstag
Az állást nagyban befolyásolja majd, hogy hány játék esetén jelentkezik az a komoly előny, amit a két legutolsó Call of Duty játékban láthattunk, illetve az UE 5.1 játékok aránya, mivel abban az RT látszólag az RDNA 3-nak kedvez, legalábbis a 4080 vs. 7900 XTX tesztben mindkét felbontás esetén az XTX jött ki jobban az RT bekapcsolásából.
-
Abu85
HÁZIGAZDA
Az 5800X az egy gyors processzornak számít, így csak ott ütközik a GeForce limitbe, ahol nagyon erőteljes az execute indirect használata. Gyengébb procival nyilván nem kellene erőteljes processzorterhelés a játék oldaláról. Ezt egyébként a beállításainkkal eleve igyekszünk kiütni, mert VGA-tesztről van szó, de nem minden játékban sikerül.
Majd csinálunk ilyen CPU-GPU párválasztó tesztet, ahol nem törekszünk erre.
-
PuMbA
titán
Ha az AMD nem tolja el az árazást, akkor decimálhatja az alsó és közép kategóriás lagymatag NVIDIA kártyákat. A felső kategória most sem lesz az AMD tere, ott az NVIDIA tud jobbat és a CPU limit se számít annyira, mert akinek van 1 milliója VGA-ra, annak van pénze a legerősebb procira is.
-
HSM
félisten
"Magyarul ott is megmaradt e ez vagy az RDNA3 mar elter a 2-tő."
Ha már találgatós... Nem hinném, hogy eltérne. A blokk alapján maradt a parancskiosztás alapvető felépítése, így a driver sem hinném, hogy jelentősen eltérne, legfeljebb a shader fordítás bonyolódott picit meg a dual-issue miatt.
RDNA2: [link] , RDNA3: [link] . -
Nekem egyertelmu.amire reagaltam az a GPU cpu igenyere irt.Kivancsi lettem volna a 7900xtx nel mi a helyzet mert ott a tesztek alatt nem lattam jelentos elterest alacsonyabb felbontasban az Ada es RDNA3 kozott ,de lehet tevedek.Magyarul ott is megmaradt e ez vagy az RDNA3 mar elter a 2-tő.
-
HSM
félisten
Én nemrég próbáltam a next-gen Witcher 3-ban mindkettőt minőségi beállításon, ugyanaz a minőségvesztős homályos kép.
A DLSS kicsit kevésbé, mint az FSR2.1, de inkább maradtam natív, de alacsonyabb felbontáson ugyanahhoz az FPS-hez TAUU-val, tűéles, részletes, gyönyörű képpel.
Ami meg a tempót illeti, max RT-vel az RX 6800XT-n volt natív FHD-n 30-35FPS, a 3060-al natívan 20, minőségi DLSS-el épphogy 30, de úgy meg a képminőség ment a sutba. Számomra egyáltalán nem lett volna ez így alternatíva. Persze, a 6800XT nyilván drágább, de van is mögötte teljesítmény. Az RT-hez szükség is van rá.
-
PuMbA
titán
válasz
Petykemano #59662 üzenetére
A 3060-nak szerintem van két ütőkártyája. Egy a DLSS. Például a most kijött FSR 2.2 frissítés az F1 22-ben a DLSS-hez képest minőségben egy nagy nulla lett. Kettő, én például Cyberpunkot tolom RT-vel és a 3060 így pár fps-sel az RX6800 mögött van teljesítményben, szinte egál. Én ezek miatt vettem 3060-at használtan 120k-ért
Ha ezek nem számítanak, akkor a 6700XT szerintem a legjobb vétel, használtan.
-
Petykemano
veterán
válasz
hokuszpk #59659 üzenetére
Ezt értem, de ennek szerintem nincs relevanciája abban a vitában, hogy milyen gyakori lehet az az szituáció, mennyire életszerűek azok a CPU-GPU kombinációk, amelyben a szóbanforgó feature (alacsonyabb driver overhead) hasznosan tudja kifejteni hatását.
Egyébként mondanám, hogy például életszerű szitáció lehetne az, amikor van egy már korosodó processzorod (Piledriver, Ivy vagy Haswell pl) és GPU-t szeretnél újítani. Lehet, hogy ebben a helyzetben ebből a szempontból a kisebb driver overheaddel rendelkező AMD kártya választása előnyösebb.
Csakhogy...
[link] -
HSM
félisten
Tényleg nem értem, mi nem érthető azon, hogy a CPU-t próbálta tesztelni, kiiktatva a GPU limitáló hatását?
De volt ott azért gyengébb VGA is, szemléltetve a reálisabb összeállítást.
De egyébként nekem WQHD alatt is már kevésnek érződött bizonyos címek multijában az R5 3600-asom (kb a tesztbe az 5500 szintje) egy RX6800XT mellett, az 5600-al viszont már kellemes a tempó mindenhol. -
hokuszpk
nagyúr
válasz
Petykemano #59657 üzenetére
bánygépbe celeronokat meg pentiumot pakoltak 4-5 db RX570...RTX2080...RTX3080 mellé.
-
hokuszpk
nagyúr
válasz
Petykemano #59644 üzenetére
"Egy 4090 mellé ugyanis nem fogsz belépőszintű processzort venni, "
dehogynem. csak épp nem játékra ; es gyorsan kopogjuk is le, nehogy visszajöjjön a kryptoőrület.
-
bitblueduck
senior tag
válasz
NvidiaRTX #59642 üzenetére
ezt miért ide írod? szerintem küldj egy cv-t ezzel a szöveggel a frostbyte csapatnak felvesznek lead engine architect pozira.
azt csak megemlíteném, hogy steam hw survey top100-ban nincs geforce 40 vagy rx 7000 series gpu, egyik modell sem ugorja meg a 0.15%-ot.
értem én hogy vettél egy 4080-at de attól még nem akörül forog a világ. -
Petykemano
veterán
AYANEO to feature Ryzen 7000 CPU and discrete GPU
Ez vajon a Navi33 lenne? Elfér az egy kézikonzolban? -
M.T.
senior tag
válasz
Petykemano #59648 üzenetére
Szerintem Totál felesleges 6 magot 3D cache -el ellátni már játékokban és az elkövetkezőkben is elkél a 8/16 ha több nem is. Persze lenne rá vevő de nem lenne annyival olcsóbb.
-
Alogonomus
őstag
válasz
Petykemano #59648 üzenetére
Egy lényegesen olcsóbb 7600X3D csak a 7800X3D eladásait csökkentené jelentős mértékben, amivel pénzt veszítene az AMD. Egy minimálisan olcsóbb 7600X3D pedig keveseket érdekelne, mert akkor már kifizetnék a teljes gép költségének a szintjén maximum 5%-ot jelentő felárat a lényegében egy 7700X "felturbózott" változatának tekinthető 7800X3D-ért.
Új AM4 processzorra pedig azért nem számíthatunk szerintem, mert az AM5 elterjedését így is nagyon akadályozza az 5800X3D megléte. Anno lényeges volt annak a processzornak a kiadása, hogy az Intel utolsó "bástyáját" is ledöntsék vele, de jelenleg már inkább az AM5 felé szeretné terelni a vásárlókat az AMD, mert az alaplapgyártók már AM5 lapokat szeretnének eladni.
Egy lényegesen olcsóbb 5600X3D bemutatásával csak új lendületet/reményt kapna az AM4-es tábor, és kevésbé lenne hajlandó AM5-re váltani. Főleg úgy, hogy az új kártyák is maradtak PCI-E 4-esek. -
válasz
Petykemano #59648 üzenetére
Nekem R5 3600 van 3060 Ti mellett. Dying Light 2-vel játszom mostanában, RT be van kapcsolva. Afterburner szerint a CPU elvan ilyen 35W fogyasztással, míg a VGA teker 160W-on. Előtte 1600X volt, és szerintem az is kiszolgálná ugyanígy a 3060 Ti-t, mert nem a CPU a szűk keresztmetszet.
Igazából csak azt akarom mondani, hogy persze, hogy jó az 5800X3D, de egyrészt egy közepes VGA-hoz overkill, másrészt meg ha azt nézem, hogy 40k körül van újonnan R5 3600, míg a legolcsóbb új 5800X3D 157k, legfeljebb 50% teljesítmény többletért nem fizetnék háromszoros árat. Persze ez mind az én szemszögömből nézve igaz, másnak más preferenciái vannak.
-
Petykemano
veterán
válasz
Yutani #59647 üzenetére
Csak érdekességképpen küldöm, mert felmerült bennem is a kérdés, hogy jójójó, helytállni biztos helytáll egy midrange GPU mellett egy 5 éves CPU, de mit adna hozzá egy új CPU?
Elég érdekes. zen2-ről zen3-ra nem feltétlenül érdemes váltani, bár van különbség. De a 5800X3D baró! Ha az AMD ledobna egy 7600X3D-t (vagy legalább 5600X3D-t), akkor azzal igencsak nagy népszerűségre tehetne szert.
-
-
Z_A_P
addikt
válasz
NvidiaRTX #59642 üzenetére
egy 5 éves CPU-t fog majd használni játékra modern VGA mellé.
Miert ne, ez lenne a PC ertelme, nem kell kidobni es ujat venni, eleg komponensenkent bovitgetni, csak amit epp kell.
2023-ben az az évi meg az az előtt évi hardverekhez optimalizálja az új játékait.
Itt van pl csak az intel legujabbja: [link] Meg sem szamolom mennyu cpu.. -
Busterftw
nagyúr
-
Petykemano
veterán
válasz
NvidiaRTX #59637 üzenetére
Ez egy CPU teszt volt, nem pedig GPU.
Azért használták a 4090-et és azt is 1080p-n, hogy a CPU-k összehasonlításából minél inkább kiszűrjék a GPU limitet. Ha 4K-ban mérnek, ahol a GPU limitál, akkor lehet, hogy szépen le lehet olvasni a grafikonról, hogy a 4090 mennyivel gyorsabb, mint a 6950XT, de nem biztos, hogy kiderül, hogy melyik processzort érdemes venni.(Régebben volt olyan technika is, hogy 720p-ben mértek és abból próbáltak következtetni a processzor jövőállóságára. Csak ezt a 720p-s tesztet ritkán végezték el belépőszintű processzorokon, amitől nem is várja senki, hogy jövőálló legyen.)
Ez persze nem nagyon változtat azon, hogy amit Abu többször elmondott, hogy az AMD driver overhead-je kisebb, vagyis kisebb terhelést tesz a CPU-ra, és ami ebben a tesztben megmutatkozik, annak a valós felhasználási körülmények között kevés valós hatása van.
Egy 4090 mellé ugyanis nem fogsz belépőszintű processzort venni, a 4090-et kevéssé valószínű, hogy 1080p-ben fogja használni a többség (kivételek lehetnek) és a belépőszintű proci mellé valószerűen vásárolt 1080p-ben használt középkategóriás GPU esetén pedig megintcsak nem fog érezhető hatást kifejteni a kisebb driver overhead.
-
PuMbA
titán
válasz
NvidiaRTX #59642 üzenetére
Muszáj figyelembe venni a játékos társadalom többségét és ott húzni meg a minimum gépigényt, ami ma GTX1060 6GB / GTX1070 és RX580. Steam felmérésben jól látszik, hogy a legnépszerűbb VGA-k azok ezek körül vannak és a játékfejlesztő nem akar elesni az eladásoktól és profittól. Hiába vesz valaki 4090-et, a játékokat nem teljes mértékben arra optimalizálják, hanem a középkategóriára, mert ugye a konzolokon is jól kell futniuk és a konzolokban szintén RX6700 10GB / RTX3060 szintű VGA van.
-
NvidiaRTX
őstag
Igen és 2023-ba valszeg valaki egy 5 éves CPU-t fog majd használni játékra modern VGA mellé.
Na ez a baj... hogy aki nem akar fizetni a teljesítményért panaszkodik hogy rosszul megy a játék.
Itt sokan tényleg azt hiszik, hogy ma még mindenre elég egy GTX 1080.
Hát nem. Még a 3060Ti-vel is csak 1080p-ig merészkednék el 2023-ban.Nem kell itt 10 évre visszamenőleg optimalizálgatni. Akinek nincs pénze modern PC-t venni az vegyen új konzolt, kb ugyan azt a grafot fogja kapni meg FPS értéket mint a sok sok éves PC.
2023-ben az az évi meg az az előtt évi hardverekhez optimalizálja az új játékait. -
NvidiaRTX
őstag
Erre csak 3 dologgal tudok reagálni:
-Optimalizálatlan játékok.
-Lefizetett fejlesztők.
-Rosszul használt hardverek. (a fent mutatott 1080p 4090 esete)
Ha a konzolokon meg tudják oldani az optimalizálást akkor PC-re is meg lehetne csak nem 20 percig tartana hanem 1 hónapig mivel többféle összeállítás van.
Elég lenne úgy optimalizálni hogy:
AMD CPU + AMD VGA
AMD CPU + NV VGA
Intel CPU + NV VGA
Intel CPU + AMD VGA
Ha egy játék képes felismerni azt, hogy DLSS3-re kifejlesztett VGA van a gépbe akkor mást is fel tud ismerni és annak a hardver optimalizációját használná.
Amúgy meg teljesen mind1. Az NV optimalizált gémeket 4K-ba visszük végig az AMD-re optimalizáltakat meg 1440p-be nagy kunszt. -
PuMbA
titán
válasz
NvidiaRTX #59637 üzenetére
1440p-ben nem vagyok biztos, mert sok tesztben még ott is proci limites volt. 4K-ban volt csak tisztán VGA limites a 4090. Kár, hogy nem mérték ki ebben a felbontásban is a Hardware Unboxed-osok. Ennek a tesztnek majd a közép kategóriás kártyákkal lesz még jelentősebb eredménye.
-
NvidiaRTX
őstag
Hát aki 1080p-re vesz 4090-et az jó nagy barom.
Ezeknek a teszteknek semmi értelme így, tesztelje 1440p-be vagy 4K-ba amire valóak azok a VGA-k.
Ja hogy ott már nincs akkora különbség.
Abu:
"Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak"
Te melyik vagy? -
PuMbA
titán
válasz
hokuszpk #59635 üzenetére
Új hozzászólás akart lenni.
CPU & GPU Scaling Benchmark, Core i3-13100 vs. Ryzen 5 5600: Sub $150 Battle
RX6950XT veri a 4090-et ezekkel a CPU-kkal. AMD VGA-khoz tényleg elég gyengébb proci. Ray tracing alatt a 4 magos Intel decimálja a 6 magos AMD-t
-
NvidiaRTX
őstag
-
X2N
őstag
válasz
Petykemano #59631 üzenetére
Csak 2 dolgot felejtettél el.
1. Nvidia is csinálhatna éppenséggel handheld/asztali konzolt saját hardverrel.
Elnézve a steam deck népszerűségét még akár sikeres is lehetne.
2. Ahogy Linus Torvalds is mondta: Nvidia is the sigle worsth company we've ever dealt...
Közös termék a Sony-val háát..szerintem kérdéses.
+1 Cloud akkorát bukott hogy csak na. Ezt senki nem fogja bevállálni mégegyszer. AI az új buzzword, ettől nem lesznek jobb játékok.
-
Petykemano
veterán
válasz
T.Peter #59630 üzenetére
Egyet tudok érteni a felhozott ellenérveiddel.
És én sem azt mondom, hogy ez biztosan be fog következni.A kérdés nem az volt, hogy fog-e változni az, hogy az AMD a konzol hardver beszállítója és ennek megválaszolása közben körül kell járni a lehetséges alternatívákat.
Nem tudom, mennyire szorít a cipő a sonynál. Csak olvasom, hogy a MS negyedévente felvásárol egy stúdiót és nemsokára jöhetnek a cloud native játékok az Azure-ba. Az ha mondjuk exkluziv nem is lesz, de mondjuk mit lép a Sony, ha a MS úgymond a ChatGPT-vel turbózza fel a játékélményt? Nem előre megírt scriptek, hanem valódi dialógus egy RPG-ben? Egyénre szabott játékmenet?
Nekem úgy tűnik, hogy ugyan a Sony még lehet, hogy több konzolt ad el, de hosszútávú kilátásai a MS-Nak jobbak. Ha és amennyiben így van, akkor a Sony kiszorulhat. Amit vagy.elfogad és ennyi, vagy megpróbál erősíteni, ahol lemaradásban van.
Nem csak cloud tekintetében, hanem az AI vonatkozásában is az egyik ász az Nvidia. A vele való partnerség a sonynak cloudot, és AI know-howt hozna, az nvidiának pedig a PS-t vásárlókat és előfizetőket.Ez persze továbbra is csupán egy szcenárió arra nézve, hogy milyen feltételek/körülmények mentén látnám elképzelhetőnek a konzol hardverbeszálllító váltást. Lehet, hogy a sonynak egész más tervei vannak.
-
T.Peter
őstag
válasz
Petykemano #59627 üzenetére
Habar en nem latok bele, de fejlesztoi oldalrol nezve nem hiszem, hogy orulne a szakma ha mindent amit eddig az amd-vel kitapasztalt dobhatna ki. Plusz a ket konzol kozti kulonbseg is megnone ami ugyanugy megnehezitene a dolgunkat. A visszafele kompatibilitas is megszunne. Emellett pedig sok elonyet sem latom a valtasnak.
-
válasz
Petykemano #59627 üzenetére
Az Arm az adatközpontok miatt kellett az Nvidiának, a z a zsíros falat, ahogy Grace oda is jön. Játék vonalon marad a Tegra szerintem. Remélem az idén bemutatják az újat. 80 SM verziós Ada-t pletykálnak az új Switchnek, ami nagyon odatesz a nagyoknak is, ha igaz.
-
Petykemano
veterán
válasz
NvidiaRTX #59619 üzenetére
Mi volt előtte? A MS PowerPC (IBM) processzorral és ATI videokártyával készült.
A Playstation 3 IBM-Toshiba-Sony kooperációban készült Cell nevű CPU-t és Nvidia gpu-t tartalmazott.Az IBM szerintem 2010-es évek elejére már felhagyott a konzumer processzorok tervezésével. Így maradt az x86, de valószínűleg a Jaguar magok teljesítményét lehetett volna hozni Arm magokkal is.
Ahogy az előttem szólók elmondták fontos szempont lehetett a GPU IP, amivel az Intel pl valóban nem rendelkezett valamirevaló GPU-val.
Az Nvidia nem rendelkezett x86 licenszszel, de szerintem ez másodlagos, mert lehetett volna Arm magokkal is. (Nem kizárt, hogy az Nvidia Shield az Nvidia a konzolok irányába való nevezésének (PoC) egy mellékterméke)Az AMD leginkább CPU-GPU közös címtérrel (Fusion) és ahhoz kapcsolódó víziókkal előzte meg versenytársait. (Nem kizárt, hogy az akkori marketinganyagok a Fusion-ről nem is nekünk fogyasztóknak szóltak, hanem alapvetően a B2B ügyfeleket igyekeztek elsősorban meggyőzni)
Ez a szempont az elmúlt 1 évben látszik változni. Egyrészt az Intel rendelkezik már GPU-val. Lehet, hogy nem a legjobb még, de lehet, hogy házon belül fejlesztett csomagolási rendszerek, a "Fusion" és OneAPI által kínált lehetőségek elég vonzóak lesznek.
És az Nvidia is nemsokára élesben fogja demozni a Grace formájában a CPU architekt leleményességét.A másik szempont pedig az lehetett, hogy sem az Intelt, sem az Nvidiát nem lehetett olyan mértékben kézivezérelni, mint az eléggé legatyásodott AMD-t. Az AMD feltehetőleg jobb ajánlatot adott az árra vagy a rugalmasságra vonatkozólag.
Ez a szempont annyiból változhatott, hogy talán ma már az Intel is lehajolna ilyen lehetőségért. Az Nvidiánál nem látok változást.
Viszont egyre inkább teret nyer a Streaming-Gaming. A Sony tudtommal ezen a területen kissé le van maradva, együtt is működik a MS-tal. A MS cloud gaming viszont erősnek tűnik. Az Nvidia üzemelteti a Geforce Now-t. Félig-meddig talán ellenérdekelt is MS szekerének tolásában. Viszont mivel a Sony ezen a téren le van maradva, így nem zárnék ki a jövőben egy Sony-Nvidia együttműködést, aminek része az, hogy a Sony a GFN cloud gaming szolgáltatásra nyergel át és az Nvidia fogja szállítani a konzol hardvert. (Azt se tudom kizárni, hogy ezzel párhuzamosan esetleg az Arm felvásárlásának stratégiai célja a gaming Arm CPU-ra való átterelése lett volna)
-
PuMbA
titán
válasz
NvidiaRTX #59621 üzenetére
"És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?"
Felesleges, mikor egy ITX házba vehetsz olyan CPU-t és GPU-t, amivel ezt megcsinálhatod most is, de amit HSM ír is fontos. Tehát hogy a Sony és a Microsoft is módosított AMD GPU-kat használ, további speciális hardver egységekkel megfejelve, tehát a PC-s szoftverkörnyezet nem jó hozzá (Windows, DirectX 12 stb.).
-
NvidiaRTX
őstag
Ahhha most má értem.
És azzal nem próbálkoztak, hogy PC-be is kiadják ezt a brutál erős CPU/GPU cuccot?
Tehát mittomén aki nem akar nagy PC házat összerakni viszont kellene neki egy konzol erejű PC akkor egy kisebb "dobozba" is összehozhatná ezt?
Sztem ez megint egy fogyó eszköz lenne. Tudod mint egy Intel NUC csak nagyobb lenne kb mint egy Series S. -
Raggie
őstag
Arra utal a kolléga jogosan, hogy az eredeti állítás az volt, hogy teljesítményben javulnak a kártyák sokat a driverrel.
Itt nem történt semmilyen abszolút teljesítmény javulás, csak a fogyasztás csökkent bizonyos helyzetetkben.
Ez jó, de nincs köze a jelenleg folyó (és szerintem parttalan) vitához... -
Raggie
őstag
válasz
NvidiaRTX #59600 üzenetére
Ez egy részlet der8auer eredeti videójából, ahol egy tudottan hibás RX 7900 XTX-et bekapcsol és kijön a füst belőle(direkt azért vette a hibás kártyát, hogy troubleshoot-olja).
Mostanában mém lett belőle a nagy meghibásodási rátájú MBA RX 7900 XTX-ekre utalva, de emiatt sokan azt hiszik ez egy új kártya amit először beindítanak...
LINK az eredeti videóhoz -
FLATRONW
őstag
válasz
Alogonomus #59602 üzenetére
Itt szó sincs a tartalékok kihasználásáról a driver fejlesztéseknek köszönhetően.
Néhány százalékot, mindkét oldalon hoznak játékonként.
Amit látunk az említett játékoknál, az egyszerűen annak köszönhető, hogy jobban fekszenek az AMD-nek.
Mindkét oldalnak megvannak az ilyen játékai. Már az 5700XT megjelenésekor is volt olyan, hogy a sima 5700 30 százalékkal gyorsabb volt, mint a 2060 Super.
Például a 7900xt már a megjelenés napján COD-ban, Far Cry-ban megközelítették vagy meg is előzték a 4090-et, mindenféle driveres maszatolás nélkül.
Nagy átlagban elmondható, hogy a helyzet nem igazán változott 2019 óta. Az 5700 XT akkor is gyorsabb volt 10+ százalékkal a 2060 Supernél, és most is gyorsabb nála ennyivel. -
NvidiaRTX
őstag
válasz
Alogonomus #59602 üzenetére
"volt még mit kiaknázni az 5700 XT-ből driverekkel az elmúlt évek alatt"
Csak amire kiaknázzák az erejét arra az a VGA már elavult lesz technológiailag.
RT-be nulla és a fogyasztás/teljesítmény aránya is sok lesz az újakhoz képest.
Lásd 3080 vs. 4080. Szinte ugyan az a fogyasztásuk de a 4080 "kicsit" erősebb.
Már most van olyan cím ami megfektet egy 4080/4090-et mi lesz még év végéig?
Akkor mit akarunk egy ~3 éves VGA-tól pláne driverileg?
A játékokat kéne a hardver-hez optimalizálni gyerekek.... és nem fordítva. -
válasz
Alogonomus #59602 üzenetére
Össze vissza beszélsz és vetítesz itt. .
-
NvidiaRTX
őstag
válasz
TESCO-Zsömle #59601 üzenetére
Ú de rég láttalak Teszkós zsömi, mian veled úgy mindennap?
Hogy miért füstölt el. -
Raymond
titán
válasz
Alogonomus #59602 üzenetére
Amiket leirtal itt most peldakat azok sehol nem azt bizonyitjak amit allitottal:
"Másik oldalról nézve viszont az Nvidia kártya startkor mutatott teljesítményéről tudod, hogy az a maximum, amire valaha számíthatsz tőle. AMD kártya startkor mutatott teljesítménye viszont csak a potenciálja 70-80%-a, ami talán csak egy év múlva fog 100% közelébe érni"
Ezt a driverekrol szolo diskurara valaszoltad hogy az NV kartyaknal nem hoznak ujabb driverek mar semmit az AMD kartyak viszont csak 70-80%-on menek es evek mulva a drivereknek hala erik el a teljes potencialjukat.
Az itt leirt "bizonyitekoknak" semmi koze az allitasodhoz.
-
Alogonomus
őstag
válasz
Raymond #59598 üzenetére
Az állításom az volt, hogy a kártyában volt 20-30% tartalék a 2019-es megjelenésekor. Ennek a bizonyítására legegyszerűbb nyilván felhozhazni a Call of Duty: Modern Warfare 2 eredményeket, amikben a 2060 Super 1440p Ultra esetén 48-67 állással 40%-kal, míg 1440p Basic esetén 87-120 eredménnyel "csak" 38%-kal kap ki az 5700 XT-től. Az 5700 XT rendelkezett driveren keresztül "mozgósítható" tartalékokkal, míg a 2060 Super nem, pedig 3 éve a bemutatásukkor még nagyjából 5% volt csak kettőjük között.
Szolidabb bizonyítékként 1440p felbontáson felhozható az AC: Valhalla is, ahol 64-79-es állással 23% az 5700 XT előnye, Forza Horizon 5 esetén 95-126 33%, Far Cry 6 84-104 24%. Persze ezek AMD-szponzorált címek.
De Nvidia-szponzorált címekben, mint például a Death Stranding 102-131 eredménnyel 28% a különbség, Watch Dogs: Legion pedig 61-72 végeredményt hoz, ami 18%.Vagyis egyértelműen volt még mit kiaknázni az 5700 XT-ből driverekkel az elmúlt évek alatt.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Telefon felvásárlás!! Apple Watch Series 6/Apple Watch Series 7/Apple Watch Series 8
- Samsung 840 SSD 120GB újszerű, 100/100
- ÁRGARANCIA!Épített KomPhone Ryzen 7 9800X3D 64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
- Samsung Galaxy S23 128GB, Kártyafüggetlen, 1 Év Garanciával
- Samsung Galaxy A15, 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged