Keresés

Új hozzászólás Aktív témák

  • huskydog17

    addikt

    válasz Busterftw #71359 üzenetére

    Senki nem kapott 8 GB-os kártyát az RX 9060XT-ből. Az AMD pontosan ugyanazt csinálja itt, mint az NVIDIA a 5060Ti esetén: kizárólag a 16 GB-os változatot küldik tesztelésre.

    CB:
    "ComputerBase hat zum Start die 16-GB-Version der RX 9060 XT im Test, die 8-GB-Version hat AMD wie Nvidia bei der Ti nicht bemustert."

    Hardwareluxx:
    "Die Radeon RX 9060 XT wird es wie die GeForce RTX 5060 Ti in zwei Varianten geben: Einmal mit 16 GB an Grafikspeicher und einmal mit 8 GB. Vorab an Samples verteilt hat man nur solche mit 16 GB Grafikspeicher und auch für den morgigen Test und die weiteren Karten heißt es: nur Varianten mit 16 GB."

    És igen Linus azon kevés nagy tesztelők közé tartozik, akik ezt szóvá teszik és nem csak az NV-nél drámáznak. Érdekes módon a HWU például most nem drámázott emiatt.

    Sajnos az AMD olyan nagyon vakon másolja követi az NV-t, hogy még a hülyeséget is azonnal másolják. Gamersnexus Steve-nek igaza van abban, hogy az AMDN-ek most be kellett volna fognia a pofáját most az egyszer, csakhogy pont emiatt, ha már ők is ugyanúgy szégyellik a 8 GB-so verziót, akkor nem kéne verni a mellüket, hogy ők aztán annyira transzparensnek a tesztelőkkel meg így megy ügy közben a kutyának a micsodáját. Az NV legalább nem hazudott ekkorát.
    Valahogy az AMD nem képes egy launch-ot se hiba nélkül levezényelni.

    Amúgy szerintem ez a téma bőven on topic jellegű hiszen mégis a 9060XT-ről van szó. Rosszul látom ezt? Csak nem értettem, hogy b.-vel együtt miért raktátok off topic-ba ezt a dolgot.

    A hivatalos válasza az AMD-nek, miszerint regionális tesztelőknek küldenek egy bullshit, ahogy Linus is mondta, itt mindössze arról van szó, hogy az AMD szégyelli a 8GB-os változatot és nem akarják hogy launch napján a tesztelők lehúzzák, azaz ugyanaz a lemez, mint az NV-nél. Mindenben mennek a zöldek után, jóban rosszban őket követik. Mindegy mit csinál az NV, nekünk is azt kell csinálni gondolkodás nélkül és kész. ;]

  • huskydog17

    addikt

    válasz Abu85 #71156 üzenetére

    Áhá, tehát akkor hazudtak a saját hivatalos prezentációjukban, értem. Akkor ki is téveszti meg az egész világot? Hmmm... (Költői kérdés volt)


    Ezen már meg se lepődőm. Úgy látom még mindig nagy a káosz náluk. A prezin 180-at adtak meg úgy, hogy OC sehol nincs feltüntetve.

    Tehát akkor még nem tudjuk hogy 160 vagy 180 az igazság, meg kell várjuk a független teszteket, talán a független tesztelők le tudják mérni pontosan. ;] :D

  • huskydog17

    addikt

    válasz PuMbA #71124 üzenetére

    Igen, ezért is vicces látni néhány AMD fanatikusnál, hogy korábban mennyire hangoztatták milliószor, hogy mennyire jövőt állóbb a két csúcs RDNA 3 kártya főleg a sok VRAM miatt, aztán nesze neked. Úgy látom, nekik a VRAM előny/hátrány az RDNA 4 érkezésével hirtelen már nem is fontos. :DDD :DDD
    Persze, hogy ugyanazt csinálja, mint minden másban, névadás (hardver és most már szoftver terén is), új feature-ök (néhány éves lemaradással), árak stb. A kreativitás legkisebb szikráját sem látni náluk, a legszigorúbban nyomják a copy-paste-t, persze valamilyen mértékben kell is, ha "versenyben" akarnak maradni, de legalább a névadásban egy pár percnyi energiát beleölhettek volna, ha már piacot jól láthatóan mégse akarnak szerezni, na mindegy, ők tudják.
    Az Intelben több kreativitást látok. :D

    A gond, hogy FSR 4 terjesztésében viszont nem másolják az NV-t, pedig az AMD-nek legalább annyira kéne tolnia az FSR 4 terjesztését (vagy még jobban), mint ahogy az NV tolja a DLSS 4-et, de hát ahhoz több pénz kéne, amihez több eladás, amihez....és hosszan lehetne folytatni.

    #71151: Nem 160, hanem 180 Watt!
    8 GB-os 9060XT -> 150W
    16 GB-os 9060XT -> 180W

    Két éve az RTX 4070-nél ugyanez volt, a legtöbb custom design brutálisan túlméretezett tégla volt, ezért is választottam akkoriban olyat, amit normálisan csináltak meg és nem méretezték feleslegesen túl. A túlméretezés már megszokott jelenség mindkét oldalon.

  • huskydog17

    addikt

    válasz PuMbA #71112 üzenetére

    Az SDK azoknak a fejlesztőknek jó, akik saját maguk akarják integrálni a játékukba, az AMD segítsége nélkül. Az AMD mérnökei a nélkül is bele tudják rakni, azért vannak a szponzorált játékok, hogy oda raknak 1-2 szoftvermérnököt, akik segítenek belerakni egy adott feature-t a játékba. Nem kell hozzá GPU Open, semmi köze hozzá. Az majd a független fejlesztőknek lesz segítség, de én az AMD saját szponzorált játékairól beszéltem, ott az AMD mérnökei meg tudnák csinálni, csak azt az AMD-nek pénzelnie kell, amiből nincs sok jelenelég az RTG-nek.

    A 7900XTX felhasználókat nem nagyon fogja vigasztalni, én értem, hogy miért nincs ott FSR 4, ezt le is írtam, nekem ezzel nincs bajom, viszont sok AMD felhasználót ez a legkisebb mértékben sem fogja érdekelni, ők annyit látnak, hogy NV oldalon minden RTX kártya megkapta a DLSS 4-et, míg a piros oldalon csak legújabb kapja meg az FSR 4-et. Ezek után vicces lesz olvasni bárkinél, ha valaki azt írja az AMD kártyákra, hogy mennyire finewine. Értem én, hogy az AMD-nek mindenképp meg kellet nyomnia a reset gombot FSR-nél, hogy értelmes minőséget kapjanak, ezzel viszont ugrott az eddigi "jövőállóság", amit egyesek rendszeresen szerettek emlegetni a piros oldalon. Korábban volt itt VRAM jövőállóság, ami a kukában landolt, mert az RDNA 4 jóval kevesebb VRAM-ot ad, mint a 3 (24GB vs 16GB), most meg az FSR jövőtállósága is a kukában landolt az RDNA4-exkluzivitással. Lassan elfogynak az érvek piros oldalon.

    Ha pedig belegondolunk, hogy az összes jelenlegi laptop APU-ban RDNA 3.5 vagy régebbi IGP van, nos, ott lesz majd valószínűleg nem kevés csalódott felhasználó. Még az agyonsztárolt agyonhype-olt Strix HALO is RDNA 3.5-t kapott, nincs hozzá FSR 4 támogatás. Márpedig az igencsak borsos árú termék, konkrétan csúcstermék. Még meg se vette a felhasználó, de már arcon van köpve ebből a szempontból.

    #71113 Busterftw: Nem volt túl sok elvárásom, de azt az alacsony lécet is sikerült alul múlniuk rendesen, én naivan azt gondoltam, hogy talán kicsit több effortot ölnek a az új szoftveres húzó feature-ökre, de igen a VGA-k copy paste átnevezése után ezen sem kéne meglepődni, mondjuk nem is lepődtem meg, inkább csak egyfajta újabb csalódás, hogy már erre se pazarolnak időt és energiát. A 40%-os piaci részesedés ígéret után az ember azt hinné, hogy most rákapcsolt az RTG, de ezek a lépések pont azt mutatják, hogy továbbra is ultra low efforton működnek. A 9060XT árazás ugyanezt erősíti meg, továbbra is csak hozzááraznak az NV-hoz ozt csókolom, aztán megy az istenítés meg "5060 killer" meg ilyen hülyeségek.

  • huskydog17

    addikt

    válasz PuMbA #71099 üzenetére

    Ez igen, az AMD abszolút zéró effortot ölt az elnevezésekbe, most már azzal sem foglalkoznak, hogy saját neve legyen a saját technológiájuknak.

    Neural Radiance Caching -> egy az egyben átvette az NV-től, még csak meg se próbáltak alternatív nevet keresni CTRL+C CTRL+V

    Ray Regeneration -> komolyan? itt valamit megpróbáltak alkotni, hogy legalább a legminimálisabban legyen eltérés a nevek között, aztán megkérdeztek egy 5 évest, aki megmondta a tutit, hát hogy ha már a Frame Generation a menő, akkor legyen a denoiser is egy generátor.

    Reméljük, hogy a fejlesztésbe több effortot ölnek, mint a névadásba, mert a névadás egyenlő a nullával. Gondolom a meló nagy részét a Sony majd elvégzi, aztán az AMD-nek már csak finomhangolni kell a dolgot, hogy beleférjenek a büdzsébe. Miért gondolom ezt? Végtelenül egyszerű: amikor már a saját maguk által szponzorált játékba (pl.: Oblivion Remastered) sem tudják szállítani natívan az FSR 4-et, akkor ott nagyon nagy megszorítások lehetnek. Na persze driver-ből lehet nyomni az Override-ot igen, na de a saját reklámjátékukba miért nem raknak natív implementációt? Ez főleg az FSR 4-nél lenne nagyon fontos, hogy minél több játékban legyen natív FSR 4 implementáció, mert a játékosok többsége nem fog a driverben turkálni. Szerintem egyszerűen azért nincs, mert nincs pénz, nincs kellő emberi erőforrás megcsinálni. Láttuk, hogy az RTG milyen nagy kakiban van, nyilván ők nem úszkálnak úgy a pénzben, mint a CPU részleg. Spórolni kell, ahol lehet.

    Na persze az új FSR 4 bejelentések az RDNA 3 felhasználókat (főleg a 7900XT/XTX felhasználókat) nem fogja vigasztalni, ők továbbra is hoppon maradnak.
    Nyilván tudjuk, hogy technikai oka van, mert fp16-on emulálva az fp8-as modell túl lassú. Itt majd az lesz a döntő kérdés, hogy az AMD-nek megéri-e fp16-ra is trainingeztetni az FSR 4-et. Üzletileg nyilván nem, mert az lenne az érdekük, hogy mindenkit RDNA4-re tereljen, másrészt viszont rengeteg usert magukra fognak haragítani. Milyen szép is lehet, amikor a user megveszi sok ezer dollárért a csúcs Ryzen APU-s notit és az FSR 4 nem működik rajta.

  • huskydog17

    addikt

    válasz PuMbA #70548 üzenetére

    Korábban egyébként pont arra számítottam, hogy a sima 9070-es lesz az értelmetlen termék a túl pici árkülönbség miatt, mert a tesztek előtt arra számítottam, hogy jóval nagyobb lesz a sebességkülönbség la kettő közöté s nem csak 10%. Most ,hogy kint vannak a tesztek, pont az ellenkezőjét látom én is, hogy inkább a sima 9070 tűnik értelmesebb SKU-nak, mert a 9070XT-nek megint csak jól kinyomták a szemét, agyon van húzva. 10%-al gyorsabb csak, miközben vagy 40%-al magasabb a fogyasztása.
    Ahogy már másik is mondták, valószínűleg ennyi van ebben az architektúrában, nem is lett volna semmi értelme gyorsabb SKU-t csinálni.

    CS2-ben ha az ember ki akarja maxolni a grafikát, akkor nem annyira mindegy, hogy milyen VGA van alatta, leginkább 4K esetén.
    Na persze tudjuk, hogy az igazi profik 1080p minimumon játszanak vele. :D Az viszont tény, hogy a CS az egyik olyan játék, ahol az RDNA4 nem hozza az elvárt teljesítményt. Nem érdemes szerintem az ilyen dolgot a szőnyeg alá söpörni, mert ahhoz túl népszerű játék, ha az a sok millió játékos látja, hogy NV-n jobb a tempó, akkor az AMD soha nem fogja meggyőzni ezeket a játékosokat. :)

    #70549 X2N: 600 dolláros új VGA tesztnél én se látom semmi értelmét 1080p/mediumon tesztelni, ahogy a Techspot tette. 4K maxon már más a helyzet.

  • huskydog17

    addikt

    válasz Jacek #70545 üzenetére

    Nem értem honnan jön az 50%, amikor az RTX 5070 és 4070S pontosan ugyanazt az árat kapta (mindkettő $599).

    #70539 PuMbA: Jelenleg nem mindenhol tudja megelőzni a csúcs RDNA4 a csúcs RDNA3-mat, sőt több játékban a 7900XTX gyorsabb, még RT címekben is, viszont ahogy nő az RT terhelés, úgy nő az RDNA4 előnye (legtöbb esetben). Sajnos az RDNA4 teljesítménye egyelőre még nagyon ingadozik, nem olyan konzisztens, mint a zöldeknél.
    Az RT gyorsulás nem vitás, viszont Path Tracing továbbra is felejtős AMD oldalon.
    A 7900XTX nem csoda, hogy több raszteres és néhány RT játékban gyorsabb, hiszen sokkal nagyobb és erősebb GPU, sokkal több ALU-val és RT gyorsítóval. Ugyan ezeket az egységeket masszívan gyorsították ugyan az RDNA4-ben, viszont a 7900XTX-ben annyival több van belőlük, hogy a számuk számos játékban kompenzálja a sebességbeli hátrányt.

    Ez tökéletesen lekövethető például a PCGH teljesítményindexe alapján:

    Raszternél 9%-al gyorsabb a 7900XTX, normál RT terhelésnél már 5%-al lassabb, míg PT esetén 14%-al lassabb. Ahogy láthatod átlagosan meglehetősen kicsi az eltérés, pedig RT-ben nagyot ugrott az RDNA4, viszont vannak olyan RT, sőt PT játékok is ahol mégse tud ellépni az RDNA3-tól (pl: Half-Life Tray Traced, Portal RTX).

    Vannak non-RT, tehát raszteres címek, ahol szintén vannak komolyabb sebességgondok, ahol különösen gyengélkednek az RDNA4 kártyák, ezt a CB szépen össze is foglalta, hogy melyik kategóriában vannak különösen nagy eltérések.

    Aztán ahogy der8auer rámutatott Counter-Strike 2 és Valorant alatt is túl gyengék, az RX 7900XTX 54%-al gyorsabb, mint az RX 9070XT. Ez nem normális. CS2 alatt több tesztelő is megerősítette a gyenge szereplést, pl. Hardwareluxx és Techspot.
    Hardwareluxx esetén különösen pocsék lett az eredmény CS2-ben, ott egészen a sima RTX 4070-ig és 3080-ig zuhan a tempó. Egyértelmű, hogy ott valami nem kerek még, könnyen lehet, hogy ez is driver gubanc, ugyanis az AMD szólt a CB-nek, hogy a Warhammer Space Marine 2 alatti gyenge szereplésért egy driver bug a felelős, amit hamarosan javítani fognak, így simán lehet, hogy a CS2-nél is talán ilyesmi van. Mivel a CS2 a világ legnépszerűbb e-sport játéka, így ez nem éppen jelentéktelen probléma.

    Azzal maximálisan egyet értek, hogy az FSR4 viszont piszok jó lett, végre egy értelmes, jó minőségű felskálázót rakta le az asztalra és rögtön hozza a CNN alapú DLSS szintjét. Most már csak azt kéne minél jobban erőltetniük, hogy visszamenőlegesen is minél több játékba kerüljön FSR 3.1, hogy az RDNA4 tulajok tudják használni az FSR 4-et.
    Az is érdekes, hogy az AMD ezt a drivers FSR4 felülbírálást ugyanúgy whitelist alapján csinálja, mint az NVIDIA, ami teljesen logikus, hiszen ki kell tesztelni, hogy az adott játékban jól működik-e az új feature. Mivel a DLSS4-et támogató játékok száma már 100 felett van, így az AMD-nek teljes erőből kéne ezt pusholnia, hogy minél több játékban legyen legalább FSR 3.1. Ez esetben aki RDNA4-et vesz egy korábbi AMD gen-ről annak lesz oka ismét végig vinni azt a játékot, ahol korábban nem volt FSR 4 de már van/lesz a sokkal jobb képminőség okán, ezzel további vásárlókat is lehetne bevonzani. Emiatt mondhatni szinte spamelniük kéne a piacot FSR 3.1/4 játékokkal.

    Az lenne szerintem az abszolút minimum, hogy legalább a saját maguk által szponzorált játékokba kéne legalább FSR 3.1-et rakniuk.

  • huskydog17

    addikt

    válasz X2N #70501 üzenetére

    "Hány %-ot gyorsult generációnként az RT a 20/30/40/50-es kártyákon mindenféle felskálázás meg frame generation nélkül?"

    Ezt nagyon nehezen lehet megválaszolni, mert ahhoz sok olyan játékot is tesztelniük kéne a független tesztelőknek, amelyek még a Turing korszakban jelentek meg és kaptak RT-t, rendkívül kevés ilyen volt akkor, lassan indult be, de az első ilyen játék a Shadow of the Tomb Raider volt. Szerencsédre a Kitguru még alkalmazza ezt a játékot a mai napig, ráadásul RTX 3070 is van a tesztben, ami pontosan egyenlő teljesítményt ad az RTX 2080Ti-al, így a 3070-es eredményei tökéletesen tükrözik, hogy mire lenne képes a 2080Ti.

    Az eredményeken jól látszik, hogy ha kizárólag az adott generáció csúcsát nézzük (RTX 2080Ti vs RTX 5090), akkor kb. 4× a gyorsulás. Ha azt nézzük, hogy kereken 1000 dollárért mekkora az előrelépés, akkor ott kb. 2,5 gyorsulás látható (RTX 2080Ti vs. RTX 5080)

    FullHD-ban a csúcskártyák között már csak 3× gyorsulás van.

  • huskydog17

    addikt

    válasz zseko #70417 üzenetére

    Az tök jó, hogy fut, tehát elindul, csak annyira rossz a performance, hogy játszható sebességhez brutálisan le kell butítani mind a grafikát, mind a felbontást (tippre talán 720p minimumon ki tud préselni 20-25 fps-t). Pont emiatt nem támogatott VGA a fejlesztők részéről, nem üti meg a minimumot, mert a minimálian elvárható sebességet sem képes hozni. Az, hogy neked extrém alacsonyan vannak az igényeid, az számodra nagy szerencse, de ettől még irreális elvárás játszható sebességet várni egy olyan játéktól, ami egyrészt csúcstechnológiát vonultatja fel, másrészt nem is támogatja a hardvered. Na most figyelembe véve, hogy 720p rendering felbontáson és minimum grafikán egy RX 580 kemény 14 FPS-t tud kitolni belőle, a Vega56 kb. 18-20 fps-re lehet képes, mivel átlagosan kb 40%-al gyorsabb, mint az RX580. A 15-20 fps a játékosok kb 99,99999%-nak játszhatatlan kategória és a fejlesztők 100%-a szerint is. Te akkor abban a szerencsés helyzetben vagy, hogy számodra ez az ultra alacsony sebeség játszható. Ez a sebesség minden, csak ne normális, a "normális" játszható sebesség ott kezdődik, hogy fix 30 fps.

    Egyre több olyan játék van és lesz, ahol a Vega már nem támogatott VGA. Ez azt jelenti, hogy ha még valahogy el is indul a játék és bármilyen technikai problémával szembesülsz, akkor egyrészt nem szabad csodálkozni, másrészt mindenki azt fogja tanácsolni, hogy váltás modernebb hardverre, ami támogatva van. Támogatott hardverrel a fejlesztő kis tudnak segíteni, de ha nem támogatott hardverrel próbálsz supportot kérni, azonnal lezárják a jegyedet azzal, hogy nem támogatott a hardver.
    Ez az egyik hátránya, a másik, hogy mivel a nem támogatott hardverekre nem tesztelik a játékokat, így azoknál bárhol bármilyen hiba előjöhet és ha ez megtörténik, akkor nem fogsz tudni mit tenni, nem fogják javítani.
    A harmadik, hogy a Vega már külön driver bracnh-ben van, sokkal ritkábban jön hozzá új driver, az sem biztos, hogy a jövőben lesz-e még hozzá, továbbá az új játékokat már nem tudják/fogják "optimalizálni" ezekre a régi architektúrákra, azaz driver szempontból is jelentős hátrányban vagy.

    Egyre több olyan játék lesz, ami nem fog elindulni, például az új Indiana Jones játék, ami kötelező minimunként DXR-t ír elő, azt nem fogod tudni elindítani sehogy. A piac erre megy, ezért mondtam, hogy Vega-val egyre nagyobb hátrányban leszel, mert egyre több játék lesz számodra játszhatatlan vagy azért, mert nem indul el, vagy mert egyszerűen annyira pocsék a sebesség.

    A konzolt pont azért hoztam fel, mert ott gondok nincsenek. Most hiába hoztad fel a Cyberpunk-ot, mint egyetlen kivételes szélsőséges példát, ugyanis egyrészt azt már javították, másrészt az egy nagyon szélsőséges példa, ez nem általános jelenség konzolon. Mivel neked a nagyon alacsony felbontás és sebesség nem gond, ahogy írod, így ebből a szempontból is optimális lenne számodra a konzol, még akkor is ha utálod azokat, ironikus módon jobb élményt adnának a legtöbb játékban, mint a Vega56. :)

    Egyébként a májusban megjelenő Doom sem fog már elindulni Vega-n, mert ott is kötelező lesz a DXR, de már most sok olyan játék van, ahol a Vega még a minimum követelményt sem üti meg.

    Nincs azzal gond, ha nem akarsz még váltani, csak akkor nem szabad csodálkozni/panaszkodni amikor egy új játék nagyon rosszul fut, vagy el sem indul miközben a minimum hardvert sem éred el.

    Írtad, hogy 45%-os sebesség-növekedés nálad az elfogadható minimum. Például egy RTX 4060 már 50%-al gyorsabb, mint a Vega56, viszont ott több játékban erősen korlátozna a 8GB VRAM. A jövőre való tekintettel én a helyedben majd - amikor esedékes lesz a csere - egy olyan hardvert néznék ami jó erős RT-ben ,mert az a jövő vagyis az RDNA2/3 arch-ot én elfelejteném.

  • huskydog17

    addikt

    válasz hahakocka #70386 üzenetére

    A te szokásod rendszeresen olyanokat állítani, aminek nincs köze a valósághoz. ;) A hozzászólásaidból egyértelműen leszűrhető amit írtam, mert finoman fogalmazva nagyon irreális elvárásaid vannak és emiatt minden topikot rendszeresen szétspammelsz a panaszkodásaiddal, amelyek teljesen megalapozatlanok.

    Hogy jön ide a felskálázás, meg a high-end GPU-k? Megint olyan dolgot hozol fel, amit szóba se hoztam. Ki állít akkor valótlant? Költői kérdés volt.

    Ha valaki olyan hardverrel akar futtatni egy játékot, ami nem üti meg a minimumot és utána panaszkodik emiatt, az szimplán irreális elvárás a részéről. Azt várni ráadásul, hogy a helyzet javulni fog, nos finoman fogalmazva naiv dolog. Ahogy írtam nincs ezzel gond, a játékok haladnak a korral, fejlődnek technikailag, ami sokszor új, modernebb hardvert követel, ez mindig így volt, amióta létezik videojáték. Ha az ember nem akar költeni VGA-ra, ami szintén érthető, akkor ott a konzol, ahol 8-10 évre biztosítva van a futtatás, ott nem kell azon agyalni és millió kommentben szétpanaszkodni minden topikot, hogy de szarul fut XY játék vagy hogy el sem indul.

    Ne állíts kérlek olyat már megint 'jó 'politikus módjára, amit nem mondtam!

    Amúgy nincs azon semmi szégyellnivaló, hogy az ember a konzolt preferálja, hiszen PC-n a gaming egyre drágább és a VGA piac egyre rosszabb állapotban van. Nyilván nem mindenkinek való az, hogy több száz ezerért vegyen új VGA-t, ami 3-4 év múlva 1-2 játékhoz nagyon kevés. Pont emiatt előnyös a konzol, ahogy írtam, azoknál nagyon sok évig nem kell foglalkoznod ezzel.

  • huskydog17

    addikt

    válasz zseko #70284 üzenetére

    Alan Wake 2 eredeti minimális GPU igénye a játék megjelenésekor RX 6600 volt, ami jóval erősebb, mint egy Vega 56. A játék kiadója arról nem tehet, hogy egy felhasználó jóval a minimális alatti hardverrel próbálja meg futtatni a játékot és nem működik. Ezért van a minimum gépigény megadva, egyszerűen irreális elvárás volt a részedről, hogy majd Vega56-tal fogsz játszani vele.
    Nálad ugyanaz a helyzet, mint hahakocka-nál: ha nem akarsz lépést tartani a technológiai fejlődéssel (jól láthatóan nem akarsz, amivel nincs semmi gond), akkor neked a konzol való, azokon 8-10 évig garantáltan futni fognak a legújabb címek.

    Amúgy az említett patch után sem támogatja a játék a GCN5-öt, mert RDNA1 lett az új minimum.

    Egyre több és több olyan játék lesz/van a piacon, amelyek már el se fognak indulni VEGA-val.

  • huskydog17

    addikt

    A mai AMD-s előadásról a véleményem.

    Már az előadás kezdetén csak fogtam a fejem azon, hogy 2025-ben egy tech cég grafikára fókuszáló prezentációját 2025-ben 1080p30fps-el lehet megtekinteni. Mondom magamba: ez valami rossz vicc?

    OK, akkor nézzük ablakban, úgy kevésbé csúnya a képminőség. Már önmagában ez epic fail volt. Főleg annak fényében, hogy a műsorban kitértek arra is, hogy az RDNA4-ben új enkóder és dekóder van, ami jobb minőséget ad és 8K60 fps-re képes, de azért az előadást 1080p30fps-el csináltuk, mert csak.

    Az FSR4 nem lepett meg abból a szempontból, hogy RDNA4 exkluzív feature, de ezt már januárban bejelentette az AMD. Itt muszáj volt megnyomni a reset gombot, máshogy nem lehetett értelmesen javítani a minőségen. Az viszont nagyon jó hír, hogy minden FSR 3.1-es játékot lehet frissíteni rá, amit driverből meg lehet tenni (helló DLSS Override). Ha ez lesz az AMD-nek az ő saját DLSS 2 érájuk, akkor megérte megnyomni a reset gombot.

    Jött a lényeg, ahol az AMD végre megerősítette, hogy az RX 9070XT az RTX 5070Ti tempóját fogja hozni átlagosan (2% teljesen elhanyagolható különbség), aztán jött az ár, ami pont 20%-kal alacsonyabb, mint a konkurencia terméke (RTX 5070Ti). Ez rendben van, ahogy mondtam korábban is.

    Jött a másik, a non-XT verzió és itt jött a meglepetés, az 550 (egész pontosan 549) dolcsi ugyanis tökéletesen egyezik a konkurencia termékével, illetve csak 50 dolcsival olcsóbb, mint az XT változat. Mivel a sima RTX 5070-nel tökéletesen egy árban van, és az XT túl közel van, így kb. a kutya se fogja venni a sima 9070-et, mert semmi értelme, főleg ha figyelembe vesszük az NVIDIA ökoszisztémát. Azonos árért senki nem fog AMD-t venni, amikor az NV többet ad szoftveresen (sokkal többet). Nem tudom miért döntött úgy az AMD, hogy a sima 9070-et teljesen értelmetlen áron adja ki, de ez így DOA a szememben és szerintem sok más felhasználó szemében is. Nem lennék meglepődve, ha március 6-ra egész véletlenül lejjebb menne ez az ár egy kicsivel.:)

    Számomra ez egyértelművé teszi, hogy Jack 40%-ra hajazó álmai csak álmok maradnak, csak a szája volt nagy, de nem gondolják komolyan, mert akkor a non-XT verzió nem ilyen áron jönne, hanem ott is ment volna a 20%-ps különbség a konkurenciához képest. Mondjuk arra számítottam, hogy nem lesz itt semmilyen disruptive árazás, de tény, hogy az XT verzió jónak tűnik, amennyiben minden szempontból jól sikerül a rajt.

    Itt pedig elérkeztünk a legfontosabb dologhoz. Az AMD-nek ezt a rajtot hibátlanul kellene abszolválnia, semmilyen porszem nem kerülhet a gépezetbe, mert ennél nagyobb/jobb esélyt nem fognak már kapni. Ahogy Steve is nagyon jól mondta a GamersNexus csatornán, az AMD-nek most vásárlókra van szüksége, amihez külső faktor is kell, nevezetesen, hogy az NV nagyot hibázzon. Most ez megtörtént és ezt ki kell használniuk, mert nem valószínű, hogy az elkövetkező néhány generációban ez újra meg fog történni. Nekem úgy tűnik, hogy egyelőre csak félig akarják kihasználni, olyan igen is meg nem is jelleggel. Ha a rajtnál minden rendben lesz, tehát lesz bőven készlet, FSR 4 jó minőségű lesz, semmilyen hardveres probléma nem jön elő, akkor már csak a non-XT verzió árát kéne korrigálni mondjuk $449-re, de maximum $479 lenne a még elfogadható plafon. Az 550 dolcsi akkor lenne elfogadható, ha a sima 9070 sokkal gyorsabb lenne, mint az RTX 5070, de lássuk be, erre szinte zéró az esély. Jövő héten okosabbak leszünk, de egyelőre nekem vegyesek az érzéseim.

    Nem rossz, nem rossz, de lehetett volna sokkal jobban is (említett árazást korrigálva és a januári káoszt elkerülve, 1080p30 helyett 4k60 előadás). Ha március 6-án kiválóan fog menni a rajt, azaz lesz mindenhol bőségesen készlet és sok játékban ott lesz day1 az FSR4 ami jó minőséget ad, akkor azt mondom ok, megérte eltolni 2 hónappal a rajtot. Legyen így! Mindössze én egyelőre még nem nagyon érzem, hogy az RTG annyira akarja azt a 40%-ot.

  • huskydog17

    addikt

    válasz S_x96x_S #70140 üzenetére

    Így van, és ezért a sima 9070 már most DOA, kár kiadni ennyiért, túl közel van a 9070XT-hez, illetve a sima RTX 5070-el egy szinten van, így kutya se fogja venni, de ahogy mások már írták, ez egy klasszikus upselling stratégia, az AMD szándékosan fogja kannibalizálni a 9070-et csakhogy mindenki az XT-t vegye.

    Az XT-t elég jól eltaláltam:
    "9070XT-ért max 600 dolcsi lenne még talán az elfogadható plafon, még az AMD fanoknak is, a felett viszont DOA."

  • huskydog17

    addikt

    válasz hahakocka #69992 üzenetére

    Semmit nem értettél meg abból amit írtam, értelmetlen időpocsékolás volt a részemről, ahogy sejtettem, továbbra is nyomod a tonna mennyiségű hülyeséget.

    Nem, az analógiád továbbra is teljesen értelmetlen, semmi köze a témához. Most nem tudom, hogy képtelen vagy rá, vagy csak nem vagy hajlandó megérteni a kötelező és ajánlott szó közti különbséget, pedig biztos voltam benne, hogy érthetően elmagyaráztam. A vicc ebben, hogy ellent mondasz saját magadnak, hiszen a te saját szavaiddal élve natív hívő vagy, ami azt jelenti, hogy neked pont azt kéne mindenhol spammelned, hogy hogyan lehet felskálázás nélkül sebességet nyerni. E helyett megállás nélkül azt a hamis információt terjeszted, hogy kötelező a felskálázás (tehát reklámozod a felskálázást, mintha a nélkül nem lehetne már játszani), miközben mindenki tudja, hogy nem igaz.

    A sponsor témában semmit nem fogtál fel, szerintem nem akarod megérteni, ott is inkább két kézzel tolsz el magadtól minden tényt. Feltételezem ez után is le fogod NV sponsorozni azokat a játékokat, amelyek valójában AMD sponsor játék csak az NV kártyák valamivel gyorsabbak a megszokottnál.

    "A vram ügyet meg alant levezettem már nem 2 db NV által fejlesztett RT demó szerű játékon hanem általánosan nagyon sokféle játék volt a Techspot cikkében."

    Tök jó, csakhogy én szóba se hoztam a VRAM-ot, nem tudom honnan jött.

    "Indiana Jones mellett már a Doom Dark Ages is kötelezi az RT-t és még egy játék volt amit asszem szintén ugyanaz a kiadó adott ki. Nevére se emlékszek már látod annyira nem érdekelt de még egy van. Talán ott említettem is."

    Hát persze, hogy nem emlékszel rá, ami nem létezik, arra nehéz emlékezni. Doom 6 (Dark Ages) kiadója a Bethesda (anyacég a MS), tőlük az Indi játék van, ami még kötelező DXR-t ír elő, mert ugyanaz a motor.
    Az sem mindegy, hogy milyen RT a kötelező minimum, tehát kell-e hardveres gyorsítás (DXR) vagy sem.

    "Remélem nem lesz egyre több."

    Tehát megint csak igazam volt, neked valóban a konzolok valóak, viccen kívül jobb, ha konzolra mész, mert egyre több és több olyan játék lesz, ahol úgymond "kötelező" tehát kikapcsolhatatlan RT lesz. Már most több inhouse engine átállt erre és ezeknek a száma nőni fog, így az egyetlen menekülő útvonalad a konzol. Számodra sajnos nagyon borúsak a kilátások, ha PC-n akarsz maradni.
    (Anvil, id tech, Nortlight és Snowdrop motorok már most ilyenek, mármint a legújabb verziójuk és idővel egyre több lesz, ahogy egyre több indie játékban is egyre jobban támaszkodik a Lumenre).

    Értjük, hogy részedről fúj fúj RT, csak mert a 6 éves RDNA1 kártyáddal nem tudsz 4K Ultra-n játszani a friss RT játékokkal és ezért is az NV a hibás a sponsor játékaival, de ezzel a hozzáállással saját magad csapod be, de ilyen a technikai fejlődés, és épp ezért rossz platformon vagy. Neked teljesen nyilvánvalóan nem való a PC. Bár mondjuk konzolon viszont kikapcsolhatatlan felskálázás van, ami neked szintén ördögtől való (illetve el kéne végre döntened, hogy jó vagy sem, mert saját magadnak mondasz ellent), úgyhogy ha belegondolok talán jobb, ha más hobbit keresel, mert minden platformon csalódás fog érni. PC-n minden RT irányba megy, konzolon minden játékban kikapcsolhatlan felskálázás, ami ráadásul FSR. Számodra mindkettő ördögtől való, így a jövőben minden játék az ördögtől való lesz és tudjuk, azok mind NV sponsor játékok lesznek még az is, ami gigantikusan nagy AMD lógót tol az arcodba indításnál.

    Az a baj, hogy arra se veszed a fáradtságot, hogy legalább elolvasd a másik válaszát, illetve ha el is olvasod kizárólag azt a részét veszed észre, amit észre akarsz venni, a számodra nem tetsző részeket ignorálod, mintha az ott se lenne.

    #70013 hahakocaka: "A vicc az, hogy a mesh shader hiánya miatt nem indult el az Alan Wake GTX 1070 , RX 5700 asokon majd jött egy házi modder kb és megoldotta egy mod-al ."

    ...majd jött a hivatalos 1.0.16.1-es patch, ami megoldotta. Javítottam, szívesen. Ezt mondom, mintha a falhoz beszélnék. Sajnos ezzel a patch-el nem sokra mész, mert RDNA1-en azzal is rendkívül alacsony a sebesség, azzal se fogsz 4K-ban Path Tracinget tolni, tudom csalódás a részedről. ahogy csalódtál az RTX 5090-ben, miközben eszed ágában se volt venni olyat, de akkor is mekkora csalódás már.

    Még sok dologban lehetne téged korrigálni, de úgy látom teljesen értelmetlen, mintha csak Abuval vitatkoznék. Csak tolod tovább a saját buborékod dezinformációit.

  • huskydog17

    addikt

    válasz hahakocka #69636 üzenetére

    Mi köze a kötelező olvasmányoknak és egyetemeknek egy felskálázó technológiához? Semmi. Ez csak egy újabb értelmetlen terelés.
    A kötelező és ajánlott nem ugyanazt jelenti. Hányszor írjuk még le? Játékokban ki lehet kapcsolni a felskálázást? Igen, akkor nem kötelező, ilyen egyszerű.
    Ha a sebességproblémák miatt akarod úgy látni, hogy kötelező, akkor sincs igazad, mert másféle módszerekkel is lehet sebeséget nyerni. Mivel korábban írtad, hogy natív hívő vagy, így még inkább értelmetlen és ellentmondásos, hogy kötelezőnek látod, hiszen ugyanúgy tudsz sebességet nyerni, hogy ha a kimenetifelbontást csökkented vagy a grafikai részletességet. Neked pont ezek valóak, hiszen a felskálázást ördögtől valónak tartod.

    "S azt is leírtam már hogy attól hogy AMD sponsor a legtöbb esetben annyit jelent hogy támogatott FSR van benne."
    Nem. Ennek se jártál utána, csak hasraütés-szerűen írsz valami marhaságot. Egyrészt az AMD hivatalos játéklistája is egyértelműen cáfolja ezt, továbbá korábbi partnerségeknél is lehetett látni, hogy bizonyos játékoknál sokkal többről van szó.
    Ha pedig tegyük fel, hogy egy játékban valóban csak FSR beépítésében segített egy AMD mérnök és ezzel ki is merült a szerződés, akkor ezt a játékot ne tekintsük AMD sponsor játéknak annak ellenére, hogy hivatalosan az, csak mert neked nem tetszik?
    Még egyszer röviden tömören utoljára: AMD sponsored címeket itt találod. Az itt lévő játékok tehát mind AMD sponsored címek függetlenül attól, hogy mennyi pénzt és munkaórát öltek bele.

    Másképpen fogalmazva: egy sponsored cím nem azt jelenti, hogy ott automatikusan a sponsor gyártó termékinek előnyben kell lenniük, feltételezem te ezt várod el, de ez egy iszonyatosan elavult elmélet, aminek már semmi köze a valósághoz.

    "Míg ha megnézed a diákat az NV sponsoroknál láthatóan sokkal jobbak az FPS eredmények is mindig pont ott."

    És az ég is kék. Most ezen meg kéne lepődni? Persze, hogy jobbak, de az NV a legkisebb mértékben sem tehet arról, hogy az AMD hardverek iszonyatosan gyengék RT-ben és az eddigi felskálázójuk is hulladék kategória.
    Nem kell azonban minden NV előnybe NV szponzorizációt belelátni, mert te jelenleg sajnos ezt csinálod, ami megint csak teljesen félrevezető.
    A jobb érthetőség kedvéért nézd meg az Avatar Frontiers of Pandora-t, ami szoros AMD együttműködéssel készült, az abban debütáló új Snowdrop motort az Ubi az AMD-vel közösen fejlesztette ki, akkoriban itt a fórumokon ment is a szokásos propaganda, hogy az AMD itt majd forradalmasítani fogja az RT-t. Egy valag pénzt beletoltak, aztán a végén semmilyen gyakorlati előnyük nem lett, ugyanis az NV hardverek sokkal erősebbek RT-ben, márpedig a Snowdrop erősen támaszkodik a DXR 1.1-re. Ha még nem lett volna elég pofon, hogy semmilyen gyakorlati előnyhöz nem jutottak, most kiderült, hogy az RDNA4 rajtnál az Avatar nem fog kapni FSR4 támogatást annak ellenére, hogy ez az AMD egyik legdrágább partnersége volt.

    "Lumen tudom tök más UE5 engine-hez köthető hogy jött ide, mert róla nem beszéltem."

    Dehogynem, be is másoltam az előző hs-re, amire válaszoltál. A othig Remake Lument használ, ezt írtad:
    "Igen most láttam a Gothic 1 remake új demoja is kötelező RT vel jön. S ezáltal kb kötelező DLSS el, FSR-el.

    Nem tudni, hogy kikapcsolható lesz-e a Lumen, de ettől függetlenül a felskálázáshoz semmi köze, mint ahogy te írtad.

    "Hát ha nem köteleznék e 3 említett játékban pl RT-re ezeknél a gameknél a játékosokat, akkor menne 1070-el, 5700 assal is pl a 3 game mert bírnák simán."

    Nem tudom melyik három játékról beszélsz, én csak az Indiana Jones-ról tudok, ami kötelezően előírja a hardveres RT gyorsítást. Ez miért gond? Az a gond, hogy 2024 végén megjelenő AAA cím nem fut az RX 5700-as kártyádon? Ezt úgy hívják technológiai fejlődés, ami PC-n mindig jelen volt. Amúgy az Indi játék pont az egyik leggyorsabb RT-s game lett a piacon.
    Azt várod el a piactól, hogy álljon le a fejlődés csakhogy a 6-8 éves középkategóriás kártyák is Ultra-n tudják futtatni a legfrissebb címeket? Nekem az jön le az írásodból, ez esetben neked a konzol való.

    "Az Alan Wake 2 nél nem az RT volt a fő gátló tényező hanem más, de ott is moddal (Mesh shadertelenítés) megoldották hogy 40-50 fps el menjen 1-2 generációval régebbi kártyákon érdekes mi? :D Persze azért nem volt ugyanaz a minőség."

    Ott hivatalos javítás jött, ami alternatív kódutat kínált a mesh shader-t nem támogató hardverekhez (Pascal, RDNA1), hogy azokon is fusson. Persze, hogy nem tudják hozni a minőséget, ez irreális elvárás ismét a részedről. Én értem, hogy egy RX 5700-el szeretnél Path Tracing minőséget, de az finoman fogalmazva teljesen irreális elvárás. Továbbra is azt tudom javasolni, hogy menj át konzolra, ott nem fog ilyen sok csalódást okozni a technikai fejlődés.
    Csak szólok előre, hogy az új Doom is akkor csalódást fog neked okozni, mert az is kötelező DXR támogatást fog elvárni.

  • huskydog17

    addikt

    válasz hahakocka #69603 üzenetére

    Miért ennyire extrém fontos neked, hogy melyik oldal parnerprogramjában vesz részt az adott játék? Ma már nem nagyon fogsz találkozni olyan új nagy címmel, ami mögött nincsenek mérnökök egyik oldalról se. Ez viszont az eredmények tekintetében teljesen irreleváns, így amikor ilyennek reagálsz egy eredményre, az finoman fogalmazva teljesen értelmetlen. Ha már mindig ezt hozod fel, legalább néznél kicsit utána a dolgoknak, mert állandóan hülyeségeket írsz:

    Space Marine 2 -> nincs benne RT és AMD "sponsor" cím (csakhogy a te kifejezéseddel éljek)
    Cyberpunk 2077 Phantom Liberty -> NV és AMD sponsor cím

    #69614: "Igen most láttam a Gothic 1 remake új demoja is kötelező RT vel jön. S ezáltal kb kötelező DLSS el, FSR-el."

    A Lumen és az upscaling két teljesen különböző dolog, semmi közük egymáshoz, nem függenek egymástól, azaz a felskálázás nem kötelező ott sem, tolhatod natívban ha akarod.

    "Mint annó Starfield és sok más game."

    Starfield-nél sem volt kötelező soha, ahogy egyik játéknál se. Ezt már vagy milliószor leírtad topikokban, de továbbra is marhaság. Ha egy hülyeséget sokszor leírnak, attól még nem lesz igaz. ;)

    "Az adott fejlesztő főleg ha kéri khmm valaki bele fogja rakni kötelező jelleggel"

    Nem. A partnerprogramok nem kérésre működnek, hanem szerződésekkel, amit tárgyalás előz meg.

    "Nagy kérdés vajon anélkül sokkal rondábak lennének ezek a játékok?"
    Az, hogy "sokkal rondáb" egy szubjektív dolog, de amúgy leegyszerűsítve igen. Ma a grafika a partnerprogramok nélkül nem tartana ott ahol tart, megközelítőleg se. Akár tetszik neked akár nem, ezek viszik előre a technológiákat.

    "Nem hinném, de sokkal több Geforce vagy AMD tulaj tudna vele játszani."
    Hogy mi??? :F

  • huskydog17

    addikt

    válasz PuMbA #69414 üzenetére

    Tehát megint igazam lett. Most mondhatnám, hogy én ezt már előre megmondtam január elején, de nem mondom. :DDD
    link
    link

  • huskydog17

    addikt

    válasz hahakocka #69409 üzenetére

    Mitől lenne magánszemély az Amazon és mitől lenne scalper?

    Korábban többen is próbáltunk itt figyelmeztetni téged, hogy nem érdemes álomvilágba ringatni magad.
    Ahogy korábban írtam, egy felhasználó Sapphire Nitro+-t vett 960 USD-ért, ez tökéletes összhangban van az XFX árakkal és a Merlin árakkal.

    Ha mindenképp scalper magánszemélyt keresel, akkor ő az. Az Amazon és Merlin nem az.

    Ha neked az Amazon árak scalper árnak tűnnek, az csak azért van, mert egész eddig teljesen irreális elvárásaid voltak az árazásról, álomvilágban élsz. Többen is szóltunk többször, hogy a 9070XT jóval 300k felett lesz itthon, de szokásodhoz hűen ignoráltad mindet.

    #69421 hahakocka:
    "Azt írják, hogy a kiszivárgott XFX árak egy random third sellertől vannak"

    Egész pontosan ki és hol írja ezt, mi az hogy third seller? Forrást légyszi, köszi!

  • huskydog17

    addikt


    900 USD
    Ez nálunk kb. 450.000 Ft környékén lenne

    A fekete változat 1438 CAD, ami kb 1014 USD, ez nálunk fél milla Ft lenne.

  • huskydog17

    addikt

    válasz hahakocka #69254 üzenetére

    "Írtam hogy max 340-350 lehetne a bolti amerikai àrhoz kèpest"

    Nem. Nem ezt írtad. Nagyon sokszor azt írtad, hogy max 300k lesz itthon, de mindegy abból a szempontból, hogy egyik sem igaz.

    "Nem lehet 100%ra venni. Egy biztos olcsóbb lesz mint a majdnem 500e Ft os 5070Ti."

    Tehát nem biztos, de mégis biztos.OK. :D

    "S persze ott vannak a scalperek is."

    Ahogy AMD oldalon is vannak és lesznek is. RX 9070XT 1600 euróért érdekel?

    #69251:
    "600-750 ig láthattunk nemrég árakat XFX 9070-9070XT re egy boltból. Kérdés ezek igazak e? Picit magasabb azért mint gondoltam. 230e-300e ig kb"

    Nem. Az Amazonos XFX árlista 650-től 850 dollárig terjedt. Ez itthoni árakban kb. úgy nézne ki, hogy 320-330.000 Ft-tól indulna és kb. 420-430.000 Ft-ig menne. Az XFX ráadásul nem a legdrágább AIB partner az AMD-nél. Majd ha piacon lesz minden custom design, meglátjuk mennyiért fognak menni az ASUS csúcsmodelljei. :)
    A Sapphire Nitro sem tűnik valami olcsónak, egy felhasználó már vett egyet kb. 960 USD-ért (átszámítva CAD-ról). Ez itthon alulról súrolná a félmillió Ft-ot.
    Egyelőre tehát felesleges azon álmodoznod, hogy itthon max 300k lesz a 9070XT széria, nehogy a végén csalódás érjen.

  • huskydog17

    addikt

    válasz b. #69153 üzenetére

    2025-02-16 07:44:39

    "Ez azért jelenti, hogy a SoC-nak 20 dollárba kell beleférnie, mert a megszokott árazást akarják a japánok, és így ez a költségkerete rá a Nintendónak."

    7 órával később:
    2025-02-16 14:50:07
    "Emiatt ugyanazok a feltételek is. 15 dolláron belül kellett SoC, mert ez fér bele ebbe a stratégiába.

    Hej de gyorsan változik a Nintendo stratégiája. :DDD Holnap vajon már csak $10 vagy $5 lesz? 7 óra alatt 25%-ot esett a Switch 2 SOC költségkerete. Vajon hol áll majd meg? Tudom, biztosan megint értelmezési problémáim vannak. ;)

  • huskydog17

    addikt

    válasz Kajoszbobber #68978 üzenetére

    Ez alapján semmilyen következtetést nem lehet leszűrni a referencia változatra, mert nem tudjuk, hogy a Red Devil mekkora mértékben lépi túl a referencia fogyasztási keretét. Itt valószínűleg a Powercolor teljesen elengedte a power limitet a végtelenségig, mert mégis csak egy csúcs kategóriás custom design, a Red Devil mindig is az volt.

    A PSU ajánlás mindig a teljes rendszerre vonatkozik méghozzá úgy, hogy abba bele kell számolni azt, hogy a felhasználónál lehet hogy egy hulladék táp van aminek a hatásfoka a béka segge alatt van.

    Csakhogy még érthetőbb legyen:
    RTX 4090 hivatalos PUS ajánlása: 850W -> TGP 450W

    RX 7900 XTX hivatalos PSU ajánlása: 800W -> TGP 355W

    A referencia 9070XT (pl.: Reaper) PSU ajánlása tehát 750W, ami 50-el alacsonyabb, mint a 7900XTX esetében. Ez alapján például lehetne tippelni arra, hogy így a 9070XT referencia kereken 300 Wattos fogyasztási kerettel fog rendelkezni, de ez sem biztos még, főleg annak fényében, hogy még az is előfordulhat, hogy az utolsó napon adnak ki egy új BIOS-t, ami módosítja a power limitet, láttunk már erre is példát. Ezen felül az is lehet, hogy az energaimenedzsement az RDNA4-ben máshogy fog működni, mint a korábbi RDNA-kban, még semmit nem tudunk.

    Piaci rajtig, illetve tesztekig semmilyen messzemenő következtetést nem érdemes tenni, de clickbaitnek jók az ilyenek.

  • huskydog17

    addikt

    válasz Jacek #68826 üzenetére

    "Asszocialtam hogy az A570 utan B580 lett a kisebbik kartya."

    Sajnos ezt nem tudom értelmezni, főleg hogy A570 nem létezik.

    "Erdekes ez nekem mert az A770 utan ebben minl az elore lepes? Kevesebb memoriaval kicsit gyorsabb , arban meg ugyan az?"

    Az A770-hez képest a B580 sokkal kisebb GPU-val, sokkal kevesebb számolóegységgel és alacsonyabb fogyasztással gyorsabb. Az energiahatékonyságot pedig megduplázták, ezzel elérték az RDNA3 szintjét. Ha ez nem előrelépés, akkor semmi nem az. MSRP árak:
    A770: $330
    B580: $250

    "Mi a racui ebben ha nincs gyorsabb?"

    A ráció ebben az, hogy az alsó szegmensben adják el a legtöbb VGA-t és az Intel pont oda hozta a Battlemage-t. Nem kell versenyezni a felső és/vagy csúcskategóriában ahhoz, hogy versenyképes legyél. (AMD is csinált már több olyan arch-ot, ahol nem is indultak a felső kategóriában).
    Továbbá nem tudni, hogy nem lesz gyorsabb BM idén, jelenleg semmi nem utal rá, hogy lenne, de az is lehet, hogy majd néhány hónap múlva az Intel jön egy nagyobb BM GPU-val, nem tudni.

  • huskydog17

    addikt

    válasz Jacek #68821 üzenetére

    Feltételezem elírtad és a B780 alatt B770-re gondolsz, ami egy elméleti, spekulált, csúcs Battlemage. Ez az elméleti B770 a gyakorlatban/valóságban nem létezik és soha nem is létezett, ez mindössze a szokásos pletykálgatás és whishthinking a sajtó és néhány clickbaiter youtuber részéről. Az Intel soha nem kommunikált ilyen termékről, még csak utalás sem volt.
    Azért van csend, mert a clickbaiter pletykagyárak mással vannak elfoglalva, most az RDNA4 az egyik forróbb téma. ;)

    #68820 Busterftw: Feltételezem a DisplayHDR 400-ra gondolhatott, de ez csak tipp a részemről.

  • huskydog17

    addikt

    válasz Ribi #68502 üzenetére

    "Ezt most úgy kellen venni, hogy mikivel járnak az utcán és kérdezik a közembert, hogy "Ön fél a B580-tól kedves Marika Néni"?"

    Nem. Ezt eladási számok tudják kimutatni, de ehhez még túl korán van, az AMD és Intel tudja kizárólag, hogy egy adott negyedévben melyik SKU-ból mennyit adtak el. Ha ezt az adatot a jövőben publikálnák, akkor lehetne biztosat mondani, de ennek hiányában csak találgatás.
    Mivel ilyen információkat nem szoktak soha publikálni a GPU gyártók, így az egyetlen dolog, amire hivatkozhatunk a Steam hardware survey marad. Jelen pillanatban az RX 7600-at a Steam még csak nem is listázza, annak ellenére hogy lassan 2 éve a piacon van. Ha 2 éven belül a B580-at listázni fogja a Steam, akkor az egyértelműen azt fogja mutatni, hogy az emberek nem csak nem féltek a B80-tól hanem többen vettek olyat, mint RX 7600-at. Ezt azonban ahogy írtam még nagyon sok idő, mire ez kiderül, jelenleg azonban semmi értelme, sőt értelmetlen olyannal dobálózni, hogy az emberek félnek a B580-tól, főleg az igencsak pozitív review-k után. Majd az idő megmondja, hogy mennyire féltek tőle, én erősen kétlem.

  • huskydog17

    addikt

    válasz Quadgame94 #68486 üzenetére

    Attól, hogy a te szemedben nincs verseny, a valóságban van, az RTX 4060 és RX 7600 ellenfele. Én még nem láttam semmilyen hivatalos statisztikát, ami kimutatná, hogy az emberek félnek a B580-tól, így ezt nem venném készpénznek.

    "Celestial: Nem hinném, hogy idén jönne."

    Hol írtam, hogy idén jön? Sehol nem írtam ilyet.

  • huskydog17

    addikt

    válasz Quadgame94 #68460 üzenetére

    Nem. Én egyértelműen jeleztem, hogy mire válaszolta, nézd meg még egyszer, mindössze a B580 itthoni MSRP árát korrigáltam, mert rosszul tudtad, emiatt irreális elvárásod volt is volt a 100-110k Forinttal. Amúgy igen, átlagosan az RTX 4060 szintjén van a B580, viszont a sima RX 7600-tól minden szempontból jobb választás.

    "Abból indult ki az eszmecsere, hogy az Intel majd az alsószegmenst beveszi... hát mivel? Nem a B580/570-el az tuti."

    A 300 dollár alatti szegmens pont az alsó szegmens és pont ott versenyez most a két Battlemage.

    "600 sztem is eléggé gyászos kártya, de valójában alig kell előrelépnie az AMD-nek itt hogy kinyírja a B580-at. RDNA4 és a 4 nm segít majd ebben."

    OK, ahogy írtam, erre majd visszatérünk ha megjelent a Navi44, csak nehogy addigra a Celestial is megjelenjen ugyanabban az ársávban! :D Idővel majd kiderül mennyire pontos a jósgömböd.

  • huskydog17

    addikt

    válasz Quadgame94 #68433 üzenetére

    Hogy jön ide az RX 7600? Semmi köze ahhoz, amire válaszoltam, de amúgy annyi pénzért még az ellenségemnek se vennék RX 7600-at. 2025-ben 8 GB-os VGA egy vicc, legalábbis 200 dollár felett. 200 alatt még OK lenne, de az a kategória gyakorlatilag kihalt. Én gondolkodás nélkül kiadnám azt a plusz 30 eurót a B580-ért, ugyanis gyorsabb átlagosan, mint a 7600, 50%-al több VRAM van rajta és sokkal jobb felskálázót tud. A kettő közül szerintem pont a B580 egy nobrainer ennyi pénzért, és akkor az RT-ről nem is beszéltünk, ahol még nagyobb az előnye a B580-nak.

    "Navi 44 bőven hoz majd egy 6700 XT-t kb 150 mm2 lapkáva és hasonló árban jobb RT-vel és FSR4-el."

    Erre térjünk majd vissza, miután megjelent a Navi 44. Kíváncsi vagyok mennyire pontos a jósgömböd. ;)

  • huskydog17

    addikt

    válasz Quadgame94 #68424 üzenetére

    "B580-nek kéne 100-110 ezernek lennie a 250 USD MSRP alapján."

    Nem. A 100-110 HUF irreális elvárás, nem MSRP.

    B580-nál a bruttó MSRP Németországban 289 euró, ami itthon 117k. Na most ott jóval alacsonyabb az ÁFA, mint náluk, azaz nálunk ennél jóval magasabb az MSRP ár, legalább 130k, azaz az Alza-s előrendelési ár pont MSRP ár.

    Egyébként meg németeknél szinte MSRP áron (10 euróval több) lehet kapni, 299 euróért lehet vinni raktárról, azonnal a B580 LE-t.

  • huskydog17

    addikt

    válasz hahakocka #68157 üzenetére

    Nagyon egyszerű a csúszás oka: FSR4, ezt az AMD is már kommunikálta.

  • huskydog17

    addikt

    válasz S_x96x_S #68146 üzenetére

    Igen, a Blackwell ugyan támogatja az FP4-et is, viszont jelenleg a DLSS TM nem használja, ez tökéletesen látszik a teszteken, mármint a performance számokon.

    Ebben a tweetben tökéletesen össze van foglalva a lényeg: a számok alapján a DLSS TM nem használja a Blackwellnél az FP4-et, az a rendkívül pici sebességelőny egyszerűen abból ered, hogy a Bw-ben több Tensor mag van.

    Természetesen a jövőben az NVIDIA módosíthat ezen és akár rakhat a TM-be FP4 támogatást, de jelenleg nem így van, emiatt az FP4 most még nem releváns.

    Ahhoz, hogy a Bw-ben lévő FP4 képességet ki lehessen aknázni, a DLSS TM modellt is fel kell rá készíteni.

  • huskydog17

    addikt

    válasz huskydog17 #68144 üzenetére

    Kiegészítés, pontosítás:

    Természetesen a Turin és Ampere a Transformer modellt is FP16-ban számolja, ezért is sokkal lassabbak alatta. Tehát röviden tömören:

    Ada és Blackwell gen Transformer modell esetén FP8, minden más (CNN és régebbi RTX genek) FP16.

  • huskydog17

    addikt

    válasz Busterftw #68142 üzenetére

    CNN modell FP16 volt, míg az új Transformer már FP8.

    "NVIDIA® Transformer Engine is a library for accelerating Transformer models on NVIDIA GPUs, including using 8-bit floating point (FP8) precision on Hopper and Ada GPUs, to provide better performance with lower memory utilization in both training and inference." - Forrás

    "To provide the computing muscle those models need, our latest accelerator — the NVIDIA H100 Tensor Core GPU — packs a Transformer Engine and supports a new FP8 format. That speeds training while preserving accuracy." - What Is a Transformer Model?

    A Turing és Ampere Tensor magjai nem ismerik az FP8-at, de az Ada és Blackwell magok már igen. Ha figyelembe vesszük a DF és TPU performance méréseit CNN és TM modell között, ez a különbség nagyon jól látszik, Ampere és Turing esetén az RR elég jelentősen bezuhan sebességben, míg Ada és Blackwell pár százalékkal lassabb.

  • huskydog17

    addikt

    válasz Devid_81 #68091 üzenetére

    Ilyen árakon egyértelműen instant DOA lett volna a teljes RDNA4 felhozatal, főleg annak fényében, hogy most januárban akarták indítani, csak ugye az eredetileg tervezett rajtra nem létezett még FSR 4-et támogató játék, de mindegy is, mert az FSR 4-et eredetileg RDNA4 exkluzív-nak tervezték, amit most "átgondolnak", de még az AMD sem tudja mi lesz.
    9070XT-ért max 600 dolcsi lenne még talán az elfogadható plafon, még az AMD fanoknak is, a felett viszont DOA. Ha viszont a 40%-os market share-t komolyan gondolta a Jack gyerek, akkor a 9070XT max 500 dolcsi lehetne a sima 9070 pedig 400. Egy esetleges későbbi 9060-as 300-ért odacsaphatna.

    Ha ez nem lett volna nekik elég, a DLSS 4 Transformer modellje adta a következő nagy pofont, hiszen az FSR 4 most kezdi el használni a CNN-t, amit az NV most küldött nyugdíjba.

    Egyet értek a későbbi kommenteddel is (nem működött az ipari kémkedés), hogy az AMD itt most egyszerűen sötétben tapogatózott, nem tudta mire készülnek, ezért nem is mertek közölni semmit az előadáson. A zöldek bejelentése után aztán eluralkodott a káosz és azóta azt sem tudják mit mondjanak és mitévők legyenek.

    Hosszú lesz ez a két hónap a kereskedők és AIB partnerek számára, nagyon hosszú lesz.

    Az is tény, hogy most van miért pánikolni a piros oldalon. Majd az idő megmondja mennyire tudnak ebből 40%-os piaci részesedést szerezni.

  • huskydog17

    addikt

    válasz PuMbA #68041 üzenetére

    Legalább még időben rájöttek, hogy játék nélkül semmit nem érnek az FSR4-el és ha launchkor nincs amin megmutatni, akkor el is bukták ezt az FSR generációt is. Legalább annyi eszük van, hogy ráébredtek, hogy játék is kell hozzá, mert ahogy mondtad is az NVIDIA 75 játékot hoz DLSS4-el 01.30-án és ez csak nőni fog. Ehhez képest az AMD max 1 játékot tudott volna prezentálni ha ők is januárban indítják el az RDNA4-et. (Black Ops 6-nál később jön az FSR 4 patch, így legfeljebb a Ratchet & Clank lehetett volna az egyetlen, amivel demózni tudták volna, de 1 játék meg viccnek is rossz lenne.)
    Ezen felül nagy kérdés, hogy az FSR 4-et mennyire lesz könnyű/nehéz implementálni, mert ahogy írtad is helyesen, az FSR 3.1-et a kutya nem érdekelte, senki nem foglalkozott vele, nagyon lassan, keservesen nő azon játékok száma, melyek támogatják.
    Ha az FSR 4-nél nem lesz lényegesen könnyebb/egyszerűbb az implementáció, akkor az FSR 4 ugyanerre a sorsra fog jutni: senkit nem fog érdekelni. Márpedig az AMD szerint pont 3.1-ről lehet könnyebben/egyszerűbben FSR 4-re fejleszteni. Nagy kérdés, hogy korábbi verziókról mennyi idő és pénz átállni, tehát hogy megéri-e.
    AMD szponzorált címekben értelemszerűen lesz FSR4, de mi lesz a nem szponzorált címekben, ahol az AMD nem fizeti a feature beépítését, nagy kérdés.
    Ettől függetlenül az AMD már rég elvesztette a felskálázó "versenyt" (ha lehet versenynek mondani egyáltalán), főleg ha figyelembe vesszük, hogy a DLSS4-et driverből lehet alkalmazni több száz játékban, míg az FSR 4-et mindenképp a játék készítőjének kell implementálni.

  • huskydog17

    addikt

    válasz Abu85 #67688 üzenetére

    Nem miattad pocsékolom rád az időmet, hanem az olyan olvasó miatt, aki a végén elhiszi ezt a sok valótlan dolgot amit leírtál.

    Szóval igen, upgrade-t ír az AMD, és ott egy only szócska, tehát kizárólag RDNA4-en lehetséges az upgrade. Vajon miért rakta oda az AMD az only szócskát? (Költői kérdés, ne válaszolj pls)

    "Ez tök egyértelmű volt, amikor elmondták a sajtónak. Most az, hogy valamelyik sajtós nem volt jelen és nem vette a fáradtságot a házi feladatára, az miért az AMD hibája? Én például helyből ezt írtam a hírbe, ami volt az RDNA4-ről, mert tök egyértelmű volt. Jó értem, nagyon felhígult a szakma, de ez sem a gyártók hibája."

    Pont, hogy nem kommunikál egyértelműen az AMD, ezt legfeljebb te látod bele a dolgokba és aki ezt nem látja bele, az hülye és nem ért hozzá, még a több tíz éves tapasztalattal rendelkező szakmai újságírókat is hülyének nézzük, mert ők nem a te narratívádat tolják, csak a szokásos bs tőled.

    A valóság az, hogy az AMD még mindig nem tudja mi legyen.

    A kijelentéseddel ellentétben több újságíró személyesen is ott volt, helyben kérdezték az AMD-t a helyzetről, de a pirosak nem tudtak egyértelmű választ adni:

    "FSR 4 wird vorerst nur für die Radeon-RX-9070-Serie verfügbar sein. Viele Pressevertreter und auch wir fragten AMD, ob auch eine Umsetzung für die aktuelle Radeon-RX-7000-Serie geplant sei. Die Antworten sind eher uneindeutig, denn vorerst will man sich klar auf die RDNA-4-Generation konzentrieren und dann schauen, ob auch eine Umsetzung für die Radeon-RX-7000-Serie möglich ist. Dabei dürfte entscheidend sein, dass FSR 4 eine KI-Komponente für das Upsampling verwendet und die RDNA-4-Architektur über die zweite Generation der KI-Beschleuniger bei AMD verfügen wird. Ob auch eine Radeon RX 7900 XTX oder gar eine Radeon RX 7800 XT in der Lage sind dies ausreichend schnell auszuführen, wissen wir aktuell nicht." (forrás)

    Utólag több sajtósnak is azt mondták, hogy egyelőre FSR 4 exkluzív lesz, aztán később majd meglátják, még ők sem tudják, hogy át tudják-e ültetni RDNA3-ra. Ezt kommunikálták.

    Ha neked valóban mást mondtak, például hogy az FSR 4 olyan lesz, mint az XeSS, akkor a világ összes többi sajtósának miért mondtak teljesen mást? Ha ez így van (rendkívül erősen kétlem), akkor ez ismét engem erősít, hogy az AMD-nél totális katasztrófa a kommunikáció, össze-vissza mondanak mindent.
    Szerintem viszont sokkal valószínűbb, hogy neked is ugyanazt mondták, csak te masszívan kiszínezed, megszépíted a dolgokat, legalábbis próbálod megszépíteni.

    Részemről a témát zárom, mert látom szokásodhoz hűen tagadod a valóságot, ha az nem felel meg a te narratívádnak, illetve az hogy sokadszorra nézed le a külföldi szakmai kollégáidat, akiknek az AMD mást mondott, hát ez inkább téged minősít nem túl pozitív értelemben.

    #67690 hahakocka: Jelenleg az AMD sem tudja, hogy lesz-e FSR 4 korábbi generációkon lásd fentebb. Káosz van ott és a kommunikációjuk egy katasztrófa.

  • huskydog17

    addikt

    válasz Abu85 #67677 üzenetére

    "Sosem mondták, hogy exkluzív az FSR4."

    vs.

    AMD announces FSR4, available “only on Radeon RX 9070 series”

    "RDNA 4 unterstützt exklusiv FSR 4
    Was der Konzern bestätigt hat, ist FSR 4 – und dass es exklusiv auf Grafikkarten mit RDNA-4-Architektur verfügbar sein wird." (link)

    Ja értem én, hogy a te világodban nem közölték, viszont a hivatalos sajtóanyagban közölték és a CES előadás után is megerősítették a sajtósoknak, de értjük, hogy most már nem az.

    Pont ezt mondtam - és der8bauer is említette a videójában -, hogy az AMD kommunikációja egy katasztrófa, egyik nap mondanak valamit, a másik nap az ellenkezőjét. Én értem, hogy valszeg túl nagy volt a backlash az exkluzivitás bejelentés után, ez érthető és valszeg így próbálják oltani a tüzet, hogy belengették hogy talán esetleg meg tudjuk csinálni RDNA 3-ra ha nagyon akarjuk, de teljesen egyértelmű és világos, hogy nem az volt a terv.
    Pont ezért is mondta Roman (der8auer), hogy az AMD-nél káosz van, mert össze-vissza mondanak mindent.

  • huskydog17

    addikt

    válasz Busterftw #67654 üzenetére

    +1

    A jelenlegi kaotikus helyzetük és a katasztrofális kommunikációjuk sem fog segíteni.

    "Kiadhattak volna CES elott, teljesen mindegy hogy van jo valaszuk a MFG-re vagy nincs, ugy is csak a kozepkategoriaban vannak jelen, viszont addig is kihasznalhattak volna az unnepi rohamot."

    Szerintem az teljesen esélytelen lett volna, hiszen még most sincs kész a driver, viszont CES-en kellett volna mutatni valami kézzel foghatót. Még most sem tudja az AMD hogy mikor akarják bemutatni az RDNA4-et, mert még ők sem tudják mikor lesz kész a driver. :)
    Az FSR 4-el sem tudják hogy mit akarnak, egyik nap exkluzív, a másik nap már nem, össze vissza hebegnek habognak.

    Az ünnepi rohamot végül a Battlemage vitte. :)

  • huskydog17

    addikt

    válasz Alogonomus #67508 üzenetére

    Csakhogy én nem performance-ról beszéltem, hanem FSR-ről, a kettő két teljesen különböző dolog. Másról beszélsz, mint amit írtam.

  • huskydog17

    addikt

    válasz PuMbA #67499 üzenetére

    "Jó, de ez mind tudható volt, például hogy az FSR sose lesz jó képminőségű AI nélkül."

    Nem feltétlen, mivel az AMD pont az ellenkezőjét ígérte, a 3.1-nél is külön blogban írtak arról, hogy milyen sokat javult a képminőség. Ez egy éve sem volt.
    Az AMD - azaz az FSR fejlesztője - tehát azt ígérte, hogy jobb lesz a képminőség, így sokan ennek be is dőlhettek. Itt a PH-n is láthattunk olyat, hogy "na majd az FSR 3 megmutatja", nem mutatta meg. "Na de most majd az FSR 3.1 tényleg megmutatja", nem mutatta meg.

    Szóval egy Radeon felhasználó jogosan várhatta el akár az FSR 3-tól akár a 3.1-től hogy az jó lesz, ha már az AMD azt reklámozta, csakhogy az ígéret csak ígéret maradt, Oszkár bácsi nem gyütt.

    Még az FSR elején ha jól emlékszem voltak olyan hangok is itt, hogy a neurális háló milyen hülyeség, azzal nem lehet jó minőséget csinálni stb.
    Hát most az FSR 4 is arra váltott, miután kiderült, hogy a nélkül nem lehet jó minőséget csinálni.

    "Veszélyes dolog nem a tényekre figyelni és bevenni a gyártó kommunikációját, hogy "mi AI nélkül megoldjuk, mert szuper okosnak hisszük magunkat" :)"

    Persze, ez így van, ennek ellenére itt a fórumon is látni továbbra is ilyen embereket.

  • huskydog17

    addikt

    válasz PuMbA #67494 üzenetére

    Az FSR4-el azért került nehéz helyzetbe az AMD, mert eddig az FSR-nek az egyik nagy előnye és marketing értéke, hogy szabványos, architektúra-független implementáció volt, még a konkurencia termékein is működött. Gyakorlatilag ez volt az egyetlen előnye a technológiának, de ezt most ki kellett dobin a kukába, hogy végre versenyképes, elfogadható minőséget lehessen hozni vele. Az FSR a 3.1-es verzióig bezárólag (tehát a 3.1 is) olyan iszonyatosan pocsék minőséget ad, hogy még off screen kamrával is lehet látni a problémáit. Ha az FSR 3 vonalat viszik tovább, akkor csak újabb fingreszelést kaptunk volna, pont úgy, mint a 3.1-el. Meg kellett nyomniuk reset gombot. Az "okosabb", shaderekkel való megoldás nem jött be.
    Most az FSR 4 az eddigi beszámolók alapján nagyon jónak, versenyképesnek tűnik, cserébe ki kellett dobni a visszafele kompatibilitást, így most az AMD fanoknak főhet a fejük. Ha mondjuk én vettem volna 1000 dolláros 7900 XTX-et és egy évre rá az 500 dolláros RDNA4 sokkal sokkal jobb képminőséget hoz, hát lehet hogy igencsak idegese lennék finoman fogalmazva, főleg annak fényében, hogy korábban mindig azzal reklámozta az AMD az FSR-t, hogy mindennel kompatibilis.
    Szóval az AMD most ismét sokadszorra a saját vásárlóit szivatja meg, de ez most kivételesen szükséges lépés volt, hogy az FSR végre versenyképes, elfogadható minőséget adjon.
    A másik probléma, hogy eddig mindössze 2 játékról lehet tudni, hogy lesz FSR 4 támogatás hozzá (Black Ops 6, Ratchet & Clank), miközben a zöld oldalon a launchra 75 cím lett bejelentve. Ez nem vet túl jó fényt az FSR4-re és az sem segít, hogy meglévő FSR implementációt csak 3.1-ről lehet 4-re emelni:
    "AMD has confirmed that the FSR 4 upgrade will only be available on the Radeon RX 9070 series and in games that already support FSR 3.1"

    Tehát ha egy játékban van FSR 1/2 vagy 3.0, akkor az kuka, feltéve ha a játék készítője nem akarja nulláról kezdeni az egész FSR implementációt.
    Mivel már a 3.1-ért sem rohantak a játékfejlesztők (abszolút érthető okokból), így erősen kérdéses, hogy hány játék fogja támogatni az FSR 4-et. Tippem szerint még kevesebb, mint a 3.1-et, azaz nagyon kevés lesz. A DLSS-hez képest pedig elenyésző, főleg miután kiderült, hogy a DLSS 4 visszafele kompatibilis lett.
    Jelenleg az sem segít az AMD-n, hogy a kommunikációjuk jelenleg kritikán aluli.

    Kérdés még, hogy az FSR 4 mit fog tudni az új, Transformer modell alapú DLSS-hez képest. Izgalmas lesz a hónap legvége és február eleje az tuti. :)

  • huskydog17

    addikt

    AMDs Painful Keynote and Intel B860 Misleading Overclocking Claims

    Itt Roman konkrét példákkal jól szemlélteti mekkora nagy káosz van az AMD-nél és hogy a keynote utáni interjúban is ment a bullshit az AMD részéről, saját maguknak mondtak ellent, össze vissza mondanak mindent, egyszerűen káosz van ott.
    Ő is úgy gondolja, hogy az AMD keynote időpocsékolás volt.

  • huskydog17

    addikt

    válasz b. #67458 üzenetére

    Sajnos az X3D CPU-k egész Európa szerte hiánycikk, nagyon kevés van belőlük, még külföldön is nagyon nehéz beszerezni és ha van, akkor ott is piszok drága. Sajnos az összes AM5-ös 3D CPU ára emiatt az egekbe szökött. Ha nem sürgős, akkor talán érdemes lenne várni néhány hónapot, talán tavaszig javul a helyzet, ha már az AMD megígérte, hogy megpróbálnak javítani a helyzeten (eddig kevés sikerrel).

    Külföldön a legolcsóbb 7800X3D ajánlat is 509 euró, ami átszámítva jelen pillanatban kb. 210k, míg itthon 239k a legolcsóbb ajánlat, ami raktáron is van. 9800X3D sokkal rosszabb, külföldön is 600 euró felett indulnak az árak, míg itthon 340k környékén.

    Jelen pillanatban tehát itthon tudnál venni raktárról 239k pénzért 7800X3D-t, ami tudom, hogy sok, de nem vagyok benne biztos, hogy ez sokkal olcsóbb lesz a közeljövőben.

  • huskydog17

    addikt

    válasz hokuszpk #67448 üzenetére

    Jacek már megválaszolta, de csak megerősíteni tudom őt: igen, a Red Devil a Powercolor csúcskategóriás terméke, prémium.

    "amugy a minap odaat mintha épp arrol ment volna a diskurzus, hogy nemletezik ilyen, hogy premium kategoria."

    Prémium performance tier valóban nincs, de premium hűtés, illetve AIB design van, nem mindenhol így hívják ezeket, de itt a drágább AIB design-okra kell gondolni, ahol mind a hűtés, mind a tápellátás izmosabb, mert ezek már a tuningra, illetve sokkal halkabb működésre vannak kigyúrva, ezáltal akár jelentős feláruk van, azaz prémiumot fizetsz értük (az úgynevezett MSRP kártyákhoz képest). Sokan ezeket például OC kártyáknak hívják.

    Egyébként az RX 6700 XT esetében a Powercolornál a Fighter volt a fapados MSRP kártya, azon is 6+8-as tápcsati van.

  • huskydog17

    addikt

    válasz PuMbA #67436 üzenetére

    Akkor neked egy premium AIB kártyád van, ugyanis mind a referencia mind az MSRP 6700 XT kártyákon 6+8 pines tápcsati van, 2×8 a prémium tuningra szánt példányokon volt, de nem mindegyiken, például a Gigabyte prémium 6700XT-jén is 6+8-as volt (Aorus Elite). A 9070XT esetén a prémium példányokon 3×8 pin van, míg az MSRP változatokon 2×8 pin. Ez nekem azt sugallja, hogy a fogyasztás magasabb lesz, mint a 6700XT esetében, akár lényegesen is.

    Ha megnézzük az RX 7900XTX-et, akkor ott pontosan ugyanaz a felállás, mint a 9070XT esetében: a referencia és alap (MSRP) változatoknál általában 2×8 pin, míg a komolyabb AIB modellek 3×8 pint használnak.
    Tény, hogy van ellenpélda is, hiszen a 6700XT Hellhound változat is 2 darab 8 pint használt a 230 Watt ellenére. Ugyanakkor nem találtam olyan prémium AIB modellt a 6700XT-nél, amin 3 darab 8 pines csati lenne (Sapphire Nitro is 6+8).

    Legyen úgy, ettől függetlenül én továbbra is 300-ra tippelek a referencia és MSRP AIB példányok esetén.

    #67437 hahakocka:

    "Eddig is megannyi 2*8 PIN es 6000-7000 es vga volt 200-260W fogyasztással"

    Lásd fentebb.

    "nem igazán értem a fejtegetést"

    Pedig pofon egyszerű: egy találgatós topicban tettem egy tippet a fogyasztásra, ha már az AMD nem volt hajlandó semmilyen speckót kiadni. Ezt a tippet a PCI-E csatik alapján tettem, mert másra jelenleg nem lehet támaszkodni.

  • huskydog17

    addikt

    válasz PuMbA #67415 üzenetére

    Mivel az RTX 5070-es 550 dolcsi lett, így az AMD nem kérhet 500-nál többet, különben instant DOA.

    Pont ez a gond, hogy még utólag is csak csöpögnek az infók, úgy kell összevadászni a használható infókat, míg az NV rögtön a keynote idején minden infót elérhetővé tett.

    Amúgy úgy tűnik, hogy fogyasztás nem lesz valami baráti, az MSRP, non premium változatok is két 8 pines csatival jönnek, azaz 375 Wattos maximális fogyasztási kerettel érkeznek, az a kérdés, hogy ebből meddig fog nyújtózkodni a kártya. Ha viszont 250 Watt lenne, akkor bőven elegendő lenne 6+8-as csati. Ezen felül a prémium AIB kártyákon mind 3×8 pin tápcsati van, ez 525 Wattos fogyasztási keretet ad. Szerintem sokkal valószínűbb, hogy a 9070XT esetében a TGP 300 Watt lesz. A Prémium AIB modellek pedig felmehetnek 400 fölé vagy akár 500-ig.

    Az mondjuk jó hír, hogy legalább a Powercolor csinál SFF kompatibilis verziót (Reaper):

    PowerColor Radeon RX 9070 series revealed, Reaper confirmed as dual-slot design

  • huskydog17

    addikt

    válasz b. #67350 üzenetére

    Mind le fog égni, Paks is fel fog robbanni, mind meghalunk.

    Jól mondtam? Kihagytam valamit? :D

  • huskydog17

    addikt

    válasz Abu85 #67203 üzenetére

    Tehát valóban a semi custom fejlesztésekkel próbálják majd életben tartani az RTG-t, ahogy azt régóta itt többen is sejtettük.

  • huskydog17

    addikt

    válasz yagami01 #67221 üzenetére

    Megelőztél. :)

    Speckók még nincsenek feltöltve, de az ASUS-nál a 3 darab 8 pines tápcsati nem túl bizalomgerjesztő.

  • huskydog17

    addikt

    válasz hahakocka #67187 üzenetére

    Amúgy akármit prezentál az NV, már nyertek, mert az AMD ezt a prezit jól elb*szta.

    Amúgy pont az a logikus, hogy először a top, azaz csúcsterméket mutatják be, mindenki arra is számít, hogy az 5090 és 5080 lesz bemutatva, nincs ezzel semmi gond, épp ellenkezőleg, pont arra van szükség, a többség arra kíváncsi, hogy mekkora előrelépést hoz az új gen, márpedig ezt pont a csúcs SKU-val lehet a legjobban prezentálni.
    Ha viszont az RTX 5070-e szériát nem jelentik be hajnalban, akkor az AMD mire is vár? Miért tartják vissza az infókat az RDNA4-ről?

  • huskydog17

    addikt

    válasz Busterftw #67154 üzenetére

    Kártya nélkül is lehet sz*r a market share, ezzel a mai húzásukkal szerintem a 0%-ra most sokkal nagyobb esélyük van, mint a 40%-re.
    A mai előadással ismét az NV-nak kedveznek, a zöldek hajnalban akármilyen kártyát mutatnak, már nyertek. :D
    Én értem, hogy a pirosak kizárólag zárt ajtók mögött voltak hajlandóak megmutatni azt a 4 diát az RDNA4-ről, csakhogy a legfontosabb információkat még zárt ajtók mögött sem közölték a sajtóval. Semmilyen érdemleges információt nem közöltek a 9070-ről azon kívül, hogy az NV-t másolják névadásban és 4nm-en készül.
    Az FSR 4 szintén megér egy misét. :DDD Kemény egy játékot tudnak felmutatni, de ott is majd "later this year" jön majd az FSR 4 patch (Black Ops 6).
    A mai előadással szerintem egyértelműsítették a világ számára, hogy az RTG már kb. semmilyen prioritást nem élvez.

  • huskydog17

    addikt

    válasz Busterftw #67140 üzenetére

    We love the gaming community" mellé Jack azzal kezdi a 40%-os piaci részesedéséért vívott küzdelmet, hogy a világnak azt mondja "lóf*sz a s*ggetekbe, nem kaptok itt RDNA4-et", csak ezt kicsit politikailag korrektebbül fogalmazta meg. :DDD
    Arra abszolút nem számítottam ,hogy ezt meg merik lépni, hogy a gaming session-ben egy szót nem beszélnek arról a termékről, amit a gaming community a legjobban vár! De hé "we love gamers". :D

  • huskydog17

    addikt

    LOL, úgy tűnik ma nem lesz RDNA4 bejelentés, Jack csak annyit mondott hogy later this quarter, hát akkor egyelőre ennyi, egyelőre nem kapunk RDNA4-et a pirosaktól.
    Mondjuk nem volt túl bizalomgerjesztő, hogy hangproblémával indult az előadás, de arra azért nem számítottam, hogy egy szót sem beszélnek az RDNA4-ről, hiszen mindenki ezt várta és tonna mennyiségben jöttek már a leakek is.
    Abunak igaza volt: nem jelentenek ma be 9060-at, na de 9070-et sem! :DDD
    Tényleg megvárják először a zöldek lépését, nem akarnak először lépni. :D

  • huskydog17

    addikt

    válasz b. #67080 üzenetére

    Bennem is ez merült fel. Ha a 9060-ban az enkóder mellett a felskálázót is kiherélik, akkor mivel akarják azt eladni? Csak mert semmi nem marad belőle, ami értelmet adna neki. Pár órán belül remélhetőleg választ kapunk erre, mert ez így eléggé ellentmondásos.
    Ha a 9060-ból bármilyen RDNA4 feature-t kiherélnek, akkor az instant DOA.
    Most már nagyon kíváncsi vagyok arra a prezentációra, hogy mi az igazság. :)

  • huskydog17

    addikt

    válasz b. #66922 üzenetére

    Mekkora Epic Fail lenne! Főleg, hogy az Intel még az Arc A310-ben is teljes értékű enkódert ad. :D
    Reméljük kamu, de ha neadjisten mégse, és a pirosak megint kispórolják az enkódert a 200 dolláros kategóriából, akkor meg is érdemlik, hogy 0-ra menjen a piaci részesedésük, úgyis szépen lassan menetelnek a felé.

  • huskydog17

    addikt

    válasz b. #66845 üzenetére

    Ez nem az AMD éve volt:
    Rekord-alacsony piaci részesedés a konzumer GPU piacon, új konkurenciát kaptak az Inteltől, most meg kiderült, hogy a legpénzesebb részlegnél, az adatközpontos csúcsterméknél a szoftverkörnyezet pocsék állapotban van.
    Konzoloknál pedig mint kiderült a DLSS-t alázó PSSR valójában csak egy újabb ígéret volt, de a gyakorlatban nem sikerült hozni a beígért minőséget.
    Csak a szokásos forgatókönyv látszik: az AMD fűt-fát ígér, amiből aztán nem sok valósul meg.
    Már sejtem mennyit fogunk látni a 40%-os piaci GPU részesedésből. :U

    A cikken én is ledöbbentem, hogy mekkora elmaradás van a legpénzesebb hardvernél és hogy ott is milyen hazudozások ígérgetések mennek.
    Ha a legtöbb pénzt hozó adatközpontos részlegnél ilyen súlyos szoftveres hiányosságok vannak, akkor vajon mi lehet az RTG-nél? Ezek után semmi jóra nem számítok az RDNA4-nél.

    Vajon a SA cikkből lesz hír a PH-n? Valamiért erősen kétlem, de ha lesz is, akkor hosszú regényben meg lesz magyarázva, hogy a cikk miért félrevezető és az AMD-nél nincs semmi gond, sőt ők csinálják a legjobban, csak senki nem veszi észre. ;]

  • huskydog17

    addikt

    válasz PuMbA #66843 üzenetére

    "Egy DLSS 3.5 szint már bőven jó lenne."

    :D Szerintem először a DLSS 2 vagy az XeSS szintjét kéne elérni. ;]

  • huskydog17

    addikt

    válasz PuMbA #66759 üzenetére

    A legviccesebb ebben a történetben, hogy az új Snowdrop motor AMD kooperációban készült és pont ott szerepel a legrosszabbul az új agyonsztárolt felskálázó. Ha ezt a PSSR-t rakják az RDNA4-be, akkor nem csak nem lesz lényeges előrelépés, hanem bizonyos játékokban még visszalépés várható az FSR 3-hoz képest. LOL!
    Ennyit arról, hogy az új, AI alapú PSSR minden eddigi felskálázót majd lealáz.
    Ez egy újabb tökéletes példa arra, hogy miért nem érdemes felülni különböző légből kapott jóslatokra és ígéretekre.
    Egy biztos: nem a PSSR fogja az RTG-t kihúzni a sz*rból, ahogy az várható volt.

    #66760: Ha jól emlékszem Tom Petersen említette is, hogy ők nem az NVIDIA-t, hanem az AMD-t vették célba, márpedig erre most nagyon jó esélyük van, főleg, hogy a pirosak rekordalacsony piaci részesedésen állnak, illetve a Battlemage elérte az RDNA3 energiahatékonyságát. Nem tudjuk, hogy mekkora mennyiséget szállítottak le a B580-ból, tehát hogy mennyi fogyott, de a jövőben a 2024Q4 és 2025Q1-es JPD jelentésekből majd okosabbak leszünk.
    Az viszont tény és maximálisan egyet is értek azzal, hogy az Intel végre egy nagy követ dobott a 300 dollár alatti állóvízbe, erre nagyon nagy szükség volt.

    Januárban kiderül, hogy az AMD-nél az új RTG vezér mennyire gondolta komolyan a 40%-os piaci részesedést, vagy az csak egy újabb tipikus üres AMD-s ígéret marad. A pirosaknak a Battlemage kétségtelenül nagyon rosszul jött, mert most újra versenyezni és fejleszteni kell...mármint kéne, de könnyen lehet, hogy letojják és továbbra is az NV mögé állnak. Ez utóbbit sajnos nagyon reálisnak és valószínűnek tartom, hiszen úgy tűnik, hogy most már a nevezéktant is átvették a zöldektől.

  • huskydog17

    addikt

    válasz S_x96x_S #66665 üzenetére

    Gondoltam hogy megint ezzel hozakodol elő, korábban ez ki volt már tárgyalva. Abu kijelentése nem a mobilról szólt (egész pontosan a Navi32 tempója fog beígérve, ami RTX 4070 szint) . Nem megyek bele a témába, mert ahogy írtam, ezt már egyszer alaposan kibeszéltük. Most sem a mobil verzióról beszéltem.

  • huskydog17

    addikt

    válasz PuMbA #66661 üzenetére

    Konkrétan úgy volt itt reklámozva, hogy az RTX 4070 tempóját fogja hozni. :DDD

  • huskydog17

    addikt

    válasz PuMbA #66384 üzenetére

    Oh jaj, egy újabb ígéret, remek! Tök jó meg minden, csak előbb talán az FSR-t kéne rendbe tenni, hogy versenyképes legyen, mert jelenleg a 3.1 sem versenyképes még, ráadásul a saját szponzorált játékaikban sem. Ezek után egy újabb területen akarnak versenybe szállni, ahol az NVIDIA óriási előnyben van, a Ray Reconsruction minőségét valószínűleg jó pár évig nem fogják megközelíteni, csak nehogy itt is az FSR forgatókönyve valósuljon meg. Márpedig figyelembe véve, hogy az egész GPU divízió minimális pénzből üzemel, ezt látom a legreálisabbnak sajnos. Csak egy újabb terület, ahol majd próbálnak loholni az NVIDIA után.
    Gondolom kellett adni egy újabb "mi is tudunk ilyet" ígéretet a befektetők felé.

  • huskydog17

    addikt

    válasz T.Peter #66331 üzenetére

    Nocsak, nem is tudtam, hogy Krzysztof Narkowicz a Lumen és Megalights projekteknél is ilyen magas poziban van. Ez mondjuk nem lep meg, mert ő nagyon nagy koponya, ő volt a Roadhog Engine atyaúristene.

  • huskydog17

    addikt

    Minek RDNA3 és RDNA4? Éljen az RDNA2!

    ZEPHYR introduces Radeon RX 6800/6900 with white PCB, four years after AMD release

    Mondjuk tény, hogy nagyon baráti áron adják ott ezeket az új fehér csodákat:

    "The RX 6900 XT model is priced at 2,999 RMB (around $410 USD), while the RX 6800 XT and RX 6800 are priced at 2,799 RMB ($383 USD) and 2,499 RMB ($342 USD) respectively."

    #66212 PuMbA: Szerintem aki eddig is két lábbal állt a talajon, annak ez nem meglepő. ;)
    Tehát akkor a Sony egy dedikált AI hardverrel meg tudja közelíteni azt a minőséget, amit az NVIDIA - állítólag - nem AI alapú megoldása hoz általános feldolgozókkal több éve. Ez a konzolosoknak jó hír, hogy végre ők is kapnak DLSS szintű képminőséget.
    Na persze ez még csak egy játék, de nagy valószínűséggel a többi játékban is hasonló lesz az eredmény.
    Ilyenkor elgondolkozik az ember, hogy ha a Sony-nak és AMD-nek külön dedikált hardveregység kell ahhoz, hogy elérjék/megközelítsék a DLSS minőségét, akkor vajon az NVIDIA szintén dedikált AI hardverrel milyen minőséget képviselne? Hm...

  • huskydog17

    addikt

    válasz ReSeTer #66149 üzenetére

    Az biztos, hogy idén már nem lesz semmi egyik oldaltól sem. Legközelebb a januári CES-en lehetnek bejelentések. Még semmi hír/infó nincs arról, hogy az AMD ott jelentené be az RDNA4-et, így nincs értelme azt elvárni, nehogy nagy csalódás legyen ha esetleg semmit nem mutatnak belőle. ;)
    NV oldalon január 6-án lesz a Keynote és egyre több pletyka/infó kering arról, hogy ott lesz az RTX 50-es széria bejelentése. Persze ez nem hivatalos infó, de legalább van valami, mégis több, mint az RDNA4-nél.

    #66153 hahakocka: Kizárólag a januári 6-án esedékes NVIDIA Keynote a hivatalos infó, semmi más.

  • huskydog17

    addikt

    válasz hahakocka #66146 üzenetére

    Mivel RDNA4-ről még csak pletykák sincsenek, így nagy valószínűséggel nincs értelme reménykedni RDNA4 bejelentésben a CES-en, csak megválaszoltam a kérdésed, hogy mire lehet számítani januárban.

    "890M ről mi a véleményetek? Nem hoz mégse akkora nagy ugrást sajnos a 780M hez képest elvileg."

    Persze, hogy nem, aki eddig két lábbal állt a talajon, azt nem valószínű, hogy meglepte. Az Intel egyébként utol is érte IGP-ben az AMD-t, a Lunar Lake hozza a 890M tempóját, de kisebb fogyasztás mellett, így mobil fronton a Lunar Lake jobb választás.

  • huskydog17

    addikt

    válasz PuMbA #66059 üzenetére

    Nem csoda, mert az XFX Merck 310-es a legszarabb custom design, rohadt hangos, ez a custom design kb. olyan, mint a zöldeknél a Gainward Ghost.

  • huskydog17

    addikt

    válasz S_x96x_S #65590 üzenetére

    Nem értetettem félre semmit, inkább pont te értesz félre mindent és nekem úgy tűnik szándékosan. Nem mobile-ről írt, ilyen egyszerű, utólag persze meg lehet próbálni magyarázni, hogy há de biztos mobilról volt szó, csak hogy nem azt volt odaírva, amúgy is érdekesen hangzik, hogy egy nem létező termékhez hasonlítod, miközben a Navi 32 asztali termék. Pont a te logikád a nyakatekert. Belelátsz kommentekbe olyat, ami nincs ott.
    Amit csinálsz az inkább magyarázkodás, próbálod magyarázni a bizonyítványt egy nem létező termékkel. Nincs több kérdésem.
    Szerintem hanyagold a témát, bölcsebb dolog lett volna csendben maradnod, ha már az iróniát képtelen vagy értelmezni.

  • huskydog17

    addikt

    válasz S_x96x_S #65588 üzenetére

    Más már úgy látom megválaszolta.
    Nem én találtam ki ezt a marhaságot, egész magabiztosan állította, hogy márpedig az asztali verziót meg fogja verni, hiszen a kijelentéskor ahogy ma is még nem létezik mobile NAvi32 termék a piacon! Nem kell hozzá sok ész és logika hogy rájöjjön az ember, hogy csak az asztalira gondolhatott, mert más nem létezik a Navi32-ből.

    Én pontosan tudom mi a különbség az asztali és mobil verzió között, ezért is kérdeztem rá többször, hogy biztos-e a kijelentésében, egyszer sem mondta azt ,hogy bocs hülyeséget mondtam, sőt kötötte az ember a karóhoz, hogy márpedig az RDNA 3.5 annyival jobb hogy így lesz.

    Ő konkrétan azt jósolta, hogy idén lesz Navi32-t verő Strix Halo, ennyi. Aki egy kicsit is a realitás talaján van, az pontosan tudja, hogy ez mekkora giga bullshit, ezért is javasoltam, hogy kapcsold be az irónia detektorod, elképesztő, hogy egy egyszerű ironizálást kétszer el kell magyarázni.

    Részemről a témát veled lezártam, mert te vagy nem képes vagy nem hajlandó észrevenni az iróniát.

    Szóval mindent amit nekem fentebb írtál, azt ne nekem címezd, mert én azokkal tisztában vagyok, ahogy ezt korábban már többször is jeleztem.

  • huskydog17

    addikt

    válasz S_x96x_S #65579 üzenetére

    Ez esetben nem az én kommentemre kellett volna válaszolnod, vagy nem ártott volna akkor elmagyarázni, hogy miért is hoztad fel a két dolgot, aminek semmi köze ahhoz, amit írtam. Így már értem, de ettől még semmi köze hozzá, én csak arra vagyok kíváncsi, hogy a Navi32-t (Radeon 7800XT) mennyivel fogja megverni a Strix Halo ha már be lett ez reklámozva itt a fórumon.

  • huskydog17

    addikt

    válasz S_x96x_S #65574 üzenetére

    Teljesen érthetetlen számomra a reakciód és az is, hogy egy mondat egyik felére reagálsz olyat, aminek semmi köze hozzá.

    Mi alapján gondolod, hogy nem értékelem a versenyt, és ennek mi köze az eredeti, teljes kommenthez amire válaszoltál, azon kívül hogy semmi?

    Hogy jön ide a mobil RTX 4090, amikor szó se volt róla? :F Hogy jön ide az RTX 4070M, amikor szó se volt róla? :F

    Tipp: Navi32-ről volt szó és kapcsold be az irónia detektorod!

  • huskydog17

    addikt

    válasz TESCO-Zsömle #65570 üzenetére

    Teljes kiépítésű (nem vágott) Navi 32-nek 624 GB/s szávszélje van (Radeon RX 7800 XT).
    A 7700S-nek semmi köze a Navi32-höz, mer az Navi33.

    #65573: Akkor sajnos nem értem mit akartál mondani.

  • huskydog17

    addikt

    válasz Raymond #65567 üzenetére

    Tehát akkor a Strix Halo 256 GB/s max elméleti sávszéllel fogja legyűrni a 624 GB/s-es Navi32-t? :U Erre kíváncsi leszek, csak nehogy csalódás legyen a vége. ;]

  • huskydog17

    addikt

    válasz S_x96x_S #65544 üzenetére

    Az általad linkelt videó nem bizonyíték, hanem üres elmélkedés zéró méréssel. Játékok alatt nem sokat segít, ha CPU enkódolás közben a játék elkezd brutál mód akadni, mert az enkódolás miatt nem marad már erőforrás a játékra.
    Képminőségre vonatkozóan a videód szintén zéró információt tartalmazott.

    Ezen felül továbbra is otthoni (konzumer) felhasználásról volt/van szó, így teljesen érthetetlen számomra miért kevered ide a profi/enterprise szekciót, ami egy teljesen más téma és más felhasználási terület, arról szó sem volt. A Google is saját tervezésű ASIC-okat használ a YT szerverparkjában, csakhogy ennek semmi köze a témához én se hoztam ezt fel.

    Bizonyítékokhoz ezeket tudom javasolni, olvasgasd, nézegesd, ezek az anyagok tökéletesen megmutatják miért értelmetlen otthonra az x264:

    Video Encoding Tested (TW)
    NVIDIA NvEnc vs. CPU encoding
    NVENC vs AMF/VCE vs QuickSync vs X264 - ULTIMATE Encoder Quality Analysis 2020

    "tesztelésnek mindig van értelme."

    Hol állítottam az ellenkezőjét? Nem tesztelésről beszéltem. Amúgy azt is nagyon erősen kétlem, hogy otthonra bárki csak tesztelés célból vegyen erős CPU-t, senki nem fogja az idejét arra pazarolni, főleg hogy mások már csináltak kellő mennyiségű tesztet.

    "Neked 7800X3D + RTX 4070 12GB konfigod van most,
    és ha véletlenül korábban upgradelsz 9950X3D -re - mint ahogy a GPU-t upgradeled,
    akkor neked is érdemes lehet felülvizsgálni az álláspontodat."

    Miért frissítenék 9950X3D-re? Honnan jön az elképzelés, mi alapján? Nem fogom felülvizsgálni, mert számomra a Ryzen 9-es széria irreleváns. A 7800X3D-vel is tudnék CPU enkódolást csinálni. Na de miért tenném? Nem fogom saját magam megszívatni.

  • huskydog17

    addikt

    válasz S_x96x_S #65352 üzenetére

    "CPU tesztelésre még mindig használják.
    és a mostani komolyabb consumer/otthoni Zen5-ös tesztek is tartalmaztak CPU kódolást. Szerintem elsőként a tesztelőket kellene meggyőznöd."

    Elég nagy logikai bukfenc van itt. Attól, hogy benne van a tesztekben miért zárja ki, hogy a modernebb NVENC motor jobb minőséget, mint az x264? Miért kéne nekem bármilyen tesztelőt meggyőznöm? Miért zavar téged az x264 a tesztekben? Engem aztán nem zavar.

    "Azt szerintem mindenki megérti,
    hogy a te use-case -ed és konfigod alapján - neked a GPU az optimális,
    de ebből a példából nem lehet általánosítani mindenkire is."

    Nem csak nekem, hanem otthonra mindenkinek, akinek modern (min Turing) NVENC-je van. Otthoni (konzumer) vonalra pont, hogy lehet általánosítani. Több teszt is egyértelműen mutatja, hogy az NVENC jobb minőséget ad.

    "A CPU kódolás mellett is léteznek racionális érvek."

    Nyilván van igen, biztosan megvan a maga létjogosultsága, viszont otthonra x264-nek modern NVENC motor mellett nincs értelme. Az a kijelentés viszont, hogy otthoni felhasználásnál x264-el tudod elérni a legjobb képminőséget, az szimplán hazugság.

  • huskydog17

    addikt

    válasz Abu85 #65347 üzenetére

    Tök jó, hogy otthoni felhasználásról volt szó, erre idekeversz egy olyan témát, aminek semmi köze az eredeti témához, továbbá szándékosan kevered a szezont a fazonnal, de tőled nem vártam mást.
    Mindegy, egy kísérletet tettem az értelmes diskurzusra, de ismét időpocsékolás volt. :)

  • huskydog17

    addikt

    válasz Abu85 #65340 üzenetére

    Ez már évek óta megdőlt. Nincs értelme a CPU enkódolásnak, ha van legalább Turing szériás NVENC, ami nem csak sokszor gyorsabb, mint a CPU, hanem képminőségben is felveszi a versenyt vele, sőt jobbat is tud.

    #62342: Attól, hogy leírod a hülyeséget, attól még nem lesz igaz. Senki nem fog CPU-val kódolni, főleg nem HEVC vagy AV1 videókat, amikor annak extrém mértékű időbeli hátránya van, de cserébe semmilyen előnyt nem kapsz képminőségben, épp ellenkezőleg. A vicc, hogy H.264 esetén sincs értelme már a CPU-s enkódolásnak, ha van modern NVENC motorod.

    Ezeket a régi berögződéseket jobb lenne elengedned, mert ezekkel csak félrevezeted az olvasókat.

    HEVC mellett az NVENC motor (min. Turing széria) mindent ver képminőségben.

  • huskydog17

    addikt

    válasz hahakocka #65150 üzenetére

    Mivel ez nem válasz komment, így nem tudom kinek írtál itt, csak feltételezem, hogy nekem szántad, ezért válaszolok rá. Ha esetleg mégse nekem szántad, akkor ez a komment törölhető és kéretik figyelmen kívül hagyni.

    A mozi témához nem kívánok többet hozzászólni, mert nem értek hozzá. Én csak azt tapasztaltam eddig, hogy hiába a nagy képátló ha homályos a kép. Igaz nem vagyok egy nagy moziba járós típusé s utoljára sok éve voltam olyan helyen, de pont azért nem megyek, mert sose voltam elégedett a képminőséggel, arról nem is beszélve hogy a 24 FPS is zavar.

    "Nemrég kiadták a Star Wars Outlaws játék hivatalos gépigényét elég részletes, S most már ez már a 4-5. nagyon hypolt nagy költségvetésű game, ahol kötelező a FSR-DLSS ahhoz hogy 60 fps el fusson a game."

    Nem, továbbra sem kötelező használni a felskálázást, sose kötelező, valamint továbbra se létezik olyan játék, ahol kötelező. A hivatalos követelmények azt jelentik, hogy a megadott konfigurációval és felskálázás beállítással milyen sebesség várható, ez egyfajta ajánlás, de sose kötelező. Nyugodtan visszaveheted a kimeneti felbontást és akkor tudod natívan tolni jobb sebesség mellett, csak úgy saját magaddal szúrsz ki, mert sokkal rosszabb lesz a képminőség. A lehetőséged viszont ott van rá. Esetleg visszább lehet venni még a grafikai presetet is, nem kötelező maxon játszani, ahogy a 60 fps sem kötelező.

    "Bár te úgy szoktad tolni az FHD monitorodon a DLSS -t nem? Mik a tapasztalatok mostanság épp?"

    Így van, egyelőre még 1080p monitorom van, lehet idén lecserélem, tervezgetek 144Hz-re menni, de lehet maradok 1080p kijelzőnél, még magam sem tudom hogyan/milyen lesz.
    DLSS tapasztalatok - ahogy eddig is - ugyanazok, mint a független teszteknél. Ahol van, használom (kivéve a SotTR-t), vagy a DLAA-t, attól függően, hogy adott felbontáson milyen a sebesség, de képminőség tekintetében messze ez a kettő adja a legszebb képminőséget a legtöbb játékban.
    Ghosting és artifact továbbra is az FSR-re jellemző. Nézd csak meg a régóta várt és sokat áhítozott FSR 3.1-nél milyen extrém mértékű ghosting van. Amíg a disocclusion artifactokat sikerült csökkenteni, a ghosting viszont masszívan nőtt, azaz romlott. Egy lépés előre, egy lépés hátra, az FSR egy helyben toporog.

  • huskydog17

    addikt

    válasz PuMbA #65139 üzenetére

    Azért olyan csúnya (homályos) a kép a mozikban? Azt hittem a vetítővászon miatt. :)
    Fényképeknél elég jó a JPEG tömörítés, nem tudtam, hogy mozik ezt használják a filmekhez.

    #65140 hahakocka: Te itt szerintem valamit nagyon keversz. Video stream artifactról van szó és nem real time render artifactról. 1080p-n is lehet bitang szép minőséget elérni megfelelő bitrátával, ahogy 4K-ban is lehet iszonyat pocsék minőséget szállítani. A DLSS/FSR témára vonatkozó kijelentésed továbbra sem igaz. Attól, hogy leírsz egy valótlan dolgot milliószor, még nem lesz automatikusan igaz, e mellett ráadásul semmi köze a témához. ;) Nem értem hogy jön ide az upscaling.

  • huskydog17

    addikt

    válasz Raymond #65133 üzenetére

    Egyet értek FLATRONW kollégával, ezek brutálisan magas bitráták. Én 50 Mbps-el rögzítem a 4K videóimat (HEVC, non-VR), ami már szintén egész jó minőség és már ott sem látszik semmilyen artifact (vagy elhanyagolható), a 200 Mbps ugye 4× annyi, emiatt kizártnak tartom, hogy bárki bármilyen tömörítési artifactot vegyen észre, főleg HEVC és AV1 esetén.
    Egyszer készítettem kíváncsiságból és egyben kísérletképpen 200 Mbps HEVC felvételt egy játékból, na ott konkrétan nem láttam különbséget a veszteségmentes képhez képest.

  • huskydog17

    addikt

    válasz Apollyon #65110 üzenetére

    "Azt is sajnálom, hogy már személyeskedned kell. Ez az a színvonal, ami nem méltó hozzám, így ebben nem is szeretnék részt venni." - by Abu85.

    Nem öregedett túl jól ez a kijelentése sem, főleg, hogy nem először teszi.

  • huskydog17

    addikt

    válasz PuMbA #65058 üzenetére

    Már megszokhattad, hogy az AMD mindig több éves lemaradással követi az NVIDIA-t. Már mindenben a zöldeket követik, mert rájöttek, hogy ők csinálják jól. :)

  • huskydog17

    addikt

    AMD introduces Fluid Motion Frames 2: better frame generation with lower latency

    AMD Fluid Motion Frames 2 Technical Preview Now Available

    Na erre kíváncsi leszek, hogy a gyakorlatban mennyire fog jól (vagy nem jól?) működni, ugyanis az FSR 3.1 FG elég jó lett. Csak aztán nehogy ez is az Anti-lag+ sorsára jusson! ;]

    PuMbA: Megelőztél! :) Amúgy igen, reméljük lesz végre gyakorlati haszna is annak, hogy a szoftveres részleg létszámát megtriplázták.

  • huskydog17

    addikt

    válasz szmörlock007 #64963 üzenetére

    Tehát belátták egyrészt, hogy végre ideje lenne a nagy szoftveres lemaradás ellen tenni valamit, másrészt, hogy itt is az NVIDIA útja a helyes, így itt is őket kezdik el követni, ahogy szinte minden másban próbálnak utánuk loholni. Jobb későn, mint soha! :)

  • huskydog17

    addikt

    válasz S_x96x_S #64911 üzenetére

    Ahogy mondtam, te a pletykákat tényként kezeled, én nem. Majd ha a kész termékről jönnek a független teszek, akkor elhiszem, hogy valós a dolog, vagy ha az AMD hivatalosan is elismeri a létezését.

    "Ami itt konkrétan tény ,
    hogy egyes publikus vám adatbázisban feltünt egy elég érdekes chip - amit egyes megbízhatóbb leakerek a Strix Halo-hoz kapcsolnak."

    Igen, ahogy az is tény, hogy az interneten bárki írhat bármit és még a legnagyobb bullshiteket is szeretik felkarolni a különböző sajtók és egyéb médiumok némi plusz kattintásért. Te ezek szerint tényként kezeled a leakerek következtetéseit. Ez a te döntésed, én viszont csak a hivatalos adatoknak fogok hinni.

  • huskydog17

    addikt

    válasz S_x96x_S #64908 üzenetére

    "ami egyszerre létezik és nem létezik az AMD titkos laborjában"

    Most akkor létezik vagy nem? :) Tehát pletykákat tényként kezelsz, értem, én viszont nem.

    "We have no confirmed launch date for Strix Halo products or even official confirmation of the chip's existence." - link

    Tehát röviden: lehet, hogy van, lehet, hogy jön, de lehet hogy nem. Tudod ez olyan, mint ha azt mondanád az időjárásjelentésben, hogy "lehet eső, lehet hó, lehet rossz idő, lehet jó".

  • huskydog17

    addikt

    válasz S_x96x_S #64894 üzenetére

    Én továbbra se látok itt semmi kézzel foghatót. Semmilyen hivatalos megerősítés nincs a Strix Halo-t illetően, se teljesítményre, se megjelenésre, csak expected van, ami kb. semmit nem ér. Érdekes, hogy ezek a pletykák se említenek Navi32 tempót.

    Tehát konkrétan semmi biztosat nem tudni róla ,de azért már ténykényt megy itt a NAvi 32-t is verni fogja még idén kijelentések.

    #64899 Abu85: Tehát akkor nem nagy kunszt mobil vonalon összerakni egy Radeon RX 7900M-el egyező teljesítményű IGP-t és szintén nem nagy kunszt 2-3 hónap alatt duplázni a teljesítményt. Értem. Szerintem meg nagyon nagy kunszt, olyannyira nagy, hogy nem lesz belőle semmi. A nem nagy kunszt inkább az, hogy jövőre, tehát valamikor 2025-ben elérik majd IGP-ben a Navi23 szintjét, mert egyelőre kizárólag ilyen jellegű pletykák vannak.

    #64895 Busterftw: Ja tényleg a jó öreg wunderdriver. Nem tudtam, hogy 20 évvel később még mindig arra várunk. ;]

  • huskydog17

    addikt

    válasz Abu85 #64884 üzenetére

    Most ismét írtál egy regényt a semmiről, miközben továbbra is kikerülöd a válaszokat.

    Milyen ár és lapkaméret várható a Navi32-t verő APU-nál? Még ez ősszel vagy év végén jelenik meg? Ki/mi a célpiac?
    Azt állítod, hogy ez az APU jelenleg az RTX 4070M szintjén van. Ez azt jelenti, hogy néhány hónapja maradt az AMD-nek megduplázni ezt a tempót ugyanazzal az arch-hal, miközben jelentős változást már nem lehet eszközölni a terméken, hiszen piacra dobás előtt néhány hónappal el kell kezdeni tömeggyártani. Tételezzünk fel egy rendkívül optimális esetet és van még 2-3 hónapjuk javítani a tempón. Hogy akarják duplázni a gyakorlati sebességet, miközben se CU-ban se sávszélességben meg se tudja közelíteni a Naiv32-t?
    Tehát ez a csoda APU most még a Navi23 szintjén van. Tegyük fel, hogy ennek a tempóját megduplázzuk év végig (ami továbbra is nonszensz), akkor az AMD értelmetlenné teszi az összes létező mobil Radeon VGA-it, ugyanis a leggyorsabb mobil VGA-ájuk a Navi31-reépülő Radeon RX 7900M, ami érdekes módon pont a Navi32 szintjén van.

    Nem lefelé, hanem felfelé kéne jobban skálázni és legfőképp rendbe tenni az igencsak gyenge energiahatékonyságot, mert ilyen fogyasztással legalább 300 Wattos APU kéne, hogy elérjék a Navi32-t. :)

  • huskydog17

    addikt

    válasz S_x96x_S #64880 üzenetére

    Ja, csakhogy az Apple és NVIDIA nem RDNA arch-ot használ. Ahogy mondtad: almát almával.

    Nem én említettem a Navi32 után a 4070 Mobile-t. Ne nekem mondd!

  • huskydog17

    addikt

    válasz Abu85 #64870 üzenetére

    "Persze az SPH az mobil fókuszú projekt, de a mostani minták teljesítménye az RTX 4070 Laptop GPU szintjén van. Tehát eddig fogja szükségtelenné tenni a dedikált GPU-t."

    Most már lementünk 4070 Mobile szintre? Az Navi23 szint asztali fronton. Hova tűnt a Navi32-t verő tempó? Mikor fog megjelenni idén, mekkora lesz és mennyibe fog kerülni? Ha a mostani minták a Navi 23 tempóját hozzák, akkor pár hónap alatt ezt felviszik Navi 32-t (Radeon 7800XT, vagy NV oldalon RTX 4070) verő szintre úgy, hogy se CU-ban se sávszélességben meg se közelíti? Elméletben lehetséges egyáltalán akkora IGP-t gyártani, ami hozza a Navi32 szintet?

    A következő kommentednél mi lesz a target performance? :D

Új hozzászólás Aktív témák

Hirdetés

OSZAR »