Nvidii kolejne kłopoty – tym razem problemy ze współpracą z DX12

MusialemToPowiedziec dnia 1 września, 2015 o 8:12    83 

Na razie nic ultra pewnego, posty na redditach i innych forach, ale jak okażą się prawdą, to wszystkie GeForce’y do śmietnika, a nie do DX12 będą się nadawać.

W źródle post na reddit/PCGaming. W skrócie, jednym z najważniejszych dodatków w DX12 jest “Async Compute” (dla 5latka: do tej pory karty graficzne mogły przesyłać dane dotyczące grafiki jak po drodze jednopasmowej, dzięki AC robi się ona wielopasmowa, więc można przerabiać szybciej więcej grafiki). Według twórców Ashes of the Singularity rozwiązania technologiczne używane przez Nvidie do robienia kart powodują, że nie mogą używać tej technologii – i właśnie przez to na benchmarkach Radeony dostają solidnego kopa, a GeForce’y nie.

Nvidia na razie tylko poprosiła o zablokowanie tej opcji na GeForcach w tej grze i milczą. Ale jak ktoś nie musi kupować nowej karty ASAP, naprawdę radzę poczekać, bo z plotek wygląda na to, że dopiero następna generacja kart graficznych – Pascal – ma szanse na bycie zgodnym z ów technologią. A jak musi… Może jakąś używkę, żeby przetrwać najbliższy rok? Albo po prostu Radeona.

Choć, rzecz jasna, to wszystko może być zwykłym czarnym marketingiem. Zobaczymy co powie Nvidia. O ile coś powie…

Dodaj komentarz



83 myśli nt. „Nvidii kolejne kłopoty – tym razem problemy ze współpracą z DX12

    1. EveryEnd

      @Probabilistyk

      Niekoniecznie. Myślę, że AMD już ledwo goni. Dodatkowo rynek kart graficznych regularnie się zmniejsza, więc zapał do walki pewnie też spada. Ostatnio bodaj nV ma 82% runku, więc ciężko będzie amd ten trend odwrócić. Dodatkowo z tego co widzę, gracze regularnie wymieniają karty (ot choćby ostatnia ankieta na pclabie, gdzie połowa kart to były 970). Więc pewnie jak wyjdą nowe karty to się znów wszyscy rzucą na coś nowego.

      1. MusialemToPowiedziec Autor tekstu

        @EveryEnd

        Jeżeli okaże się prawdą, że wszystkie GeForce’y aktualnie na rynku naprawdę są do śmietnika, a nie do DX12, to cena 980ti spadnie do cen kart biurowych, a nie hi-endów.

        Ludzie kupili GF 970 i 980, bo miała to być inwestycja na lata. A tu zonk, jak tylko porty będą tylko robione pod DX12 (czyli… za rok? MS będzie mocno naciskał na używanie DX12, bo to główna broń XB1) to wszystkie GFy dzisiaj na rynku się będą nadawać jako przyciski do papieru, a nie do porządnego grania.

        1. Probabilistyk

          @MusialemToPowiedziec

          Pytanie, w jakim zakresie obecne 9xx od nV wspierają DX12 (z tego co było deklarowana to mają go wspierać w 100%) i czy faktycznie odkryty problem z AC będzie mocno wpływał na ogólny performance ?

          Jeśli seria 9xx będzie obsługiwała DX12 bez AC to i tak nie widzę jeszcze tu dużego problemu, bo może się okazać że karty zwyczajnie stracą kilka % na wydajności w stosunku do konkurencji, ale i tak będą działać w środowisku DX12 tak samo jak w DX11.

          Osobiście z ciekawością będę się przyglądać tej sprawie, jak trafisz na inne ciekawostki z tego tematu to dawaj znać 🙂

          1. MusialemToPowiedziec Autor tekstu

            @Probabilistyk

            Według tego, co tam wyczytałem, dzisiejsze GFy oficjalnie wspierają DX12 w 100%. Tak samo, jak GF970 ma 4 giga ramu.

            AC jest w pełni wpierane przez GFy, tyle że w taki sposób, że gry działają szybciej, jak się nie używa tej opcji.
            A tymczasem twórcy konsolowi już mówią, że dzięki AC mają o 30% więcej FPSów…

            Choć, nie wiadomo, może się zaraz okazać, że to tylko był błąd w sterowniku albo coś. Choć ponoć problem jest hardware’owy, nie software’owy.

            1. Probabilistyk

              @MusialemToPowiedziec

              No może na konsoli to uzyskają te 30% dzięki DX12, który zmniejsza narzut na CPU, który (CPU) jest słaby w przypadku konsol. Jeśli chodzi o PC to już wcześniej się mówiło, że w przypadku wydajnych CPU i wydajnych GPU to przejście na DX12 da minimalny wzrost FPS (w stosunku do DX11).
              Raczej nie nikt kto kupuje 980+ nie wsadzi go do budy z i3 lub pentiumem, więc automatycznie nie będzie czerpać z mocno rozreklamowanych benefitów DX12.

              Gorzej mają posiadacze kart poniżej 970, które zazwyczaj są łączone z mniej wydajnymi CPU, bo może się okazać że bardziej opłacalny byłby dla nich zakup czegoś od AMD… no ale to są moje dywagacje. Jak wspominałem wcześniej czekam na rozwój wypadków i rzetelne testy.

              1. MusialemToPowiedziec Autor tekstu

                @Probabilistyk

                Co do procka: w przypadku testu DX12 na alfie Ashes of the Singularity z R390: “Average frame-rates with the Core i3 processor rise from 24fps to 40fps – a 67 per cent boost to performance. On top of that, even the i7 sees a big increase – rising from an average of just 28fps up to 49fps, a 75 per cent uplift. In both cases, lowest recorded frame-rates double – from 12 to 29fps on the i3 and from 15 to 32fps on the i7.” – http://www.eurogamer.net/articles/digitalfoundry-2015-ashes-of-the-singularity-dx12-benchmark-tested
                Więc nawet szybki procek może dostać kopa.

                Ale ogólnie się zgadzam, na razie nie ma zbyt wielu danych. Ale jak masz wydać te 2000 złotych na kartę, warto wiedzieć, że istnieje duże zagrożenie, że to może być krótkotrwały wydatek…

        2. EveryEnd

          @MusialemToPowiedziec

          “cena 980ti spadnie do cen kart biurowych, a nie hi-endów. ”
          Nie sądzę. Zresztą poczekamy zobaczymy. Mi to obojętne, bo ja wymieniam kartę regularnie co 2 lata. I zwykle kupuje gry po przecenach, więc rzadko udaje mi się grać w coś po premierze. Zresztą pytanie co ten DX12 tak mocnego wniesie. Czy faktycznie będzie o co bić pianę.

          1. MusialemToPowiedziec Autor tekstu

            @EveryEnd

            Nie no, jasne, z 3000 do 300 złotych nie spadnie, taka hiperbola.

            Jak napisałem probiemu, twórcy konsolowi dzięki AC już mówią o 30% więcej FPSów. Czyli gry ze stałymi 25 FPSami teraz mają stałe 30 FPSów.
            A patrząc jak MS naciska na DX12, to IMO AC będzie wykorzystywane ile tylko się da.

        3. BlahFFF

          @MusialemToPowiedziec

          Nie mow jeszcze hop bo moze sie okazac, ze to jakis pojedynczy przypadek kiedy AMD jest az tak z przodu. Inaczej napisana gra, z innymi potrzebami i wynik moze byc zupelnie odwrotny. Nie do konca wiadomo czy NV moze tez jakos ten problem rozwiazac. Moze da sie cos zoptymalizowac lub zmienic kompletnie i poprawic wyniki, ktore na dobra sprawe az tak bardzo nie odstaja od siebie.

          1. MusialemToPowiedziec Autor tekstu

            @BlahFFF

            Zgadzam się, wszystko się może zdarzyć i zmienić. Ale na razie mamy twórcę gry, który mówi że karty Nvidii są tak produkowane, że autostrada AC na nich nie pojedzie, bo na GFach z góry ustalono, że będzie jednopasmówka i tyle.
            I co gorsza mamy Nvidię proszącą, by w opcjach DX12 na GFach wyłączyć autostradę i zostawić jednopasmówkę.

            Więc wszelkie plany “kupię GF980Ti za rok i będę bezpieczny na lata” mogą okazać się mocno nieprawdziwe (ale nie muszą, zobaczymy co się będzie działo).

            1. BlahFFF

              @MusialemToPowiedziec

              Narazie to tylko jedna produkcja, w dodatku we wczesnej wersji i nie do konca wiadomo komu wierzyc. nVidia ma dluga historie naginania faktow, AMD czy Intel tez nie lepsze. Do pierwszych gier obslugujacych DX12 wiele czasu juz nie zostalo wiec pod koniec roku przyjdzie realniej sprawdzic co i jak.

              Zadnemu z producentow nie zalezy na tym, zeby klient mogl “kupic sobie 980ti (czy odpowiednik) i miec spokoj na lata”. Jak nie dobija aktualnych kart w ten sposob to szkocza z iloscia detali i produkcje za rok czy dwa i tak wymusza zmiane sprzetu chocby i 12-ka u obu producentow zwiekszala wydajnosc dwukrotnie.

  1. aryman222

    Radeony dostają pod DX12 dużego kopa; na tyle, żeby dogonić GTXY, ale nie żeby je jakoś zmiażdżyć. Dodajmy do tego niskie zużycie prądu oraz niższe, niż u konkurencji, temperatury działania i okaże się, że Nvidia wciąż daje radę. Dzisiaj. Kiedy jednak okaże się, że DX 12 jest nowym standardem wśród gier (rok- dwa?) to ilość kreowanych fpsów może być decydująca. Pytanie brzmi: czy Nvidia przewidziała trend i Pascale będą w pełni korzystać z asynchronicznych obliczeń, czy będą tak “DX12 ready” jak Maxwelle?

  2. Arachnos

    A pamiętam jak jakieś 3 m-ce temu o tym mówiłem koledze to mnie wyśmiał. Kupił sobie gtx 970 i za żadne skarby nie chciał logicznych argumentów przyjąć. W sumie jakbym właśnie wydał grubo ponad tysiaka na GPU to tez nie chciałbym słyszeć, że tańsza konkurencja przy nowym standardzie pozamiata jego sprzętem. Post ten dedykuję koledze oraz Revantowi xD

    1. MusialemToPowiedziec Autor tekstu

      @saucer

      Nie z fusów, ale z tego, co powiedział twórca gry mającej działać na DX12.

      A powiedział tyle, że wszystkie GFy aktualnie w sprzedaży są tak zrobione, że hardware’owo nie obsługują opcji, która twórcom konsolowym daje 30% więcej FPSów.

      Jak masz zamiar wydać 2000 złotych na kartę, może warto wiedzieć, że istnieje bardzo duże zagrożenie, że za rok-dwa trzeba będzie kolejne 2000 złotych przygotować.

      1. saucer

        @MusialemToPowiedziec

        Coz, to wiedziałem już wcześniej. Karte za 2 kafle pod dx12 kupowałbym tylko wtedy, jakby ten dx12 już był na rynku, tzn gry pod niego, co najmniej rok-dwa, tak zebym wiedział w co wchodzę, a nie musial ufac zapewnieniom niewiadomo kogo, ze to jest “futureproof”. I wlasnie dlatego na windowsa 10 teraz nawet nie spojrze, zobaczę co będzie za 2-3 lata i sobie wejde na gotowe, oszczedzajac czas i nerwy. I wam tez tak radze, mniej będzie bolało z tylu:)

  3. Revant

    Łał. Normalnie panika 😀 jedna gra, która jest wydajność raczej nie powala, a wykorzystuje nową nie przerobioną jeszcze technologię. Przyznam, że jestem mile zaskoczony podbiciem radków, ale nadal nie jest to “titan killer”, hie hie hie 😉 tak naprawdę jeszcze nie ma nic na DX12, a już panika i zgroza. W dodatku nikt nie wspomina tutaj o fakcie, że ten nowy DX przeniesie odpowiedzialność za optymalizację już całkowicie na twórców gier, a nie producentów kart. Dlatego radki tak wystrzeliły – ominięto skopane sterowniki i odblokowano potencjał jaki wniosła niskopoziomowość. Koniec z premierowymi sterownikami, viva la wyrównanie sił. Dlatego też jednak ten jeden test w grze nie powinien być traktowany jako jaskółka zmierzchu maxwellów – zobaczcie, że taki 980ti w 1080p udźwiga w niej zaledwie 50 fpsów w dx11. Coś tu mi śmierdzi i nie jest to moja karta graficzna 😛 Probi też pisze całkiem sensownie – nie wiemy ile to całe AC będzie dawało przyrostu. Oby nie było tak jak w przypadku pamięci HBM, gdzie przez ograniczenie do 4gb “zabójca tytana” nie podołał (tak, wiem, że idzie druga generacja, ale i tak będzie dostępna dla obu stron). Cała akcja pokazuje tylko jak bardzo amd leży w kwestii sterowników i mimo obecnie widocznych “cudów” przyszłoroczne pascale znów dokopią radkom (choćby kulturą pracy) i będzie powrót do dzisiejszej sytuacji. Smutne to, bo wówczas ceny zielonych pójdą w górę, a jednak lepiej aby była walka o pieniądze klienta, a nie walka klienta o produkt.

    Na koniec – wiem, że brzmię jak zielony fanboy, ale uwierzcie, że kibicuje radkom. Widać przecież, że im więcej odstąpi, tym bardziej zdegenerowana nvidia się stanie. Zablokuje to postęp i będziemy mieli impas jak przy konsolach poprzedniej generacji :/

    1. Arachnos

      @Revant

      ja marzę o tym, że AMD urwie z 30-40% rynku. Dlaczego? Bo konkurencja jest zdrowa i korzystna dla klienta. Żeby nie było, że jakiś fanboy AMD jestem. Raz w życiu miałem kartę czerwonych – Radeon 9550 i była boska, poza tym zawsze Nvidia od czasów Rivy TNT2. Po prostu dotarliśmy do absurdów cenowych, że karta do w miarę wygodnego grania na średnich detalach kosztuje 800zł. Kiedyś człowiek się zadowolił sprzętem za 450-500zł. Sam mam na pokładzie wysłużonego GTS450, który ledwo zipie i czas najwyższy coś z tym zrobić. Przynajmniej zmiana pasty na chłodzeniu pomogła na temperatury, ale wydajności sobie nie dodam 😛

            1. Goblin_Wizard

              @Probabilistyk

              Wiesz, to że Żydzi rządzą światem już dawno przestało być teorią więc jeśli brakuje Ci czegoś bardziej wyszukanego to możesz posłuchać np. Niesiołowskiego. On sypie teoriami spiskowymi na każdym kroku. Jedyny minus jego teorii to taki, że łatwo przewidzieć gdzie jest Brzydkie Kaczątko pogrzebane. 😉

        1. thewhitestar

          @Probabilistyk

          Sorry ale to się kupy nie trzyma (albo trzyma wyłącznie kupy). AMD produkuje procki i grafikę do wszystkich możliwych konsol na rynku od lat. PS3, PS4, Xkloc 360, Xkloc 1, Nintendo Coś, Nintendo Przenośne Coś, PSP, PS Vita… A sprzedaż tych urządzeń idzie w _setki_ milionów! Do Nvidii zaś należy tylko garstka high endowego sprzętu dla nerdów. Biorąc to pod uwagę bardziej skłaniałbym się ku opcji takiej iż to AMD w każdej chwili może zjeść Nvidie dupą i wysrać nosem.

          1. Wyspa

            @thewhitestar

            Co udowadnia trochę że sprzęt może umieją zrobić ale z softwareową częścią maja już problemy. Na konsolach łatwiej bo komponenty całości są znane i niezmienne.
            Kiedyś miałem radka i byłem zadowolony ale mimo wszystko zabawy renderingowe (AE, PR, PS) i brak problemu ze sterami wygrały.
            Co do Dx12… jedna jaskółka wiosny nie czyni, zobaczymy jeżeli Nvidia by tego nie przewidziała to niesamowita wtopa z ich strony. A pamiętajcie że to co dla nas konsumentów jest nowością w branży już krąży od dawna… na pewno mieli dostęp do różnych wersji developerskich Dx12 gruuubo przed premierą. Dla mnie jest więc wątpliwe aby te stosunkowo nowe kary nie były pod DXa dostosowane tak aby współpracowały z jego “modułami”.

      1. Revant

        @Arachnos

        Dokładnie. Zwłaszcza, że amd całkiem dobrze kombinuje – wielkość i działanie kart fury, czy wprowadzenie HBM. Naprawdę AMD mogłoby wygrać wszystko, ale za dużo już stracili i raczej już tylko mogą liczyć na wpadkę nvidii i równać. Widać to właśnie w powyższym teście 😉

    2. MusialemToPowiedziec Autor tekstu

      @Revant

      Trudno nie panikować, gdy pojawia się informacja, że wydatek 3000 złotych zaplanowany jako ostatni zakup do komputera na lata może wystarczyć na rok. Albo że kupienie karty za 2000 złotych dałoby takie samo, albo i lepsze efekty 🙂

      Samo to, że w grze Maxwell źle działa to “mały problem”. Problemem może być to (jeżeli to prawda), że Maxwell hardware’owo jest zablokowany na poprawne używanie AC. A to już może być duży problem, bo AC będzie wykorzystywane na maksa w grach konsolowych. A więc także i w portach…

      Ja już sobie planowałem odkładanie kasy na G980Ti na przyszły rok. Jak okaże się prawdą, że to nie jest inwestycja na lata, to będzie mi smutno. Bo Pascale to pewnie do 2018 nie zejdą na jakieś rozsądne na mój portfel poziomy.

      1. Revant

        @MusialemToPowiedziec

        Tak to już ze sprzętem elektronicznym – dwa lata i do śmieci 😉 a tak serio – myślenie “przyszłościowe” to pięknie ukazuje np. taki radek 390 z 8gb pamięci. Nie ma obecnie kart, które dostaną kopa po dx 12. Nawet powyższy tekst ukazuje tylko i wyłącznie podskok radków do gtxów, ale bez wyraźnej przewagi, co ukazuje tylko słabość ich sterowników. Pytanie jest zasadnicze: Jak bardzo w grach będzie potrzebne AC, bo jak ktoś napisał wyżej przyrost 30% na konsolach to tak naprawdę mało. Ja bym radził bardziej zainteresować się inną nowością w DX12 – czyli sumowanie vramu przy sli. Gdy to się sprawdzi to dwie słabsze karty, które sobie można zakupić w jakimś odstępie czasu przegonią wówczas topowe pojedyncze karty.

        1. aihS Webmajster

          @Revant

          Przecież napisałem, że wszystko działa. Uznałem już ostatnio, że dyskusja z tobą na temat 970 nie ma sensu. Dokładnie po tym jak stwierdziłeś, że nieważne jak to tam rozwiązali bo i tak 3.5+0.5=4. Nie mogę się przyczepić do żelaznej logiki więc odpuszczam.

          1. Revant

            @aihS

            Przestań już trollować. Wystarczy trochę posiedzieć w internecie i zobaczyć, że jest od cholery testów ukazujących wykorzystanie tego 0,5gb bez drastycznych scen na ekranie. Widzisz nawet u nas – Epi nie ma problemu. Gdzie jest wiec problem? Bo tylko w słowności Nvidii, a nie w działaniu karty.

            1. aihS Webmajster

              @Revant

              Problem jest tu i prawdopodobnie tylko tu. Pytanie kiedy ktoś sprawdzi tą przepustowość PCIE 3.0 żebyśmy mieli już komplet bulszitów.

              Przestań proszę nadużywać w stosunku do mnie słowa trollowanie bo piszesz to za każdym razem niezależnie od tego czy to prawda czy nie.

              1. Revant

                @aihS

                Przepraszam za nadużycia 😉 ogólnie z tym problemem się zgodzę – słowność nvidii to teraz dość grząski grunt. Przynajmniej rzeczy działają jak mają działać, czyli gry chodzą wyśmienicie ^_^ teraz naprawdę jest dobry czas na atak amd – zieloni mają już zszarganą opinie przez te zatajanie info, windują ceny, a czerwoni śpią.

              2. Kawira

                @Revant

                Nie powiedziałbym. DX 12 dużo czerpie z Mantle, na kartach sprzed roku nie działają tylko 2 komendy od efektów, które podobno można uzyskać inaczej + “wincyj rdzeniuff” nagle da mega kopa. Do tego ofc dx 12, to ficzer flagowy nowego klocka, więc należy liczyć na szybkie wdrożenie w multiplatformach (+ indie na Unity). Wiedźmak chyba już dostał swoje dx 12, Ark ma na dniach, a jesteśmy świeżo po premierze Windy 10. Ja tu widzę długotrwałą ninja kampanię wojenną :P.

    1. Goblin_Wizard

      @fl0dA

      Mam podobnie. Raz tylko przez jakiś czas miałem GF9600GT, ale jak się zorientowałem, że mi stare Total War’y na nim nie chodzą to wróciłem do AMD. Poza tym nigdy nie zapomnę Nvidii, ze kupiła i zamknęła mojego ulubionego 3dfx’a. Mogą mnie pocałować w moją zieloną dupę.

      1. MusialemToPowiedziec Autor tekstu

        @Goblin_Wizard

        U mnie było zupełnie na odwrót – jeden Radeon, koło 2007 roku, gry na engine Half Life 1 w mniej niż 1 FPSie po włączeniu latarki. Radeon sprzedany, powrót do zawsze działających GFów.
        Stąd też mój smuteczek teraz, bo wygląda na to, że trzeba będzie iść po Radka za rok.

        Funny observation: goblin romansuje z czerwonymi. Kto by pomyślał…

      1. borianello

        @thewhitestar

        Też całe zycie na Radeonach, chciałem kupić 970, ale teraz dam sobie w ogóle spokój z kupowaniem czegokolwiek, przynajmniej na rok.
        Do tego testu, podchodzę na luzie – to, że GTX 970 nie dostanie 30% mocy, oznacza, że gry będą chodzić w 100 fps, a nie w 130 – do zaakceptowania 😉
        Po prostu nie mam zamiaru pchać się w Win10, a zwracam też uwagę, że DX12 może okazać się takim niewypałem jak DX 10 np, i wtedy szybko może zaistnieć potrzeba kupowania kolejne karty pod DX 13 😉

        Tylko Wieśka mi żal…

        1. aihS Webmajster

          @borianello

          Przecież Wiesiek chodzi na integrze od Intela. Nawet filmik był. 30 fps! 😀

          Jak dołożysz do tego swojego i5 cokolwiek ze średniej półki to pograsz na luzie. aryman na gtx 570 (chyba?) przeszedł i jeżeli screeny w recenzji własne to jest bardzo ładnie, ze dwa oczka wyżej od konsol.

          1. aryman222

            @aihS

            lekko podkręcony (fabrycznie, Gigabyte) GTX 570, screeny własne i to z ustawień na jakich grałem (nisko-średnie, tylko tekstury wysokie), a nie podkręconych na potrzeby łapania widoczków (jakbym dał wszystko na FULL, pewnie bym miał z 5 FPS, ale do screenshotów by się nadało 🙂 ) myślę, że nawet GTX 460 spokojnie Wieśka dźwignie.

Powrót do artykułu