Mantle zsumuje VRAM w trybie Crossfire

aryman222 dnia 6 lutego, 2015 o 9:02    42 

Bezsenna noc w siedzibie NVIDIA?

Szef marketingu AMD (Robert Hallock) twitnął, że najnowsza wersja oprogramowania Mantle będzie sumowała pamieć VRAM z kilku kart graficznych pracujących w jednym komputerze. Łza wzruszenia kręci się w oku mym; to co przez tyle lat było niemożliwe, już wkrótce będzie dostępne…

Przykład: do tej pory posiadacz dwóch kart R9 290 4 GB w grach nie mógł zapełnić graficznymi bajerami więcej niż owe 4 GB; dzięki nowej wersji Mantle możliwe będzie użycie pełnych 8 GB. Fantastyczna sprawa, zwłaszcza teraz, kiedy stoimy na progu rewolucji 4K.

Nowa wersja Mantle API od AMD ma jeszcze jeden “plus dodatni”: zmusi ona “lisków – chytrusków” z NVIDII do reakcji. Słyszeliście o tym jak małą przepustowość ma ostatnie 500 MB pamięci z dostępnych 4 GB w GTX 970? Oficjalne oświadczenia producenta sugerują, że inaczej się nie dało, a trudności w użytkowaniu ostatniego modułu pamięci mają niewielki wpływ na wydajność. Moim zdaniem rację mają jednak ci, którzy twierdzą, że chcąc zakup GTX 980 (jakieś 50% droższa od GTX 970) uczynić bardziej uzasadnionym “specjaliści” z NVIDII stworzyli wąskie gardło w przepustowości pamięci. Dzięki temu droższy model, utrzymuje przewagę nad tańszym, zwłaszcza podczas grania w rozdzielczości 4K, gdzie tekstury mają apetyt na wykorzystanie więcej niż 3,5 GB VRAMu.

Żebyśmy się dobrze zrozumieli – uważam, że GTX 970 jest wciąż najlepszą, pod względem relacji wydajność/cena, kartą graficzną na rynku. Może nowa seria od AMD – R9 300 – coś zmieni, ale pogłoski o domyślnym, wodnym chłodzeniu sugerują, że możemy mieć do czynienia z kolejnymi gorącymi, prądożernymi potworami. Zatem wciąż to GTX 970 jest punktem odniesienia. Chyba, że ktoś myśli o graniu w 4K. Moc jednej karty nie wystarczy, dwie dawałyby radę, ale czy 3,5 GB VRAMu wystarczy? No właśnie…

Czy 4 GB VRAMu na kartach AMD robi różnicę? Nie. Ale 2 x 4 GB w trybie Crossfire, z Mantle na pokładzie, tak. Sumowanie VRAMów może być kluczowym czynnikiem przy wyborze kart przez graczy marzących o graniu w rozdzielczości 4K. W tej sytuacji NVIDIA ma do wyboru:

a) zwiększyć ilość VRAMu w kolejnej edycji najszybszych kart (yes, please!);

b) czekać na to aż DirectX 12 i OpenGl (glNext) też udostępnią sumowanie VRAMów;

c) liczyć na to, że deweloperzy nie będą zainteresowani przystosowywaniem gier do korzystania z połączonej pamięci graficznej. 

Obstawiam wersję a). Może i chciwość jest dobra, ale jeszcze lepsza jest konkurencja.

Dodaj komentarz



42 myśli nt. „Mantle zsumuje VRAM w trybie Crossfire

  1. Revant

    To jest właśnie dziwne z tym amd. Niby mają fajne pomysły, niby fajne konstrukcje, a nawet i fajne ceny – tylko wykonanie leży :/ kumpel mnie namawiał na 290x, ale czytając jak twórcy gier zlewają amd z optymalizacją, a sama karta leży w testach w rozdziałce fhd, to jednak nadal pozostaję przy zielonych. Mam “wadliwą” 970tkę, ale jestem zachwycony. W grach nie odczuwa się problemu z brakiem ramu, a zanim 4k stanie się standardem i ceny monitorów spadną…to będzie już dostępna nowa seria od zielonych i znów amd będzie w tyle. Szkoda, że konkurencja tak bardzo śpi, że nie trafiają z premierami swoich kart – teraz mają idealną sytuację ze stratą zaufania klientów u nvidii i wszyscy czekają na wieśka, a przecież rozniosła się wieść jak on chodzi na 980tce.

      1. urt_sth

        @aihS

        A to nie jest tak,że jak już chcesz z niej skorzystać to reszta pamięci też musi zaczekać na to ostatnie 500MB, czyli do momentu wypełnia tych 3,5GB wszystko śmiga, a po przekroczeniu magicznej granicy następuję nagłe “prrr szalona!” i w rezultacie lepiej jak by to były karty z 3,5GB niż z upośledzonymi 4GB?

        PS. Nie śledzę tematu, ale rozumiem, że sterowniki skrzętnie omijają adresowanie na upośledzoną pamięć i po prostu jest to karta 3,5GB?

    1. aryman222 Autor tekstu

      @IRIEID

      wydaje mi się, że fama “wybrakowanej karty” może mieć taki efekt. na pewno spadnie popyt, pytanie jak zareaguje NVIDIA? Ja bym zaproponował nową edycję, z 6-8 BG RAMu, a starą wersję sprzedawał taniej, ale jestem idealistą i mogę nie rozumieć relacji rolnik – krowa 🙂

      W każdym razie po wykryciu takiego przypału NVIDIA dobrze się zastanowi, nim podobny numer zastosuje w innych kartach. Teraz wszyscy będą testowali ich karty pod tym kątem.

    1. BlahFFF

      @Ixi

      Akurat potkniecie z g-sync miejsca nie mialo. Co mialo miejsce to dosc spora dawka blednych informacji opartych na podstawie jednego egzemplarza laptopa i wycieku sterownikow, w ktorych nVidia ma podobno aktywowac g-sync dla laptopow, gdzie matryce obsluguja adaptive-sync. W przypadku normalnych monitorow juz tak pieknie nie jest i w praktyce nikomu nie udalo sie tego odpalic. Dopiero na montorach z obsluga free-sync, ktore beda musialy obsluzyc tez adaptive-sync ma to szanse zadzialac. Co wiecej, sam modul g-sync od nVidii zdaje sie jednak robic nieco wiecej niz tylko autoryzowac zgode na wlaczenie odpowiedniej opcji w sterowniku. Po wynikach z laptopa na ktorym dzialal “poprawiony”/wyciekniety sterownik wychodzi na to, ze modul pelni role dodatkowego bufora i zapobiega problemom przy naglych spadkach w okolice i ponizej 30 klatek. Na laptopie zaczynaly sie wowczas dziac cuda podczas gdy z podpietym monitorem z tym modulem obraz nadal byl plynny, klatki nie ginely itp.

      Gamenab zrobi z tego nieco wieksza afere niz faktycznie byla, co jednak nie zmienia faktu, ze nVidia ma swoje chamskie zagrania, zamykanie sie na nierzako lepsza technologie z zewnatrz (w stylu braku obslugi free-synca) i zamykanie “swojej” (physx itp) technologi dla innych.

      1. LiberNull

        @IRIEID

        Kurczę no nie wiem, chwilami czułem sie jak bym pociskał w Payday w trybie multiplayer. Mam dość Bfów do czasów 3 (by nie było 4 też posiadam)…ale hardline w trybie hotwire i heist jest całkiem ciekawy i dość ‘taktyczny’. Tylko trzeba olać tryb Conquest. Sam gameplay jest szybszy od poprzedników.

Powrót do artykułu