Po raz pierwszy usłyszeliśmy o Xe firmy Intel Grafika wieki temu, a nawet dostałem podgląd Xe DG1 „Pojazd testowy” na targach CES 2020. W miarę upływu czasu coś, co kiedyś mogło wyglądać na coś, co może pojawić się jako opcja budżetowa na naszej liście najlepsze karty graficzne coraz częściej stają się częścią bez prawdziwego rynku. Wygląda na to, że Intel używa tego jako bardziej dowodu koncepcji niż pełnoprawnego wydania – szansy na rozwiązanie problemów, zanim kiedyś pojawi się prawdziwa oferta DG2, prawdopodobnie później w tym roku lub na początku 2022 roku. , DG1 jest dostępny, ale można go kupić tylko z wybranymi gotowymi komputerami. Dzieje się tak, ponieważ brakuje mu pewnych funkcji i wymaga specjalnego wsparcia BIOS-u i oprogramowania układowego od płyty głównej. Ale jeśli mógłbyś go kupić lub jeśli uważasz, że jeden z tych gotowych systemów może być wart zachodu, jak działa? Właśnie to postanowiliśmy ustalić.
Best Buy obecnie sprzedaje dokładnie jeden komputer z kartą Xe DG1. system pochodzi z CyberPowerPC z pasywnie chłodzonym modelem DG1 firmy Asus i może bądź jedynym gotowym modelem DG1, biorąc pod uwagę to, co otrzymujesz. Poza kartą graficzną, komputer ma rozsądnie wyglądające specyfikacje, w tym Core i5-11400F, 512 GB SSD M.2, 8 GB pamięci DDR4-3000, a nawet klawiaturę i mysz. Problemem jest jednak zastosowanie pojedynczego modułu DIMM 8 GB firmy XPG. Innym problemem jest ograniczona przestrzeń dyskowa — być może 512 GB wystarczy do typowego użytkowania SOHO, ale może pomieścić tylko kilka większych gier z naszego zestawu testowego. Rozwiązaliśmy oba problemy, aktualizując pamięć i dodając dodatkowe urządzenie pamięci masowej.
System kosztuje 750 USD, a biorąc pod uwagę specyfikacje, normalnie bylibyśmy w stanie zbudować własny podobny system za około 575 USD, nie wliczając karta graficzna. Niestety oznacza to, że mamy około 175 USD do pracy na GPU. Gdyby to były normalne czasy, przyjrzelibyśmy się GTX 1650 a nawet karty GTX 1650 Super w tej cenie. Niestety, nadal nie są to normalne czasy, co widać w naszym indeksie cen GPU, co oznacza miej szczęście, że znajdziesz nawet GTX 1050 w tej cenie. I to jest część tego, co sprawia, że Xe DG1 jest potencjalnie interesujący: czy może konkurować z niektórymi skromnymi procesorami graficznymi AMD i Nvidia, takimi jak RX 560 i GTX 1050? Spoiler: Wcale nie, przynajmniej jeśli chodzi o wydajność w grach. Po drodze napotkaliśmy również sporo problemów.
Specyfikacje i osobliwości Intel Xe DG1
Xe DG1 znajduje się na granicy między dedykowaną grafiką a zintegrowaną grafiką. Weź mobilny procesor Tiger Lake firmy Intel, zgraj wyłącz grafikę Xe, przekształć ją w samodzielny produkt, a skończysz z DG1. Oczywiście Intel musiał dodać do karty dedykowaną pamięć VRAM, ponieważ nie opiera się ona już na współdzielonej pamięci systemowej. Jak wspomniano powyżej, wymaga również specjalnego BIOS-u płyty głównej obsługującego procesor Intel Iris Xe, co generalnie ogranicza go do niektórych płyt głównych opartych na chipsetach B560, B460, H410, B365 lub H310C.
Przyczyny zastosowania płyty głównej wymagania są nieco zawiłe. Krótko mówiąc, Xe LP, procesor graficzny w sercu DG1, został najpierw zaprojektowany jako zintegrowane rozwiązanie graficzne dla Tiger Lake. W związku z tym VBIOS i oprogramowanie układowe są przechowywane w BIOS-ie laptopa. Karty DG1 nie mają pamięci EEPROM do przechowywania VBIOS, co wymaga umieszczenia jej w BIOS-ie płyty głównej. Co oczywiście rodzi pytanie, dlaczego Intel po prostu nie umieścił pamięci EEPROM na DG1, skoro powinno to być możliwe. Niezależnie od tego nie możesz kupić samodzielnej karty DG1, a nawet jeśli kupisz system z kartą, tak jak my, nie możesz umieścić karty w innym komputerze i sprawić, by działała.
Oto pełne zestawienie specyfikacji Xe DG1 z Nvidia GT 1030 i AMD Vega 8 (najlepsza zintegrowana karta graficzna AMD), której będziemy używać jako naszych głównych punktów porównawczych.
Tak , istnieją dwa różne modele GT 1030 i bądźmy szczerzy, że nie chcesz wersji DDR4. To straszne, jak wkrótce zobaczymy. Model GDDR5 ma ponad dwukrotnie większą przepustowość pamięci i nie powinien kosztować zbyt wiele, ale niektórzy mogą pomyśleć: „Tak, możemy zaoszczędzić 20 USD i zrezygnować z GDDR5”. Oni się mylą. Mniej niż połowa przepustowości sprawia, że powolna karta jest jeszcze wolniejsza, a Intel może z łatwością przewyższyć przynajmniej ten poziom wydajności, chociaż będzie to bliższe dopasowanie między DG1 a GT 1030 GDDR5.
Z drugiej strony do spektrum Nvidii dołączymy również GTX 1050, aby pokazać, co może zrobić szybsza karta. W momencie premiery była to nominalnie karta o wartości 110 USD, chociaż obecne niedobory GPU oznaczają, że teraz kosztuje ona na eBayu około 175 USD (jest to średnia cena sprzedanych ofert z ostatnich kilku miesięcy). Ale ta karta ma 2 GB pamięci VRAM, podczas gdy Intel DG1 ma 4 GB, więc wrzuciliśmy również GTX 1050 Ti (pierwotnie 139 USD) i GTX 1650 (sugerowana cena detaliczna 149 USD) dla porównania w naszych wykresach. Ich średnia cena na eBayu wynosi odpowiednio 208 USD i 295 USD, mimo że sugerowane ceny detaliczne są znacznie niższe – i żaden z nich nie może obecnie skutecznie wydobywać Ethereum. Może się wydawać, że posuwamy się za daleko, ponieważ te karty kończą w zupełnie innej lidze wydajności w porównaniu z DG1 firmy Intel, ale to był rynek, kiedy DG1 był w fazie rozwoju.
Nie. Nie chodzi tylko o Nvidię i Intela, więc mamy również zintegrowany procesor graficzny AMD Vega 8, wykorzystujący dwa różne procesory, jako kolejny punkt porównawczy. Jednym z nich jest Asus MiniPC z 15W TDP AMD Ryzen 7 4800U, do którego mamy dodano także Pamięć HyperX DDR4-3200 2×16 GB i Dysk SSD Kingston KC2500 2 TB. Druga Vega 8 jest dostarczana przez komputer Ryzen 7 5700G ze znacznie wyższym TDP 65 W, wyposażyliśmy również ten system w 32 GB pamięci DDR4-3200 (choć CL14). 5700G wykorzystuje procesor Zen 3 z ośmioma rdzeniami i 16 wątkami, podczas gdy układ mobilny to architektura Zen 2, wciąż z ośmioma rdzeniami i 16 wątkami. Dołączyliśmy również kartę RX 560 4 GB, która ma tyle samo pamięci VRAM, co DG1 i GTX 1050 Ti.
Na obecnym rynku, na którym nawet wolne procesory graficzne są sprzedawane w cenach premium — przypuszcza się, że GT 1030 być kartą za 70 USD, ale obecnie sprzedaje się za 110–200 USD – stosunek ceny do wydajności DG1 może być jej głównym punktem sprzedaży. Właściwie Intel włożył trochę wysiłku w możliwości kodowania i dekodowania wideo DG1 i wydaje się, że przedstawia to jako kolejny potencjalny przypadek użycia, ale obecnie najbardziej interesuje nas wydajność grafiki. W związku z tym DG1 czuł się dość opóźniony w 4K, po prostu uruchamiając czasami pulpit systemu Windows (na przykład podczas zmiany rozmiaru okien), co może nie jest głównym przeznaczeniem, ale sprawność dekodowania i kodowania 4K może zostać przyćmiona przez inne czynniki.
(Źródło zdjęcia: Tom’s Hardware)
W surowych specyfikacjach GPU, które wymieniliśmy powyżej, DG1 teoretycznie jest na szczycie. Ma szerszą magistralę pamięci i większą przepustowość pamięci niż inne opcje, chociaż Ryzen 7 5700G może zepsuć imprezę. Ma też więcej rdzeni shaderów, z teoretyczną wartością 2,0 TFLOPS. Ale architektury procesorów graficznych Intela są mniej znane, a sterowniki również są problemem. Czy DG1 będzie w stanie uruchomić każdą grę, którą chcieliśmy przetestować? (Spoiler: Prawie.) Co ważniejsze, jak działa podczas uruchamiania tych gier w 720p na niskim poziomie i 1080p na średnim?
Gdzie AMD i Nvidia mają jednostki obliczeniowe (CU) i multiprocesory strumieniowe (SM), które są z grubsza analogicznie, układ Xe firmy Intel nadal wykorzystuje jednostki wykonawcze (UE). Każda UE ma osiem jednostek ALU (jednostek arytmetyczno-logicznych), które w zasadzie AMD i Nvidia nazywają „rdzeniem” GPU. Przypomina to bardziej potok przetwarzania niż rdzeń, ale niezależnie od tego, 80 EU (z teoretycznych 96) i 640 „rdzeni” powinno wystarczyć, zwłaszcza przy TDP 30 W.
Jeśli Intel miałby po prostu skalować to dziesięciokrotnie, może potencjalnie stworzyć 300-watowy układ TDP, który mógłby wykonać 20 TFLOPS. Podobno plany wymagają wielu różnych modeli GPU DG2, z potencjalnie od 128 do 512 EU. Intel powiedział, że architektura DG2 również ulegnie zmianie, aby uwzględnić pewną formę obsługi ray tracingu, wraz z przejściem na pamięć GDDR6, która powinna zapewnić znacznie lepszą wydajność i funkcje niż DG1.. Ale zobaczmy, gdzie ląduje DG1 firmy Intel, zanim przyjrzymy się przyszłym produktom DG2.
Intel Xe DG1: pasywnie chłodzona karta Asusa
Obraz 1 z 5
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 2 z 5
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 3 z 5
(Źródło zdjęcia: Tom’s Hardware)Obraz 4 z 5
(Źródło zdjęcia: Tom’s Hardware)Obraz 5 z 5
(Źródło zdjęcia: Tom’s Hardware)
Zanim przejdziemy do testów, chcieliśmy przyjrzeć się bliżej Asusowi DG1. To ciekawa konstrukcja, decydująca się na duży radiator pokrywający całą przednią część karty. Po tak długim czasie spędzonym na testowaniu kart graficznych o wyższej wydajności, prawie dziwnie jest widzieć jednogniazdową, pasywnie chłodzoną kartę. DG1 ma tylko 30 W TDP, więc powinno być w porządku, chociaż odrobina dodatkowego przepływu powietrza w pobliżu GPU może prawdopodobnie pomóc. Przy domyślnej konfiguracji systemu nie widzieliśmy żadnych problemów z wydajnością, ale pracowaliśmy w stosunkowo chłodnym środowisku 70F.
Oczywiście TDP 30 W oznacza, że nie ma potrzeby stosowania 6-stykowego złącza PCIe złącze zasilania. Karta dostaje wszystko, czego potrzebuje z gniazda PCIe x16, chociaż system CyberPower zawiera zasilacz o mocy 600 W z dwoma złączami 6/8-pinowymi, jeśli chcesz ją ulepszyć w przyszłości, na przykład, gdy karty graficzne znów staną się przystępne cenowo. Przetestowaliśmy również GTX 1050, GTX 1050 Ti, GTX 1650 i RX 560 4 GB na tym samym CyberPowerPC, więc nie ma innych czynników wpływających na nasze wyniki.
Wyjścia wideo obejmują większość baz, z pojedynczym Złącza HDMI, DisplayPort i DVI-D. Jeśli masz nadzieję na konfigurację wielu monitorów, nie jest to idealne rozwiązanie, ponieważ normalnie chciałbyś, aby wszystkie wyświetlacze działały z tego samego typu złącza. Mimo to oznacza to, że każdy, kto ma monitor zbudowany w ciągu ostatniej dekady, powinien być w porządku — chyba że liczysz na staroświeckie połączenie VGA, w którym to przypadku prawdopodobnie będziesz musiał zaktualizować coś więcej niż tylko kartę graficzną.
Konfiguracja testu Intel Xe DG1
Obraz 1 z 6
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 3 z 6
(Źródło zdjęcia: Tom’s Hardware) Obraz 4 z 6
(Źródło obrazu: Tom’s Hardware) Obraz 5 z 6
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 6 z 6
(Źródło zdjęcia: Tom’s Hardware)
Ponieważ Xe DG1 wymaga specjalnej płyty głównej, nasze porównania testowe będą się nieco różnić od naszych zwykłych recenzji GPU. Zwykle testujemy karty graficzne na systemie Core i9-9900K z inną pamięcią RAM, pamięcią masową, mocą itp. Ale w przypadku słabszego procesora graficznego reszta komponentów nie powinna mieć większego znaczenia — to nie tak, że zamierzamy skończyć Ograniczony tutaj procesor, szczególnie w przypadku 6-rdzeniowego/12-wątkowego procesora działającego z częstotliwością 4,2 GHz. Jednak najlepszym porównaniem nie będzie żadna nowsza karta graficzna.
Poza wyprzedaniem, nawet GTX 1650 ma znacznie większą siłę ognia niż DG1. Zintegrowane rozwiązania graficzne Vega 6/7/8 od AMD wraz z Nvidia GT 1030 teoretycznie zapewniają niższą wydajność, w zależności od tego, na jakie parametry patrzymy, więc są to główne punkty porównawcze (oczywiście z innym procesorem na platformie AMD). DG1 to coś więcej niż wydajność w grach, ale od tego chcemy zacząć.
Nasza normalna benchmarków GPU obejmuje dziewięć gier działających w rozdzielczości 1080p i średniej jakości, a także testy w 1440p i 4K oraz dodatkowe testy w ultra jakości dla wszystkich trzech rozdzielczości. Wszystkie te procesory graficzne z niższej półki mają problemy nawet przy średniej rozdzielczości 1080p, nie mówiąc już o wyższych rozdzielczościach i ustawieniach. Aby obejść ten problem, przetestowaliśmy również przy 720p i niskich ustawieniach, co jest niewiarygodnie niskim paskiem do wyczyszczenia – i dobrym wskaźnikiem tego, czego możemy się spodziewać po Sprzęt Steam Deck. Mamy nadzieję, że karty powinny przynajmniej zapewnić grywalną wydajność (tj. ponad 30 klatek na sekundę) przy tych niższych ustawieniach.
Do tych testów używamy również rozszerzonego zestawu gier: Wszystkie trzynaście gier, z których korzystaliśmy w ostatnich recenzjach kart graficznych (Assassin’s Creed Valhalla, Borderlands 3, Dirt 5, The Division 2, Far Cry 5, Final Fantasy XIV, Forza Horizon 4, Horizon Zero Dawn, Metro Exodus, Red Dead Redemption 2, Shadow of the Tomb Raider, Strange Brigade i Watchdogs Legion), a także Counter-Strike: Global Offensive, Cyberpunk 2077, Fortnite i Microsoft Flight Simulator. Interesuje nas nie tylko wydajność, ale także kompatybilność. Teoretycznie każda z tych gier powinna działać dobrze przy niskich i średnich ustawieniach na Xe DG1, a także na procesorach graficznych Nvidia i AMD. Wszelkie niezgodności będą czerwonym znakiem w stosunku do naruszających procesorów graficznych.
Nasz zestaw testowy obejmuje szeroki zakres wymagań, od starszych lub lżejszych gier po nowsze i wymagające gry, które mogą w ogóle mieć trudności z uruchomieniem. Na przykład Assassin’s Creed, Dirt 5, Horizon Zero Dawn, Red Dead Redemption 2 i Watch Dogs Legion mają zwykle wyższe wymagania dotyczące pamięci VRAM — w niektórych przypadkach 4 GB jest ledwie wystarczające, a karty 2 GB zostały zablokowane przed próbami RDR2 więcej niż nasze minimalne ustawienia 720p. CSGO w międzyczasie powinien działać dobrze, biorąc pod uwagę, że działa na komputerach ziemniaczanych.
Wydajność graficzna Intel Xe DG1 przy niskiej 720p
Oto wyniki wydajności, zaczynając od bardziej odpowiedniej niskiej wydajności 720p. Kółka mają tendencję do spadania przy średniej rozdzielczości 1080p dla kilku GPU, ale biorąc pod uwagę, że jest to nasze minimalne ustawienie testowe dla standardowej hierarchii testów GPU, chcieliśmy uwzględnić je jako punkt odniesienia.
(Źródło zdjęcia: Tom’s Hardware)
Prawo od samego początku jest to niepomyślny początek dla Intel Xe DG1. Ogólnie rzecz biorąc, w zestawie testowym osiągnął średnio ponad 60 fps, ale 99. percentyl wyraźnie pokazuje, że w niektórych grach występuje dużo jąkania. Za chwilę zobaczymy to w poszczególnych wynikach, ale spośród testowanych przez nas procesorów graficznych DG1 przewyższa jedynie GT 1030 DDR4 i AMD Vega 8 działające w 4800U.
GT 1030 GDDR5 jest o 8% szybszy w średnich fps i 24% szybszy w „minimalnych” fps, a to wcale nie jest szybka karta graficzna. Widać, że Vega 8 AMD w 5700G z łatwością pokonuje 1030 GDDR5, a inne dedykowane karty graficzne o wyższej wydajności są od 35% szybsze (RX 560) do 130% szybsze (GTX 1650). Nie chodzi jednak tylko o czystą wydajność. Jak wspomniano powyżej, kompatybilność z dużą liczbą gier jest również krytyczna dla Intela.
Dla odniesienia, w przypadku procesorów graficznych AMD i Nvidia, jedynymi, które miały rzeczywiste problemy z kompatybilnością, były karty 2 GB. Red Dead Redemption 2 nie pozwoli ci nawet spróbować niskiej rozdzielczości 1080p, nie mówiąc już o średniej 1080p, na karcie z 2 GB pamięci VRAM. Możesz spróbować zhakować pliki konfiguracyjne, ale doświadczyliśmy błędów renderowania i innych problemów, więc zostawiliśmy to w spokoju. Assassin’s Creed Valhalla i Watch Dogs Legion również wydają się potrzebować więcej niż 2 GB, z wyjątkiem tego, że GTX 1050 wydaje się być w porządku, więc nie jestem do końca pewien, dlaczego czołgi GT 1030 z minimalną liczbą klatek na sekundę są tak trudne.
Powinienem zauważyć że DirectX 12 (DX12) również bardzo nie lubi kart o pojemności 2 GB, a czasem nawet kart 4 GB. Tam, gdzie to możliwe, sprawdziliśmy wydajność z DX11 i DX12, a w przypadku kart Nvidii i DG1 DX11 był uniwersalnie szybszy — a w niektórych przypadkach wymagane było nawet uruchomienie gry na DG1. W przypadku testowanych przez nas procesorów graficznych AMD DX12 w kilku przypadkach był odrobinę szybszy, ale ogólnie preferowany był również DX11. Problem z niedziałaniem dobrze pod DX12 polega na tym, że kilka gier, które uwzględniliśmy w tych testach — Assassin’s Creed Valhalla, Cyberpunk 2077, Forza Horizon 4 i Horizon Zero Dawn — obsługuje tylko DX12. Przejdźmy do indywidualnych wykresów gier, zanim przejdziemy dalej.
Obraz 1 z 17
(Źródło obrazu: Tom’s Hardware) Obraz 2 z 17
(Źródło obrazu: Tom’s Hardware) Obraz 3 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 4 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 5 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 6 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 7 z 17
(Źródło zdjęcia: Tom’s Hardware)Obraz 8 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 9 z 17
(Źródło zdjęcia: Tom’s Hardware)Obraz 10 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 11 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 12 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 14 z 17
(Źródło zdjęcia: Tom’s Hardware) Obraz 15 z 17
dit: Tom’s Hardware)Zdjęcie 16 z 17
(Źródło zdjęcia: Tom’s Hardware )Obraz 17 z 17
(Źródło zdjęcia: Tom’s Hardware)
W zależności od gry, Xe DG1 zajmuje nawet piąte miejsce na listach — za kartami 1650, 1050 Ti, 1050 i 560 4 GB — i zaledwie ósme. Jedyną kartą, którą bez wątpienia pokonuje, jest GT 1030 DDR4, parodia procesora graficznego, który naprawdę nigdy nie powinien był zostać wydany. Nie po to, by pokonać martwego konia, ale GT 1030 GDDR5 został wprowadzony na rynek w maju 2017 roku w cenie 70 USD, a GT 1030 DDR4 wyszedł prawie rok później w marcu 2018 roku z ceną 79 USD. Oczywiście pod koniec 2017 roku pojawiły się również niedobory GPU spowodowane kryptowalutami, co prawdopodobnie wyjaśnia, dlaczego model DDR4 w ogóle istnieje.
W porównaniu z 15-watowym Vega 8 wyniki Xe DG1 różnią się nieco. Intel uzyskuje dużą wygraną w fps nad 4800U w CSGO, ale to prawdopodobnie dlatego, że CPU i GPU współdzielą 15 W, więc procesor 4800U nie może tak szybko taktować. Far Cry 5, FFXIV, Flight Simulator, Metro Exodus, Red Dead Redemption 2, Shadow of the Tomb Raider i Strange Brigade to także słabe wyniki dla 4800U Vega 8, a DG1 wyprzedza nawet 5700G w FFXIV, Flight Simulator i Dziwna Brygada.
Wyniki Nvidii GT 1030 GDDR5 są ogólnie bardziej spójne, ponieważ znajdują się w tym samym systemie testowym i nie muszą dzielić przepustowości pamięci. DG1 objął prowadzenie w Assassin’s Creed Valhalla, Cyberpunk 2077, Dirt 5, Far Cry 5, Flight Simulator, Forza Horizon 4, Metro Exodus, Red Dead Redemption 2, Shadow of the Tomb Raider i Strange Brigade. To ponad połowa testowanych przez nas gier, a jednak ogólnie GT 1030 GDDR5 wyszedł na prowadzenie. Dzieje się tak, ponieważ wiele zwycięstw DG1 jest wąski margines, podczas gdy GT 1030 GDDR5 wychodzi na prowadzenie, często jest to duży margines. GT 1030 GDDR5 był o ponad 50% szybszy w Borderlands 3 i Fortnite. Ogólnie rzecz biorąc, dalibyśmy DG1 niewielką przewagę nad GT 1030 GDDR5, głównie dlatego, że sterowniki można naprawić, ale nie ma sposobu na obejście wąskiego gardła sprzętowego 2 GB.
Który nie jest powiedzmy, że DG1 miał w ogóle dobry pokaz. Poza ogólnie słabą wydajnością w porównaniu z nawet budżetowymi procesorami graficznymi, w kilku grach napotkaliśmy pewne błędy i problemy z renderowaniem. Assassin’s Creed Valhalla często blednie do bieli i pokazuje blokowość i pikselizację. Oto wideo z benchmarku 720p Valhalla, a gra nie działała w całości w rozdzielczości 1080p na DG1. Innym poważnym problemem, który napotkaliśmy, był Horizon Zero Dawn, gdzienie udało się renderować pełnoekranowego, ale gra mogłauruchom w trybie okienkowym ok (ale nie w oknie bez obramowania). Nic dziwnego, że obie te gry są tylko DX12 i napotkaliśmy inne problemy z DX12. Fortnite automatycznie wracał do trybu DX11, gdy próbowaliśmy się przełączyć, a Metro Exodus i Shadow of the Tomb Raider zawieszały się, gdy próbowaliśmy uruchomić je w trybie DX12. Dirt 5 wyświetlał również ostrzeżenia o niskim poziomie pamięci VRAM, nawet przy 720p, ale poza tym działał dobrze.
DirectX 12 na procesorach graficznych Intela ma inny problem, o którym powinni wiedzieć potencjalni użytkownicy: czasami zbyt długie czasy kompilacji shaderów. Gdy po raz pierwszy uruchomisz grę DX12 na określonym GPU i za każdym razem po zamianie GPU, wiele gier będzie prekompilować shadery DX12 dla tego konkretnego GPU. Na przykład Horizon Zero Dawn zajmuje około trzech do pięciu minut, aby skompilować shadery na większości kart graficznych, ale na szczęście jest to tylko przy pierwszym uruchomieniu. (Możesz to pominąć, ale wtedy czasy ładowania będą po prostu dłuższe, ponieważ shadery muszą być skompilowane, a nie z góry.) DG1 z jakiegokolwiek powodu zajmuje wirtualną wieczność, aby skompilować shadery w niektórych grach – blisko 30 minut dla Horizon Zero świtu. Miejmy nadzieję, że to tylko kolejny błąd sterownika, który należy zlikwidować, ale w przeszłości widzieliśmy to zachowanie w przypadku innych rozwiązań graficznych Intela, a HZD prawdopodobnie nie jest jedynym winowajcą.
Wydajność graficzna Intel Xe DG1 w średniej rozdzielczości 1080p
Biorąc pod uwagę to, co widzieliśmy podczas naszych testów 720p, oczywiście większość testowanych przez nas gier będzie działać słabo w średniej rozdzielczości 1080p na wielu GPU, które umieściliśmy na naszych wykresach. Niektórzy mogą powiedzieć, że testowanie DG1 i zintegrowanych rozwiązań graficznych w medium 1080p jest niesprawiedliwe lub złe, ale zwróć uwagę na GTX 1050 i RX 560. Obie są to karty budżetowe, które były łatwo dostępne za około 100 USD przed pandemią i niedoborami kryptograficznymi 2020. Oto ogólny wykres wydajności, który pokazuje średnią wydajność we wszystkich 17 grach.
(Źródło zdjęcia: Tom’s Hardware)
DG1 prawie osiąga średnią 30 fps, podczas gdy RX 560 jest o ponad 50% szybszy, a GTX 1050 prawie dwukrotnie lepszy. Z wyjątkiem tego, że DG1 otrzymuje trochę pomocy, nie uruchamiając Assassin’s Creed Valhalla, gdzie prawdopodobnie zdobyłby punkty w wysokich nastolatkach. Układy GPU o pojemności 2 GB zyskują również potencjalny wzrost, ponieważ nie są w stanie uruchomić Red Dead Redemption 2, gdzie GTX 1050 prawdopodobnie miałby średnio blisko 30 kl./s, gdyby miał wystarczającą ilość pamięci VRAM.
Osiągnięcie prawie 100 kl./s w CSGO również nieco wypacza ogólną średnią, ale lżejsze gry z pewnością mogą działać dobrze w średniej rozdzielczości 1080p na DG1 i innych słabszych procesorach graficznych. Mimo to z 17 przetestowanych gier tylko sześć działało z prędkością większą niż 30 fps na DG1.
Obraz 1 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 2 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 3 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 4 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 5 z 17
(Źródło zdjęcia: Tom’s Hardware) Obraz 7 z 17
(Źródło zdjęcia: Tom’s Hardware)Obraz 8 z 17
(Obraz źródło: Tom’s Hardware)Zdjęcie 9 z 17
(Źródło zdjęcia: Tom’s Hardware )Zdjęcie 10 z 17
(Źródło obrazu: Tom’s Hardware)Zdjęcie 11 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 12 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 13 z 17
(Źródło zdjęcia: Tom’s Hardware)Obraz 14 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 15 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 16 z 17
(Źródło zdjęcia: Tom’s Hardware)Zdjęcie 17 z 17
(Źródło zdjęcia: Tom’s Hardware)
Nie będziemy spędzać dużo czasu na omawianiu poszczególnych wyników 1080p, ponieważ nie ma o wiele więcej do powiedzenia. Możliwe jest obniżenie ustawienia w niektórych grach, co może pozwolić DG1 na osiągnięcie 30 klatek na sekundę lub więcej, ale można zauważyć, że jest kilka gier, w których GTX 1050 oferuje ponad dwukrotnie wyższą wydajność, nawet z połową pamięci VRAM.
Gdyby Intel używał szybszej pamięci GDDR5 w DG1, mogłoby to wpłynąć na wydajność. Wyższe rozdzielczości generalnie wymagają większej przepustowości i chociaż 1080p nie jest obecnie tym, co nazwalibyśmy dziś wysoką rozdzielczością, możesz zobaczyć, jak radzi sobie również GPU Vega 8, prawdopodobnie z powodu braku przepustowości. Ale nie przejmujmy się rzeczami: Intel wyraźnie ma dużo pracy do zrobienia ze sterownikami i sprzętem, aby uzyskać wydajność tam, gdzie musi być na premierę DG2.
W tej chwili trudno jest dokładnie powiedzieć, co trzyma DG1 z powrotem. Sterowniki są z pewnością częścią tego, ale RX 560 ma około 30% więcej obliczeń teoretycznych i 64% większą przepustowość, a ogólna wydajność w medium 1080p była o 62% wyższa niż DG1. Możliwe, że dostrajanie sterowników i większa przepustowość pamięci sprawią, że wydajność „rdzenia” procesora graficznego Intela zbliży się do architektury Vega AMD. Of course, AMD is ready to move beyond Vega and GCN now, so Intel needs to set its sights higher.
Intel’s DG1 and Future Dedicated Graphics Ambitions
(Image credit: Raja Koduri/Twitter)
Let’s be blunt: For a budget GPU, GTX 1650 levels of performance are the minimum we’d like to see, and the GTX 1650 is currently 175% faster than the DG1 across our test suite. And that’s looking at the vanilla GTX 1650; the GTX 1650 Super nominally costs $10–$20 more than the vanilla model and boasts about 30% higher performance, which would make it more than triple the performance of the DG1. Drivers can certainly improve compatibility and performance in the future, but Intel needs more than that.
Could a refined DG2 architecture with 128 EUs and GDDR6 memory potentially match a GTX 1650 Super? Never say never, but that looks like an awfully big stretch goal right now. On the other hand, the fact that an Intel graphics card actually exists is already a lot more than many of us would have expected a few years ago. After 20 years of sitting on the sidelines and watching AMD and Nvidia battle for GPU supremacy, Intel has apparently decided that it wants to throw its hat into the ring. Considering how the supercomputing market has evolved over the past decade to use GPUs for a lot of the heavy computational work, and there are many workloads where GPUs can deliver an order of magnitude more performance than even the biggest CPUs, there are plenty of reasons for Intel to expand its graphics portfolio.
If Intel can fix up some of the shortcomings of the DG1, and then get that to scale up to 512 EUs — or more — performance could be quite promising. Using 16Gbps GDDR6 memory on a 256-bit memory interface would give Intel nearly eight times the memory bandwidth of the DG1, and 512 EUs running at slightly higher clocks would land in roughly the same 8x ballpark. How fast would such a GPU be compared to the best graphics cards? Theoretically, an 8x improvement would put it right in the ballpark of the fastest GPUs in our GPU benchmarks hierarchy, at least for 1080p medium. We’ll still have to see how the architecture deals with higher image quality settings and resolutions, but achieving that sort of performance is obviously possible — for example, both the RTX 3080 and RX 6800 XT get there in slightly different ways.
Yet the question remains: Can Intel match AMD and Nvidia? As a first-gen dedicated GPU architecture, DG1 comes up short. It only works in certain PCs (none of which use an AMD CPU), and even then, performance is pretty lackluster. But Intel already knew all of this more than a year ago. DG1 is the harbinger for what comes next, paving the way with wider compatibility and better drivers. We have very few details about the DG2 changes, other than we know there will be far larger and more powerful chip configurations. DG1 was literally just a”test vehicle”for discrete graphics, and hopefully it has given Intel the data it needs to build a second-gen part that will be far more competitive.
It will need to be, particularly if the current trend of reduced demand from the mining sector continues and graphics card prices return to normal. DG1 gets a bit of a pass, as there are so few other options right now. Yeah, it’s not really any better than the GT 1030 GDDR5 (for gaming at least), but it has similar power constraints, and it’s not completely sold out and overpriced. It also requires an entire PC purchase to go with the GPU, which isn’t going to help it gain widespread use. If the GTX 1050 or RX 560 were still readily available, never mind the GTX 1650 and RX 5500 XT, DG1 would have almost nothing to offer.
Intel’s biggest task from our perspective is to improve the architecture and scale up to much higher levels of performance. There’s a niche market for entry-level discrete graphics cards, but the big demand for dedicated GPUs comes from gamers that want a lot more than just a modest improvement over integrated graphics. And beyond the hardware, Intel still has more work to do on its drivers.
Everything should just run, without complaint, whether it’s a DX11, DX12, OpenGL, Vulkan, or even an old DX9 game — or any other application that wants to leverage the GPU. An occasional bug or glitch is one thing, but we encountered multiple issues along with some seriously slow shader compile times in our testing. Even the best graphics chip hardware won’t matter much without working drivers, which is a lesson we hope Intel learned from its Larrabee days.
MORE: Best Graphics Cards
MORE: GPU Benchmarks and Hierarchy
MORE: All Graphics Content