Intel prouve au-delà de tout doute raisonnable qu’ils sont sérieux au sujet de l’activité GPU. Il n’est pas surprenant qu’ils aient déjà des GPU qui rivalisent avec les GPU Nvidia GeForce et AMD Radeon. Il y a quelques semaines, Intel a publié le Intel Arc A770 qui est à égalité avec les GPU de milieu de gamme Nvidia RTX 3060. Le même jour, ils ont annoncé l’Intel Arc A750. Cependant, les prix ne faisaient pas partie de l’annonce.

Plus tôt cette semaine, Intel a annoncé le prix de l’Arc A770. Aujourd’hui, le prix du GPU Arc A750 est également sorti. Lors de l’annonce, plus de détails sur l’Arc A770 ont également été révélés, y compris son score de référence.

Prix des GPU Intel Arc

En termes de prix, l’A750 qui est la version de niveau inférieur de l’Arc A770 coûtera 289 $. La version haut de gamme qui est l’Arc A770 aura également un prix de départ de 329 $. Intel a également annoncé qu’il y aura une version en édition limitée de conception personnalisée de l’Intel Arc A770. Cette version personnalisée sera livrée avec 16 Go de mémoire et aura un prix légèrement plus élevé de 349 $. Ce ne serait que 20 $ de plus que la version standard.

Gizchina News of the week

Comment le GPU Intel Arc se compare aux autres

La société a également fait des comparaisons avec le concurrent le plus proche sur le marché, à savoir le Nvidia GTX 3060. Selon le résultat de la comparaison L’Arc A750 d’Intel est en moyenne 6 % plus rapide que le RTX 3060 à 1440p exécutant différentes API et un mélange de titres.

Intel a également montré le prix actuel du marché pour le Nvidia GTX 3060 qui est d’environ 418 $. En comparant ce prix au prix de 289 $ de l’Arc 750, cela signifie que l’A750 a une augmentation de 53 % des performances par rapport à la métrique en dollars.

Ces données montrent à quelle vitesse Intel semble se développer dans l’industrie du GPU. En tant que nouvelle unité de traitement graphique, il n’y a pas encore d’avis d’utilisateurs. À partir de la semaine prochaine, des critiques commenceront à apparaître où nous verrons comment il se comporte par rapport à Nvidia et AMD.

Source/Via : GsmArena

Categories: IT Info