Vigtigste Spil NVIDIA vs AMD – Hvilket GPU-mærke er bedst lige nu?

NVIDIA vs AMD – Hvilket GPU-mærke er bedst lige nu?

Nvidia vs AMD - den evige debat mellem teknologientusiaster. Men lad os lægge det tekniske til side et øjeblik og finde ud af: hvad er bedst?

VedSamuel Stewart 10. januar 2022 NVIDIA vs AMD GPU'er

2010'erne har ikke været et godt tidspunkt for AMD, det er helt sikkert.

Udover at kæmpe med deres FX-serie af CPU'er, der var år bagefter, hvad Intel solgte, havde AMD også problemer med at konkurrere med Nvidia på GPU-markedet. Team Green dominerede high-end, og AMD kunne kun følge med i low-end og mellemklassen.

AMD fik først et comeback i 2017, startende med udgivelsen af ​​deres længe ventede Ryzen CPU'er som nu er et meget populært valg til gaming builds.

I 2019 lancerede AMD sine 7nm RDNA-baserede GPU'er, der nu skal efterfølges af nye RDNA2-modeller.

I denne guide vil vi se, hvor godt AMD formår at konkurrere med Nvidia i 2022, og i sidste ende, hvilket firma tilbyder bedre gaming GPU'er i øjeblikket .

IndholdsfortegnelseAt vise

Pris og ydeevne

amd vs nvidia

Naturligvis er hovedspørgsmålet, når man diskuterer GPU'er ydeevne . Hvordan scorer den i benchmarks, og hvilken slags ydeevne kan den klare i forskellige opløsninger?

Nå, det er umuligt at generalisere om dette emne, da ydeevnen naturligvis varierer voldsomt afhængigt af den model, du får, og de penge, du er villig til at bruge på en GPU.

AMD's budget-GPU'er plejede næsten konsekvent at overgå, hvad Nvidia kunne tilbyde til samme prispunkt. Men i øjeblikket, når man sammenligner seneste budgettilbud fra begge selskaber trækker Nvidia lidt foran. Ironisk nok er nogle af AMDs gamle Polaris-baserede RX 500-kort dog stadig de bedste valg, hvis du kniber småpenge, da de giver god værdi for pengene.

Hvad angår Navi, var RX 5500 XT en smule skuffende. 4 GB (9) og 8 GB (9) varianterne af kortet var på nogenlunde lige fod med Nvidias GTX 1650 Super (9) og kunne knap komme tæt på GTX 1660 Super (9), som i sidste ende lavede RX 5500 XT et meget utiltalende kort for dem, der ønsker at få den bedste værdi for deres penge i denne prisklasse.

Men da den seneste generation RTX 3000 og RX 6000 budgetmodeller ikke er ude endnu, nu er ikke et ideelt tidspunkt at bygge en budget gaming pc , især hvis du ønsker, at det skal være en smule mere fremtidssikret.

I mellemtiden, i mellemtone , konkurrencen var en smule strammere, og AMD's mere kraftige RDNA-baserede GPU'er kunne mere end holde sig mod både GTX- og RTX-kortene, som Nvidia tilbyder i øjeblikket.

RX 5600 XT (9) klarede sig markant bedre end den tilsvarende prissatte GTX 1660 Ti (9), alt imens den holdt trit med den originale RTX 2060 (9). Den opgraderede RTX 2060 Super (9) havde dog en lille overhånd, plus den havde også strålesporing. Til gengæld forblev RX 5700 XT (9) et godt samlet værdivalg i dette område for at konkurrere med den mærkbart dyrere RTX 2070 Super (9).

Men den nye RTX 3060 Ti (9) blæser dem alle op af vandet, da det tilbyder ydeevne, der kan sammenlignes med sidste generations avancerede modeller såsom RTX 2080 Super. Indtil AMD kommer frem med en RX 6700 XT eller noget andet, der kan konkurrere til det førnævnte prispunkt, RTX 3060 Ti forbliver det bedste mellemklassekort på markedet i øjeblikket.

Når det kommer til high-end , plejede det at være den samme gamle historie – Nvidia havde stort set monopol her, da deres RTX 2070 Super, RTX 2080 Super og RTX 2080 Ti dominerede markedet. Mens RX 5700 XT kunne konkurrere med RTX 2070 Super og tilbød meget god værdi for pengene, havde AMD intet, der kunne udfordre Nvidias flagskibskort.

Det ændrede sig dog.

AMD er nyt RX 6000 serier har vist sig at være mere end i stand til at tage imod Nvidia i high-end . RX 6800 (9) overgår RTX 3070 (9) med en mærkbar margin i de fleste spil, hvilket potentielt retfærdiggør den lidt højere pris.

I mellemtiden går RX 6800 XT (9) generelt tå-til-tå med det dyrere RTX 3080 (9), selvom Nvidia har et lille forspring her. AMD GPU'en giver tilsyneladende bedre værdi for dine penge, men hvis du sigter mod en high-end GPU i denne prisklasse, er chancerne for, at en forskel på ikke betyder meget.

Endelig har vi det bedste af det bedste : det RX 6900 XT (9) og RX 3090 (99), som begge er meget nicheprodukter og næppe vil appellere til et bredere publikum.

RX 6900 XT trækker lidt foran RTX 3080 med hensyn til ydeevne, men til en betydelig prispræmie. Den alt for dyre RTX 3090, med sine hele 24 GB GDDR6X-hukommelse, vil være mere tiltalende for professionelle brugere frem for gamere.

Husk nu, at vi brugte MSRP-priser og generel ydeevne til reference, når vi kommenterede de førnævnte GPU'er. Ydeevnen vil uundgåeligt variere fra spil til spil, og prisen vil også afhænge af modellen såvel som af markedsforholdene.

Hvis du er på udkig efter et nyt grafikkort lige nu, bør du måske tjekke ud vores udvalg af de bedste grafikkort i 2022 . Bemærk, at vi gør vores bedste for at holde vores købsvejledninger opdateret, så hvis du bemærker noget forældet information, betyder det, at artiklen sandsynligvis vil blive opdateret i den nærmeste fremtid.

Strålesporing i realtid – er det det værd?

NVIDIA RTX vs GTX

Den mest markedsførte nye funktion i 2018 Turing GPU'er var deres strålesporing i realtid kapaciteter. Så hvad er strålesporing i realtid, og er det det værd i 2022?

Som navnet antyder, med real-time ray tracing, kan in-game belysning gengives meget mere realistisk, da GPU'en sporer stierne for virtuelle lysstråler og dermed simulerer den måde, de interagerer med objekter i miljøet mere præcist på. Naturligvis er fordelene ved ray tracing mest mærkbare, når der er mange reflekterende overflader omkring.

I de sidste to år var ray-tracing en Nvidia-eksklusiv funktion, der kun findes i deres RTX GPU'er, selvom AMD nu har introduceret ray-tracing-understøttelse med deres seneste RX 6000-modeller.

Nu kan der ikke benægtes, at strålesporing er et vigtigt skridt fremad, når det kommer til den igangværende årtier gamle søgen efter fotorealistisk grafik . Men er det virkelig så stor en aftale i øjeblikket?

Nå, der er flere faktorer, der sætter bremserne på ray tracing-hype-toget, og det er følgende:

Det er krævende for hardwaren . Når den er slået til, kan ray tracing levere et stort præstationshit, nogle gange direkte skære FPS i halve. Dette præstationshit er mest mærkbart med svagere GPU'er, og det varierer også fra spil til spil.

Fordelene er ikke altid indlysende . Selvfølgelig vil tekniske demoer og segmenter, der er designet til at vise strålesporing, se fantastiske ud med denne funktion slået til, men når der ikke er nogen reflekterende overflader omkring, vil strålesporing tilbyde ringe eller ingen mærkbar forbedring med hensyn til det visuelle.

Ikke alle spil understøtter det . Fra 2022, flere spil understøtter ray tracing end før, men det er stadig langt fra at være en universel funktion, selv når det kommer til store AAA-titler.

Det er værd at bemærke det Nvidia GPU'er har stadig fordelen, når det kommer til ray tracing-ydeevne , især i spil, der understøtter DLSS . Så hvis du virkelig interesserer dig for ray-tracing, ville Nvidia sandsynligvis være et bedre valg, selvom de nye RX 6000-kort klarer sig beundringsværdigt med hensyn til den samlede ydeevne og værdi i spillet.

Strålesporing bliver bestemt mere og mere populært, hvad med både PlayStation 5 og Xbox Series X være forenelig med det. Men under alle omstændigheder, som vi nævnte ovenfor, er det stadig langt fra at være en mainstream-funktion.

VRR – AMD FreeSync vs Nvidia G-Sync

freesync vs gsync

Mens V-Sync kan være godt nok til 60Hz-skærme, er det simpelthen ikke levedygtigt for skærme med høje opdateringshastigheder, såsom 120 Hz, 144 Hz eller 240 Hz, blandt andre.

Dette skyldes, at V-Sync forhindrer skærmrivning ved at pålægge et loft over antallet af frames, som GPU'en disker ud, og dermed sikre, at billedhastigheden og skærmens opdateringshastighed aldrig falder ud af synkronisering. Det kommer dog med sin del af ulemper, som f.eks stammende og input lag .

Det er overflødigt at sige, at hvis du har til hensigt at få en skærm med en høj opdateringshastighed, vil den uundgåeligt komme med en af ​​to teknologier: AMD FreeSync eller Nvidia G-Sync .

I deres kerne fungerer disse teknologier på samme måde - de bruger begge hardware til at sikre, at skærmens opdateringshastighed altid er den samme som billedhastigheden. Dette forhindrer de to i nogensinde at falde ud af sync, uanset hvor vildt billedhastigheden kan svinge, og fjerner således skærmrivning uden hakken eller inputforsinkelse.

Freesync vs Gsync

Der er dog en ulempe ved alt.

Nvidia G-Sync-skærme har en tendens til at være dyrere af en række årsager. Først, Nvidia kører stram kvalitetskontrol , og alle G-Sync-skærme skal opfylde deres standarder, før de bliver godkendt. Desuden skal OEM'er betale licensafgifter for at bruge G-Sync, og de skal købe scaler-modulerne direkte fra Nvidia, da de er de eneste, der laver dem.

Et scaler-modul er et stykke hardware indbygget i skærmen, der gør VRR muligt. Mens Nvidia i det væsentlige har monopol på G-Sync scalere, tillader AMD OEM'er at bruge tredjeparts scaler moduler og de kræver ikke, at de betaler licensgebyrer for at bruge teknologien.

Som resultat, FreeSync er meget mere populær og let tilgængelig i billigere skærme, men implementeringen er ikke altid fejlfri, og nogle skærme vil kun fungere i en bestemt rækkevidde .

På den lyse side er der mange G-Sync kompatible skærme derude nu, dvs. skærme, der ikke bruger Nvidias scaler-moduler og ikke har gennemgået deres testproces, men som stadig er kompatible med G-Sync. De mangler dog nogle af de funktioner, som du vil få med en certificeret G-Sync-skærm, såsom ultra-low motion sløring, overclocking eller variabel overdrive.

Hvad er Gsync og Freesync

Kompatibilitet plejede også at være et stort problem tidligere, da FreeSync kun fungerede med AMD GPU'er og G-Sync kun fungerede med Nvidia GPU'er. Men situationen er ikke så sort/hvid længere. For eksempel fungerer Nvidia GPU'er nu med FreeSync-skærme. AMD GPU'er er endnu ikke kompatible med G-Sync, men dette vil også snart ændre sig.

I slutningen af ​​dagen vil begge disse teknologier få arbejdet gjort, men FreeSync er naturligvis et budgetvalg, mens G-Sync er premium . Den proprietære karakter af G-Sync gør det stadig ret dyrt, men Nvidia skifter langsomt til en mere liberal tilgang. Så egentlig, hvem ved, hvad der kan ske længere nede ad vejen.

Konklusion

nvidia vs amd

Så alt taget i betragtning, hvilket firma tilbyder i øjeblikket bedre GPU'er, Nvidia eller AMD?

Svaret er ingen af ​​dem .

Hvorfor?

Nå, simpelthen fordi det er umuligt at foretage generaliseringer uden at sammenligne specifikke GPU-modeller. Begge virksomheder tilbyder forskellige løsninger til forskellige prisklasser der kan passe til en lang række kunders krav og budgetbegrænsninger. Oven i købet kan situationen ændre sig drastisk hele tiden.

Konkurrencen er bestemt meget bedre, end den har været i de seneste år, så meget er sikkert. AMD plejede at være det definitive valg til budget- og mellemklasse-builds, mens Nvidia havde monopol i den høje ende. Nu ændrer tingene sig, da Nvidia tilbyder mere konkurrence i de lavere prisklasser, mens AMD endelig tager Nvidia på i high-end.

Samlet set er de to på nogenlunde lige fod nu. I sidste ende, jo mere AMD formår at lukke hullet og give tilstrækkelig konkurrence på tværs af hele prisspektret, jo bedre vil det være for enhver forbrugers tegnebog.

Du kunne måske også lide disse