mboost-dp1

unknown

John Carmack om Parhelia

- Via Blues -

John Carmack har som så mange andre, haft et Parhelia grafikkort at lege med. Han har testet kortet med Doom 3, og kommer på den baggrund med sine kommentarer til den.





Gå til bund
Gravatar #1 - lerbech
26. jun. 2002 08:14
stakkels kort siger jeg bare, med den "anmeldelse" ser det sort ud fro matrox
Gravatar #2 - sunlock.dk
26. jun. 2002 08:24
Jep... allerede i starten kommer det:
"The executive summary is that the Parhelia will run Doom, but it is not performance competitive with Nvidia or ATI."
Gravatar #3 - JaPeX
26. jun. 2002 08:45
Hmm... han er sørme da begejstret.
Gravatar #4 - TYBO
26. jun. 2002 09:02
Det er jo latterligt...ingen køber et matrox kort for at game anyway.
At man så godt kan game på det er jo kun et plus.
Gravatar #5 - Sputler
26. jun. 2002 09:13
Gad vide hvor mange tæsk Matrox får, når de launcher de 256 MB kortet i Perhelia-serien...

...store muskler - ingen hjerne...
Gravatar #6 - Trentors
26. jun. 2002 09:17
Ja det kort har været dødsdømt lige fra de første specs.

Dem som fandt det imponerede har vist heller ikke fulgt med i 3D-hardware udvikling længe. Den mest afgørende faktor for et korts performance er båndbredde-besparende teknologier det ved alle sgu da. Nvidia var lige ved at gå ned med flaget da de første Radeon kort udkom fordi Nvidia troede de kunne klare sig med rå muskelkraft. Hele verden så på da Nvidia blev belært af ATI the hard way.

Hvor fanden er det så lige at Matrox engineers var på det tidspunkt. Månen?
Gravatar #7 - Onde Pik
26. jun. 2002 09:32
Jaaa der omkring. De var ihvertfald ikke på Radeon.(Planet i ST).
Anywyas, jeg var faktisk overrasket over at det klarede sig så dårligt. Han forklare jo at han prøvede at oppsætte en scenarie der favoriserede Parhelia mest muligt, men stadig kunne det ikke hamle op.

Forresten blev jeg også lidt overrasket over at Parhelias fragmenterings egenskaber er dårligere end R8500. Lover godt for R300, håber de laver en FAA algoritme i stil med Matrox.
Gravatar #8 - Logotrend
26. jun. 2002 11:00
Jeg venter nu stadig på Nvidias' NV30, eller hvad den nu kommer til at hedde, og hvis den også skuffer mig, så er den sidste udvej nok R300, selvom jeg ikke rigtigt har lyst til at putte andet end Nvidia i min AGP port =)
Gravatar #9 - HankTheWank
26. jun. 2002 12:16
Hmmm hvor meget mon John Carmack får for at udtale sig kritisk om andre producenter end nVidia.

Jeg stoler sq mere på tests der kommer fra div. tweak og hardware sites.
Gravatar #10 - nihil
26. jun. 2002 13:16
#9> jeg syntes nu mare at han roser radeon, faktisk er han MEGET objektiv, han giver bare facts, ikke personlige meninger, i øvrigt var det vist også et ATI kort der blev brugt til at fremvise doom3 demoen for nylig...
Gravatar #11 - H2ns
26. jun. 2002 13:40
Jeg tror det nye Matrox Parh. vil blive en stor fiasko. Som nogen siger her, så ville man ikke købe det for at game eller på anden måde anvende 3D funktionerne. Jeg tror heller ikke ret mange vil købe det for at anvende 3 skærme.

Hvilke argumenter er der så tilbage? 2D kvalitet. Og her er det, at jeg til enhver tid hellere ville spare 3000 kr. og købe et Matrox G450 i stedet.

Kan I finde andre gode argumenter for at give 4000 kr. for et kort, der ikke performer voldsomt i 3D?
Gravatar #12 - Locutus
26. jun. 2002 16:59
John Carmack er absolut upartisk ifb. grafik-kort. Han kørte jo bla. Doom 3 demoen på ATI hardware fordi det var det bedste til opgaven.
Gravatar #13 - pizzamandk
26. jun. 2002 19:33
Man skal være blød i hovedet, rig, total nørd eller alle 3 ting for at købe et kort udelukkende fordi guruen har udtalt at det passer bedst til hans spil.
Gravatar #14 - kewler
26. jun. 2002 19:38
#9
Det er så din egen skyld.

Carmack har skam skrevet en del dårlige ting om NVIDIA, blandt andet om deres GF4MX som han absolut ikke anbefaler nogen at købe.

Så prøv lige at følge lidt med inden sådanne kommentarer bliver postet...

Carmack er altid ét skridt foran, og hvis der er nogen som har forstand på grafik-kort, så tror jeg det er ham.
Gravatar #15 - echo^fdg
26. jun. 2002 20:06
Den eneste måde, JC er "biased" på, er ved, at han kun udtaler sig om, hvad der er bedst for ét bestemt spil, og det kan man vist ikke rigtig blamere ham for. Men det er værd at notere sig, at der er altså andre spil og applikationer, der har andre performancekarakteristika.
Gravatar #16 - baal
26. jun. 2002 21:15
2D kvalitet betyder ikke en skid, når alle har digital skærme (som jeg).

Mens jeg på mine trinitron skærme tydeligt kunne se forskel på nVidia's skrald og ATI's/Matrox finere ramdac, er der INGEN forskel i billedkval på en digital skærm m. DVI input.

Jeg har prøvet, da jeg har begge dele (altså 21" trinitron og 20" FlatPanel samt GeForce3 og Matrox G550)
Gravatar #17 - Hektor
26. jun. 2002 22:03
#16 baal:
Som sagt: DVI all the way. Også til analoge skærme :-)
Gravatar #18 - nihil
27. jun. 2002 00:43
#17> jeg har skam DVI input på mine 2 IBM P260, så det er skam helt fint med dual dvi output på et grafikkort.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login