mboost-dp1

unknown

John Carmack udtaler sig om Grafikkort

- Via Slashdot -

Ifølge John Carmack er ATIs Radeon 8500 bedre egnet til at køre Doom3 end NVidias GeForce er. Men ved NVidias grafikkort kører spillet alligevel hurtigere, pga. bedre drivere.





Gå til bund
Gravatar #1 - Mifan
3. jun. 2002 08:17
Det burde ATI nok tage til efterretning...
Gravatar #2 - FZ
3. jun. 2002 08:29
Det er det der er ulempen ved ATI. De skal lige lære hvordan man laver driverne til kortet.

Jeg har selv et Radeon 8500 og det kører faktisk ret godt. Men kan køre hurtigere med bedre drivere.
Gravatar #3 - Trentors
3. jun. 2002 08:29
Det havde man også forventet. Verden handler ikke kun om texture passes - Det spiller faktisk også andre faktorer ind. Doh!
Gravatar #4 - Net-Meister
3. jun. 2002 08:53
HA! nøjes med mit gamel ATi radeon classic! Det er møje bedre!
Gravatar #5 - J.R.Ewing
3. jun. 2002 09:05
Trentos = nvidiot :)
Gravatar #6 - Erroneus
3. jun. 2002 09:17
#1...og nvidia, de har da også noget at tænke over, når de får det at vide. Speed er ikke alt.
Gravatar #7 - Onde Pik
3. jun. 2002 09:40
ATi's drivere er nået op på et ganske udemærket stadie. Nvidias drivere er bedre men de har også haft 6 måneder mere til at lave nogle drivere til noget hardware(NV25) der er en del mindre forskelligt fra deres sidste generation(NV15), end R200 er fra R100(ergo et lettere arbejde). Derudover er GF4TI ca. et halvt år nyere end R8500, og har både 20% mere båndbredde, 20% højere clockrate og 100% mere RAM end R8500. Det koster i USA også 3 gange så meget. Så spørgsmålet er hvor imponerene det er, især når R8500 konsekvent er hurtigere end GF4TI4600 når man slår Anisotropisk filtrering til(Og ALLE der har nogle så hurtige kort bruger aniso hvis de har nogen hjerne).

Man ja, ATIs drivere er ikke nær så gode som Nvidia. Det menes dog i "3d kredse" at det er hardware bugs der gør R8500 langsommere. Lige som de HW bugs i GF3 der gjorde det muligt for Nvidia at lave et GF4(Begge er NV25 chips).

Det bliver morsomt at se om ATI lancerer RV250 og eller R300 i denne uge da det er rygtedes at ATI skulle komme med noget til computex2002.



Desuden har JC altid været en Nvidia mand.
Gravatar #8 - PwR900
3. jun. 2002 10:12
#7
GF3 og GF4 er ikke det samme. GF3 er nv20, mens GF4 er nv25.
Jo, kortene minder meget om hinanden design mæssigt meget om hinanden, men det gjorde GF1 og GF2 også.
Med lidt ekstra tweaks, hurtigtere komponenter og en ekstra vertex-shader, sparker GF4 (TI 4600) røv til GF3 (TI 500).

John Carmack er _ikke_ en nvidia only mand. Det kan godt være at han er synes at nvidia laver bedre drivere og alt-i-alt nogle hurtigere kort. Men han stod for at få GLX (opengl)til G400 og G200 kort (Matrox), dvs. de virker i linux. Og han har også sagt at han vil støtte ethvert projekt der sigter på at lave Radeon drivere til linux.
Gravatar #9 - Mifan
3. jun. 2002 10:16
#6 Helt sikkert... men det må sq alligevel være lidt surt at få af vide, at man har det bedste produkt, det bliver bare ikke udnyttet ordentligt...
Gravatar #10 - flywheel
3. jun. 2002 10:54
Under ATi's storhedsperiode var der ikke den helt store fokus på drivprogrammerne...Man var glad bare de fungerede nogenlunde fejlfrit. Hvilket er noget ATi lige skal vænne sig til.
Til deres forsvar kan man så sige at GF4 API-mæssigt "bare" er en udbyggelse af GF3 og de derfor har en solid gang erfaring de har kunnet bygge på, med GF4 driverne.
Hvorimod R8500 er rimelig ny, hvor hele potentialt endnu ikke er helt udnyttet.
Gravatar #11 - El_Coyote
3. jun. 2002 11:11
Men kan ATI blive ved med at forbedre riverne som de har gjort hidtil, så kommer r8500 snart til at blive udnyttet fuldt ud - allerede i næste set kommer der en ny OpenGL ICD og et nyt gamma system med... huzzah :)
Gravatar #12 - Onde Pik
3. jun. 2002 11:35
#8 Ja jeg mente selvfølgelig '2X' chips. Men at jeg skrev forkert ændre ikke på noget. Forskellen gør næsten ingen forskel på driverudviklingen, da software/hardware interfacet stadig er det samme.

NV25 er bare en optimeret NV20 med en exstra vertex shader, det har dog ikke lykkedes dem at fixe deres DXTC1 hardware bug. Så spil som JK2 ser forfærdelige ud med DXTC slået til. Jeg fatter simpelthen ikke at de foretager 16bits dekomprimering når det gør at de pågældende textures ofte kommer til at se så grimme ud.R100 og R200 benytter begge 32bits dekomprimering, og derfor kan man godt spille spil som JK2 med DXTC slået til, og det giver jo et godt perfomance boost.

Pointen er, at RV250 meget vel kan være en (på samme måde som NV25) optimeret version af R200. Altså ikke bare et boost i clockfrekvens.
Gravatar #13 - Hektor
3. jun. 2002 13:08
#12 OndePik:
Jeg husker muligvis forkert, men jeg mener, at da deres DXTC1-bug kom frem, kom det også frem, at det ikke er en bug, men en reel feature, da DXTC1 er 16 bit, og at 32-bit-implementeringerne reelt er de fejlbehæftede.
Gravatar #14 - Dnope
3. jun. 2002 16:41
Jeg har lige købt et geforce 4 mx440 med 64mb DDR ram for at teste en af de nye Geforce kort.. Ehm... Ja!! Jeg startede selvfølge med at købe kortet og sætte det til.. Hmm.. SVHS stikket passede ikke i kortet.. Phyy... Der var en konverter med*SS* Installerede driver, øjj.. Med funktioner!! Sejt*SMS* Grafikken var dog en lille smule utydelig og faverne lidt matte, men det går nok.. Gennemsigtige winduer instiller til den enkelte mappe var forenklet sejt.. efter en hurtig test på 5 min(3D mark) solgte jeg mit gamle Kyro 2 kort skulle jo ogse ha’ råd til mine regninger:-) Så skulle kortet finpusses.. Først Yes!! At lege med tv-out.. Ihh.. Der var en sort kant hele vejen rundt om skæmbilledet... Møj irriterende og billedet var ogse lidt udgnidret og havde matte farver på fjernsynet.. Fik lidt dårlig smag i munden.. Mens jeg glad kretiserede tvout’en til en geforce glad ven jeg havde jo kun givet en halv defekt 60gb hd for kortet.. Nå gav op at få godt billede på tv-out det kan ikke lade sig gøre med det kort.. Begyndte med spil og blev som jeg regnede med mødt med en god hastighed, men... :-( Ak... Lige fra starten der var noget galt jeg manglede noget at 3d føelsen.. matte farver udgnidret billede og måske dårligt tegnet? Ej... Ikke noget at gøre det kunneike laves om.. Nå kortet kostede 1100kr. på edbpriser og jeg havde stadigt ikke givet så meget enda.... Kritiseret stadigt glad kortet til dem der kom og var nysgerrig... Aften jeg prøver igen Morrowind for at spille lidt.. Men nej:-/ Ak... Hurtigere end mit 1 år gamle kyro II til 889kr.(Med TV-out) Men virkeligt elendig grafik.. Jeg begyndte at tænke på der gik 2 måneder før jeg havde råd til en andet kort, blev ked af det og gik i seng.. Her til morgen tænker jeg stadigt på hvordan jeg skal få fat i et andet kort.. Sikke noget skidt...

Kortet ER bedre end geforce 2(Jeg har ikke testet geforce 3) Har tidligere haft radeon til låns, mums især 8500 jeg tager det ikke så tungt om kortet kan kære flydende i 2304*1440 eller 1600*1200 punkter min skærm kan alligevel ikke vise mere:-)

Med venlig hilsen Danni N. Petersen
Gravatar #15 - Onde Pik
3. jun. 2002 17:14
13#

Jeg er ikke helt sikker på at jeg forstår dig korrekt men umildbart lyder det somom at du mener at DXTC1 ikke bør understøtte 32bit farver.

I så fald er det forkert, DXTC1 er den af de fem(DXTC1-5) versioner der benytter det bedste komprimerings forhold(4 til 1). Og er normalt den man bruger til at komprimere højkvalitets 32bit textures. Selve processen er en anelse for kompleks til at beskrive her men involvere brugen af to 16 bits farveværdier. Hvilket kan være hvorfor du har misforstået det.(Hvis altså jeg læste dit indlæg korrekt).

Præcis hvad Nvidia gør galt ved jeg ikke man man kunne forestille sig at de kun gemmer 16bits per texel i deres DXTC1 inplementation.

Der var et 'hack' de lavede til GF3. Hacket gjorde at de "promote"'ede(jeg kan ikke rigtig oversætte det) texturesne til DXTC5, men det er jo ikke gratis og kostede performance. Desuden virker det ikke altid efter hensigten så resultatet kan risikere at være grimt og langsomt, og ofte er det bedre at lade helt være med at bruge texture compression når det er DXTC1 der er tale om.(Hvilket er oftest)

I GF4 var det tilsyneladene blevet fixet, men nej. Nvidia har bare lavet endnu et hack der tilsyneladende bare bruger 'dithering' på texturesne efter dekomprimering hvilket får dem til at se bedre ud. Det fede var at den scene som alle brugte til sammenligning var fixet, så Nvidia fik massere af praise ;) Men realiteten er igen, at det er ydelses kostende of ofte er effekten meget uheldig. Som du vil se hvis du spiller Jedi Knight 2 på dit GF4.

:D
Gravatar #16 - Onde Pik
3. jun. 2002 19:03
Og hvis folk er så glade for JC som er indrømmet Nvidia evangalist. Så skrev Gamespy idag.


"<STRONG>Hardware junkies might be interested to know that </STRONG><STRONG>id Software's</STRONG> impressive <I>Doom III</I> demo</B> at E3 was powered by <A href="http://www.ati.com/">ATI Technologies' next-generation chip. id Software's John Carmack, its co-founder and chief technical officer, was quoted as saying that the ATI graphics processor has "an ideal feature set" and is "the fastest platform" on which to run the game."
Gravatar #17 - Kegle
4. jun. 2002 10:16
Så er det jo dejligt at jedi knight 2 for det meste kan køre på mit geforce256 med højeste texture kvalitet uden textur komprimering(hint til hr. pik: gf4 har 4x så meget videoram).
Gravatar #18 - Onde Pik
4. jun. 2002 12:25
"hint til hr. pik: gf4 har 4x så meget videoram"

Ehh gud ja, 4 gange 64 er jo 128.... :rolleyes:


Standard udgaven af R8500 har 64MB RAM.
Standard udgaven af GF4TI har 128MB RAM.


Begger kort understøtter op til 256MB RAM og jeg har set en enkelt R8500 version der benyttede det men ingen GF4. Det skal lige nævnes at R8500 nu fås mange steder med 128MB RAM.

Under alle omstændighedder targer du fejl når du siger "GF4 har 4x så meget VRAM som R8500".
Gravatar #19 - Kegle
4. jun. 2002 13:57
Undskyld hr. pik, men hvor nævnte jeg radeon?

Jedi knight 2 kan køre på mit geforce256 med 32mb ram så kan det fanme også køre på et geforce4 med 128mb, både med og uden texture komprimering.

Så under alle omstændigheder tager du helt fejl altid, uden undtagelse, og så siger du også noget forkert for det meste.
Gravatar #20 - J.R.Ewing
4. jun. 2002 14:27
Det kan godt være at jeg er lige så dum som OP, men jeg læste nu også dit "hint" som henført til tidligere diskution. Der er nu også den mulighed at det ikke er os der er tungnemme men at du udtrykker dig tvetydigt.
Gravatar #21 - Onde Pik
4. jun. 2002 16:41
Kegle, du henvendte dig til mig i din post. Er det underligt at jeg antog at du mente jeg to fejl?? Desuden ved jeg udemærket godt hvor meget ram dit GF DDR har.

Og hvad mener du jeg har sagt som er forkert???
Gravatar #22 - Kegle
4. jun. 2002 20:25
Nej det er ikke underligt, du antager jo at alle tager fejl.
Gravatar #23 - Onde Pik
4. jun. 2002 23:09
Hvad skal det betyde?? Kan du være mere specifik? Og jeg vil stadig gerne vide hvor du mener at jeg tager fejl, det svarede du jo ikke på.
Gravatar #24 - El_Coyote
5. jun. 2002 17:24
læste lige at R300 har 4 vertex shader engines... så begynder det at ligne noget, der kan bruges :)
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login