mboost-dp1

unknown

Preview ludere

- Via Overclockers.com -

I lyset af de meget entusiastiske previews af ATIs Radeon 9700 grafikkort, har Ed Stroligo fra Overclockers.com lavet en artikel om et fænomen man groft sagt kunne kalde for ‘preview ludere’.

Det der er faldet Ed for brystet, er de mange ukritiske previews der kom af Radeon 9700. Nogle af de ting han finder underligt, er at der bliver lagt så meget vægt på benchmarks som ATI kontrollerede 100%. Reaktionerne på hans artikel har været mange og forskellige, opfølgningen på disse og den første artikel kan læses her.





Gå til bund
Gravatar #1 - sKIDROw
25. jul. 2002 08:53
Det er et lidt speget emne.
Mange test sites er generelt ret ringe, og aner ikke hvordan de bedst tester tingene.
Dog sender det jo selvfølgelig er skidt tegn, hvis producenten kommer og viser dem hvordan deres produkt skal testes... ;)
Gravatar #2 - Kahlan
25. jul. 2002 09:20
Er jeg den eneste der har problemer med at forstå hvad manden egentlig prøver at sige i den artikel? Det ene øjeblik virker det som om han kritiserer Radeon 9700, altså selve hardwaren, sønder og sammen. Den næste øjeblik taler han om at ingen spiller i 1600*1200, for så at kaste sig frådende over Anandtech.
Gravatar #3 - sKIDROw
25. jul. 2002 09:26
Så der er ingen der spiller i 1600*1200???
Det gør jeg sq da altid!
Det er er ikke alle der spiller på en diskount skærm fra aldi... ;op
Gravatar #4 - Locudo
25. jul. 2002 09:29
Jeg synes at gå fra 18fps på Ti4600 til 45fps på et radeon9700 er da helt fint, det er da til at spille med, hvor de 18fps er for lavt, mon ikke de kommer højre op med bedre driver, det er jo kun beta driver.

Locudo
Gravatar #5 - sim
25. jul. 2002 09:35
Hvis det går hen og viser sig at ATI har fusket med benchmarksne, så skal de sgu nok få kærligheden at føle, når der bliver lavet reviews af boardet, og diverse sites, laver deres egne benchmarks af boardet :)
Gravatar #6 - OsteManden
25. jul. 2002 09:43
#2 Det er hvad jeg får ud af det: Han skriver, at ATI har prøvet at styre testene. Testene er kørt hvor geforce er mest såbar (hvor kortene har brug for båndbredde til rammene) og derfor har den der "vi er 250% hurtigere", når det egenligt kun svarer til en forskel på 15 fps. han siger ikke, at man ikke spiller i 1600x1200, men kortet ikke er hurtigt nok til 1600x1200 i 4AA. Han mener, når man skruer man opløsningen ned, vil de % formindres kraftigt og kortet vise den reele del af den har at give en køber (men det har ATI ikke ville tillade). Han mener i bund og grund at langt de fleste review har "hyped" kortet istedet for at lave et kritisk review. Han mener de lige så godt kunne have arbejdet i deres PR afdeling.
Gravatar #7 - Onde Pik
25. jul. 2002 09:43
Han er et totalt fjols, vil i ikke være venlige at ændre overskriften på denne nyhed. ATI havde ikke 100% control med benckmarksne, de gave EN instruktion fordi det er alphadrivere på ikke-final silicone. Instruktionen var ikke at giver FPS værdier men relative grafer istedet. Lad mig tage en hurtig gennemgang af hans artikel.

"<STRONG>Who The Hell Runs Games At 1600X1200?"</STRONG>

Dem der har et Radeon 9700. Duh.

<STRONG>"Most of you have monitors that are 17-to-19 inches. 1600X1200 is too tiny for those sizes." </STRONG>
<STRONG></STRONG>
Ehh, snakker vi ikke om 3D rendering? Objekter forbliver den samme størelse på skærmen ligegyldig hvilken opløsning du bruger. Fjols.

<STRONG>"It's not much better at 1024X768 than the Ti4600."</STRONG>
<STRONG></STRONG>
38% ikke meget i UT2003? Nej det er ikke meget hurtigere i JK2, men har fjolset ikke hørt om "CPU bound" scenarier?


<STRONG>"At 1280X1024, gaps widen, to varying degrees."</STRONG>
<STRONG></STRONG>
Ja det må man vidst sige.

<STRONG>"It usually does pretty well at 1600X1200, but again, to varying degrees."</STRONG>
<STRONG></STRONG>
Pretty well? Ehh kortet laver det største performance hop i grafikkort historien siden Voodoo. Det slår det nuværende bedste kort med vanvittigt meget.

<STRONG>"It is likely that if you like antialiasing and the like, this will do pretty well also, but let's see a little more proof on that first."</STRONG>
<STRONG></STRONG>
De er da klar man sætter AA på når der næsten er gratis. Duh. Og beviser? Der haver været 6-7 reviews der alle siger det samme, mellem 2.5 og 4 gange så hurtig som GF4Ti4600.

Resten af hans artikel er tilfældige ramblings, og er meget sjovt at læse men helt ærligt. Folk steder som B3D hvor de prof fyre sidder har grinet af ham, folk på sider som R3D(overraskelse?) og nVnews før de gik ned har grinet af ham. Driverheaven synes han er et kvaj, og mange flere.
Gravatar #8 - Onde Pik
25. jul. 2002 09:47
Jeg har dog sjovt nok samme forslag som han. Vent med at danne jeres mening til kortet bliver reviewet.


Forresten så har i set at de FPS scores han bruger er hans egne ikke? Det er nogle han har "gættet" sige til.
Gravatar #9 - sKIDROw
25. jul. 2002 10:19
"<STRONG>Who The Hell Runs Games At 1600X1200?"</STRONG>
Det gør jeg både med KyroII og Radeon 8500LE!... ;)


<STRONG>"Most of you have monitors that are 17-to-19 inches. 1600X1200 is too tiny for those sizes." </STRONG>
Ja hvis det er en Aldi skærm måske.
Men for dem af os der har ville ofre en kvalitetsskærm, er 1600x1200 er glimrende opløsning.

<STRONG>"It's not much better at 1024X768 than the Ti4600."</STRONG>
Hvad ved jeg..
Den opløsning har jeg ikke brugt, siden jeg skrottede 15" skærmen... heh
Gravatar #10 - faetteren
25. jul. 2002 10:21
LOL,

Men seriøst så tror jeg ikke at radeon 9700 er ret meget hurtigere end et gf4 ti 4600 ????.

Det er klart at man ikke kan få 250 % mere end 300 Fps i quake 3, hvorfor ??????. Cpu'en er begrænsnigen. !!.


Ati har heller ikke haft de højeste FPS og da slet ikke i lavere opløsning.

Men 9700 er klart det fedeste kort man kan få. måske et 8500 all in wonder er federe, men et 9700 all in wonder huh det vil jeg gerne have.
Gravatar #11 - Ordneren
25. jul. 2002 10:24
Tjaeh. Find en tilpas slidt 15" skærm der kan køre 1600X1200 og du har gratis antialiasing :P
Gravatar #12 - Neodk
25. jul. 2002 10:44
Antialiasing...

Nogen der lige hurtigt gider fortælle mig hvad det er???
er det noget der er værd at kører med??? sidder med Geforce 3Ti 200 175@220 400@500 .... med en blue orb køler :)
Gravatar #13 - AenimA
25. jul. 2002 11:00
Hmm... ATI er kendt for deres halvdårlige driversupport, men når John Carmack siger god for det, så kan det vel ikke være helt skidt.

Måske er det bare mig, der er naiv. Men jeg har fornemmelsen af at ATI og Nvidia har lært noget om ordentlig markedsføring efter deres R8500/Geforce 3 markedsføringsslag. Jeg tror ikke ATI snyder 'alt' for meget for: på nettet spredes rygtet om snyd hurtigt. Og tak for det.

Vi skal bare huske at ATIs kort, på trods af de imponerende benchmarks (testet under strenge forhold, indrømmet), har ramt lige imellem Nvidia Geforce 4 og 5 kort, og derfor er det svært at sige om ATI har vundet noget, eller om de bare har timet deres release af R9700 perfekt i.fh.t. Nvidia.

Jeg købte mit Geforce 3 kort i marts, og jeg har ingen intention om at købe et nyt kort, før jeg ser hvem der vinder den næste benchmark kamp (R9700/Geforce 5)...
Indtil videre følger Geforce 3'eren fint med i det spil, der er - i 1024*768 :)
Gravatar #14 - AenimA
25. jul. 2002 11:08
Anti-Aliasing (AA) er den teknik, der gør, at 'musetrapper' forsvinder delvist. Hvis du kigger på et 3d spil som f.eks. quake3 uden AA (default), så vil i de skrå streger i spillet have nogle takker - med anti-aliasing forsøger man at fjerne de takker, så billedet bliver pænere og mere realistisk.

Desværre kræver teknikken en del af grafikkortet, da AA teknikken skal udregne hvor og hvordan man skal fjerne 'musetrapperne' - og det giver et hit i FPS.

Personligt synes jeg ikke at AA gør den afgørende forskel i hurtige skydere som Quake3 el. Unreal T., hvor man alligevel ikke når at se landskaberne eller omgivelserne før man bliver blæst til atomer... men i spil som Morrowind (supergrafik) el. flysimulatorer kunne jeg godt forestille mig at det ville være rart at have AA slået til.

Men vi skal nok op i R9700 el. Geforce 5 før det kan betale at have AA slået til permanent.

Skærme kan ikke give 3D AA - det er noget der skal udregnes på grafikkortet.
Gravatar #15 - nihil
25. jul. 2002 11:42
Jeg er pænt sikker på at hvis gf4ti4600 havde dobbelt rambåndbredde, så ville den kunne tørre r300, hvilket jeg finder meget pinligt fra ati's side, desuden kan man overclocke sit ti4600 kort til hastiheder der i en hel del tilfælde overgår r300 (som ikke kan oc), flot ati, i kommer til at 'føre' i 2-3 måneder, indtil nvidia kommer med deres næste udspil....gid de også gad gøre noget ved deres billedkvalitet...
Gravatar #16 - Ordneren
25. jul. 2002 12:26
"Skærme kan ikke give 3D AA - det er noget der skal udregnes på grafikkortet."

Jojo.. Du sender et tilpas højtopløst billede til en tilpas dårlig skærm. Det giver næsten samme effekt :P
Gravatar #17 - Onde Pik
25. jul. 2002 12:32
#15

:rolleyes:

Prøv at skrive det det på B3D's forum. Du bliver årets grin.
Gravatar #18 - faetteren
25. jul. 2002 12:36
LOL hvis du tror at en TI4600 er af samme slags som 9700'erne, så er du ikke helt bagt færdig!!

Igen, jeg tror ikke at 9700'eren er hurtigere end et TI4600 og slet ikke hvis man vil tweake for at få flest FPS, Nvidia er jo blevet sådan en slags 3dfx. !!

Kan i huske da nvidia begyndte at røre på sig. ALLE sagde at nvidia var noget hyped lort, og at 3dfx var det bedste, og mange blev ved indtil at 3dfx var næsten et ½ år forsiknet med vodoo 5. Kan det samme ske med ATI / nvidia ???. Fordi alle dumme nar hovder tror at nvidia vil vinde kampen så holder de med nvidia, når så det går op for folk at ati var de klogeste og nvidia har tabt så siger alle at ATI har været gud længe ????.

Lamme Nvidioter hele banden.
Gravatar #19 - Onde Pik
25. jul. 2002 13:09

#15

Din udtalelse var sgu så håbløs at jeg alligevel ikke kunne lade være med at gå til værks på den.


"Jeg er pænt sikker på at hvis gf4ti4600 havde dobbelt rambåndbredde, så ville den kunne tørre r300, hvilket jeg finder meget pinligt fra ati's side."

Der er 2 mulighedder der kan være til baggrund for denne udtalelse.

1. Du er dum.
2. Du er ignorant.(Og dum fordi du udtaler dig om noget du intet ved om)

Et par points til at illustrere dette.

Hukkomelses båndbredde. Hvis Ti4600 havde dobbelt båndbredde, ville den <STRONG>næsten</STRONG> være lige så høj som Radeon9700, men kun <STRONG>næsten</STRONG>.

Textures per pass. Radeon9700 kan pålægge <STRONG>4 gange så mange </STRONG>textures per pass end Ti4600 kan.

Pixel Fill Rate. Radeon9700s fillrate er <STRONG>mere end dobbelt</STRONG> så høj som Ti4600s.

Transform Rate. Radeon9700 kan rendere <STRONG>2.5 gange så mange</STRONG> texture mapped polygoner på et sekund som Ti4600.

AA sample-rate. Radeon9700 klare <STRONG>mere end 3 gange så mange</STRONG> samples per sekund som Ti4600 kan.



"desuden kan man overclocke sit ti4600 kort til hastiheder der i en hel del tilfælde overgår r300..."

I lave opløsninger måske, hvor cpuen er flaskehalsen.

"...(som ikke kan oc)"

Sludder.


"flot ati, i kommer til at 'føre' i 2-3 måneder, indtil nvidia kommer med deres næste udspil."

2-3 månder? Mest optimistiske skøn for nVidia siger samples til previews i slutningen af novemeber. Måske enkelte kort ude inden jul.


Til sidst vil jeg lige sige at folk der sviner R9700 til og praiser Ti4600, måske burde sammenligne R8500 med Ti4600, og der efter Ti4600 med Radeon9700. Samtidig med at i husker på at intervallet for hvornår kortne udkom er det samme.

Hvis du stadig mener at Ti4600 er eller nogensinde har været et bedre kort i forhold til konkurrancen, end R9700 er nu(på alpha drivere og beta sillicone). Så er du en håbløs nVidiot.
Gravatar #20 - Neodk
25. jul. 2002 13:17
#14
Gravatar #21 - BiTE
25. jul. 2002 14:15
OndePik er gud!

/me
Gravatar #22 - BurningShadow
25. jul. 2002 14:35
Gravatar #23 - K_Jr
25. jul. 2002 14:38
#18

hehe, men de udtalelser der, er du ikke bedre end dem ...
"Lamme Nvidioter hele banden."

..btw, jeg har altid holdt på ATI, og gør det stadig. Grund:
#19
ATI's andre muligheder end kun pc skærm! (DVI+TV Out bla)

:)
Gravatar #24 - faetteren
25. jul. 2002 16:16
#23
Jeg bliver nød til at forklare hvad jeg mener med min post!!


"LOL hvis du tror at en TI4600 er af samme slags som 9700'erne, så er du ikke helt bagt færdig!!"

Igen, jeg tror ikke at 9700'eren er hurtigere end et TI4600 og slet ikke hvis man vil tweake for at få flest FPS, Nvidia er jo blevet sådan en slags 3dfx. !!


Var en flame til nummer 15, Det er jo som at sammen ligne elefanter med grise !!.
Men hvis man kigger direkte på Frames per second, så tror jeg klart at Nvidia kort kan tweakes til at tæske den, Ligsom et geforce 4MX kan tæske et parhelia og et ATI 8500 i quake 3, Det er jo ren fill rate, og ikke andet, Man kunne også få flere fps i spil med et vodoo kort en med et nvidia kort ( way back ), Men nvidia vandt på flest features, Og derfor er et 9700 Så mange gange federe end et GF4 TI 4600 Ultra deluxe med OC.

Kan i huske da nvidia begyndte at røre på sig. ALLE sagde at nvidia var noget hyped lort, og at 3dfx var det bedste, og mange blev ved indtil at 3dfx var næsten et ½ år forsiknet med vodoo 5. Kan det samme ske med ATI / nvidia ???. Fordi alle dumme nar hovder tror at nvidia vil vinde kampen så holder de med nvidia, når så det går op for folk at ati var de klogeste og nvidia har tabt så siger alle at ATI har været gud længe ????.

Dette er bare slader, og ikke andet, men det jeg mener med det er at som i spil, spec counter strike, de hedder WTJ ( winner team joiners ). Og jeg har ikke respekt for folk som bare følger med strømmen, og ikke selv tør / kan danne sig en mening. Og der for slutter jeg med ---->


Lamme Nvidioter hele banden.

Og de lamme nvIdioter er ( i dette tilfælde ) så dem som følger nvidia af samme grund som 3dfx fans blev ved med at hagle nvidia's kort ned. Den gang fordi man kunne med et vodoo2 kort få langt flere fps end man kunne med et TNT2 i spillet QUAKE 1, Da så TNT2 kortet viste sig at være anvendeligt til at spille spil i længere tid end vodoo 2 og 3 kortne. Hov så var Nvidia Gudernes gave til gamere.

Det jeg mener med det er lidt det som topic siger at vi kan ikke bruge previews til en skid. Kun når produktet er på gaden eller rettere når produktet er nogle måneder gammelt og folk har prøvet det og driverene er blevet tweaked, et par gange. Kan vi se om det virkeligt er noget som er noget værd. Det kan jo vise sig at de spil som kommer skal bruge nogle andre features, for at alle vil købe det.

Hvis nogen så siger at vi også skal tænke på at Nvidia kommer med et NV30 kort snart, Ja så skal vi jo også tænke på at hvis vi skal købe en cpu så skal vi også tænke på at det kommer en pentium 5.

Jeg har det sådan:

Det er fedt at læse om det nyeste nye, og det er da vildt at de er fyldt med allemulige features, Men det er alt for dyrt for mig, da det nyeste nye er ca 1½ - 2 år foran mig pga økonomi. Jeg stiller ikke hårdere krav til min hardware at det kan det jeg har brugfor, hvis det så kan mere er det fedt. Der er faktisk nogen som har det skidt med at de må nøjes med et GF3 serie kort, alene af den grund at der er nogen som har noget der er bedere end dem selv. Inderst inde har jeg ondt af dem, men jeg respektere dem ikke. For det at få jernpå ved at kunne slå naboen i 3dmark kan kun være et defekt gen.

Sådan har jeg det bare.

#23

Btw, Mit næste kort bliver et all in wonder 8500, Hvis det da ikke er udgået før jeg skal have nyt. Mit 7200 All in wonder kan alt det jeg har brug for og mere til, Det eneste jeg kunne bruge var muligheden for at afspille video på TV-out mens jeg har CRT til windows brug, Nogen som ved om det kan lade sig gøre.
Gravatar #25 - K_Jr
26. jul. 2002 14:25

Det er fedt at læse om det nyeste nye, og det er da vildt at de er fyldt med allemulige features, Men det er alt for dyrt for mig, da det nyeste nye er ca 1½ - 2 år foran mig pga økonomi. Jeg stiller ikke hårdere krav til min hardware at det kan det jeg har brugfor, hvis det så kan mere er det fedt. Der er faktisk nogen som har det skidt med at de må nøjes med et GF3 serie kort, alene af den grund at der er nogen som har noget der er bedere end dem selv. Inderst inde har jeg ondt af dem, men jeg respektere dem ikke. For det at få jernpå ved at kunne slå naboen i 3dmark kan kun være et defekt gen.

Hørt!
Gravatar #26 - flywheel
26. jul. 2002 17:20
#15 "flot ati, i kommer til at 'føre' i 2-3 måneder, indtil nvidia kommer med deres næste udspil"

Åh gud endnu en lallet idiot...jeg vil vædde på at du kom med den samme tåbeligt udtalelse da 8500 kom på gaden.
Det er altid en kamp der vil bølge frem og tilbage, idag er det ATi, imorgen måske nVidia så igen ATi på mandag og måske 3DLabs på tirsdag.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login