mboost-dp1
unknown
Tak, ;) Well hastigheden på Radeon kortne er jeg helt sikker på, de er udtalt af ATi medarbejdere. Med hensyn til GF3 kortne, er det rygter der er baseret på "leaked" information fra Nvidia(Nividia har højst sandsynlig leaked info med vilje, tror jeg ihvertfald). Core hastihederne er jeg ret overbevist om er rigtige nok(At TI200 skulle have lavere clock end normal GF3 virker for underligt til at være opdigtet). Det eneste jeg rigtig er i tvivl om, er ramhastiheden på TI500 kortet.
Men, gisninger om GF3 kort er baseret på uofficiel info. Hvorvidt de er sande eller ej, er udelukkende baseret på min egen fortolkning af rygternes gyldighed.
Jeg er glad for at du spurgte, jeg ville nemlig have skrevet dette i nyheden, men det fyldte ALT for meget.
Jeg kan også nævne at ATi "udgiver" kort der hedder RADEON 7000 og RADEON 7200. Disse kort er jeg ret sikker på er de gamle RADEON kort.(RADEON7500 er en forbedring af den oprindlige RADEON core, så jeg regner med at 7xxx er alle kort baseret på den core, denne opfattelse deler jeg med de fleste ATi-fans.)
Men, gisninger om GF3 kort er baseret på uofficiel info. Hvorvidt de er sande eller ej, er udelukkende baseret på min egen fortolkning af rygternes gyldighed.
Jeg er glad for at du spurgte, jeg ville nemlig have skrevet dette i nyheden, men det fyldte ALT for meget.
Jeg kan også nævne at ATi "udgiver" kort der hedder RADEON 7000 og RADEON 7200. Disse kort er jeg ret sikker på er de gamle RADEON kort.(RADEON7500 er en forbedring af den oprindlige RADEON core, så jeg regner med at 7xxx er alle kort baseret på den core, denne opfattelse deler jeg med de fleste ATi-fans.)
<STRONG>Ja ram-værdierne passer</STRONG> helt sikkert. Et almindeligt GeForce3 har følgende konfiguration 200/460 og de er lette at overclocke op til minimum 500+ på ram. Derfor er sikkert let for Nvidia at presse 540 Mhz ud af dem.
Mht. til at Geforce 3 TI 200 er clocket lavere end "almindelige" G3 kort er grunden at finde i at det er et "billigt"-kort ligesom Geforce 2 MX200. Det er sikkert lavet for at konkurrere med Radeon 7500. Men i modsætning til Radeon 7500 får det alle de fede DirectX 8 features som programmérbare vertex og pixel-shadere.
Håber i øvrigt snart at spiludviklerne får fingeren ud. Nu når G3 og Radeon 8500 er på markedet var det så ikke på tide at lave spil der så godt ud? I al for lang tid har PC spilfolk kun gået op i opløsning og antal polygoner per sekund. Men det er jo ikke den afgørende faktor for at 3d-grafik ser godt ud. Til gengæld får udelukkende fokusering på dette alle spil til at se overdrevet urealistiske og statiske ud.
Men det er jo det sædvanlige med nye teknologier og PC gaming (f.eks. hvor mange PC-spil bliver udgivet og designet til DVD?). De er en evighed om at blive udnyttet og det er totalt belastende at vi skal tage til takke med dårlig grafik når vi har teknologien til at lave den flot!
Som IGN så smukt skriver det i en anmeldese af et Playstation 2 spil kaldet Ico:
"Like Metal Gear Solid 2, it is a prime example of the graphical strategy that produces impressive results in this generation. Polygons are the foundation of a good-looking game, but they aren't the entire package by any means. The layers of effects on top of that foundation are what make first-class visuals on PlayStation 2."
Nu kunne de have streget Playstation 2 ud med hvilken som helst anden 3D-accelereret spilplatform men meningen er der. Det er jo også derfor at Gran Turismo 3 ligner rigtige biler i modsætning til....tja....alt andet!
Mht. til at Geforce 3 TI 200 er clocket lavere end "almindelige" G3 kort er grunden at finde i at det er et "billigt"-kort ligesom Geforce 2 MX200. Det er sikkert lavet for at konkurrere med Radeon 7500. Men i modsætning til Radeon 7500 får det alle de fede DirectX 8 features som programmérbare vertex og pixel-shadere.
Håber i øvrigt snart at spiludviklerne får fingeren ud. Nu når G3 og Radeon 8500 er på markedet var det så ikke på tide at lave spil der så godt ud? I al for lang tid har PC spilfolk kun gået op i opløsning og antal polygoner per sekund. Men det er jo ikke den afgørende faktor for at 3d-grafik ser godt ud. Til gengæld får udelukkende fokusering på dette alle spil til at se overdrevet urealistiske og statiske ud.
Men det er jo det sædvanlige med nye teknologier og PC gaming (f.eks. hvor mange PC-spil bliver udgivet og designet til DVD?). De er en evighed om at blive udnyttet og det er totalt belastende at vi skal tage til takke med dårlig grafik når vi har teknologien til at lave den flot!
Som IGN så smukt skriver det i en anmeldese af et Playstation 2 spil kaldet Ico:
"Like Metal Gear Solid 2, it is a prime example of the graphical strategy that produces impressive results in this generation. Polygons are the foundation of a good-looking game, but they aren't the entire package by any means. The layers of effects on top of that foundation are what make first-class visuals on PlayStation 2."
Nu kunne de have streget Playstation 2 ud med hvilken som helst anden 3D-accelereret spilplatform men meningen er der. Det er jo også derfor at Gran Turismo 3 ligner rigtige biler i modsætning til....tja....alt andet!
Ehh Trentors, meget fint gæt på hvad TI200 skal konkurrere med, men nu er det nu engang sådan, at man ikke ligger i konkurrance med kort der ligge i en anden prisklasse.
Folk kigger(eller BURDE) på prisen, og hvis de skal købe et kort til 250$ så har de om en uge 3 kort at vælge imellem.(GF3, GF3 TI200 og R8500). Med mindre R8500 kommer til at skuffe VIRKELIG meget, eller at der er noget ved Titanium vi ikke ved. Så tror jeg ikke det bliver svært at vælge.
Det kan da godt tyde på at Nvidia igen kommer til at sidde på det hurtigste kort. Men med en ordenlig CPU skal man jo alligevel få ca 75FPS i 1600*1200. Og det er sgu de færeste skærme der kan vise den opløsning i højere frevkens. (WOHOO min kan dog 85hz :) )
Det jeg tror bliver mest spændende bliver image quality, her har ATi altid været kongen. Men du siger jo at GF3 har fået ændret på dette.
Folk kigger(eller BURDE) på prisen, og hvis de skal købe et kort til 250$ så har de om en uge 3 kort at vælge imellem.(GF3, GF3 TI200 og R8500). Med mindre R8500 kommer til at skuffe VIRKELIG meget, eller at der er noget ved Titanium vi ikke ved. Så tror jeg ikke det bliver svært at vælge.
Det kan da godt tyde på at Nvidia igen kommer til at sidde på det hurtigste kort. Men med en ordenlig CPU skal man jo alligevel få ca 75FPS i 1600*1200. Og det er sgu de færeste skærme der kan vise den opløsning i højere frevkens. (WOHOO min kan dog 85hz :) )
Det jeg tror bliver mest spændende bliver image quality, her har ATi altid været kongen. Men du siger jo at GF3 har fået ændret på dette.
ang. ram hastighederne på ATI kortene, så passer det til hvad der står de sider du referere til, men du glemmer lige at det er DDR Ram.
det vil sige det skal nok se således ud hvis man skal sammeligne de fire kort:
RADEON 7500 (290/580)
RADEON 8500 (275/550)
GF3 TI 500 (240/540)
GF3 TI 200 (170/400)
....eller er det mig der har misforstået noget ?
det vil sige det skal nok se således ud hvis man skal sammeligne de fire kort:
RADEON 7500 (290/580)
RADEON 8500 (275/550)
GF3 TI 500 (240/540)
GF3 TI 200 (170/400)
....eller er det mig der har misforstået noget ?
Nej DDR betyder ikke at clockraten er dobbelt så høj. Clockraten angiver hvor hurtigt en latch skifter mellem lav og høj spænding(0 og 1).
Forsøg på at illusteret.
Almindlig SDRAM transmitere kun data på den stigende kant(eller KUN den faldende kant). DDR ram transmitere både data på den stigende og den faldende kant, hvilket giver dobbelt båndbredde.
1 ____ ____ ____
0 ____| |____| |_____| |_____
Håber det var til at forstå.
Forsøg på at illusteret.
Almindlig SDRAM transmitere kun data på den stigende kant(eller KUN den faldende kant). DDR ram transmitere både data på den stigende og den faldende kant, hvilket giver dobbelt båndbredde.
1 ____ ____ ____
0 ____| |____| |_____| |_____
Håber det var til at forstå.
Jeg fandt dette på www.rage3d.com :
As always, <A href="http://www.digit-life.com/" target=_new>Digit-Life</A> has a thorough, informative review up for prying eyes, this time of the new Radeon 7500.
Here's a clip:
"With the additional cooling provided, the ATI RADEON 7500 reached 320/270 (540) MHz! Earlier the 4ns memory never overclocked higher than 260 MHz!"
De 540, det bør være den reelle hastighed på ram'en ikke.I følge det du skriver så bør Nvidia's ram angivelse også være forkert. Hvis ikke så er jeg nok ikke den eneste der ikke har fattet det, håber jeg da :) men tak for forklaringen alligevel.
Anyway, så skal jeg ha' sådan et 8500 kort, jeg er træt af manglen på dual-screen funktionen på GF2 GTS/Pro og op efter. Er der nogen der har hørt hvornår den skulle komme til de lokale hardware pushere her i DK?
As always, <A href="http://www.digit-life.com/" target=_new>Digit-Life</A> has a thorough, informative review up for prying eyes, this time of the new Radeon 7500.
Here's a clip:
"With the additional cooling provided, the ATI RADEON 7500 reached 320/270 (540) MHz! Earlier the 4ns memory never overclocked higher than 260 MHz!"
De 540, det bør være den reelle hastighed på ram'en ikke.I følge det du skriver så bør Nvidia's ram angivelse også være forkert. Hvis ikke så er jeg nok ikke den eneste der ikke har fattet det, håber jeg da :) men tak for forklaringen alligevel.
Anyway, så skal jeg ha' sådan et 8500 kort, jeg er træt af manglen på dual-screen funktionen på GF2 GTS/Pro og op efter. Er der nogen der har hørt hvornår den skulle komme til de lokale hardware pushere her i DK?
Well det er et definitionsspørgsmål. I teorien er det forkert at sige at DDR ram køre med dobblet clockrate iforhold til tilsvarende SDR ram. Men man kan vælge at opfatte det sådan, at clockfrekvesen ikke er signalet fra chipsettet, men hyppigheden på data transmission.
Jeg kan tilføje at man oftest angiver hastigheden på DDR ram som det dobbelte af clockraten for at illustrere den hurtigere båndbredde. ATI gør det ikke, jeg kan kun gætte på at det er fordi deres gfxkort bruger et synchront forhold mellem hastigheden på core'en og RAM'en.
Jeg kan tilføje at man oftest angiver hastigheden på DDR ram som det dobbelte af clockraten for at illustrere den hurtigere båndbredde. ATI gør det ikke, jeg kan kun gætte på at det er fordi deres gfxkort bruger et synchront forhold mellem hastigheden på core'en og RAM'en.
ddr ram er ikke andet end et commercielt trip....
sd ram er lettere at clcoke og så kører det lissom hurtigere end ddr.. eks et asus p3b med <A href="mailto:800@1200">800@1200</A> mhz celeron og 2x256 sd133 clocked til 150fsb i cas 2 det er en pæn del hurtigere end et ddr ...
sd ram er lettere at clcoke og så kører det lissom hurtigere end ddr.. eks et asus p3b med <A href="mailto:800@1200">800@1200</A> mhz celeron og 2x256 sd133 clocked til 150fsb i cas 2 det er en pæn del hurtigere end et ddr ...
øh aner ikke hvorfor jeg skrev sisdte inlæg jeg er meget træt ,,, men har netop lige selv læst det og ser at det intet har at gøre her i denne diskusion
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund