mboost-dp1

unknown

ATI først med 128-bit farver

- Via The Inquirer -

ATI vil ifølge The Inquirer være de første der kommer med et grafikkort der undestøtter 128-bit farver. Dette styrker yderligere troen på at ATIs næste grafikkort udspil (Radeon 10000) bliver DirectX 9 kompatibelt, da 128 bit farve skulle være en del af DX9 specifikationerne.





Gå til bund
Gravatar #1 - sKIDROw
26. jun. 2002 09:26
Hvad vil de med det?
Det meneskelige øje kan efter det jeg han læst, ikke engang skelne mellem de farver vi er oppe på idag...
Sikke et pr. stunt...
Gravatar #2 - pdad
26. jun. 2002 09:35
#1:
jo du kan godt se forskel, der er jo "kun" 256 variationer over den samme grundfarve i 32 bit RGB.

kræver bare en god skærm :o)
Gravatar #3 - Sputler
26. jun. 2002 09:41
Trist hvis man er farveblind = ikke fuldt udbytte!

Mon de giver afslag i prisen, hvis du kun kan se 84% af de mulige farver?? :)
Gravatar #4 - Onde Pik
26. jun. 2002 09:43
Hehe jaaa hvis nu min nyhed ikke var blevet rettet så ville jeg ikke behøve svare i forummet.


Det betyder ikke at der vises 128bit farver på skærmen, Menesket kan kun se mellem 1 og 5 millioner farver alt efter hvor trænet dit øje er.

Teknikken betyder bare at man kan foretage beregningerne med 32 bit per farvekanal hvilket gør at den interne udregninge bliver mere nøjagtig. Den endelige farve bliver beregnet til 128 bit og så konverteret til 32bit.

Med den gamle teknik kan der i extreme situationer opstå banding. Det vil ikke længre ske, og generelt vil farverne blive flottere.
Gravatar #5 - Ordneren
26. jun. 2002 09:50
#1:

Prøv at tegne et par hundrede 99% gennemsigtige lag oven i hindanden på et standardgrafikkort idag.. ;(
Gravatar #6 - Ordneren
26. jun. 2002 09:54
Forresten så opfatter vi så vidt jeg ved ikke farver 'linært' og derfor skulle det da også kunne ses at f.eks. matrox' nye kort har 10 bit per farvekanal.
Gravatar #7 - FISKERQ
26. jun. 2002 10:00
Det er godt nok R300 og ikke R10000, men det er kaldt Radeon 1000.
Gravatar #8 - knasknaz
26. jun. 2002 10:16
Det må afgjort være pga. af den interne præcision at de mange bits kan bruges til noget. Jeg vil ihvertifald ikke blære mig med at kunne se grimme farveovergange i alm. 24-bit farve.

Men den artikel forklarer ikke fænomenet særligt godt, og der er sågar fejl i: "... and you will be able to have 32-bits per colour. This is amazing since it enables you to have 16.7 milion combnations per colour" Forkert. 32 bits giver ca. 2^32 = 4.3 milliarder trin fra sort til fuld farveintensitet.
Gravatar #9 - FISKERQ
26. jun. 2002 10:24
Fandt også dette screenshot af Radeon 9500, nu når vi snakker Radeon:
http://www.tweaknet.dk/screenshots/screenshots_scr...
Gravatar #10 - Erroneus
26. jun. 2002 10:37
Hmm jeg er ret sikker på at r300 ikke kommer til at hedde Radeon 10000 men radeon 9500, da det er dx9 kompatibelt, dette kom ud for et par md siden, at sådan vil navnet være, men ok alting kan da ændre sig.
Gravatar #11 - Onde Pik
26. jun. 2002 10:38
Jeg postede det i en anden tråd tidligere. Og det billede er BOGUS!!! Der er intet hold i det.
Gravatar #12 - annoia
26. jun. 2002 10:42
Er det kun mig der er irriteret over den måde de regner på?

2^8 = 8bit
2^8 * 4 = 2^8 * 2^2 = 2^10 ~ 32bit
2^8 * 4 * 4 = 2^8 * 2^2 * 2^2 = 2^12 ~ 128 bit

Eller er jeg helt galt på den?
Gravatar #13 - sim
26. jun. 2002 10:47
Fuldstændigt annoia :D

2^8 = 8bit
(2^8)(2^8)(2^8)(2^8) = 2^32 = 32bit
(2^32)(2^32)(2^32)(2^32) = 2^128 = 128bit

Tror godt kan se hvad der er galt nu ik' :)
Gravatar #14 - FISKERQ
26. jun. 2002 10:53
Ja nogle fra Madonion, snakkede om at det var falsk da det ikke passede til 3dmarks kalkuleringsmetode.
Gravatar #15 - kiwi
26. jun. 2002 11:08
Angående det farvespektrum som øjet kan opfatte, og om det overhovedet er muligt at se forskellen på 64 og 128Bit.

Man kan måske sammenligne det med at menneskets øje opfanger 24 billeder i sekunder (afaik), men man kan jo _sagtens_ se forskel på et spil der kører 25, 50 og 100 billeder i sekundet.

Det kræver som nævnt måske bare en god skærm at se forskellen.

En uvidendes tankegang.. no flaming please :)
Gravatar #16 - Dreadnought
26. jun. 2002 12:45
Kiwi:
Ganske rigtigt. Grunden til at det meneskelig øje kan se forskel mellem 25/50/100 bps er at alle billederne der vises er knivskarpe. Hvis man bruger en god motionblur, så kan man ikke se forskel på 25/50/100 bps.
Gravatar #17 - nihil
26. jun. 2002 13:10
#15> ikke helt korrekt, man kan se mellem 25 og 60 billeder i sekundet alt efter hvor meget lys der er til stede (på billedet bla.)


Nvidia snakkede også noget om at de vilel gå til 64bit farver på et tidspunkt, men ventede lidt da det ville halvere deres ydelse.
Gravatar #18 - Uranium Deer
26. jun. 2002 13:56
#2 Man siger jo også at mennesket ikke kan se mere end MAX 45hz, men hvis min skærm er sat til at opdatere med 50 i stedet for 80, så får jeg eddersparkemig hovedpine og jeg kan se at skærmen flimrer.

BTW man kan nemt se forskel på 16 og 32 bit.
Gravatar #19 - kiwi
26. jun. 2002 14:12
60Hz = Epilepsi og hovedpine!
Gravatar #20 - funkymonkey
26. jun. 2002 15:58
19#

nå du er en af de uheldige hva, vi føler med dig.
Gravatar #21 - Onde Pik
26. jun. 2002 16:05
Det er en åndsvag diskussion fordi at dit øje ikke ser i FPS. Man siger somregl at man kan se forskel op til 60FPS, og skelne forskel til ca 90.

Men der er ikke noget endegyldigt svar. Problemet med at sige at 60FPS er nok er at gennemsnit ikke altid giver et ordenligt billede.

Hvis nu jeg står og glor på en væg i 5 minutter får jeg måske 110FPS i de fem mutter, glor jeg derefter på noget der bevæger sig i fem minutter hvr jeg får 10FPS er gennemsnittet 60. Men det ser sgu ikke fedt ud i de sidste 10 minutter.

Ved 60FPS gennemsnit kommer du ofte ned i nærheden eller under 40 alt efter hviken type spil du spiller. Derfor er det ikke altid nok at have 60FPS.
Gravatar #22 - L.H.
26. jun. 2002 16:13
du taler i koder
Gravatar #23 - Locutus
26. jun. 2002 16:52
annoia:

Dit regnestykke er godt nok, men jeg forstår ikke helt hvordan du kommer til dine resultater. 2^8 = 8 bit, 2^10 = 10 bit, 2^12 = 12 bit, osv...
Gravatar #24 - annoia
26. jun. 2002 16:59
Locutus - Dum fejl fra min side... Jeg så den først da sim postede sin. (man skal gange dem sammen, ikke lægge dem sammen) 4 farver, 256 forskellige intensiteter per stk giver (256)^4 = 4.2*10^9 farvekombinationer, eller 32 bit... Jeg tænkte mig ikke lige om der.
Gravatar #25 - Peter Perlsø
26. jun. 2002 19:34
Latterligt pr stunt!
Gravatar #26 - echo^fdg
26. jun. 2002 20:02
Det er ikke et PR-stunt - tværtimod. Det er en feature, som mange af os har presset på for at få længe. I og med at moderne spil laver flere og flere passes (alles yndling, Doom 3, laver f.eks. mindst 1 pass per lyskilde) og summerer i framebufferen, har man brug for ekstra præcision der. Det er ikke så meget et spørgsmål om, om det menneskelige øje kan skelne mellem mere end 8 bits præcision per komponent, som det er et spørgsmål om, at man har brug for de ekstra bits mens man er ved at generere det endelige billede.
Gravatar #27 - knasknaz
27. jun. 2002 07:22
Det der med hvor mange FPS øjet ser, er noget meget fiktivt noget. Synet kører ikke i X antal frames per sekund. Det er en jævn kemisk process, og hvor mange fps der skal til, før man ikke bliver generet, afhænger af flere faktorer: Hvor meget lys der er på skærmen (undgå alt for lyse baggrunde som fx. hvid på store flader), mændgen af hurtig bevægelse spiller sikkert også en hvis rolle, og skærmens efterglød er meget vigtig. Længere = mere ergonomisk, men dårligt til spil og film. Der er altså ikke nogen fast grænse for hvor mange fps der skal til, sådan generelt.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login