mboost-dp1
unknown
Jeg har aldrig forstået den her slags:
"Detaljerne er meget imponerende, her et nærbillede af en farvestrålende fisk."
Hvordan kan vi på vores respektive skærm og 2d-kort se den samme kvallitet/ydelse som de kan? Det er lidt det samme som når man ser en relkame for Sony VEGA, på sit gamle 24'
Jeg ved godt fisken blev Realtime rendered, men stadig...
Men kortet ser sku lovende ud....
PS. Trentors er en Pr0nSTAR!!! <A href="http://151.200.3.8/~vze29k6v/you.html" target=_blank>http://151.200.3.8/~vze29k6v/you.html</A> <STRONG>:</STRONG>)
Dette var ikke en rettelse der kom efter at have læst indlæg #3.... øøøøh.
"Detaljerne er meget imponerende, her et nærbillede af en farvestrålende fisk."
Hvordan kan vi på vores respektive skærm og 2d-kort se den samme kvallitet/ydelse som de kan? Det er lidt det samme som når man ser en relkame for Sony VEGA, på sit gamle 24'
Jeg ved godt fisken blev Realtime rendered, men stadig...
Men kortet ser sku lovende ud....
PS. Trentors er en Pr0nSTAR!!! <A href="http://151.200.3.8/~vze29k6v/you.html" target=_blank>http://151.200.3.8/~vze29k6v/you.html</A> <STRONG>:</STRONG>)
Dette var ikke en rettelse der kom efter at have læst indlæg #3.... øøøøh.
Okay nu skal du tænke dig rigtig, rigtig godt om.
Tror du at de viser et nærbillede for at:
A:Demonstrere kortets 2-D kvalitet ( ved at viser en forstørret version af et 3D-renderet objekt )?
B:Vise at kortet kan håndtere et stort sceneri der spreder sig ud over 3 skærme og stadig er i stand til at generere komplekse 3-D modeller med shadere?
Du har tre gæt og de to første gælder ikke!
Tror du at de viser et nærbillede for at:
A:Demonstrere kortets 2-D kvalitet ( ved at viser en forstørret version af et 3D-renderet objekt )?
B:Vise at kortet kan håndtere et stort sceneri der spreder sig ud over 3 skærme og stadig er i stand til at generere komplekse 3-D modeller med shadere?
Du har tre gæt og de to første gælder ikke!
Ja, du har ret i at det ser lovende ud !
Desværre er det en ret skuffende Core hastighed (200/220) og også en skuffende RAM hastighed (250/275)... der skal smækkes en større køler på... mums...
Desværre er det en ret skuffende Core hastighed (200/220) og også en skuffende RAM hastighed (250/275)... der skal smækkes en større køler på... mums...
Tjaa så er det måske på tide at skifte sit G550DH ud :)
tror også godt lige jeg har råd til det hehe mig ha!
*edit* uha man skal da også lige have sådan en fætter med her http://www.panoramtech.com/products/pv230.html
tror også godt lige jeg har råd til det hehe mig ha!
*edit* uha man skal da også lige have sådan en fætter med her http://www.panoramtech.com/products/pv230.html
Er jeg en idiot?
Det er sgu da ikke mig der tror at de prøver at demonstrere et korts 2D-grafik ved at vise et forstørret billede af et 3D objekt.
Det siger sgu da sig selv at de ikke kan vise et korts 2D-kvalitet på andre enheder en den der er DIREKTE tilsluttet kortet. Hvad din nok ikke er.
Det er sgu da ikke mig der tror at de prøver at demonstrere et korts 2D-grafik ved at vise et forstørret billede af et 3D objekt.
Det siger sgu da sig selv at de ikke kan vise et korts 2D-kvalitet på andre enheder en den der er DIREKTE tilsluttet kortet. Hvad din nok ikke er.
Jeg må siger at jeg er skuffet, deres design bygger endnu mere på "brute force" end nVidias gør. Men matrox formår kun at levere 3d performance lidt under RADEON8500LE kortne, og matrox kortet koster 4 gange hvad LE kortet koster. For de penge kan man få sig et AIW8500DV kort som har 100 gange flere features, og stadig er hurtigere.
De har med sikkerhed bedre billed kvalitet, men hvor meget bemærkes det? Det har vi ikke set tests af endnu. Hvem har 3 skærme til s-gaming ? Og mon ikke ydelsen er temlig dårlig i 3680x1024? Dette er de eneste 2 fordele det har over AIW kortet som har en fremragene billedkvalitet. Så jeg tviler på at forskellen er specielt stor medmindre man køre i 20*15 og hvor mange har en skærm der kan det?
Hvis det er performance man er efter kan du købe et George4TI4600 istedet og stadig spare penge.
Alt i alt ville jeg nok vente og se hvad der sker med R300, den har en 450Mhz RAMDAC og bruger nogle filtre der ligner dem matrox bruger. Jeg tror derfor at billedkvaliteten på R300 kommer meget tæt på parhelias. Og så er R300 jo et DX9 kort, hvor Parhelia kun er et DX8.0 kort ligesom George4TI kortne. Det kommer også til at blæse Parhelia ud af banen når det gælder 3D performance.
Eller hvis man er meget tålmodig kan man vente til jul hvor NV30 og den "die shrunk" udgave af R300 kommer.
De har med sikkerhed bedre billed kvalitet, men hvor meget bemærkes det? Det har vi ikke set tests af endnu. Hvem har 3 skærme til s-gaming ? Og mon ikke ydelsen er temlig dårlig i 3680x1024? Dette er de eneste 2 fordele det har over AIW kortet som har en fremragene billedkvalitet. Så jeg tviler på at forskellen er specielt stor medmindre man køre i 20*15 og hvor mange har en skærm der kan det?
Hvis det er performance man er efter kan du købe et George4TI4600 istedet og stadig spare penge.
Alt i alt ville jeg nok vente og se hvad der sker med R300, den har en 450Mhz RAMDAC og bruger nogle filtre der ligner dem matrox bruger. Jeg tror derfor at billedkvaliteten på R300 kommer meget tæt på parhelias. Og så er R300 jo et DX9 kort, hvor Parhelia kun er et DX8.0 kort ligesom George4TI kortne. Det kommer også til at blæse Parhelia ud af banen når det gælder 3D performance.
Eller hvis man er meget tålmodig kan man vente til jul hvor NV30 og den "die shrunk" udgave af R300 kommer.
Jeg glæder mig som et lille barn til R300 !!! Hvis John Carmarck (stavet forkert?) holder havd han lover, så er det en ond ond chip!
Doom III here I come!!
Doom III here I come!!
jeg sidder lige og overvejer om de har testet spillene med 3 skærme eller hvad - kan jo kun se de har sat 3 skærme til - havde unægteligt været interessant hvis de havde gjort det - eller kørt en dualhead vs dualhead comparison.
Hmnn... 1 stk Perhelia + 3 stk fladskærme... 20.000-25.000 DKK???
(Jeg har i hvert fald ikke plads til 3 17" eller 19" alm. skærme på mit skrivebord... hvis jeg selv og resten af rodet skal være der... :) Men med en lille ombygning til 30.000 og nye strømkabler for at undgå meltdown og lovliggørelse af de resterende el-installationer, så er jeg vidst også kørende... eller har jeg glemt nogle små uforudsete udgifter på en 40.000-50.000 DKK??) ;o(((
(Jeg har i hvert fald ikke plads til 3 17" eller 19" alm. skærme på mit skrivebord... hvis jeg selv og resten af rodet skal være der... :) Men med en lille ombygning til 30.000 og nye strømkabler for at undgå meltdown og lovliggørelse af de resterende el-installationer, så er jeg vidst også kørende... eller har jeg glemt nogle små uforudsete udgifter på en 40.000-50.000 DKK??) ;o(((
Hehe sad lige og læste deres konklusion en gang til.
"Vi har valgt at give Matrox Parhelia 128MB kortet en HARDiNFO recommended award, da det er det mest nyskabende kort vi har set i lange tider. Samtidig er vi sikre på at jo flere detaljer producenterne vælger at komme på deres spil, jo bedre vil Matrox Parhelia kunne se ud."
Dette er muligvis det dårligste review jeg nogenside har læst. Hvor er performance med aniso? Hvor er 3d kvailites sammenligning???
Og hvad fanden mener de at det nyskabene er?
"Vi har valgt at give Matrox Parhelia 128MB kortet en HARDiNFO recommended award, da det er det mest nyskabende kort vi har set i lange tider. Samtidig er vi sikre på at jo flere detaljer producenterne vælger at komme på deres spil, jo bedre vil Matrox Parhelia kunne se ud."
Dette er muligvis det dårligste review jeg nogenside har læst. Hvor er performance med aniso? Hvor er 3d kvailites sammenligning???
Og hvad fanden mener de at det nyskabene er?
Jeg havde forventet meget mere fra Parhelia, alene at de nedsætter clockfrekvensen på en bulk version synes jeg er lamt. Tror kun dette kort vil have noget potientale hvis den blev overclocket en del.
<B>10-bit farvepalette</B>Matrox har medleveret et lille testprogram, der gør det nem at se forskel på 8 bit og 10-bits farvedybde. Desværre kan man ikke se denne forskel her, da billedet er gemt med 8 bit farvedybde og herefter komprimeret.
GG Hard-info..hvorfor ikke gemme billedet med 16 bit så?
GG Hard-info..hvorfor ikke gemme billedet med 16 bit så?
Haha! 10bits farveopløsning! Det kan godt være at jeg har en skod skærm, men jeg kan fanme ikke se forskel på (127,127,127) og (128,128,128). Og specielt ikke hvis der bruges 32bit dithering.
Men det er da teknisk godt, hvis de kunne få deres clock højere op tror jeg gamere vil være mere interreseret i det kort. Men indtil videre ser det ud til at være til gfxfolk.
#22 XorpiZ:
"Matrox har medleveret et lille testprogram, der gør det nem at se forskel på 8 bit og 10-bits farvedybde. Desværre kan man ikke se denne forskel her, da billedet er gemt med 8 bit farvedybde og herefter komprimeret.
GG Hard-info..hvorfor ikke gemme billedet med 16 bit så?"
De 10 bit er per farvekanal; altså giver det en 40-bit farvedybde (10 bit til rød, 10 bit til grøn, 10 bit til blå, 10 bit til alpha). Dine 16 bit er ikke ret meget værd i den sammenhæng. Eventuelt er der tale om 8-bit gråtoner; igen får du ikke noget ud af 16-bit gråtoner, da dit kort ikke kan vise mere end 8-bit.
#20 OndePik:
"Dette er muligvis det dårligste review jeg nogenside har læst. Hvor er performance med aniso?"
Jeg har set dem, der var dårligere - de gør et godt forsøg, men desværre er det ikke i en høj klasse. Men jeg er en smule forvirret, da de siger at 16xFAA virker i Q3A, mens stort set alle previews har fortalt, at det ikke ville være tilfældet ... men de har altså et par benchmarks med anisotropisk filtering og AA - kig lidt nærmere på Serious Sam-testene.
#9 OndePik:
"Alt i alt ville jeg nok vente og se hvad der sker med R300, den har en 450Mhz RAMDAC og bruger nogle filtre der ligner dem matrox bruger."
En 450 MHz RAMDAC afhjælper ikke dårlige filtre. Nej, det plejer ATi nu ikke være kendt for. Jeg ville nu også gerne se nogle 5.-niveau filtre på f.eks. R300, R250, NV30, NV31 osv. Kigger man på de nuværende filtres ydelser (http://www.anandtech.com/video/showdoc.html?i=1620&p=10), så er de stadig noget "ustabile" i forhold til Parhelia - men vi ved jo også, at gode filtre ikke afhjælper en dårlig skærm. DVI hele vejen fandme.
"Og så er R300 jo et DX9 kort, hvor Parhelia kun er et DX8.0 kort ligesom George4TI kortne."
Ahh ... Parhelia har nogle DX9-features - f.eks. deres displacement mapping(?) en DX9-feature. Derudover viser de slides, der har været lækket, at R300 ikke bliver et fuldt DX9-kort, da det kun har "comprehensive DX9 support" (http://www.myhard.com/20020617/1616258.shtml) - om det er ægte slides vides ikke, men de har været nævnt på en hel del af de gode sites.
"Det kommer også til at blæse Parhelia ud af banen når det gælder 3D performance."
Det er der nok ikke nogen tvivl om.
"Matrox har medleveret et lille testprogram, der gør det nem at se forskel på 8 bit og 10-bits farvedybde. Desværre kan man ikke se denne forskel her, da billedet er gemt med 8 bit farvedybde og herefter komprimeret.
GG Hard-info..hvorfor ikke gemme billedet med 16 bit så?"
De 10 bit er per farvekanal; altså giver det en 40-bit farvedybde (10 bit til rød, 10 bit til grøn, 10 bit til blå, 10 bit til alpha). Dine 16 bit er ikke ret meget værd i den sammenhæng. Eventuelt er der tale om 8-bit gråtoner; igen får du ikke noget ud af 16-bit gråtoner, da dit kort ikke kan vise mere end 8-bit.
#20 OndePik:
"Dette er muligvis det dårligste review jeg nogenside har læst. Hvor er performance med aniso?"
Jeg har set dem, der var dårligere - de gør et godt forsøg, men desværre er det ikke i en høj klasse. Men jeg er en smule forvirret, da de siger at 16xFAA virker i Q3A, mens stort set alle previews har fortalt, at det ikke ville være tilfældet ... men de har altså et par benchmarks med anisotropisk filtering og AA - kig lidt nærmere på Serious Sam-testene.
#9 OndePik:
"Alt i alt ville jeg nok vente og se hvad der sker med R300, den har en 450Mhz RAMDAC og bruger nogle filtre der ligner dem matrox bruger."
En 450 MHz RAMDAC afhjælper ikke dårlige filtre. Nej, det plejer ATi nu ikke være kendt for. Jeg ville nu også gerne se nogle 5.-niveau filtre på f.eks. R300, R250, NV30, NV31 osv. Kigger man på de nuværende filtres ydelser (http://www.anandtech.com/video/showdoc.html?i=1620&p=10), så er de stadig noget "ustabile" i forhold til Parhelia - men vi ved jo også, at gode filtre ikke afhjælper en dårlig skærm. DVI hele vejen fandme.
"Og så er R300 jo et DX9 kort, hvor Parhelia kun er et DX8.0 kort ligesom George4TI kortne."
Ahh ... Parhelia har nogle DX9-features - f.eks. deres displacement mapping(?) en DX9-feature. Derudover viser de slides, der har været lækket, at R300 ikke bliver et fuldt DX9-kort, da det kun har "comprehensive DX9 support" (http://www.myhard.com/20020617/1616258.shtml) - om det er ægte slides vides ikke, men de har været nævnt på en hel del af de gode sites.
"Det kommer også til at blæse Parhelia ud af banen når det gælder 3D performance."
Det er der nok ikke nogen tvivl om.
Så kom Toms hardware med en test af Parhelia kortet, eller i hver tilfælde den første del, som nu også er temmelig omfangsrig. http://www.de.tomshardware.com/graphic/02q2/020625...
Linket er til den tyske udgave, den engelske er i skrivende stund ikke kommet.
Linket er til den tyske udgave, den engelske er i skrivende stund ikke kommet.
Hektor:
"En 450 MHz RAMDAC afhjælper ikke dårlige filtre. Nej, det plejer ATi nu ikke være kendt for. Jeg ville nu også gerne se nogle 5.-niveau filtre på f.eks. R300, R250, NV30, NV31 osv. Kigger man på de nuværende filtres ydelser (http:// www.anandtech.com/video/showdoc.html?i=1620&p=10), så er de stadig noget "ustabile" i forhold til Parhelia - men vi ved jo også, at gode filtre ikke afhjælper en dårlig skærm. DVI hele vejen fandme."
Jo og nej, det sørger for at man vil være længre fra ramdacens smærtegrænse, hvilket betyder at man kan sende et bedre signal til filtrene. Men har man lorte filtre gør det ikke den store forskel nej. Har man dog gode filtre kan det godt gøre en forskel. Og... hehe ser du R300 på den sammenligning?? :D
"Ahh ... Parhelia har nogle DX9-features - f.eks. deres displacement mapping(?) en DX9-feature. Derudover viser de slides, der har været lækket, at R300 ikke bliver et fuldt DX9-kort, da det kun har "comprehensive DX9 support""
Ja det har nogle, men det er ikke et DX9 kort medmindre det understøtter alle DX9 features. Og. .. ehh hvilken del af ordet 'comprehensive' forstår du ikke ?;)
"En 450 MHz RAMDAC afhjælper ikke dårlige filtre. Nej, det plejer ATi nu ikke være kendt for. Jeg ville nu også gerne se nogle 5.-niveau filtre på f.eks. R300, R250, NV30, NV31 osv. Kigger man på de nuværende filtres ydelser (http:// www.anandtech.com/video/showdoc.html?i=1620&p=10), så er de stadig noget "ustabile" i forhold til Parhelia - men vi ved jo også, at gode filtre ikke afhjælper en dårlig skærm. DVI hele vejen fandme."
Jo og nej, det sørger for at man vil være længre fra ramdacens smærtegrænse, hvilket betyder at man kan sende et bedre signal til filtrene. Men har man lorte filtre gør det ikke den store forskel nej. Har man dog gode filtre kan det godt gøre en forskel. Og... hehe ser du R300 på den sammenligning?? :D
"Ahh ... Parhelia har nogle DX9-features - f.eks. deres displacement mapping(?) en DX9-feature. Derudover viser de slides, der har været lækket, at R300 ikke bliver et fuldt DX9-kort, da det kun har "comprehensive DX9 support""
Ja det har nogle, men det er ikke et DX9 kort medmindre det understøtter alle DX9 features. Og. .. ehh hvilken del af ordet 'comprehensive' forstår du ikke ?;)
Hektor, det var noget værre vrøvl du lige fyrede af. Man skal virkelig være en flueknepper for at det kan misforstås så groft!
"På den ene side kan man se resultatet i 8 bit farvedybde (24bit) og i den anden i 10-bits opløsning (30bit)." - hardinfo
Desuden så tvivler jeg på at de bruger 40bit farve nogen steder. Da man i hardware bestræber sig på at alt er på 16, 32 eller 64bit aligned(hvad siger man på dansk?) adresser.
"På den ene side kan man se resultatet i 8 bit farvedybde (24bit) og i den anden i 10-bits opløsning (30bit)." - hardinfo
Desuden så tvivler jeg på at de bruger 40bit farve nogen steder. Da man i hardware bestræber sig på at alt er på 16, 32 eller 64bit aligned(hvad siger man på dansk?) adresser.
#28 OndePik:
"Ja det har nogle, men det er ikke et DX9 kort medmindre det understøtter alle DX9 features."
Det er korrekt, at Parhelia ikke er et DX9-kort; men hvis de slides holder stik, så er R300 heller ikke.
" Og. .. ehh hvilken del af ordet 'comprehensive' forstår du ikke ?;)"
Jeg forstår sikkert ordet bedre end dig, men stol ikke på mig - lad os lige se, hvad ordbøgerne mener ordet betyder:
Comprehensive
adjective
* So large in scope or content as to include much: a comprehensive history of the revolution.
* Marked by or showing extensive understanding: comprehensive knowledge.
noun
* Examinations covering the entire field of major study, given in the final undergraduate or graduate year of college. Often used in the plural.
* A preliminary layout showing all the elements planned for an advertisement.
Så nej, hvis R300 har "comprehensive DX9 support", så understøtter det ikke hele DX9's feature-set. Og når man tager dine nedsættende bemærkninger om NV25s manglende PS1.4 som "dårligt", fordi det så ikke var et DX8.1-kort i betragtning, så må du jo også mene, at R300 er et dårligt kort. Eller er det noget andet, når der er tale om et kort fra ATi?
Vogt din tunge, for der hænger en stor mærkat med "dobbeltmoralsk" lige om hjørnet, og den vil meget gerne overfalde dig.
"Ja det har nogle, men det er ikke et DX9 kort medmindre det understøtter alle DX9 features."
Det er korrekt, at Parhelia ikke er et DX9-kort; men hvis de slides holder stik, så er R300 heller ikke.
" Og. .. ehh hvilken del af ordet 'comprehensive' forstår du ikke ?;)"
Jeg forstår sikkert ordet bedre end dig, men stol ikke på mig - lad os lige se, hvad ordbøgerne mener ordet betyder:
Comprehensive
adjective
* So large in scope or content as to include much: a comprehensive history of the revolution.
* Marked by or showing extensive understanding: comprehensive knowledge.
noun
* Examinations covering the entire field of major study, given in the final undergraduate or graduate year of college. Often used in the plural.
* A preliminary layout showing all the elements planned for an advertisement.
Så nej, hvis R300 har "comprehensive DX9 support", så understøtter det ikke hele DX9's feature-set. Og når man tager dine nedsættende bemærkninger om NV25s manglende PS1.4 som "dårligt", fordi det så ikke var et DX8.1-kort i betragtning, så må du jo også mene, at R300 er et dårligt kort. Eller er det noget andet, når der er tale om et kort fra ATi?
Vogt din tunge, for der hænger en stor mærkat med "dobbeltmoralsk" lige om hjørnet, og den vil meget gerne overfalde dig.
#29 Kegle:
"Hektor, det var noget værre vrøvl du lige fyrede af."
Sikkert; kan det overraske?
"Desuden så tvivler jeg på at de bruger 40bit farve nogen steder. Da man i hardware bestræber sig på at alt er på 16, 32 eller 64bit aligned(hvad siger man på dansk?) adresser."
Det vil sige, at Matrox er fulde af løgn, når de siger, at Parhelia har understøttelse for 10 bit per farvekanal? Hvad så med 3DLabs, når de siger, at deres WildCat VP har understøttelse for 10 (eller er det 12?) bit per farvekanal?
"Hektor, det var noget værre vrøvl du lige fyrede af."
Sikkert; kan det overraske?
"Desuden så tvivler jeg på at de bruger 40bit farve nogen steder. Da man i hardware bestræber sig på at alt er på 16, 32 eller 64bit aligned(hvad siger man på dansk?) adresser."
Det vil sige, at Matrox er fulde af løgn, når de siger, at Parhelia har understøttelse for 10 bit per farvekanal? Hvad så med 3DLabs, når de siger, at deres WildCat VP har understøttelse for 10 (eller er det 12?) bit per farvekanal?
Ehh Hektor:
http://dictionary.cambridge.org/define.asp?key=com...
<B>comprehensive</B> (FULL)adjective complete and including everything that is necessary
http://poets.notredame.ac.jp/cgi-bin/wn?cmd=wn&...
Overview of adj comprehensive
The adj <STRONG>comprehensive</STRONG> has 3 senses (first 1 from tagged texts)
1. (8) <STRONG>comprehensive</STRONG> -- (including all or everything; ``<STRONG>comprehensive</STRONG> coverage"; "a <STRONG>comprehensive</STRONG> history of the revolution"; "a <STRONG>comprehensive</STRONG> survey"; "a <STRONG>comprehensive</STRONG> education'' )
http://dictionary.cambridge.org/define.asp?key=com...
<B>comprehensive</B> (FULL)adjective complete and including everything that is necessary
http://poets.notredame.ac.jp/cgi-bin/wn?cmd=wn&...
Overview of adj comprehensive
The adj <STRONG>comprehensive</STRONG> has 3 senses (first 1 from tagged texts)
1. (8) <STRONG>comprehensive</STRONG> -- (including all or everything; ``<STRONG>comprehensive</STRONG> coverage"; "a <STRONG>comprehensive</STRONG> history of the revolution"; "a <STRONG>comprehensive</STRONG> survey"; "a <STRONG>comprehensive</STRONG> education'' )
jeg forstår ikke hvorfor rakker så meget ned på det kort, det har fra starten været beregnet til prof. brug og ikke til gamere der kun kigger på de høje tal 3dmark spytter ud.
jeg er feks. ret tændt på ideen med sorroundgaming, så har jeg da et godt argument for at ikke sælge min ene 21, så jeg har 3 af slagsen...perfekt til sorround gaming, og billedkvalitet er da også en vigtig del af min computer"oplevelse". og hvem skal i øvrigt brúge 1738 fps i nogle spil?
jeg er feks. ret tændt på ideen med sorroundgaming, så har jeg da et godt argument for at ikke sælge min ene 21, så jeg har 3 af slagsen...perfekt til sorround gaming, og billedkvalitet er da også en vigtig del af min computer"oplevelse". og hvem skal i øvrigt brúge 1738 fps i nogle spil?
#34 OndePik:
Hmm ... ordbøgerne er åbenbart ikke helt enige. Kiggede lige i Oxford Advanced Learners Dictionary, og den har en tredje forklaring ("komplet eller næsten komplet").
Merriam Webster/Dictionary.com er enige i den udlægning, jeg skrev første gang (som er taget fra Atomica).
Eftersom de sprogkyndige ikke er enige om ordets betydning, så kan vi to sgu nok debattere om ordets betydning, til vi bliver blå i hovedet. Uanset hvad, så bliver vi næppe enige - de er vi sgu for stædige til, og vi finder jo ud af ATis udlægning af ordet engang til august(?).
Hmm ... ordbøgerne er åbenbart ikke helt enige. Kiggede lige i Oxford Advanced Learners Dictionary, og den har en tredje forklaring ("komplet eller næsten komplet").
Merriam Webster/Dictionary.com er enige i den udlægning, jeg skrev første gang (som er taget fra Atomica).
Eftersom de sprogkyndige ikke er enige om ordets betydning, så kan vi to sgu nok debattere om ordets betydning, til vi bliver blå i hovedet. Uanset hvad, så bliver vi næppe enige - de er vi sgu for stædige til, og vi finder jo ud af ATis udlægning af ordet engang til august(?).
Ja, hvis det er noget ati har skrevet så må det nok betyde at de ikke har komplet understøttelse, da de ellers ville have udtrykt det anderledes.
mon ikke man kan antage at r300 ikke har 100% dx9 understøttelse, ellers ville de nok have brugt et ord hvor der ikke kan herske tvivl.
Hmm ja det er lidt svært at gætte på hvad de mener. Men lad mig komme med nogle gisninger. Jeg mener og håber at det bliver fuldt DX9.
På trods af datoen der står på den PPP er det faktisk materiale der er adskelige måneder gammelt. Der er flere ting i den som ihvertfald ikke er rigtig, det har flere folk som er under NDA afsløret da de gjorde det på en måde der ikke brød den. F.eks er de MPEG features der står helt anderledes end i det færdige produkt. Det kan jo være at de så har brugt det ord fordi DX9 specs ikke var 100% fastlagt på det tidspunkt? Vi ved jo hvad der skete med DX8.
DX9 udvilkes af MS i samarbejde med ATI, det ville undre mig at deres næste generation ikke var DX9.
ATI har selv sagt at de sådan set bare venter på at DX9 bliver udgivet da deres produkt faktisk er færdigt. En udtalelse der antyder fuld DX9 understøttelse.
R300 ER ATi's næste generations chip og hvis den ikke undestøtter DX9 fuldt så går der et helt år før der kommer en ATI chip der understøtter DX9. Et skridt tilbage nu hvor de faktisk har overhalet nVidia ville være dumt, og jeg tror ikke ATI ville gøre det.
ATI udgiver en RV250 chip kort før R300. Efter hvad jeg har hørt om den virker det underligt at udgive den hvis ikke R300 var DX9.
ATI's sidste kort var DX8.1 Nvidias sidste var DX8.0, nVidias næste NV30 er 100% sikkert DX9. Jeg tvivler derfor på at ATI imod sidste års trend tager et meget mindre skridt fremaf end Nvidia gør.
Folk der er under NDA har hintet nok til at man kan være temlig sikker på af en meget stor del af det der kræves af en DX9 chip rent faktisk opfyldes af R300. Antalet af pipes, farve beregning, PS, VS osv.
På trods af datoen der står på den PPP er det faktisk materiale der er adskelige måneder gammelt. Der er flere ting i den som ihvertfald ikke er rigtig, det har flere folk som er under NDA afsløret da de gjorde det på en måde der ikke brød den. F.eks er de MPEG features der står helt anderledes end i det færdige produkt. Det kan jo være at de så har brugt det ord fordi DX9 specs ikke var 100% fastlagt på det tidspunkt? Vi ved jo hvad der skete med DX8.
DX9 udvilkes af MS i samarbejde med ATI, det ville undre mig at deres næste generation ikke var DX9.
ATI har selv sagt at de sådan set bare venter på at DX9 bliver udgivet da deres produkt faktisk er færdigt. En udtalelse der antyder fuld DX9 understøttelse.
R300 ER ATi's næste generations chip og hvis den ikke undestøtter DX9 fuldt så går der et helt år før der kommer en ATI chip der understøtter DX9. Et skridt tilbage nu hvor de faktisk har overhalet nVidia ville være dumt, og jeg tror ikke ATI ville gøre det.
ATI udgiver en RV250 chip kort før R300. Efter hvad jeg har hørt om den virker det underligt at udgive den hvis ikke R300 var DX9.
ATI's sidste kort var DX8.1 Nvidias sidste var DX8.0, nVidias næste NV30 er 100% sikkert DX9. Jeg tvivler derfor på at ATI imod sidste års trend tager et meget mindre skridt fremaf end Nvidia gør.
Folk der er under NDA har hintet nok til at man kan være temlig sikker på af en meget stor del af det der kræves af en DX9 chip rent faktisk opfyldes af R300. Antalet af pipes, farve beregning, PS, VS osv.
Jeg tror grunden til Ondepik's, og en del andre, utilfredshed med nv25s manglende 8.1 support ligger i udgivelsestidspunktet og dets underlige lighed med gf3.
Productcycle 6 months.. ?? hvis de kun kan øge clock på et ½ år og intet andet (OK OK trentors en lille bitte smule mere) så er der da et eller andet galt med dem :) i mine øjne anyway ihvertfald markedsførings mæssigt. Heldgivis for dem handler gfx markedet dog kun om 3dmarks og quack3 og som vi ved er deres gf4ti4600 laser calculator ret god til disse benchmarks.
men hvis ATI ca. 1 år efter dx9 release kommer med et kort som er magen til r300 med en lidt hurtigere clock uden andre nævneværdige forbedringer, som ikke understøtter brugbare funktioner i dx9 der bremser markedet og spiludviklere på bekostning af en forskruet markedsføring. Så vil jeg godt hjælpe med at sætte mærkatet "Dobbeltmoralsk" på ham :D
Productcycle 6 months.. ?? hvis de kun kan øge clock på et ½ år og intet andet (OK OK trentors en lille bitte smule mere) så er der da et eller andet galt med dem :) i mine øjne anyway ihvertfald markedsførings mæssigt. Heldgivis for dem handler gfx markedet dog kun om 3dmarks og quack3 og som vi ved er deres gf4ti4600 laser calculator ret god til disse benchmarks.
men hvis ATI ca. 1 år efter dx9 release kommer med et kort som er magen til r300 med en lidt hurtigere clock uden andre nævneværdige forbedringer, som ikke understøtter brugbare funktioner i dx9 der bremser markedet og spiludviklere på bekostning af en forskruet markedsføring. Så vil jeg godt hjælpe med at sætte mærkatet "Dobbeltmoralsk" på ham :D
Hehe. Nej det jeg synes er mest latterligt er nVidias forsøg på at få folk til at tro at GF3/4 er et DX8.1 kort selvom det ikke er. Og da det ikke gik, fortsatte de med at lyve om hvad PS1.4 virkelig kunne. :rolleyes: De bliver ved med at udsende bullshit PR. Det har de gjort siden Kyro2 udkom.
http://www.ondepik.com/986376979.jpeg
Det er ikke fake, men et officielt dokument til OEMer der skal vælge grafikkort.
http://www.ondepik.com/986376979.jpeg
Det er ikke fake, men et officielt dokument til OEMer der skal vælge grafikkort.
#43 OndePik:
Nu ved jeg ikke, hvor du har gemt dig, men alle, jeg gentager lige - alle, firmaer gør deres bedste for at sælge deres produkter - inklusive at udsende ukorrekt information om konkurrenternes produkter; det kaldes i daglig tale "konkurrence". Er det amoralsk? Helt sikkert! Gør alle det? Ja!
Nu ved jeg ikke, hvor du har gemt dig, men alle, jeg gentager lige - alle, firmaer gør deres bedste for at sælge deres produkter - inklusive at udsende ukorrekt information om konkurrenternes produkter; det kaldes i daglig tale "konkurrence". Er det amoralsk? Helt sikkert! Gør alle det? Ja!
Jammen hvis det er så normalt, så må du jo kunne finde eksempler på det fra ATI om nV. Eller AMD om Intel, Intel om AMD måske?
ATI har aldrig udsendt en presse medelelse som var lodret løgn. De har heller aldrig udtalt en løgn om et nVidia produkt. Bort set fra the obligatoriske "we are the best" crap som alle firmaer har i deres profil, har ATI ikke prøvet at fremstille tingne på en måde der har med hensigt at vildlede folk til at tro noget forkert.
ATI har aldrig udsendt en presse medelelse som var lodret løgn. De har heller aldrig udtalt en løgn om et nVidia produkt. Bort set fra the obligatoriske "we are the best" crap som alle firmaer har i deres profil, har ATI ikke prøvet at fremstille tingne på en måde der har med hensigt at vildlede folk til at tro noget forkert.
Nu synes jeg ikke det gør særlig meget at den ikke er dx 9, vi har da knap nok spil der udnytter dx8 muligheder. Nu uden at vide det 100% mener jeg matrox's kort kun mangler PS1.4 for at være et dx9 kort (har PS1.3). Spil anvender da knap nok V1.0.
Rigtig ?
Rigtig ?
Jeg tror nu ikke de er helt engle:
http://www.tech-report.com/etc/2001q4/radeon-q3/in...
var det virkelig kun en driver fejl ?
http://www.tech-report.com/etc/2001q4/radeon-q3/in...
var det virkelig kun en driver fejl ?
#45 OndePik:
Nej, det kan jeg ikke; jeg har ingen håndfaste beviser på det, af den simple årsag at jeg ikke er OEM-indkøber. Så vidt jeg lige husker fra tiden omkring de infamøse salgs-slides, kom det frem på ExtremeTech(?), at det var normal rutine fra alle de hardware-producenterne, og at den slags slides normalt var underlagt NDA. Kigger lige efter :-)
Btw - hvor tit har Intel ikke langet ud efter AMDs PR-rating? Som regel med den begrundelse, at en Athlon 1800+ ikke kunne hamle op med en 1800 MHz P4, tiltrods for at AMDs ratings kun sammenligner med tilsvarende K7/Thunderbird ...
For slet ikke at komme ind på MS vs Linux ... pyha - der har MS godt nok betalt enorme summer til diverse konsultationsfirmaer for at få en pæn rapport med en forudsigelig konklusion "MS styrer, Linux suger" - det har ikke slået fejl endnu.
Nej, det kan jeg ikke; jeg har ingen håndfaste beviser på det, af den simple årsag at jeg ikke er OEM-indkøber. Så vidt jeg lige husker fra tiden omkring de infamøse salgs-slides, kom det frem på ExtremeTech(?), at det var normal rutine fra alle de hardware-producenterne, og at den slags slides normalt var underlagt NDA. Kigger lige efter :-)
Btw - hvor tit har Intel ikke langet ud efter AMDs PR-rating? Som regel med den begrundelse, at en Athlon 1800+ ikke kunne hamle op med en 1800 MHz P4, tiltrods for at AMDs ratings kun sammenligner med tilsvarende K7/Thunderbird ...
For slet ikke at komme ind på MS vs Linux ... pyha - der har MS godt nok betalt enorme summer til diverse konsultationsfirmaer for at få en pæn rapport med en forudsigelig konklusion "MS styrer, Linux suger" - det har ikke slået fejl endnu.
Quake/Quack tingen igen.
Ja, der var et "issue" der gave dårligere performance hvis man omdøbte den til quack3 samtidig med bedre kvalitet.
Men forklaringen var ganske god. ALLE 3d producenter laver optimeringer i deres drivere til populære spil. Der var en fejl i den første driver der gjrode at LOD blev aflæst forkert i spillet på nogle textures. Det var nemlig kun få textures der gjorde det.
De drivere der udkom med uden dette problem kørte faktisk lidt hurtigere end dem der havde problemet. Så det var jo ikke fordi at de prøvede at få bedre performance.... de fik faktisk dårligere.
Desuden kan man så snakke om nVidias 3dmark bug. En bug hvor perfomance efter fixet er LAVERE end før fixet. Det som folk mener at driveren gør, er at prerendere det der kan renderes og lægge det i Zbufferen så den ikke skal lave det ved runtime.
Ja, der var et "issue" der gave dårligere performance hvis man omdøbte den til quack3 samtidig med bedre kvalitet.
Men forklaringen var ganske god. ALLE 3d producenter laver optimeringer i deres drivere til populære spil. Der var en fejl i den første driver der gjrode at LOD blev aflæst forkert i spillet på nogle textures. Det var nemlig kun få textures der gjorde det.
De drivere der udkom med uden dette problem kørte faktisk lidt hurtigere end dem der havde problemet. Så det var jo ikke fordi at de prøvede at få bedre performance.... de fik faktisk dårligere.
Desuden kan man så snakke om nVidias 3dmark bug. En bug hvor perfomance efter fixet er LAVERE end før fixet. Det som folk mener at driveren gør, er at prerendere det der kan renderes og lægge det i Zbufferen så den ikke skal lave det ved runtime.
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

- Forside
- ⟨
- Forum
- ⟨
- Nyheder
Gå til bund