mboost-dp1
Er det muligt at omdirrigere et program til regne via GPU?
- Forside
- ⟨
- Forum
- ⟨
- Support
Hey, Jeg bruger jævnligt mathcad, men når det er større beregninger tager det ret lang tid og alle systemresourcer bruges til max!
Er der en mulighed for at bruge sin GPU til at tage sig af bereginger af den slags, da jeg har hørt at en GPU er bedre til at tage sig af sådanne beregninger!
Er der en mulighed for at bruge sin GPU til at tage sig af bereginger af den slags, da jeg har hørt at en GPU er bedre til at tage sig af sådanne beregninger!
Den gang jeg lavede forsøg med den slags, fantes der ingen api'er e.l. der var ment til det. Metoden var derfor at lave en custom vertex shader (det er din beregnings-funktion) og så lave dit dataset om til en bitmap. (Og du får også resultatet tilbage i en bitmap.) Derudover skal selve beregningen også laves om til float-beregninger, mener jeg. (Hvilket kan give afrundingsfejl mm.) Derudover skal det også være et dataset, hvor alle entries kan beregnes uafhængigt.
Med mindre der er kommet noget nyt siden da, så er det derfor ikke nogen triviel opgave at konvertere dine beregninger til GPU-beregninger.
Man er dog vistnok begyndt på at lave GPU'er, der kan forstå et større antal instruktioner og dermed kunne hjælpe i denne henseende. Men det er nok stadigvæk næppe trivielt at benytte disse.
Med mindre der er kommet noget nyt siden da, så er det derfor ikke nogen triviel opgave at konvertere dine beregninger til GPU-beregninger.
Man er dog vistnok begyndt på at lave GPU'er, der kan forstå et større antal instruktioner og dermed kunne hjælpe i denne henseende. Men det er nok stadigvæk næppe trivielt at benytte disse.
Forøvrigt så tager det også relativt lang tid at uploade og downloade det pågældende dataset (bitmap) til GPU'en. Så det skal helst være nogle lidt større beregninger og rigtigt mange af dem, af gangen. (Problemet ligger i samarbejdet mellem CPU og GPU. Hvis du kan nøjes med at få dit resultat visuelt, så er den bare fjong)
Det vil sandsynligvis være en bedre løsning btw, at købe en CELL-computer (PS3) og så skrive et program til den, da disse spiser et mere normalt instruktionsæt. (Så skal du kun tænke i tråde og ikke også i ikke-ment-til-den-slags-GPU-instruktioner.)
Men dit oprindelige spørgsmål gik på, om du kan få mathcad til at bruge GPU'en. (Usandsynligt, men ikke umuligt. Dog skal mathcad være bygget til formålet, hvilket jeg ikke ved om det er.)
Men dit oprindelige spørgsmål gik på, om du kan få mathcad til at bruge GPU'en. (Usandsynligt, men ikke umuligt. Dog skal mathcad være bygget til formålet, hvilket jeg ikke ved om det er.)
wow, tak for indledningen, det var meget oplysende, men tror lige det rækker lidt ud over mine Elektronikingeniørstuderende erfaringer, så må vist bare tage til takke med det jeg har! :)
havde dog forestillet mig at man på en eller anden måde kunne benytte OpenGL eller DirectX til at få GPU'en til at beregne for mig! :)
havde dog forestillet mig at man på en eller anden måde kunne benytte OpenGL eller DirectX til at få GPU'en til at beregne for mig! :)
#6 Nu slynger jeg bare nogle ting ud fra leveren: OpenCL (Open Compute Language) og/eller CUDA er "teknikker" der kan bruges til at loade beregninger af til GPUen.
Og nej. Der kræves ikke noget med at konvertere til bitmaps og lave custom shaders etc.
Men er du overhovedet interesseret i at kode beregningerne selv?
Du skal regne med bare det at skrive møget i C er 1000 gange hurtigere end matcads afvikling. (overdrivelse fremmer blabla)
Og nej. Der kræves ikke noget med at konvertere til bitmaps og lave custom shaders etc.
Men er du overhovedet interesseret i at kode beregningerne selv?
Du skal regne med bare det at skrive møget i C er 1000 gange hurtigere end matcads afvikling. (overdrivelse fremmer blabla)
Opret dig som bruger i dag
Det er gratis, og du binder dig ikke til noget.
Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.