PDA

Vollständige Version anzeigen : Geforce 6800 Ultra Test


PlayFair
14-04-2004, 16:06
Auf in die nächste Runde.

Der erste Test für die Geforce 6800 Ultra. Es sind auch Benchmark Ergebnisse dabei.

http://www.hardwareanalysis.com/content/reviews/article/1708.2/

Scorp16fr
14-04-2004, 17:24
Wow die benchmark ergebnisse sind Hoch in manchen sogar 40% schneller als eine 9800xt. Der neue NV40 chip ist cool, aber wann kommt die raus und wieviel wird sie kosten.

Apokus
14-04-2004, 18:01
Warten wir mal auf die antwort von ATI man kann gespannt sein und bald gibts günstige Radeon 9800 XTs und 5900 Ultras hab ich so das gefühl :D

Doc
14-04-2004, 18:15
Preis für die 6800 Ultra etwa 550 Euro - die spinnen!

Und abgesehen davon wird in ein paar Tagen die neue von ATi vorgestellt ... ich liebe Konkurrenz :)

xTrophy
14-04-2004, 18:32
Preis für die 6800 Ultra etwa 550 Euro - die spinnen!

Und abgesehen davon wird in ein paar Tagen die neue von ATi vorgestellt ... ich liebe Konkurrenz :)


Der Preis ist glaub ich recht normal für ne "neue" High-End-Karte.


Und Konkurrenz hab ich auch gerne, nur schade das Volari-Karten so mies sind :( Ein Dritter im Bunde tät der Wirtschaft und Entwicklung sicher gut. Naja, vielleicht werdens bei der nächsten Generation besser ;)


edit: was ich geil finde ist das

Please register or login. There are 21 registered and 5212 anonymous users currently online. Current bandwidth usage: 3462.07 kbit/s

Ne Menge Besucher haben die :D

333 Revesis
14-04-2004, 18:36
omg, das ist der hammer :omg:

Mal sehen was wieder die Low-Cost Klasse bietet ;)

xTrophy
14-04-2004, 18:40
hm... ich glaube die erste Low-Cost Serie wird die "alte und gute" GFX Serie werden ;) (so 5950 Ultra oder so...kein Plan von Gefrosch :D)

Master M²
14-04-2004, 19:06
ist wirklich hammer was Nvidia geleistet hat,. aber ATI wird sich die butter nicht vom brot nehmen lassen :gf:

Bernd_XP
14-04-2004, 20:01
jaja 60-120% verbesserung...die Karte rult!! http://smilies.cncforen.de/smilies/A.GA.Hail.gif

ATi...naja...mal sehen was die so schaffen.

EviLSnipeR
14-04-2004, 20:47
Krasse Sache... da wird wohl für einige Zeit die Krone wieder an Nvidia gehen - oder auch nicht. Selbst wenn es nur der 3D Murks ist, aber das doppelte an Punktzahl zu erreichen von der FX 5950 Ultra heißt schon was.

saemikneu
14-04-2004, 22:14
hehe. Interessant finde ich die beiden Stromanschlüsse (neue Karten hatten bis jetzt nur eine, wenn überhaupt)
und den Lühler neben der Karte (Pic (http://www.hardwareanalysis.com/content/image/11097/) )

Chriss
14-04-2004, 22:31
Naja, ein stück weit warte ich noch auf die neue Radeon... Ansonsten fand ich den Tech-Artikel recht interessant...

Was ich nur unendlich schade finde ist das kein Displacement-mapping kommt - Das ist verdammt noch mal auch DX9 - und meine Parhelia kann das schon ewig - und Earth and Beyond nutzt das auch auf der :shy:
Außerdem kann man damit SEHR viele Lustige dinge tun...

Ansonsten weis ich noch nicht... Das Problem ist irgendwie wieder mal das die hardware jahre vor der Software da ist, und die Hardware garnicht die Leistung hat, um ihre ganzen Effekte überhaupt zu nutzen... (was auch ein kleiner seuftzer in richtung meiner Parhelia ist - Renegade mit 16x Fragment Antialiasing sieht einfach nur hammer aus - aber es kostet einen tick zuviel Leistung, was dann in extremen situationen (tankschlacht, viele flamers) einfach zu weniger als 20 frames führt... außerdem wird das zu wenig ünterstützt. Meist in älteren Games :D)

Was ich auch "leicht" übertrieben find sind 222 Millionen Transistoren und ZWEI (!!!) externe Stromversorgungen - HALLO??? Also irgendwie, ich weis ja nicht... nix gegen viele Transistoren, aber bei DEN Leistungs und Hitzedimensionen erinnert's mich schauernd an den Prescott ;)
Ich hoffe BTX kriegt nen Zusatz der irgend einen FETTEN Stromadapter für Highend-Grakas vorsieht... wäre wirklich mal nötig...

Apokus
14-04-2004, 22:36
Wie war das ? ATI karte hat nun auch 16 pipelines , wird mit annäherndem Takt der geforce laufen ... also die "high end" karte die irgendwan kommen soll hatte von den gerüchten nette ^^

xTrophy
14-04-2004, 22:38
hehe. Interessant finde ich die beiden Stromanschlüsse (neue Karten hatten bis jetzt nur eine, wenn überhaupt)
und den Lühler neben der Karte (Pic (http://www.hardwareanalysis.com/content/image/11097/) )


2 Stromanschlüsse hat die Volari Ultra auch ;)


aber ich find interne Stromlösungen besser als das gute alte VodooVolts ;) *g*

Chriss
14-04-2004, 23:03
Die Volari hat allerdings auch zwei Chips - find ich also vertretbar.
Was ich nicht verstehe ist warum das zwei anschlüsse sind - die allerdings von einer Leitung versorgt werden können... wozu das? Sind die Kontakte nicht in der lage die entsprechende Stromdichte zu liefern oder was? halt ich für unwahrscheinlich, weil zwei ampere bei der 12v schiene mindestens drinne sein sollten, was alleine aus dem kabel 24watt Leistung macht, plus dem was der agp-Port liefert. Wenn das für ne Graka nicht ausreicht, na dann ist vielleicht wirklich sowas wie VodooVolts nötig :D

xTrophy
14-04-2004, 23:13
Wahrscheinlich nur für redundante Stromversorgung :ka:

Chriss
14-04-2004, 23:33
Redundante versorgung, am besten über zwei netzteile die an ner eigenen Sicherung hängen? :rofl:
Für nen Hochverfügbarkeitsserver - ok. Für nen Gamer-PC im Enthusiast-Bereich, mit ner Graka die womöglich noch mit ner Vapochill bis aufs geht nicht mehr übertaktet wird? :twink: Nunja :D

Btw - kann mir einer folgenden satz erklären "Leider unterstützt das Spiel aufgrund der Verwendung von Fullscreen-Effekten kein Anti-Aliasing, so daß wir hier nur Benchmarks unter 4x bzw. 16x/8x anisotropen Filter anbieten können." ? Wie soll das Technisch gehen? Ich mein - Aniso ist sache der Graka, was tut da die Engine?

Und gibt's vielleicht ne Demo von nem Spiel bei dem das so ist? Ich würd das gerne mal mit dem Fragment-Antialiasing von meiner Parhelia testen...

Doc
15-04-2004, 11:50
Das Ding verbrät ja 100 W ... das ist krank! Ich meine, langsam sollte man sich da schon was überlegen. Das muß ja auch gekühlt werden -> Lärmquelle.

Naja ... vielleicht eine ingenieurtechnische Meisterleistung, aber als Endanwender würde ich mir sowas nicht kaufen. Zu teuer, zu heiß, zu viel Strom, zu viel alles.
So viel Leistung wird man in 2 Jahren nicht brauchen. Ich komm noch immer mit meiner Uralt Radeon 8500 aus. Naja, könnte auch daran liegen, daß ich nicht mehr so viel spiele - und wenn doch, einfach die Details runterschalte ;)

Ich hoff mal, die ATi-Karte bleibt in vernünftigerem Rahmen. Auch wenn die Leistung nicht ganz so hoch ausfallen sollte. In ein paar Tagen wissen wir mehr.

PlayFair
15-04-2004, 11:59
Ich glaube der Vorgänger hat ähnlich viel Leistung aufgenommen Allerdings scheint die neue mit 7 bis 8 Sone eine Menge Krach zu machen.

Mal abwarten was ATI so nachschießt.

clonestor
15-04-2004, 12:06
wenn die karte für pci-express ist, dann bräuchte sie nur eine zusätzliche stromversorgung. über pci-x bekommt sie nämlich 75 W.

aber wegen den preis hab mal was gelesen von 300$. das wär aber fies wenn die bei uns dann 550€ kostet.

http://smilies.cncforen.de/generator/generator.php?d=1946159349_761296&s=Will%20jemand%20meine%20FX5900%20Ultra%20für%20350%20EUR%20kaufen?

333 Revesis
15-04-2004, 12:42
7-8 sone ? :omg:

Dann kann ich mir auch nen Staubsauger kaufen... :rolleyes:

Bernd_XP
15-04-2004, 12:48
Naja...100W ist die Spitzenleistung, und im Leerlauf wird die kaum auf maximum laufen. Also keine Dauerbelastung alla Prescott.Die normale 6800 soll 300$ kosten, die ultra deutlich mehr. Aber wie's letztenendlich aussieht kann man noch nicht sagen.

333 Revesis
15-04-2004, 13:09
Wie siehts denn eigentlich mit der normalen 6800 aus? Hat die auch 256 mb Speicher? Wenn ja sollte es eigentlich kein Problem sein die wieder auf Ultra-Niveau hochtakten zu können ;)

edit: Wenn nein eigentich auch :twink: :D

Müller
15-04-2004, 13:59
Das mit dem übertackten setzt auch einen guten Chip vorraus;)

Im Normalbetriebt tacktet sich die Karte bistimmt runter und die Leistungsaufnahme sinkt stark ;)

PS: auf THG gibt es einen Sehr großen Test

Simsenetti
15-04-2004, 16:33
aber wegen den preis hab mal was gelesen von 300$. das wär aber fies wenn die bei uns dann 550€ kostet.


bei dem jetztigen dollarkurs wäre das doch geil. einfach importieren
aber ich glaub die non-ultra soll 300$ kosten.

Müller
15-04-2004, 18:35
Bezüglich übertackten:

Zwar basiert natürlich auch die GeForce 6800 auf dem NV40, verfügt aber nur über 12 statt 16 Pipelines wie die 6800 Ultra. Darüberhinaus wird die 6800 Non-Ultra 'nur' mit 128MB DDR1 Speicher ausgestattet, während die Ultra-Version mit 256MB GDDR3 SDRAM kommt. Später soll es auch noch ein Modell mit 512MB GDDR3 geben, aber in diesem Punkt hielt sich nVidia noch bedeckt.
Die Preisdifferenz von 200 Euro zwischen GeForce 6800 (€349) und 6800 Ultra (€549) lässt aufhorchen. So groß würde man den Leistungsunterschied anhand von Features und Ausstattung gar nicht vermuten. Da aber über die Taktraten der Non-Ultra noch nichts bekannt ist, muss man wohl einfach abwarten. Die GeForce 6800 Ultra dürfte mit 400 MHz Chip- und 550 MHz RAM-Takt laufen.

Scorp16fr
16-04-2004, 00:06
Wird es auch spiele geben die auch die volle leistung der GK ausnutzen zur zeit gibt es kein spiel vieleicht wird die leistung doom 3 oder so brauchen aber z.B half-life 2 wird auch auf einer 9800xt flüßig laufen.

Müller
16-04-2004, 09:59
Wird es auch spiele geben die auch die volle leistung der GK ausnutzen zur zeit gibt es kein spiel vieleicht wird die leistung doom 3 oder so brauchen aber z.B half-life 2 wird auch auf einer 9800xt flüßig laufen.:Lol: Jetzt ist die Radeon 9800 xt nur noch durchschnitt ^^

Farcry mit ein paar Patchs braucht die volle Leistung einer Geforce 6800 Ultra ^^
Zu lesen @ THG

333 Revesis
16-04-2004, 10:37
8600 Ultra? :D

Der Test ist echt klasse, hab ihn mir auch durch gelesen.
Aber ich weis nicht, ein Modell mit 512 mb? Das ist doch krank! Kein Spiel braucht im Moment oder in absehbarer Zeit so viel. Im Moment lohnen sich doch noch nicht mal die 256 wirklich... :rolleyes:

Alexander
16-04-2004, 10:48
Wöh,die Karte ist geil,kennt jemand ne Seite,auf der man die Karte als Preis gewinnen kann :D
Mann,wenn das so weiter geht,haben die Karten bald mehr Speicher als ich im Rechner :D

Apokus
16-04-2004, 12:01
Hm.. bei mir käm die karte nie rein ^^ soviel steht fest ;)

Chriss
16-04-2004, 12:16
Naja, auf www.3dcenter.org in einem der beiden artikel hab ich wenn ich mich nicht täusche gelesen das die 8600 weit vom krach der alten fx weg ist. Außerdem würd der lüfter nur beim booten voll drehen, und danach, sobald die lüftersteuerung greift ziemlich abflachen.

333 Revesis
16-04-2004, 12:22
Wieso schreibt ihr immer 8600? :D

Das ist auch aktuell so. Meine FX 5900 dreht beim booten auch so laut wie ein Staubsauger, im Windows-Betrieb hört man sie dann aber fast nicht mehr. Im Spiel dreht sie natürlich wieder 'etwas' lauter... :D

Naja, lieber eine laute Grafikkarte die derb Leistung bringt als eine die Leise ist und nur rumgurkt. Ich dreh einfach immer den Sound lauter :o)

Master M²
16-04-2004, 17:53
@revesis. LÖÖL

"derb leistung" Nvidia ist schande hochdrei :wife:

ATI RULEED, meine 9800 pro ist absolut ruihg :sleep:

Doc
16-04-2004, 18:08
@Chriss:
... berichten im übrigen von einer sehr hohen Geräuschentwicklung des NV40-Testsamples überhalb von 50 dbA, welche wir bei unserem Testsample absolut nicht feststellen konnten ...
3dcenter.de-News vom 16.04.2004.

Ob das tatsächlich an der angeblich nicht funktionierenden Lüftersteuerung liegen soll, das wird wohl die Zukunft zeigen.

An den Rest:
Bitte kein Glaubenskrieg, sonst ist der Thread hier zu.

Apokus
16-04-2004, 18:21
Nein glaubenskrieg , nö.. aber ich weiss net was ich atm von Geforce halten soll... die 5900 ultra hatte höhere taktraten ect als die vergleichbare radeon , trotzdem hat die radeon meiner meinung nach den vorteil "leiser" und vor allem gleich schnell zu sein...
Und was mich bei der neuen gf abschreckt wird die strom fressende art sein oO

333 Revesis
17-04-2004, 12:38
Woher willst du wissen dass die Radeon weniger Strom frisst? Ich schätze mal die wird von der Geschwindigkeit auf dem gleichen Niveau liegen..

Müller
17-04-2004, 13:46
Nein glaubenskrieg , nö.. aber ich weiss net was ich atm von Geforce halten soll... die 5900 ultra hatte höhere taktraten ect als die vergleichbare radeon , trotzdem hat die radeon meiner meinung nach den vorteil "leiser" und vor allem gleich schnell zu sein...
Und was mich bei der neuen gf abschreckt wird die strom fressende art sein oODie neue Radeon braucht im Normalbetrieb weniger Strom als die Radeon 9800xt, nur beim Spielen braucht sie ca 30 Watt mehr.....

Die neue geforce (Ultra Edition) hat einen kleineren Tackt (400 MHZ) als die Radeon 9800 xt (412 MHZ + Overdrive), und die Geforce FX 5950 Ultra hat einen Tackt von 475 MHZ ;)

Doc
17-04-2004, 14:07
@Apokus:
Das mit dem Glaubenskrieg war auch nicht auf dich bezogen ;)

Chriss
17-04-2004, 14:13
Takt bitte, nicht Tackt ;)

Ansonsten - ich mein 222 Millionen Transistoren mit 400 Mhz zu takten ist schon ne heftige leistung. Ich bin ja mal gespannt ob da noch mehr drinne ist, wenn die Fertigungsprozesse optimiert sind z.B.

Ansonsten denk ich schon das die Radeon kühler läuft, weil sie keine 3.0 Shader einsetzt, sondern nur ne stark aufgebohrte 9800 ist. Das bedeutet weniger Transistoren, damit weniger Leistungsaufnahme. Außerdem könnt ich mir vorstellen das die neue radeon höher getaktet ist, eben weil weniger transistoren.

Aber woher habt's ihr eigentlich das die non-ultra nur 12 pipelines hat?

Müller
17-04-2004, 15:31
Es wäre auch mal gut das die Radeon 9800 xt in 0,13 Micron gefertigt wird, da würden locker noch 50 mhz mehr Tackt raus kommen ;)

Von Tomshardware.de:

Preise:

GeForce 6800 Ultra, €499, 16 Pipes, 2 Molex-Anschlüsse (Hilfsspannungsversorgung), Platzbedarf 2 Slots, Taktraten 400/550 MHz
GeForce 6800, €299, 12 Pipes, 1 Molex-Anschluss (Hilfsspannungsversorgung), Platzbedarf 1 Slot, Taktraten noch nicht festgelegt

Dort haben sie aauch die leistungsaufnahme gemessen, und da hat die Radeon 9800 xt im Ruhezustand mehr gebraucht als die Geforce.

Auf http://www.3dcenter.org (http://www.3dcenter.org/) haben sie die Karten schon mal OCed und sind auf 467/618 MHz gekommen, orginal 400/550 (http://www.3dcenter.org/artikel/nv40_benchmarks/index11.php ) .

;)

333 Revesis
17-04-2004, 15:40
Na also, ist also schon zu übertakten (PS: es schreibt sich takt, nicht tackt :twink: ).

Aber die Non-Ultra kommt mir arg abgespeckt vor..

Bernd_XP
17-04-2004, 16:30
sieht eher nach platz für ein zwischenmodell aus

Doc
17-04-2004, 18:36
@Chriss:
12 Pipelines laut 3dcenter.de-News vom 16.04.
Auch im dortigen Forum zu lesen, und zwar hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1725242#post1725242).

RedBasti
18-04-2004, 19:39
Irgendwie erinnert mich das an die ersten Ableger der Vorgängergeneration:

Ja, es ist die schnellste Graka aber

zu teuer, zu laut, zu heiß

Die Benchmarkergebnisse sind extrem gut aber die Praxis zeigt doch wohl eher der UT 2003/2004 Test und der bringt der neuen Geforce keine großen Vorteile.


Ein Grund warum bei mir ne 9700 Pro summt liegt in der besseren Verarbeitung. Die ist eben leiser und weniger warm und kommt ohne gigantische Kühleraufbauten aus.
Ich hoffe Ati bleibt bei dieser Linie. Der große Ram dient als Fänger für den dummen Käufer, der in Prospekten immer nur die Größe des Rams sieht und daraus Schlüsse zieht.

EviLSnipeR
18-04-2004, 19:59
Ja, aber im Gegensatz zum Vorgängermodell stimmt die Performance und das bei geringerer Lautheit. Da war der NV30 gegenüber dem R300 ein Witz, auch in Sachen Performance...


Trotzdem - wegen einer GeForce 6800 Ultra ein 480 Watt Netzteil zu besorgen halte ich für ebenso unsinnig...

Ehe die Teile ausgeliefert werden vergehen nochmal 2 Monate und bis dahin ist ATI wieder am Ball.

Müller
18-04-2004, 21:20
Wegen den 480 Watt netzteil ist doch nur für noname teile ^^


Ich habe 3 Festplatten 2 CD laufwerke einen Athlon xp 3200+ und ein Nforce 2 board mit Geforce 4 ti ^^ und hab nur ein 350 Watt Netzteil, von ner guten Firma.
Mein Freund brauchte für das einen neues Netzteil hatte aber schon ein 400 Watt ^^

Bernd_XP
18-04-2004, 21:27
480W ist wegen den Strängen...ich hab ein 350W Codecom und es funzt immer noch problemlos (trotz verstärker, der hat aber nur 6W)...hat halt nur 2 Stränge. Und der NV40 will 2 getrennte, also besstenfalls noch lüfter an die dran. Aber ein gutes netzteil hat 4 oder mehr stränge und das ist dann auch ok. Nur sollte man aufpassen wie hoch der gesamtverbrauch kommt.

Aber ATi scheint probleme zu haben, denn vor einiger zeit hieß es noch, NVidia wäre im Rückstand und ATi würde die Karten zuerst vorstellen.

Apokus
19-04-2004, 05:50
Wieso scheint ati probleme zu haben ?
Beide wollten am 26.4 ihre karten vorstellen ( hiess es noch mitte feb )
Und Nvidia hats halt vorgezogen... vllt weil sie angst haben das wenn sie zu spät sind , ati überzeugen kann und ihnen kunden wegnimmt ?:ka:
Damit könnte man sich die angekündigte preissenkung bei ihren alten karten auch mit na art panikverkauf ansehen ^^

ben250
19-04-2004, 16:06
Hmm Leute

Ihr redet immer von 500 € Kann es sein das das hier die neue nVidia Karte ist ? Guckst du hier (http://www.mindfactory.de/cgi-bin/MindStore.storefront/4083dbad000e1eb22b5dc0a8018b06aa/Product/View/0311532#.filereader)

Hat nen tollen Preis.

So long

Ben

xTrophy
19-04-2004, 17:30
löl ben, das is ne Quadro, die is explizit für CAD Anwendungen ;) Hat imho recht wenig mit der 6800 zu tun.

PlayFair
19-04-2004, 19:18
Es gehen recht glaubhafte Gerüchte um, dass die mittlere ATI x800 Pro mit 475MHz und 12 Shader Pipelines, den nV Spitzenmodell ernsthaft Probleme bereitet. Das Spitzenmodell die ATI x800XT kommt aber mit 16 Shader Pipelines und 500MHz Takt!

Das wird sehr spannend werden. Die Marketing Abteilungen laufen auf hochtouren. Endlich wieder ein bisschen Bewegung, nach dem ATI 9800 Nullrunden Spiel.

Chriss
19-04-2004, 20:07
Ehrlichgesagt erwarte ich das fast... Wenn man bedenkt das ATI ihre ganzen Anstrengungen in ne aufgebohrte 9800 gesetzt haben, während nVidia zusätzlich noch 3.0 shader und sonst noch ein biserl kram eingebaut hat - Wäre peinlich für ATI wenn die langsamer wäre ;)

Doc
19-04-2004, 20:57
Dazu ein aktueller Artikel von 3dCenter mit den bisher bekannten Infos:
http://www.3dcenter.de/artikel/2004/04-19.php