News CrossFire geknackt – Compositing-Chip unnötig?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.714
Während nVidias SLI-Technologie zum gleichzeitigen Rendern mit Hilfe einer zweiten Grafikkarte eine SLI-Bridge benötigt, um genügend Daten zum anderen Chip schaufeln zu können, setzt ATI bei ihrer „CrossFire“-Technologie auf die sogenannte „Compositing-Engine“, damit die „Master“-Karte das endgültige Bild zusammensetzen kann.

Zur News: CrossFire geknackt – Compositing-Chip unnötig?
 
Woher haben die denn die Karten/Mainboard ich glaub nich das ATI die so einfach rausgibt.
 
K!nglevent schrieb:
Woher haben die denn die Karten/Mainboard ich glaub nich das ATI die so einfach rausgibt.

gibt ja immer wieder mal tests die nicht firmenintern sind. und dass sie die original Crossfire Variante mit einer gehackten vergleichen haben sie bestimmt nicht verraten.
aber alles in allem eine praktische Lösung.
 
"Aus den Ergebnissen lässt sich herauslesen, dass zwei Radeon X850XT-Grafikkarten hervorragend für das gleichzeitige Rendern geeignet sind und bei einer starken CPU in hohen Settings, wie 1600x1200 mit 4x Anti-Aliasing, beinahe doppelt so viele Bilder pro Sekunde auf den Bildschirm zaubern können, wie eine einzelne Karte – dies gilt natürlich nur, wenn bei den hohen Einstellungen komplett die GPU das Spiel limitiert."

is das bei 2x7800GTX ned auch so gewesen!?! In niedrigen Auflösungen/Settings fast null mehrperformance, und erst mit höheren Settings hielt sie die Framerate (insbesondere in SLI) enorm hoch....

btw: ich glaube die Benchies sind gefaked bzw. unbrauchbar...
 
vielleicht ist dercrossfirechip nur dann noetig wenn man zwei unterschiedliche grafikkarten hernimmt?
koennte durchaus moeglich sein..
 
Es ist nicht immer wichtig überlegen zu sein, manchmal reicht auch nur eine kluge Entscheidung um in der Evolutionsstufe eine Stufe höher zu stehen.
Zitat aus einer BBC Dokumentation :)

Da werden wohl im ATi-Unternehmen Köpfe rollen wenn ein paar Hobbytweaker "besseres" Crossfire mit einfacheren Mitteln realisieren können wie die firmeninternen hochbezahlten Entwickler.
 
Kann ich mir nicht wirklich vorstellen dass ATI das auch noch vermurkst hat, indem ein unnötiger Chip verbaut wird. :rolleyes:
Ich glaube da eher an einen Fake.
 
"is das bei 2x7800GTX ned auch so gewesen!?! In niedrigen Auflösungen/Settings fast null mehrperformance, und erst mit höheren Settings hielt sie die Framerate (insbesondere in SLI) enorm hoch...."

Nein war es nicht, SLI bringt kaum was , selbst bei hohen Details gab es nur 20% Leistungszuwachs.

Wenn das stimmen sollte, wäre SLI und die 7800 geknackt, und nVidia steht das Wasser echt bis zum Hals.

Jetzt kommt es drauf an die Behauptungen zu beweisen.

]BlackDragon[
 
"Da werden wohl im ATi-Unternehmen Köpfe rollen wenn ein paar Hobbytweaker "besseres" Crossfire mit einfacheren Mitteln realisieren können wie die firmeninternen hochbezahlten Entwickler."

woher weißt du das? Vielleicht war das ja absicht (Geldmacherei)
 
war des nicht schon länger möglich, allerdings ohne wirklichen vorteil, da zwar benchmarks die berechneten fps anzeigten, aber nur die hälte der bilder ausgegeben werden? da nur der ausgang einer graka zu sehen ist?
oder ist des doch was neues?
 
Wow das sind ja nette neuigkeiten.

Glaube kaum dass die Bildqualität die selbe ist, ansonsten "könnte" man ja ati Betrug unterjubeln, wäre dann ja sinnlos den chip auf die master karte zu verbauen, ich meine blöd sind die ja auch net, oder... 8-)
 
]BlackDragon[ schrieb:
Wenn das stimmen sollte, wäre SLI und die 7800 geknackt, und nVidia steht das Wasser echt bis zum Hals.

das meinte ich aber ned mit dem NVidia-Vergleich ^^
 
hannibal-007 schrieb:
"Da werden wohl im ATi-Unternehmen Köpfe rollen wenn ein paar Hobbytweaker "besseres" Crossfire mit einfacheren Mitteln realisieren können wie die firmeninternen hochbezahlten Entwickler."

woher weißt du das? Vielleicht war das ja absicht (Geldmacherei)

Ich stelle mir gerade das Gespräch vom ATi-Chefentwickler mit dem Crossfireentwicklungsteam vor:
"WAAASSS? Ein paar Hobbyentwickler können das besser wie ATi? Wisst ihr wieviel Geld ich in die Crossfirechips stecken musste, das wird uns noch jahrelang hinterhergesagt werden!"
"Ja, Chef. Wir sind einfach nicht auf die Idee gekommen soetwas durchzuführen, wir wollten..."
"Nicht auf die Idee gekommen! Für was bezahle ich euch denn....."

köstlich :D
 
@ Computerbase
Man sollte noch erwähnen, dass es sehr warscheinlich ist, dass die zweite Grafikkarte zwar ihr Bild berechnet, dies aber wohl nie den Bildschirm erreicht. Die Leute haben wohl nur einen Sicherungschalter gefunden, der verhindern sollte, dass sich die Karten im Crossfire-modus befinden ohne das die 2. Karte angeschlossen ist.
 
2*X700 sollen schneller sein als 2*6600GT ??? hm Na das möcht ich erst sehen.
 
Wär ne Klasse sache, allerdings denke ich, dass es zu bildfehlern o.ä. kommt, sonst hätten die das sicher schon länger so gemacht. (Wenns stimmt sind die bei ATI Idioten und sollten mal nen paar neue Leute einstellen)
 
Ich glaube auch, dass nur das Bild der Karte, welche am Monitor angeschlossen ist, ausgegeben wird.

DiamondDog schrieb:
2*X700 sollen schneller sein als 2*6600GT ??? hm Na das möcht ich erst sehen.
Die meinen zwei 6600er per SLI. Da es aber keine 6600er Karten mit SLI-Brücke gibt, wird SLI nur per Treiber realisiert und das ist anhand der sich noch im Betastadium befindlichen 80.40er Treiber noch sehr ineffektiv und somit auch sehr langsam.
 
also ich kann es kaum erwarten ob das nun ein fake ist oder nicht.

aber glauben könnte ich das schon. denn es ist ja nicht immer gesagt das die firmen auf die bessten ideen kommen oder :D
 
@15
dann müsste aber alles im afr modus gelaufen sein
denn bei den anderen hättest du entweder nur einzelne streifen oder nen schachbrett
ich hab ka was beim 3dmurks genutzt wird
 
Zurück
Oben