-dp- Board

das deutsche PowerVR Forum
Aktuelle Zeit: 19 Okt 2018 02:25

Alle Zeiten sind UTC + 1 Stunde




Ein neues Thema erstellen Auf das Thema antworten  [ 15 Beiträge ] 
Autor Nachricht
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 15:15 
Wie ich schon in einem anderen Thread gesagt habe bin ich im Prinzip gegen Multichip Loesungen, wenigstens bis jetzt. Jedoch koennte es sein dass wenn so einige Speicher-Technologie und Programmier-Sprachen was programmierbares T&L oder shader betrifft genug ausreifen dass es zu interessanten Alternativen kommen koennte. Hier ein Beispiel dazu:

Zitat:
Highly scalable problems such as 3d graphics and physical simulation should get near linear improvement in performance with transistor count as well as frequency. As chips specialized for these problems become denser they should increase in performance much more than CPUs for the same silicon process. This means moving as much performance sensitive processing as possible from the CPU to special purpose chips. This is quite a separate reason for special purpose chips than simply to implement the function directly in hardware so as to be able to apply more transistors to the computations (as mentioned in my previous post) It also applies to functions that require general programmability (but are highly scalable). General programmability does not preclude linear scalablity with transistor count. You just need to focus the programmability to handle problems that are linearly scalable (such as 3d graphics and physical simulation). In makes sense of course to implement as many heavily used low level functions as possible directly in hardware to apply as many transistors as possible to the problem at hand.

The other major benefit from using special purpose chips for highly scalable, computation intensive tasks is the simplification and linear scalablity of using multiple chips. This becomes especially true as EDRAM arrives.

The MAXX architecture requires scaling the external memory with the number of chips, so does the scan line (band line) interleave approach that 3dfx used. With memory being such a major cost of a board, and with all those pins and traces to worry about, it is a hard and expensive way to scale chips (requiring large boards and lots of extra power for all that external memory). The MAXX architecture also suffers input latency problems limiting its scalability (you increase input latency by one frame time with each additional chip). The scan line (band line) method also suffers from caching problems and lack of triangle setup scalability (since each chip must set up the same triangles redundantly).

With EDRAM, the amount of external memory needed goes down as the number of 3d chips increase. In fact, with enough EDRAM, the amount of external memory needed quickly goes to 0. EDRAM based 3d chips are thus ideal for multiple chip implementations. You don't need extra external memory as the chips scale (in fact you can get by with less or none), and the memory bandwidth scales automatically with the number of chips.

To make the maximum use of the EDRAM approach, the chips should be assigned to separate rectangular regions or viewports (sort of like very large tiles). The regions do not have their rendering deferred (although they could of course), they are just viewports. This scaling mechanism automatically scales the computation of everything: vertex shading, triangle setup, pixel operations, etc. It does not create any additional input latency, allows unlimited scalablity, and does not require scaling the memory as required by the previously mentioned approaches.

Tilers without EDRAM also scale nicely without needing extra external memory. They are in fact, the easiest architecture to scale across multiple chips. You just assign the tiles to be rendered to separate chips rather than the same chip. The external memory requirements while remaining constant, do not drop however, as they do with EDRAM. The major problem to deal with is scaling the triangle operations as well as the rendering. In this case, combining the multi-chip approach mentioned for EDRAM with tiling solves these issues. You just assign all the tiles in a viewport/region to a particular chip. Everything else is done as above and has the same benefits.

In my mind, the ideal 3d card has 4 sockets and no external memory. You buy the card with one socket populated at the cost of a one chip card. The chip has 32 MB of EDRAM, so with 1 chip you have a 32MB card. When you add a second chip you get a 64MB card with double the memory bandwidth and double the performance. For those who go all out and decide to add 3 chips, they get 128 MB of memory, and quadruple the memory bandwidth and performance. Ideally, the chip uses some form of occlusion culling such as tiling, or hz buffering with early z check, etc. Using the same compatible socket across chip generations would be a nice plus.

In the long run I agree with (.....). Using scene graphs or a similar spatial heirarchy simplifies and solves most of these problems, including accessing, transforming, lighting, shading, and rendering, only what is visible. They also simplify the multiple chip and virtual texture and virtual geometry problems. We will need to wait bit longer for it to appear in the APIs though.

There are indeed two problems generally associated with partitioning the screen across multiple chips. Load balancing, and distributing the triangles to the correct chip. Both have fairly straight forward, very effective solutions, though I can't mention the specifics here.
Those are some good comments, (.....). However, there is no need to defer rendering and no need for a large buffer. Each chip knows which vertices/triangles to process, without waiting.


Wie klingt ein "Steck-board" design? Wird eine Karte zu langsam steckt man einfach einen oder mehr chips drauf und schon hat man aufgeruestet.

Natuerlich wuerde es nur unter Bedingungen etwas bringen (weiterentwickelte Programmiersprachen und EDRAM usw.) und obwohl es "komisch" klingt wuerde es die Firmen und den Verbraucher viel weniger kosten im Endeffekt.

Ein einzelner "Steck" chip ist bei weitem billiger als eine ganze Karte.

Man koennte eine Karte fuer laengere Zeit behalten und letztenendes wuerden die Firmen viel weniger Kopfschmerzen haben mit Treibern und genereller Entwicklung und Unkosten...

Na was meint ihr?


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 16:08 
Ich finde das hört sich richtig gut an ;)

Stell die vor, wenn der Kyro 4 ( :D ) zu langsam ist, steckt man einfach einen 2. dazu - genial !
Mit RAM auf GraKas gabs das ja schonmal, bei den Voodoos gabs SLI - wieso nicht einfach auch mit GPUs, fände ich klasse.

Ich meine, wozu jedesmal alles raus und wieder rein, wenn es sich doch nicht ändert, wie z.B. TV Out, RAMDAC (ok, manchmal schon), RAM (es sei denn der wird zu langsam), Kondesatoren und und und.
Klingt echt gut, die Frage ist nur ob die Hersteller da wirklich mitziehen würden - also ich bin für gesockelte GraKas ;)

ATI und NV Chips die auf ein und dasselbe "Board" passen - :roll:

Tiger.
--
Klick to see my system ;)
SYSTEM UPDATE ! ;)


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 16:09 
Offline
User
Benutzeravatar

Registriert: 06 Aug 2001 20:15
Beiträge: 985
Hmmm mit virtuellesiertem Texturenspeicher und wo jeder Chip die Texturedaten speichert die er gerade benötigt, könnte das, glaube ich, wirklich so gut funktionieren das die Leistung linear mit der Anzahl der Chips steigt. Zumindestens was die Füllrate angeht.

BTW: Von wem kommt der Post/Info?


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 16:20 
Offline
Moderator
Benutzeravatar

Registriert: 06 Aug 2001 15:46
Beiträge: 1496
Wohnort: Bayern
voodoo2 SLI war doch sowas ähnliches - die 2.karte hat sich kaum jemand geholt.
Ich meine wenn jemand nach einem jahr ans aufrüsten denkt, dann gibts doch von der konkurrenz schon wieder schnellere single-chip-karten mit neuen features unter dem preis eines "Steck"
Daneben kauft man mit dem grundmodul viel mit, dass man später vielleicht garnicht brauchen wird. Stärkere stromversorgung, pcb-platz, controller-chips, speicher(bandbreite?)...


Zuletzt geändert von DocEvil am 17 Mär 2002 16:23, insgesamt 1-mal geändert.

Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 16:28 
Naja schau mal, bei CPUs klappts doch auch, oder würdest Du Dir jedesmal ein neues Board kaufen, wenn Du sagen wir mal von einem TB 1,2 auf einen XP 2000+ umsteigst ? (vorausgesetzt natürlich das Board unterstützt den ;) )
--
Klick to see my system ;)
SYSTEM UPDATE ! ;)


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 17 Mär 2002 17:32 
klingt cool!

@tigershark
die frage war zwar nicht an mich gerichtet, aber ich würde nicht von einem 1200er auf einen 2000+ aufrüsten.
wieso auch?
jetzt langt der 1200er noch easy, später gibts schnelleres als den 2000+.
ich hab das bisher immer so gehalten, dass ich keinen prozessor kaufe, wenn er nich mindestens doppelt so viele mhz hat wie der alte, und diese auch umsetzten kann :)
--
Blue Gwendoline


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 18 Mär 2002 01:38 
Thowe,

SA wer sonst? Frag mich nicht wer der Herr ist, wir raten schon seit geraumer Zeit darueber.


DocEvil,

Nein die oben erwaehnte Methode schlaegt eine bei weitem fortgeschrittenere Technologie als alles was bis jetzt bekannt ist vor:


Zitat:
To make the maximum use of the EDRAM approach, the chips should be assigned to separate rectangular regions or viewports (sort of like very large tiles). The regions do not have their rendering deferred (although they could of course), they are just viewports. This scaling mechanism automatically scales the computation of everything: vertex shading, triangle setup, pixel operations, etc. It does not create any additional input latency, allows unlimited scalablity, and does not require scaling the memory as required by the previously mentioned approaches.


Wenn er "rectangular regions/viewports" vorschlaegt dann sind es Teile einer Szene die in grosse rechteckige Kacheln aufgebrochen wird (nicht mit den "Tiles" eines Tiler zu verwechseln. Tiles bei TBR's sind entweder rechtecking (32x16) oder quadratisch (32x32) bis jetzt). So in etwa 3 oder 4 rechteckige grosse Tiles wobei nicht unbedingt defered rendering benutzt werden muss.

Scan Line Interleaving (aka SLI) war nicht problemlos in seiner Anwendung selbst auf der V5:

Zitat:
The scan line (band line) method also suffers from caching problems and lack of triangle setup scalability (since each chip must set up the same triangles redundantly).


Erstmal Probleme beim "cachen" und dann mit dem Dreieck "setup", wobei bei SLI Loesungen jeder chip diselbe Dreiecke unabhaengig bearbeiten musste. Bei einer Loesung wie oben vorgeschlagen wird alle Geometrie wenn man die chips scaliert ueber die verschiedenen chips verteilt was einen gigantischen Unterschied macht.

Uebrigens wird vorgeschlagen dass der PCB der Karte pin compatible auch mit zukuenftigen Generationen waere, also uebereinfacht eine Art "mainboard" in Form von einer vga, wo man entweder mehr chips reinstecken kann oder alle entfernen und eine neue Generation von chip/-s reinstecken koennte. Natuerlich waere es uebertrieben so etwas fuer ewig zu behalten da die Technologie nur so dahinrast, aber selbst wenn so ein board nur zwei chip-Generationen aushaelt dann ist man schon im Gewinn.

Von irgendwo muss eine multichip Loesung frueher oder spaeter kommen. Carmack hat schon auf eine alternative fuer dieses Jahr gedeutet. Waere es eine Loesung so wie sie wir bis jetzt kennen bin ich schon gar nicht daran interessiert. Jedoch eine Loesung wie die oben vorgeschlagene waere brilliant.....

Man kann ja nie genug spekulieren aber da SA schon Aenderungen im API Level vorsehen kann, weiss man ja nie :)


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 18 Mär 2002 15:01 
Zitat:
Original von Abaddon:
Thowe,

SA wer sonst? Frag mich nicht wer der Herr ist, wir raten schon seit geraumer Zeit darueber.




Ehrlich, hatte ich mir fast gedacht. :)

Nicht mehr ArtX als Favorit? ;)


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 18 Mär 2002 16:57 
Offline
Site Admin
Benutzeravatar

Registriert: 03 Aug 2001 18:30
Beiträge: 1656
Wohnort: Ostseeküste
bezüglich SA

ich hatte vor längerer Zeit mal mit GigaPixel gerechnet, habe aber vergessen weshalb ich diese Meinung aufgegeben habe.
Zumindest bin ich absolut sicher das er weiss wovon er spricht und er spricht von Dingen die sich die meisten von uns (oder alle? ) kaum vorstellen können.

:smile:
--
MfG
Loewe

~~~~~~~~~~~~~~~~~~~~
webmaster from deferred Power
~~~~~~~~~~~~~~~~~~~~

If you can hack it, just hack it, don`t bother with details!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 19 Mär 2002 01:58 
Zitat:
Original von Thowe_Work:
Zitat:
Original von Abaddon:
Thowe,

SA wer sonst? Frag mich nicht wer der Herr ist, wir raten schon seit geraumer Zeit darueber.




Ehrlich, hatte ich mir fast gedacht. :)

Nicht mehr ArtX als Favorit? ;)





Keiner von den Kerlen auf B3D wollte mir bis jetzt wenigstens einen Tipp geben. Aber ich kann ja noch mal versuchen zu fragen.

Dabei hat Loewe eigentlich recht: egal wer SA ist oder fuer wen er arbeitet klingt er nach einem Genie. Dazu noch am wichtigsten objektiv bis zum geht-nicht-mehr. Ich sauge jeden einzelnen seiner Posts bis zur letzten Zeile meistens auf.....


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 29 Mär 2002 19:42 
Offline
User

Registriert: 22 Aug 2001 22:43
Beiträge: 189
Wohnort: Germany
Laut unserem Freund John Carmack wird 2002 das Jahr der "Multichip Lösungen" werden. Wieviel an dieser Äusserung dran ist, kann man natürlich nicht genau sagen, aber sein enger Kontakt zu den Herstellern dürfte nahelegen, das seine Äusserung einen hohen Wahrheitsgrad besitzen.

Um nochmal ein paar Worte über euren SA zu verlieren:
Ich habe mir seine Postings nicht angesehen, aber Er könnte z.B. als Ingenieur für Microchips oder als Programmierer bei einem, uns bekannten Hersteller für 3D Chips arbeiten und daher werden auch seine Kenntnisse stammen....

mfG
Bigben


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 29 Mär 2002 19:51 
Offline
User

Registriert: 04 Mär 2002 18:30
Beiträge: 285
Ich glaube nicht das das mit den Multi Chips nochmal was wird. Das hatten wir doch schonmal mit z.B. Voodoo 4/5. Der Performancegewinn wäre nicht sehr groß da das mit der Aufgabenteilung nicht ganz so einfach ist! Der Kostenaufwand für Multichiplösungen ist zudem auch recht hoch. Insgesamt würde ich eine solche Entwicklung auch als "rückschritt" bewerten, da dann durch die reine schiere Masse an Chips die Leistung "erkauft" wird. Ich halte eine weiterentwicklung bzw. Neuentwicklung (die zugegebener Maßen sehr viel teurer ist) für sehr viel Sinnvoller!
--
http://www.nethands.de/pys/show.php3?user=Friday_13th1
Http://www.amd-fanclub.de


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 30 Mär 2002 00:47 
Offline
Moderator
Benutzeravatar

Registriert: 06 Aug 2001 14:45
Beiträge: 1179
Ich denke zumindest daß wir in 2003 die ersten Boards mit 2 AGP3.0 Slots zu sehen bekommen werden. Ich halte spätestens 2004/5 auch eine optionale Multichiplösung durch einfaches Zustecken einer 2. Karte des selben Typs für möglich...

--
Mfg
Axel
Bild


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 02 Apr 2002 13:22 
Offline
User

Registriert: 09 Jan 2002 12:43
Beiträge: 28
Ich denke, daß Multichip-Lösungen (auf einer gemeinsamen Karte) zwar nicht unproblematisch sind, aber durchaus ihren Sinn haben können. Und das gerade bei Tilern!
Bei den bisherigen Mulitchip-Lösungen lag das große Problem ja in der Aufteilung der Aufgaben, was bei einem TBR nicht derartig schlimm ausfällt. Klar, manche Zusammenhänge müssen bei MCA mit etwas Mehraufwand bearbeitet werden - aber den Großteil des Rechenaufwandes kann man parallelisieren, indem man einfach 2 Chips abwechselnd entsprechende Tiles bearbeiten läßt. Die Ränder der Tiles müssen dann zwar durch eine gemeinsame Filtereinheit, um z.B. nicht das FSAA zu stören - aber das sind grade bei TBRs keine so großen Probleme, wie z.B. bei der Rage Fury MAXX.

Der wirkliche Vorteil bei Multichip-Architekturen liegt doch nicht unbedingt in einer linearen Skalarität! Wenn man sich die Preise ansieht, die hochtaktige Komponenten kosten, dann wird es doch viel interessanter, z.B. 3 Chips mit 200MHz (und entsprechendem Speicher) statt einem mit 600MHz und 300MHz-DDR-RAM zu nutzen. Alleine der Aufwand, um diese hohen Core-Frequenzen zu erreichen, ist immens (da werden viele Transistoren verbraten, die keine direkte Rechenleistung erbringen!). Für dieses Geld nimmt man einfach etwas mehr Silizium und erreicht dieselbe Leistung, ohne daß man immer extremere, teure Technologien benutzen muß. Zusätzlich hat ja eine Multichiplösung noch einen letzten kleinen Vorteil: 2 Chips bedeuten mehr Fläche, über die die Hitze abgegeben werden kann...

So seh zumindest ich das. Ich bin allerdings kein Profi - also sollte ich falschliegen, korrigiert mich bitte!

--

Sascha

[R&D Watercool.de]


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 10 Apr 2008 18:10 
Offline
Moderator
Benutzeravatar

Registriert: 06 Aug 2001 14:45
Beiträge: 1179
HAt irgendjemand noch Werte von der Voodoo 2 im SLI Modus ? Wie stark ist die Leistung gegenüber 1 Karte gestiegen ?

--
Mfg
Axel
Bild


Zuletzt als neu markiert von Anonymous am 10 Apr 2008 18:10.


Nach oben
 Profil  
 
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen Auf das Thema antworten  [ 15 Beiträge ] 

Alle Zeiten sind UTC + 1 Stunde


Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Gehe zu:  
cron
Powered by phpBB® Forum Software © phpBB Group
Deutsche Übersetzung durch phpBB.de