-dp- Board

das deutsche PowerVR Forum
Aktuelle Zeit: 19 Sep 2018 19:37

Alle Zeiten sind UTC + 1 Stunde




Ein neues Thema erstellen Auf das Thema antworten  [ 109 Beiträge ]  Gehe zu Seite Vorherige  1, 2, 3, 4, 5  Nächste
Autor Nachricht
 Betreff des Beitrags:
BeitragVerfasst: 30 Okt 2003 21:31 
Offline
User
Benutzeravatar

Registriert: 06 Sep 2001 17:23
Beiträge: 304
Ailuros hat geschrieben:
Bandbreiten-freies SSAA nutzte damals so wenig dass ein 150$ Produkt mit FSAA fast genauso schnell war wie eine GF2 PRO und die R100 gnadenlos in den Boden stampfte. NV20 ist eine Generation weiter und hat auch 400$ bei launch gekostet.

Ich kann mich trotzdem nicht entsinnen, dass 4x AA (also mit einer EER von 2x2) von Kyro-Usern wirklich häufig genutzt wurde. (Gleiches gilt für GF2, und GF3 bringt ja schon bei 2x AA die 2x2-EER.)

Ailuros hat geschrieben:
Ach ja der Schmiermodus bei BB fuer Avalanche wird uebersehen, waeherend Bandbreiten-freies Supersampling nichts wert war.

Blurring ist für mich kein AA :) Die Treiber hätten dann schon zumindest OGSSAA bieten müssen. Spätere Hardware hätte "richtiges" AA vorweisen müssen.

Ailuros hat geschrieben:
TBDR hat immer noch Vorteile und auch mit sehr langen Shadern und natuerlich auch Nachteile aber das ist bei IMRs auch nicht anders. Beim ersten sind die PS von den VS komplett entkoppelt was stalls bei gleichzeitig langen und kurzen Shadern vermeidet. IMRs haben zwar workarounds bisher dafuer, aber fuer eine vollstaendige Loesung muessen sie wohl erst auf DX-next und die Vereinigung der PS/VS warten.

Bei Shadern hat der TBDR auch Nachteile, wie gerade bei 3DC diskutiert wird, und zwar, wenn im Tile unterschiedliche Shader zum Einsatz kommen.

Ailuros hat geschrieben:
Allein der Gedanke dass Doom3 und Serious Sam2 dynamische Schatten integriert haben genuegt mir persoenlich. Ich hab slideshows leider nicht gern.

Du rechnest doch nicht ersthaft mit Slideshows, wenn Doom3 auch nur auf einer GF4 Ti läuft? Von der 5900 ganz zu schweigen...

Ailuros hat geschrieben:
Das Ziel ist dass der Unterschied zwischen AA und non-AA so klein wird dass es Unsinn waere AA abzuschalten. IHVs werden wohl nach Deiner Ansicht sinnlose HW bauen.

Willst du mich hier mit Absicht missverstehen? Der Unterschied kann meinetwegen Faktor 25 sein, wenn die Grafik mit FSAA noch schnell genug ist.

Ailuros hat geschrieben:
Es ging um Vergleiche mit BB OY. Soll ich vielleicht noch die anderen Divisionen und die Umsaetze oder sogar das erfahrene Personal vergleichen? K2 hat an die 2 Millionen chips alleine verkauft; kein einziger kaufbarer klingt ohnehin besser.

Ja, sie haben in der Vergangenheit Produkte verkauft. Doch wie lange ist Kyro2 jetzt her?

Ailuros hat geschrieben:
Fuer weniger als dual board?

Die Preise kenne ich nicht.

Ailuros hat geschrieben:
Nur hat ein TBDR System schon immer bessere Vorraussetzungen gehabt dieses zu behaupten.

Die Behauptung bleibt aber per se falsch :)

Ailuros hat geschrieben:
Bis jetzt sind nur stencil op Schatten damit bekannt, was aber nicht ganz zu Deiner Gleichgueltigkeit mit diesen passt. Ein TBDR hat mit weder/noch Nachteile.

Toll. Wieso reitest du ständig auf dem Stencil herum? Die Shader-Passes werden wohl mehr Takte in Anspruch nehmen, als die Stencil-Passes. Leistungsstarke, schnelle Shader-Logik, im Moment ein Trumpf bei ATI, wiegt die aktuelle Stencil-Schwäche der Radeon vermutlich mehr als auf.

Du kannst gerne spezielle Features in den Vordergrund stellen, letztlich zählt die Gesamt-Hardware und das, "was hinten rauskommt".

Ailuros hat geschrieben:
Sturheit laesst sich nicht bezahlen; alles kann noch besser werden. Aber Du kannst ja ATI gerne darueber ueberzeugen.

Nvidia hat soweit ich weiß momentan nur eine Hierarchical-Stufe und kommt damit auch einigermaßen aus. Wenn ATI meint, mehr als 3 Stufen lohnen die Transistoren, sollen (und werden) sie es dann auch so machen.

Ailuros hat geschrieben:
TBDR oder andere "Spar-Techniken" sparen auch stark an Fuellrate. Early Z von alleine und wie schon gesagt in nicht early Z optimierten Applikationen macht eher wenig aus. Zum programmierten Zeitpunkt der Avalanche Veroeffentlichung gab es fast keine early Z optimierten Spiele und ATI/NV hatten schon einiges mehr als nur early Z.

Ja, Early Z macht zunächst nicht so viel aus, meiner Erfahrung nach etwa 10%. Der Z-Pass zu Beginn jeden neuen Frames wird jedoch an Bedeutung gewinnen. Die IMR-Architektur kommt dann der TBDR-Effizienz deutlich näher, da sie aber für TBDR dann auch keine Transistoren haben, können diese woanders eingesetzt werden.

Ailuros hat geschrieben:
Wer spricht von niedriger Taktung? Avalanche war fuer ~175MHz vorgesehen.

Und für Multichip-Konfigurationen.

Ailuros hat geschrieben:
Kindisch antworten kann ich auch seh zu: besser als eine handvolle Studenten die Traumchips in der Garage entwerfen und sich zum laughing stock der 3D Gemeinde entwickelten. Klingts besser so?

Sieht man die sehr magere Manpower die Bitboys haben, finde ich erstaunlich was sie entwickelten. Die ganze Vaporware mag dann bei dem einen oder anderen zu Belustigungen geführt haben, ich bedaure dass diese Chips nie in Serie gingen.

Ailuros hat geschrieben:
8GB * 2.5 Overdraw ist effizienter als etwa 11-14GB/sec rohe Bandbreite; drehen und wenden kannst Du dich da lange.

2,5x Overdraw ist eine Annahme, die nicht für jedes Spiel gilt :) 14 GB/Sekunde * 2 sind schon 28 GB, dazu kommt dann "echte" Füllrate, welche natürlich durch opaquen Overdraw teilweise unsichtbar verballert wird. Gute Engines minimieren den Overdraw von sich aus, vereinfacht gesagt: Je besser die Engine, desto weniger Vorteile durch TBDR.

Ailuros hat geschrieben:
Ich dachte dass ex-3dfx fans aus dem NVIDIA-Hasser-Trip in der Zwischenzeit ausgeschnappt sind :P

Hasse ich Nvidia??

Ailuros hat geschrieben:
Man merkt es leider auch heute noch. NVIDIA ist heute da wo sie sind weil sie es sich erarbeitet und verdient haben; genau das gleiche gilt fuer 3dfx. Sie haben "hart" und wohlverdient auf ihren Eingang schon seit 1998 angestrebt. Da kannst Du gerne Leuten wie Ballard ein paar "Liebesworte" dazu ins Ohr fluestern.

Wer ist Ballard?

3dfx hat natürlich eine Menge Fehler gemacht, das kann man nicht von der Hand weisen.

Ailuros hat geschrieben:
Serie5 ist fuer den gleichen Zeitraum wie konkurrierende chips vorgesehen und bis jetzt laeuft Gott sei Dank alles nach Plan. Fuer jemand der wenigstens ein bisschen mit den Ideen des P10 begeistert war wird er sicher eine interessante voll programmierbare Studie sein und fuer IMG hoffentlich ein sehr potentes Technologie-Werbe Material fuer weitere Maerkte und IP deals was auch ihr wares Ziel ist.

Mich interessiert primär nicht der Erfolg von PowerVR oder IMG, sondern dass den beiden Platzhirschen mal etwas Dampf gemacht wird. Dazu bedarf es Hardware, die man anfassen und kaufen kann. Den Rampage konnte man z.B. nie kaufen, weshalb es letztlich egal ist, wie gut oder schlecht er war.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 31 Okt 2003 01:29 
Offline
User
Benutzeravatar

Registriert: 29 Aug 2001 19:58
Beiträge: 616
also, langsam nervt diese diskussion, weil ihr immer absichtlich am anderen vorbeiredet

aths hat geschrieben:
Du rechnest doch nicht ersthaft mit Slideshows, wenn Doom3 auch nur auf einer GF4 Ti läuft? Von der 5900 ganz zu schweigen...

es ging hier doch um leistungseinbruch bei dynamischen schatten, nicht um doom3 direkt

wegen AA4free:
da gebe ich aths recht, selbst wenn der performance-unterschied zwischen nicht-AA und das-beste-AA-der-welt nur 0,1% ist, so ist es eben trotzdem nicht for free.
der einzige weg, es wirklich for free zu haben, wäre AA ohne leistungseinbruch komplett per hardware zu verwirklichen

wegen vaporware bei powervr:
dass du da auch ewig drauf rumhacken musst. serie 5 ist für ende des jahres angekündigt (zumindest die testsamples)
das es keine vaporware ist, sollte klar sein, denn das einzigste produkt, dass man vaporware nennen könnte, ist serie 4
und was da passiert ist wissen wir alle
- und wenn du zweifel hast, dass da was kommt, dann warte gefälligst dieses jahr noch ab, dann siehst du es ja - oder eben nicht
jetzt hier von vaporware zu reden ist jedenfalls einerseits gewagt, weil es doch sehr wahrscheinlich ist, dass der chip kommt, andererseits fehl am platz, weil es ein powervr-forum ist

kann man sich auf diesen konsens mal einigen ?
manche diskussionen sind so sinnlos....

_________________
Du willst Respekt? Knie nieder und bettle darum!

http://www.notcpa.org
http://www.bpjs-klage.de

http://www.ccc.de/campaigns/boycott-musicindustry
Bild


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 31 Okt 2003 02:04 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Zitat:
Ich kann mich trotzdem nicht entsinnen, dass 4x AA (also mit einer EER von 2x2) von Kyro-Usern wirklich häufig genutzt wurde. (Gleiches gilt für GF2, und GF3 bringt ja schon bei 2x AA die 2x2-EER.)


Soll ich ein oder zwei Seiten in diesem Thread zurueckschlagen wo Du fuer Matrix AA OGSS geraten hast? Noch schlimmer muss ich irgendwie die Andeutung gelesen haben dass es "ok" war fuer den timeframe. Supersampling war nutzbarer als konkurrierende Loesungen der Zeit die SSAA unterstuetzten, period.

Nochmal GF3 kostete auch 400$ und fuer den Preis haette man sogar 4x sparse erwarten koennen, wobei Anisotropic Filtering auch nicht gerade ohne Leistungseinbruch kam.

Zitat:
Ja, sie haben in der Vergangenheit Produkte verkauft. Doch wie lange ist Kyro2 jetzt her?


PowerVR und ImagTech verkaufen staendig auch noch heute Produkte ausserhalb vom PC desktop space. Manche sogar aeusserst erfolgreich.

Zitat:
Die IMR-Architektur kommt dann der TBDR-Effizienz deutlich näher, da sie aber für TBDR dann auch keine Transistoren haben, können diese woanders eingesetzt werden.


Versteh nicht was Du meinst. Kannst Du das mal aufklaeren?

Zitat:
Und für Multichip-Konfigurationen.


Und? 2*175 fuer zwei chips in Bandbreite und Fuellrate.

NV25= 300*8= 2400MTexels/sec
Avalanche= 2*175*8= 2800MTexels/sec

Rein theoretisch.

Zitat:
Sieht man die sehr magere Manpower die Bitboys haben, finde ich erstaunlich was sie entwickelten. Die ganze Vaporware mag dann bei dem einen oder anderen zu Belustigungen geführt haben, ich bedaure dass diese Chips nie in Serie gingen.


Ich bedaure es auch nur wurde ich von einem gewissen Punkt allergisch gegen deren Hype, bis sie endlich eingesehen haben dass es eher als Bumerang arbeitet und extrem still wurden. Ich hab persoenlich nichts gegen deren Erfolg einzuwenden.

Zitat:
2,5x Overdraw ist eine Annahme, die nicht für jedes Spiel gilt 14 GB/Sekunde * 2 sind schon 28 GB, dazu kommt dann "echte" Füllrate, welche natürlich durch opaquen Overdraw teilweise unsichtbar verballert wird. Gute Engines minimieren den Overdraw von sich aus, vereinfacht gesagt: Je besser die Engine, desto weniger Vorteile durch TBDR.


Zum fettgedruckten: basierend auf welche Resultate? KYRO hat eine bessere Leistung in Serious Sam im Vergleich zu Q3a, nur weil die letztere nach dual texturing auf multipass "forced". Dabei ist die BSP in Q3a mehr als nur primitiv. Ich weiss dass Du auf "low level HSR" zielst, es spart aber trotzdem an Fuellrate. Um auf 60fps in 1280*1024 in Q3a zu kommen braucht eine Karte theoretisch ~1GPixels/sec Fuellrate. Du kannst ja gerne alte Leistungszahlen nachblaettern und mir dann erklaeren wie eine K2 mit nur 350MPixels/sec zu diesen - mit dem miesen BSP von Q3a - in 1280 kam.

Wer sagt dass portal rendering z.B. von Nachteil auf einem TBDR ist?

Nochmal Q3a hat ein durchschnittliches Overdraw von 3.39 und Serious Sam liegt zwischen 4 und 5.

Zitat:
Hasse ich Nvidia??


Hoffentlich nicht :)

Zitat:
Wer ist Ballard?


*aechz* Ich hab jetzt keine Zeit lange Geschichten zu erzaehlen aber wenn 3dfx einen CEO hatte den man als "major cluster f*ck" bezeichnen koennte dann ist es Ballard. Wundere Dich nicht wenn Du komische Geschichten ueber "money grabbing hands" in Relation zum Herrn mal hoeren solltest.

Zitat:
Mich interessiert primär nicht der Erfolg von PowerVR oder IMG, sondern dass den beiden Platzhirschen mal etwas Dampf gemacht wird. Dazu bedarf es Hardware, die man anfassen und kaufen kann. Den Rampage konnte man z.B. nie kaufen, weshalb es letztlich egal ist, wie gut oder schlecht er war.


Ich hielt und halte es genauso moeglich dass jeglicher kleine IHV so wie der Markt heutzutage ausgelegt ist es je soweit bringen wird, als dass SONY mal einen Graphikchip fuer eine ihrer Consolen lizenziert.

Dabei brauch ich nicht den gleichen Quatsch staendig wiederholen. Aufsehen zu erregen und ein paar Millionen chips zu verkaufen ist IMO keine feiste Konkurrenz. Wenn IMG einen Partner geangelt hat der bereit ist dick einzuschlagen und jedes Jahr von >Serie5 volle top to bottom Produktlinien zu veroeffentlichen, dann haben sie vielleicht nach zwei oder Generation-Releases die Chance wirklich zu konkurrieren. Ob es moeglich ist haengt wohl von dem Erfolg von Serie5 ab.

Gleiches gilt mehr oder weniger auch fuer die anderen "Kleinen".

Last but not least: je mehr Einnahmen eine Firma hat desto mehr koennen sie in R&D investieren, und diese sind in letzter Zeit im Aufschwung bei IMG. Waere es nicht der Fall gewesen waere ein so kompliziertes Projekt wie S5 nie moeglich gewesen. Es ist noch zu frueh fuer einen derartigen chip, ob Du es jetzt glauben willst oder nicht. Jedes zu seiner Zeit.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 31 Okt 2003 20:34 
Offline
User

Registriert: 01 Feb 2002 11:03
Beiträge: 1
Ailuros hat geschrieben:
Mboeller hat recht. Im Oktober 2002 machte John Metcalfe eine generelle Ankuendigung bei EE-times dass Serie5 ihr Debut in 2003 auf 13nm habe wird.

Wie dem auch sei wird man Kritik wohl schwer entgehen koennen; entweder Kritik fuer einen Paper-launch oder Kritik fuer die spaetere als vorangesagte Ankuendigung.



Nun ja vielleicht geht alles doch etwas schneller, nachdem IMG jetzt neue DX9 PS3.0 / VS 3.0 Demos veröffentlicht hat (Danke für die News :D ).

IMG würde doch keine DX9-Demos veröffentlichen, wenn der Chip nicht fast fertig wäre. Vielleicht kommt auf der Comdex doch noch ein richtiger Launch. >Daumen drück³<


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 31 Okt 2003 21:58 
Offline
Site Admin
Benutzeravatar

Registriert: 03 Aug 2001 18:30
Beiträge: 1656
Wohnort: Ostseeküste
mboeller hat geschrieben:
Vielleicht kommt auf der Comdex doch noch ein richtiger Launch. >Daumen drück³<


Nein.

_________________
MfG
Loewe
~~~~~~~~~~~~~~~~~~~
webmaster of deferred Power
~~~~~~~~~~~~~~~~~~~
If you can hack it, just hack it, don`t bother with details!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 01 Nov 2003 01:07 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
mboeller,

Wenn ich was metaphorisch sage, sollte man es nicht unbedingt als wortwoertlich nehmen. Mehrere Interpretationen sind auch moeglich.

MTB-Psycho,

Zitat:
kann man sich auf diesen konsens mal einigen ?
manche diskussionen sind so sinnlos....


Um Missverstaednissen zu entgehen:

a) Ja die Debatte ist mehr oder weniger sinnlos.

b) Meine Meinung zu aths aendert diese oder jegliche andere leicht erhitzte Diskussion kein bisschen, ich hab den Kerl weiterhin gern und schaetze ihn fuer seine Meinungen in den meisten Faellen und seine Artikel. Nun gut er geht mir oft auf den Wecker im relativen Sinn aber wir sind beide Erwachsene; passiert in den besten Familien. :)

Passiert natuerlich nur meistens hier und nicht bei 3DCenter, aber mich interessiert der Grund nicht unbedingt. Wie man so schoen im Englischen sagt: no hard feelings :)


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 01 Nov 2003 13:17 
Offline
User
Benutzeravatar

Registriert: 29 Aug 2001 19:58
Beiträge: 616
naja ganz so war es nicht gemeint, das "sinnlos" bezog sich nur auf genannte 3 punkte

aber gut zu wissen, dass es nicht in einem richtigen streit endet :)

aber mal zum thema (mehr oder weniger)

die 3 neuen demos sind ja auf jeden fall dazu gedacht,
1. beeindruckendes material auf serie 5 zu präsentieren
2. die karte auszulasten
3. zeigen, in welchen punkten man der konkurrenz überlegen ist

nun bin ich ja alles andere als gebildet, was 3d rendering angeht - aber könnte man aus den demos nicht so halbwegs ablesen, was so an geschwindigkeit und features kommen werden ?

_________________
Du willst Respekt? Knie nieder und bettle darum!

http://www.notcpa.org
http://www.bpjs-klage.de

http://www.ccc.de/campaigns/boycott-musicindustry
Bild


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 01 Nov 2003 19:15 
Loewe hat geschrieben:
mboeller hat geschrieben:
Vielleicht kommt auf der Comdex doch noch ein richtiger Launch. >Daumen drück³<


Nein.



IMHO; Seltsam !

IMG veröffentlicht VS3.0 + PS3.0 - Demos und man kann diese Demos monatelang nicht nutzen, weder auf den eigenen Chips (S5), noch auf anderen Chips (NV40 + R420).

Welchen Sinn macht es dann, jetzt diese Demos zu veröffentlichen? Will man sich wieder in's Gespräch bringen? Will man die "Fans" veräppeln?

Solche Demo's machen aus meiner Sicht nur Sinn, wenn man diese dann zumindest in Kürze (1-2 Monate) auf eigener Hardware öffentlich vorführen kann, da ansonsten die gesamte Wirkung der Demos verpufft (man vergisst sie einfach). Noch schlimmer wäre es natürlich, wenn diese Demos zuerst einmal auf anderer Hardware laufen würden, weil man "zu spät dran" ist. Das wäre dann ein zienlich großer Image-Schaden.

IMHO muss IMG alles daran setzen, diese Demos auf eigener Hardware zuerst laufen zu lassen; und zwar öffentlich vor möglichst vielen Menschen. Und die kommende Comdex wäre die ideale Bühne dafür. Da von der Konkurrenz noch nichts zu sehen ist (und aufgrund der NV38 und R360 auf der Comdex auch nix zu sehen sein wird) würde IMG mit einer Demonstration ihrer Hardware auf der Comdex wirklich mächtig Eindruck schinden und sozusagen "Die Bombe platzen lassen". Das wäre imho sehr wichtig für sie.

grüsse

mboeller


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 01 Nov 2003 19:49 
Offline
Site Admin
Benutzeravatar

Registriert: 03 Aug 2001 18:30
Beiträge: 1656
Wohnort: Ostseeküste
Anonymous hat geschrieben:
Loewe hat geschrieben:
mboeller hat geschrieben:
Vielleicht kommt auf der Comdex doch noch ein richtiger Launch. >Daumen drück³<


Nein.



IMHO; Seltsam !

IMG veröffentlicht VS3.0 + PS3.0 - Demos und man kann diese Demos monatelang nicht nutzen, weder auf den eigenen Chips (S5), noch auf anderen Chips (NV40 + R420).

Welchen Sinn macht es dann, jetzt diese Demos zu veröffentlichen? Will man sich wieder in's Gespräch bringen? Will man die "Fans" veräppeln?


Wie bei 3DCenter schon von jemandem gepostet, die Demos gehören zum Buch Shader X2, wo bekanntlich drei Leute von PowerVR mit gearbeitet haben. Das Buch soll nach Amazon im Januar 2004 erscheinen.



Anonymous hat geschrieben:
Solche Demo's machen aus meiner Sicht nur Sinn, wenn man diese dann zumindest in Kürze (1-2 Monate) auf eigener Hardware öffentlich vorführen kann, da ansonsten die gesamte Wirkung der Demos verpufft (man vergisst sie einfach). Noch schlimmer wäre es natürlich, wenn diese Demos zuerst einmal auf anderer Hardware laufen würden, weil man "zu spät dran" ist. Das wäre dann ein zienlich großer Image-Schaden.

IMHO muss IMG alles daran setzen, diese Demos auf eigener Hardware zuerst laufen zu lassen; und zwar öffentlich vor möglichst vielen Menschen. Und die kommende Comdex wäre die ideale Bühne dafür. Da von der Konkurrenz noch nichts zu sehen ist (und aufgrund der NV38 und R360 auf der Comdex auch nix zu sehen sein wird) würde IMG mit einer Demonstration ihrer Hardware auf der Comdex wirklich mächtig Eindruck schinden und sozusagen "Die Bombe platzen lassen". Das wäre imho sehr wichtig für sie.


Ich bin kein Angestellter PowerVRs und verfüge auch über keinerlei offizielle Infos zum Thema.
Sicher ist nur, PowerVR ist sehr weit mit Serie 5, vielleicht weiter als die anderen, aber eine lauffähige Grafikkarte auf der Comdex würde meiner Meinung nach eher einem Wunder gleich kommen, aber nichts ist unmöglich! :lol:

_________________
MfG
Loewe
~~~~~~~~~~~~~~~~~~~
webmaster of deferred Power
~~~~~~~~~~~~~~~~~~~
If you can hack it, just hack it, don`t bother with details!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 02 Nov 2003 06:39 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
(hinzufueg)

mboeller,

Es war Demirug glaube ich der den Nagel bei 3DCenter als Erster auf den Kopf getroffen hat: wenn die demos mit dem ShaderX Buch schon oeffentlich sind, macht es auch Sinn diese demos fuer ein breiteres Publikum verfuegbar zu machen. Anscheinend (nach Kristof bei B3D) werden auch die Artikel des Buchs bald veroeffentlicht und sollen mehr Aufklaerungen zu den technischen Details der demos geben.

Zitat:
Da von der Konkurrenz noch nichts zu sehen ist (und aufgrund der NV38 und R360 auf der Comdex auch nix zu sehen sein wird) würde IMG mit einer Demonstration ihrer Hardware auf der Comdex wirklich mächtig Eindruck schinden und sozusagen "Die Bombe platzen lassen". Das wäre imho sehr wichtig für sie.


Die Frage ist ob es schon praesentable Hartware gibt. Wuerden sie die demos bei Comdex auf einem Simulator z.B. zeigen nun das waere natuerlich laecherlich. NVIDIA hat vom NV40 ein paar masks gezeigt bei der letzten Presse-Konferenz was wohl auf einen tape out deutet; bis zum finalen Silizium braucht NV40 in dem Sinn zumindest 16 Wochen was Du aber schon weisst (siehe Deinen vorigen Post).


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 02 Nov 2003 08:52 
Offline
User
Benutzeravatar

Registriert: 11 Aug 2001 15:50
Beiträge: 994
Allerdings frage ich mich warum sie diese Demos ausgerechnet im PowerVR PC SDK veröffentlichen. Die dort gezeigten Demos dienen doch eigentlich zu zeigen was auf PowerVR-Hardware möglich ist bzw. Tipps und Kniffe zu geben wie die PowerVR-Hardware optimal genutzt wird.
Eine Veröffentlichung auf http://www.powervr.com hätte dann doch völlig gereicht, wenn sie "nur" zum Shader X² Buch gehören. Auch frage ich mich dann warum ausgerechnet PowerVR diese Demos schreiben sollte, wenn sie nicht daran arbeiten.

CU ActionNews

_________________
Mein System - one click ahead!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 03 Nov 2003 12:47 
Offline
User

Registriert: 08 Aug 2001 12:08
Beiträge: 130
ActionNews hat geschrieben:
Allerdings frage ich mich warum sie diese Demos ausgerechnet im PowerVR PC SDK veröffentlichen. ...


Oder irgendein webmaster hat's einfach nur auf die falsche seite gestellt.

_________________
Rock and Roll aint noise pollution!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 04 Nov 2003 15:47 
Offline
User
Benutzeravatar

Registriert: 06 Sep 2001 17:23
Beiträge: 304
Ailuros hat geschrieben:
Soll ich ein oder zwei Seiten in diesem Thread zurueckschlagen wo Du fuer Matrix AA OGSS geraten hast? Noch schlimmer muss ich irgendwie die Andeutung gelesen haben dass es "ok" war fuer den timeframe.

Fast keiner bot mehr. Du weißt, dass ich kein Freund von OGSSAA bin, weshalb ich im Thread mehrfach meinte, dass die Bitboys hier hätten nachlegen müssen, bei Folge-Chips. Blurring ist per se inakzeptabel.

Ailuros hat geschrieben:
Nochmal GF3 kostete auch 400$ und fuer den Preis haette man sogar 4x sparse erwarten koennen, wobei Anisotropic Filtering auch nicht gerade ohne Leistungseinbruch kam.

AF kann nicht ohne großen Leistungseinbruch kommen, wenn es gut aussehen soll. Auch mit trilinearen TMUs wird es weiterhin derbe Einbrüche geben. Das finde ich besser, als nur ein "optimiertes" AF vorgesetzt zu bekommen, was schneller ist, aber über die Winkel verteilt weniger "Gesamt-Anisotropie" bringt. Wie bei 3dc zu sehen, beschäftigt mich im Moment u. A. das AF "der reinen Lehre" (was übrigens kein sparsed AF ist.) Ein AF "der reinen Lehre" ist nunmal füllratenaufwändig. (Sparsed kostet noch mal deutlich mehr Füllrate, und das für einen sehr kleinen Qualitätsgewinn.) Bei dem AF "der reinen Lehre" ist das Verhältnis von Qualitätsverbesserung pro Leistungsverlust am besten. ATI kann mal nach Hause gehen mit ihrer AF-Implementierung, und NV soll gefälligst aufhören, ab 4:1 bei den 45°-Winkeln auch zu "optimieren".

Dass GF3 und damit auch GF4 bei 4x auf OGAA setzten, ist noch für halbwegs nachvollziehbar, der FX nehme ich das allerdings richtig krumm.

Kleine Spitze gegen Kyro: Der Leistungseinbruch bei TF ist afaik Besorgnis erregend. Fast jede Karte verliert theoretisch mit TF gleich mal 50% der Füllrate, aber zu spüren war das wohl nur bei der Kyro so heftig (auch wenn's afaik ein Bandbreiten- und kein Füllratenproblem war...??)

Ailuros hat geschrieben:
PowerVR und ImagTech verkaufen staendig auch noch heute Produkte ausserhalb vom PC desktop space. Manche sogar aeusserst erfolgreich.

Schön :) Mich persönlich interessieren diese Produkte außerhalb des PCs aber nicht. Höchstens technisch, aber ich plane in absehbarer Zukunft nicht, da was entsprechendes zu kaufen.

Ailuros hat geschrieben:
Versteh nicht was Du meinst. Kannst Du das mal aufklaeren?

Ein TBDR braucht fürs TBDR entsprechende Logik, also Transistoren. Ein IMR kann darauf verzichten, und die Transistoren für andere Effizienz steigernde Maßnahmen "ausgeben", bzw. für zusätzliche Features, oder mehr Shader-Power, oder besseres AA, oder was weiß ich :)

Ailuros hat geschrieben:
Zum fettgedruckten: basierend auf welche Resultate? KYRO hat eine bessere Leistung in Serious Sam im Vergleich zu Q3a, nur weil die letztere nach dual texturing auf multipass "forced". Dabei ist die BSP in Q3a mehr als nur primitiv. Ich weiss dass Du auf "low level HSR" zielst, es spart aber trotzdem an Fuellrate. Um auf 60fps in 1280*1024 in Q3a zu kommen braucht eine Karte theoretisch ~1GPixels/sec Fuellrate. Du kannst ja gerne alte Leistungszahlen nachblaettern und mir dann erklaeren wie eine K2 mit nur 350MPixels/sec zu diesen - mit dem miesen BSP von Q3a - in 1280 kam.

Wer sagt dass portal rendering z.B. von Nachteil auf einem TBDR ist?

Nochmal Q3a hat ein durchschnittliches Overdraw von 3.39 und Serious Sam liegt zwischen 4 und 5.

Genau das ist das Problem: Solch hoher Overdraw ist kein Zeichen für eine "gute" (= gut optimierte) Engine. Bessere (= besser optimierte) Engines haben besseres HSR und weniger opaquen Overdraw. (Es darf imo angenommen werden, dass z. B. Max Payne 2 deutlich weniger Overdraw hat, als Serious Sam.) Durch Portale etc. hat der TBDR nicht direkt in einen Nachteil, jedoch schrumpft sein Vorteil. Gehts um transparenten Overdraw, braucht's ohnehin "echte" Füllrate. Füllrate klug einzusetzen wird in Zukunft dank dem First-Z-Pass deutlich einfacher. Diese Lösungen werden echte TBDR-Effizienz nicht ganz erreichen, das stimmt natürlich. Dafür war es bislang so, dass IMR viel mehr Rohpower als TBDR hatten.

NV40 könnte etwa 4 trilineare Gigatexel Füllrate haben. Ob Series5 in der gleichen Liga spielen wird?

Ailuros hat geschrieben:
*aechz* Ich hab jetzt keine Zeit lange Geschichten zu erzaehlen aber wenn 3dfx einen CEO hatte den man als "major cluster f*ck" bezeichnen koennte dann ist es Ballard. Wundere Dich nicht wenn Du komische Geschichten ueber "money grabbing hands" in Relation zum Herrn mal hoeren solltest.

Hrr hrr.

Ailuros hat geschrieben:
Last but not least: je mehr Einnahmen eine Firma hat desto mehr koennen sie in R&D investieren, und diese sind in letzter Zeit im Aufschwung bei IMG. Waere es nicht der Fall gewesen waere ein so kompliziertes Projekt wie S5 nie moeglich gewesen. Es ist noch zu frueh fuer einen derartigen chip, ob Du es jetzt glauben willst oder nicht. Jedes zu seiner Zeit.

Erst sollte der Chip, wie mir gesagt wurde, gegen den NV30 antreten. Jetzt gegen den NV40... die Shader 3.0-Demos sind für mich das erste Zeichen, dass da wirklich was kommen könnte.


Zuletzt geändert von aths am 04 Nov 2003 16:12, insgesamt 5-mal geändert.

Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 04 Nov 2003 15:55 
Offline
User
Benutzeravatar

Registriert: 06 Sep 2001 17:23
Beiträge: 304
MTB-ThePsycho hat geschrieben:
manche diskussionen sind so sinnlos....

Sehe ich gar nicht so. Einerseits ist "dank" uns auf dem Board überhaupt mal wieder ein klein bisschen Traffic, andererseits sind Diskussionen mit Ailuros ein Genuss. Er gehört zu den bestinformierten Leuten der Szene, die ich kenne, und ich schätze es sehr, dass er sich hin und wieder in deutschsprachigen Foren herumtreibt.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 05 Nov 2003 20:29 
Offline
User
Benutzeravatar

Registriert: 29 Aug 2001 19:58
Beiträge: 616
nochmal zum mitschreiben:
ich meinte wirklich nicht eure diskussion an sich, die begrüße ich sehr

was ich mit sinnlos meinte, ist
a) das mißverständnis (das eigentlich schon nach absicht aussah) bei stencil-sonstwas
b) die streiterei um den begriff "AA4free"
c) vaporware bei powervr

---

übrigens sehe ich das mit den 3dengines nicht so.

es ist - meiner auffassung nach - nicht aufgabe der engine, das rendering zu optimieren
man macht das zwar, um den grafikkarten etwas unter die arme zu greifen, generell wäre es aber schöner, wenn alle karten TBDRs wären und sich die engine um sowas nicht mehr kümmern müsste
- wunschdenken, ja, aber ein ideal, das man anstreben könnte.

der andere punkt ist: "no lunch is for free"
heisst:
die zusätzlichen berechnungen, die die engine leisten muss, machen sich natürlich an anderer stelle wieder bemerkbar - am prozessor
denn generell wäre es natürlich denkbar, dass die engine selbst berechnet was sichtbar ist und was nicht und nur das nötigste zum rendern weitergibt - aber das wäre tötlich, weil jeder prozessor einfach überfordert wäre

und mit doom3, half-life2 und dem nächsten ut wird das thema grafik erstmal ausgelutscht sein.
jetzt stehen erstmal sachen wie physik-engine oder noch intelligentere KIs im vordergrund und da ist ein prozessor, der mit z-tests ausgelastet ist, sehr hinderlich

_________________
Du willst Respekt? Knie nieder und bettle darum!

http://www.notcpa.org
http://www.bpjs-klage.de

http://www.ccc.de/campaigns/boycott-musicindustry
Bild


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 05 Nov 2003 22:23 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Zitat:
AF kann nicht ohne großen Leistungseinbruch kommen, wenn es gut aussehen soll. Auch mit trilinearen TMUs wird es weiterhin derbe Einbrüche geben. Das finde ich besser, als nur ein "optimiertes" AF vorgesetzt zu bekommen, was schneller ist, aber über die Winkel verteilt weniger "Gesamt-Anisotropie" bringt. Wie bei 3dc zu sehen, beschäftigt mich im Moment u. A. das AF "der reinen Lehre" (was übrigens kein sparsed AF ist.) Ein AF "der reinen Lehre" ist nunmal füllratenaufwändig. (Sparsed kostet noch mal deutlich mehr Füllrate, und das für einen sehr kleinen Qualitätsgewinn.) Bei dem AF "der reinen Lehre" ist das Verhältnis von Qualitätsverbesserung pro Leistungsverlust am besten. ATI kann mal nach Hause gehen mit ihrer AF-Implementierung, und NV soll gefälligst aufhören, ab 4:1 bei den 45°-Winkeln auch zu "optimieren".


Ich bin auch nicht gerade verrueckt ueber die Winkel-Abhaengigkeit in ATI's Anisotropy, aber eine Panacea ist es bei weitem nun auch wieder nicht. Wenn man z.B. einen hochratigen flight sim spielt, eine Aussencamera benutzt und das Flugzeug oft zu den Seiten dreht ("bank"), dann ist der Unterschied unter Umstaenden zu sehen fuer ein trainiertes Auge, sonst muss man eigentlich in anderen Spielen zu extremen wall-hugging kommen. Bei diesem Beispiel uebrigens sehen 8xS oder 6x sparse auch bekloppt aus und ich poste es nur aus dem Grund dass es tatsaechlich ein worst case scenario ist.

Wie oft und wie lange hast Du persoenlich schon mit einer R3xx Spiele wirklich durchgespielt?


Zitat:
Kleine Spitze gegen Kyro: Der Leistungseinbruch bei TF ist afaik Besorgnis erregend. Fast jede Karte verliert theoretisch mit TF gleich mal 50% der Füllrate, aber zu spüren war das wohl nur bei der Kyro so heftig (auch wenn's afaik ein Bandbreiten- und kein Füllratenproblem war...??)


KYRO war ein 1999 Design mit leichten Verbesserungen im Vergleich zu Serie2, wobei vieles auch der AF-Algorithmus einfach rueberkopiert wurden.

Zitat:
Schön Mich persönlich interessieren diese Produkte außerhalb des PCs aber nicht. Höchstens technisch, aber ich plane in absehbarer Zukunft nicht, da was entsprechendes zu kaufen.


Egal ob sie Dich persoenlich interessieren oder nicht. Es ging darum ob PowerVR total unanwesend sind im Spiele-Markt. Arcade Maschinen benutzen auch Spiele und in manchen Maerkten geht deren Anteil ueber 60% hinaus.

Zitat:
Ein TBDR braucht fürs TBDR entsprechende Logik, also Transistoren. Ein IMR kann darauf verzichten, und die Transistoren für andere Effizienz steigernde Maßnahmen "ausgeben", bzw. für zusätzliche Features, oder mehr Shader-Power, oder besseres AA, oder was weiß ich.


Was fuer entsprechende Logik und bei welcher Anzahl von Transistoren? Ich moechte genaue Details hoeren und nicht "was weiss ich" Stichpunkte oder schamlose Kopien von Kirk's Marketing-Geblubber.

Zitat:
Genau das ist das Problem: Solch hoher Overdraw ist kein Zeichen für eine "gute" (= gut optimierte) Engine. Bessere (= besser optimierte) Engines haben besseres HSR und weniger opaquen Overdraw. (Es darf imo angenommen werden, dass z. B. Max Payne 2 deutlich weniger Overdraw hat, als Serious Sam.) Durch Portale etc. hat der TBDR nicht direkt in einen Nachteil, jedoch schrumpft sein Vorteil.


Es wird trotzdem Fuellrate gespart mit portal rendering.

Zitat:
NV40 könnte etwa 4 trilineare Gigatexel Füllrate haben. Ob Series5 in der gleichen Liga spielen wird?


Du glaubst doch nicht allen Ernstes, dass ich Dir die Frage beantworten werde oder?

NV30 hat eine theoretische Fuellrate von 4.0GigaTexels/sec (nicht trilinear). Nun vergleiche mal die gemessenen effektiven Fuellraten von NV30 oder NV35 gegen die realen Fuellraten die ein jeglicher R3xx erreicht. Nur ein Wort: Effizienz.

Im gegebenen Fall ist nicht die Frage wie hoch die theoretische Fuellrate des NV40 auf Papier sein wird, sondern sein reale Fuellraten Effizienz.

***edit (for accuracy's sake):

NV38@475MHz vs. R350@380MHz:

Bild

http://www.beyond3d.com/forum/viewtopic.php?t=8869

Zitat:
Erst sollte der Chip, wie mir gesagt wurde, gegen den NV30 antreten. Jetzt gegen den NV40... die Shader 3.0-Demos sind für mich das erste Zeichen, dass da wirklich was kommen könnte.


ST Microelectronics lizenzierte Serie5 = PS/VS2.0+ (target NV35)

Heutige Serie5+ ist ein ganz anderes Tier; in Realitaet so radikal geaendert dass es fast gar keine Aehnlichkeiten mehr mit dem Ding oben hat.

Ich hab schon einen Vorschlag gemacht fuer ein interessantes zukuenftiges demo: ein flight sim demo mit extrem komplizierten und Polygon-reichem terrain, am Besten mit dynamischem LOD.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 06 Nov 2003 08:28 
Ailuros;

dein Chart enthält einen Fehler. micb vergleicht hier eine R9800 non pro mit einer FX5950. Die R9800 läuft also so mit 325MHz (?).

Er schreibt sogar :
Zitat:

As the ATI 9800 Pro and 9800 XT are even faster it make you think doesn't it.


:arrow: obwohl die FX um 46% höher getaktet wird kann sie sich nicht von der R9800 absetzen. Über die PS1.x - 2.0 Ergebnisse brauchen wir erst gar nicht reden.

mboeller


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 06 Nov 2003 14:00 
Regarding Bitboys;

auf Beyond3D hat jemand den alten "DelayStreams" - Thread wieder einmal aufgeweckt. Da Petri Nordlund daran mitgearbeitet hat kann ich mir gut vorstellen, das Bitboys dieses System auch für neuere Desktop-Chips benutzt hätte, bzw für die neuen Mobile-Chips benutzt. Ein Chip mit eDRAM würde von dem DE-AA sehr gut profitieren, da es sehr viel Speicherplatz spart.

Das ganze System erinnert mich übrigens jetzt sehr stark an das letzte IMG-Patent mit dem Vertex-Culling (sieht man imho sehr schön in der Präsentation). Er wäre doch Klasse, wenn IMG dieses System, in an einen TBDR angepasster Form, zusammen mit dem DiscontinuityEdge AA implementiert hätte.
Ein TBDR könnte das nicht 100%ig funktionierende DE-AA mit einem 2x2 Sparsed MSAA kombinieren um die Qualität noch weiter zu verbessern ohne das es, wie bei einem IMR zu einem höheren Speicher- und Bandbreitenbedarf kommt.
Order Independent Transparencies schaffen TBDR ja auch so schon, deshalb sollte dieses Verfahren hier nicht so wichtig sein.

Links :
http://www.hybrid.fi/research_delaystreams.html

Das PDF gibt einen schönen Überblick, und die Präsentation hat ein paar Videos, die vor allem das DE-AA gut darstellen.


PS.: dPVS / http://www.hybrid.fi/dpvs.html / scheint eine Art Software-Occulsion Culler zu sein, den man einfach zwischen Game-Engine und Treiber steckt ( ;) ) um damit Füllrate zu sparen. aths, das scheint ja so was zu sein, wie du es von einer intelligenten Game-Engine erwartest.



mboeller


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 06 Nov 2003 16:32 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Anonymous hat geschrieben:
Ailuros;

dein Chart enthält einen Fehler. micb vergleicht hier eine R9800 non pro mit einer FX5950. Die R9800 läuft also so mit 325MHz (?).

Er schreibt sogar :
Zitat:

As the ATI 9800 Pro and 9800 XT are even faster it make you think doesn't it.


:arrow: obwohl die FX um 46% höher getaktet wird kann sie sich nicht von der R9800 absetzen. Über die PS1.x - 2.0 Ergebnisse brauchen wir erst gar nicht reden.

mboeller


Danke fuer die Korrigierung mboeller.

Es aendert wenig an das auf was ich hinaus wollte; ganz im Gegenteil es ist noch schlimmer.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 06 Nov 2003 17:17 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Zitat:
Das ganze System erinnert mich übrigens jetzt sehr stark an das letzte IMG-Patent mit dem Vertex-Culling ...


Vertex Culling Patent? Muss ich verpasst haben. Bis jetzt hab ich noch kein Patent gesehen dass IMO eine gute all around Loesung fuer Vertex culling waere, aber die Dinger brauchen ja auch ewig bis sie veroeffentlicht werden.

DelayStreams thread:

http://www.beyond3d.com/forum/viewtopic ... ght=delay*

Ich wuerde es hierarchical tiling nennen:

http://www.beyond3d.com/forum/viewtopic.php?t=758

Eigentlich nur eine Methode wenn binning space zu stark ueberfuellt wird. Radeons spielen mit macro/micro tiling schon seit einiger Zeit im back buffer herum AFAIK.

http://www.beyond3d.com/forum/viewtopic.php?t=2693

<snip>

Zitat:
For MRT's, well there's already an on onchip tile buffer, why wouldn't you use it ? Actually TBR is better suited to MRT's as its able do dish out longer bursts to targets that aren't necessarily local to each other, means fewer page breaks hence better performance. +...


Plus what? *kicher* Scharf nachdenken hehehe.

arjan de lumens kommt verdammt nahe ran:

Zitat:
With a decent memory subsystem (128-bit DDR2 would count as "decent") a well-designed tiler should be able to push 100+ million polys per second before binning becomes the bottleneck - this should be enough to handle even scenes dominated by HOSes and displacement mapping at a decent frame rate.

The way I see it, the best way for IMG to get rid of the perception that tilers are bottlenecked with the binning issue would be to announce actual support for N-patches+displacement mapping. This would indicate at least faith that their architecture is ready for the heavy-duty polygon pushing that will follow. If they don't support it, well .. too bad.

Also, if they are going for the high end, they need to implement some sort of Multisampling as well - which I expect should be rather easy in a tiler?


Wavey:

Zitat:
With long shaders coming along its not all going to be about bandwidth though is it? Its about how long its going to take to produce each pixel. IMR’s Z rejection schemes are cutting down the amount of occluded pixel being rendered, but so far they are have far from a 100% hit ratio, which is something that TBR can guarantee.


Nochmal fuer die die es verpasst haben bis jetzt:

IMHO haben TBDRs genauso viele Vor- wie Nachteile als auch IMRs. Ich wuerde nie soweit kommen und ein TBDR System als den absoluten Gewinner unter allen Situationen ansehen, jedoch das Gegenteil auch nicht.

KYRO hatte einen gigantischen Nachteil der seinen Bandwidth Vorteil gegenueber gleich-spezifizierten IMRs absolut minimalisierte: vertex data througput oder vertex bandwidth. IMG/PowerVR muss also unter anderem eine effiziente Loesung gefunden haben um derartige Probleme zu ueberwinden.

Das ewige binning Problem ist nicht so gross oder ein so problematischer Faktor dass es einen heutigen TBDR aufhalten koennte. Als Beispiel - Doom3 rendering - man kann auf einen Vorteil von stencil Fuellraten hier raten und einen Nachteil des early Z Aufbaus der engine wobei parameter bandwidth einen TBDR zu stark aufhalten koennte. Ich frage nur was waere wenn ein aehnliches wie early Z Verfahren + Z data/pointer compression Verfahren eingesetzt wird? Einen grossen Vorteil kann ich zwar danach nicht mehr sehen, aber auch keinen Nachteil.

HOS wurden auch oben erwaehnt, aber man muss sehr stark nachdenken was da vielleicht noch mehr helfen koennte.

Mit hoher Poly-Anzahl leidet ein IMR genauso, zwar aus anderen Gruenden, aber das Resultat ist gleich. Jemand kann ja gerne CTF-DenaliPass fuer UT2k3 herunterladen und im Maschinenraum mit mehr als 4-5 bots herumhuepfen; ich will dann sehen wie toll die Leistung aussieht.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 06 Nov 2003 20:04 
Hi Ailuros;

ich meine die Patente :

WO 03/01 01 17 A2
GB 2 387 094 A
EP 1 35 11 95 A2

Vor allem in dem WO-Patent wird darauf eingegangen soweit ich mich erinnern kann. Bei 3DCenter.de gibt es dazu einen Thread von Demirug.


grüsse

mboeller


Nach oben
  
 
 Betreff des Beitrags:
BeitragVerfasst: 07 Nov 2003 04:44 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Patent ist hier:

http://l2.espacenet.com/espacenet/viewe ... =en&DB=EPD

Und Demi's Erklaerung dazu hier:

Zitat:
Unseren TBDR Freunden hier dürften die Begriffe "Macro Tile" und "Parameter Management" etwas sagen und PowerVR hat in dieser Richtung weiter geforscht.

Die Jungs sind dabei jedenfalls zu der Erkenntniss gekommen das man das was alles so an Daten pro Frame anfällt nicht mehr in den Speicher bekommt ohne davon riesige Mengen zu verbrauchen. Das gleiche gilt für die Bandbreite. Man befrüchtet das wenn man alles einfach so in eine Displaylist speichert auch viel zu viel Bandbreite braucht. Das erste Problem (Speichermenge) will man ja nun laut dem bereits bekannte Patent dadurch lösen das man sobald der Buffer voll ist anfängt einzelne Tiles schon einmal zu rendern. Als Ergebniss dieses Vorgangs erhält man nun einen Z-Buffer (komprimiert), die entsprechenden Framebuffer daten und wieder Platz in der Display-Liste. Nun musste aber noch eine Lösung für das zweite Problem her die man scheinbar gefunden hat. Dort wird eine Art Early-Z für TBDR beschrieben. Es gibt dafür zwei Stufen. In der ersten wird versucht das einladen von einzelnen Teile der Display-List zu unterdrücken indem man vor dem Laden der Details prüft ob das entsprechenden Dreiecksfragment überhaupt noch im sichtbaren bereich liegen kann. Dafür wird ein vorher für dieses Fragment abgespeicherter Z-Wert gegen die aktuell gültige Z-Range des Z-Buffer welcher auf dem Chip ist gebrüft und bei bedarf wird so das gesamte Fragment verworfen und das einladen der Details gespart. Nun scheint man bei PowerVR aber davon überzeugt zu sein das ein teilweise rendern von Tiles in Zukunft häufiger vorkommt den man möchte die Gewonnen Z-Daten (hauptsächlich die Z-Range) der Tiles auch schon im TA (Tile Accelerator) nutzen. Dabei sollen dann dort neue Fragmente noch vor dem speichern dahingehend gebrüft werden ob sie aufgrund ihrer Z-Werte überhaupt sichtbar sein können. Falls das mit Sicherheit ausgeschlossen werden kann werden diese Fragmente direkt verworfen. Dies funktioniert aber nur wenn das neue Dreiecks-Fragment in einer Tile liegt welche schon teilweise bearbeitet wurde aber dieser Fall scheint ja aufgrund der Gedankengänge von PowerVr nun häufiger vorzukommen. Es sieht wohl schwer danach aus das sich PowerVR entgültig von der Idee des totalen DR verabschiedet hat und den Z-Buffer als Mittel zur Bandbreiten und Speichermengen Reduktion entdeckt hat. Nun gut dadurch besteht dann zumindestens die Möglichkeit das sie auch von einem First Z-Pass profitieren können. Da das Patent schon etwas älter ist erwarte ich für Serie5 noch weitere Verbesserungen an diesem Grundprinzip. So scheint mir ein Hir-Z Buffer welcher aber nicht bis zur Pixel ebene geht durchaus im Bereich des möglichen.

Um nun nochmal zur Überschrift zurückzukommen. Ich meine natürlich keinen Z-Buffer im Sinne eines IMR aber ganz ohne Z-Daten im Speicher kommt nun wohl auch PowerVR nicht mehr aus.


Eine bessere theoretische Analyze und mehr auf VS und TBDR konzentriert, hat Demirug hier geschrieben:

http://www.forum-3dcenter.org/vbulletin ... adid=75598

Ich stimme zu allen negativen Punkten ein, ausser diesem:

Zitat:
Die gegenseitige Kopplung von Vertex und Pixelshader wird bei diesem Verfahren wieder grösser da nur auf Tileebene der Workload verteilt werden kann.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 07 Nov 2003 10:33 
Offline
Site Admin
Benutzeravatar

Registriert: 03 Aug 2001 18:30
Beiträge: 1656
Wohnort: Ostseeküste
Ich habe wirklich große Achtung vor Demi und seinen Kenntnissen, halte aber seine Schlußfolgerungen hier bezüglich der DRs von PowerVR für falsch.

PowerVR wird mit Serie 5 auch weiterhin einen reinen DR abliefern, der aber natürlich in vielen Punkten sehr viel weiter entwickelt ist als KYRO. So isT z.b. das Bandbreitenproblem durch zwei wesentliche Veränderungen gelöst worden, eine davon ist natürlich die Verwendung von DDR Speicher. :)

Das hier beschriebene Patent ist meiner Meinung nach zwar sehr wichtig, tritt aber nur im Extremfall in Kraft, wenn der Platz einfach nicht reichen sollte. Wichtig wird es aber auf jeden Fall für MBX, hier haben wir es grundsätzlich mit wenig Speicher und wenig Bandbreite zu tun.
Für Serie 5 kann davon asugegangen werden, dass für alle normalen Anwendungen solch eines Highend Chips auch genügend Speicher für die Displayliste und sowieso genügend Bandbreite vorhanden sein wird.

Die zweite Idee von Demi ist durch PowerVR verworfen worden. Der TA ist durchaus in der Lage die Datenmengen zu verarbeiten und reduziert auch so die Datenmenge für die Displayliste recht stark. Sie sehen keinen Vorteil in der Trennung dieser beiden VS Teile, der die Nachteile aufwiegen würden.

_________________
MfG
Loewe
~~~~~~~~~~~~~~~~~~~
webmaster of deferred Power
~~~~~~~~~~~~~~~~~~~
If you can hack it, just hack it, don`t bother with details!


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 07 Nov 2003 19:26 
Offline
the spirit of -dp-
Benutzeravatar

Registriert: 08 Dez 2002 10:38
Beiträge: 119
Die zweite Idee von Demi ist auch ziemlich aelter als das "early Z" Patent. Ohne wahre Hartware zu haben kann man ja wirklich nicht wissen wo es lang geht.

Zitat:
Der TA ist durchaus in der Lage die Datenmengen zu verarbeiten und reduziert auch so die Datenmenge für die Displayliste recht stark. Sie sehen keinen Vorteil in der Trennung dieser beiden VS Teile, der die Nachteile aufwiegen würden.


Interessant. Wusste ich nicht.


Nach oben
 Profil  
 
 Betreff des Beitrags:
BeitragVerfasst: 08 Nov 2003 03:35 
Offline
User
Benutzeravatar

Registriert: 06 Sep 2001 17:23
Beiträge: 304
MTB-ThePsycho hat geschrieben:
nochmal zum mitschreiben:
es ist - meiner auffassung nach - nicht aufgabe der engine, das rendering zu optimieren

Meiner Meinung nach ist es auf alle Fälle auch die Aufgabe der Engine. Man optimiert auch Software für CPUs. Das gute ist, dass die Optimierung im Vorhinein geschieht, und dann auf der CPU bzw. GPU keine extra Optimierungs-Transistoren braucht. Der Aufwand der Programmierung steigt, aber die "Leistung pro Hardware" auch. Siehe z.B. P4, der auf spezielle Optimierung gleich beim Programmieren angewiesen ist — optimierte Software ist dann tatsächlich rasend schnell. Natürlich sollte die Graka der Engine helfen, wo sie nur kann. Der First-Z-Pass z.B. ist ja eigentlich "nur" für korrektes Shading notwendig, dank Early Z wird nebenbei noch der Overdraw reduziert. Das hoch trabend "Ultra Shadow" genannte Feature im NV35 ist auch ein Zugeständis an Engines. TBDR ist logischerweise nicht nutzlos, sondern schön — was aber nicht heißt, dass sich der Programmierer deswegen zurücklehnen kann, oder das Rendering gleich optimal sei. Optimiert werden muss sowieso, was fast immer auch erhöhte CPU-Last bedeutet.

MTB-ThePsycho hat geschrieben:
man macht das zwar, um den grafikkarten etwas unter die arme zu greifen, generell wäre es aber schöner, wenn alle karten TBDRs wären und sich die engine um sowas nicht mehr kümmern müsste

Es gibt weitaus mehr Möglichkeiten, eine Engine zu verschnellern, als den opaquen Overdraw zu senken. TBDR adressiert ja praktisch nur dieses Problem. TBDR bringt neue Abhängigkeiten mit sich, man muss auf einen TBDR anders optimieren für das bestmögliche Ergebnis. Es ist keinesfalls so, dass TBDR ein Allheilmittel sei.

MTB-ThePsycho hat geschrieben:
der andere punkt ist: "no lunch is for free"
heisst:
die zusätzlichen berechnungen, die die engine leisten muss, machen sich natürlich an anderer stelle wieder bemerkbar - am prozessor
denn generell wäre es natürlich denkbar, dass die engine selbst berechnet was sichtbar ist und was nicht und nur das nötigste zum rendern weitergibt - aber das wäre tötlich, weil jeder prozessor einfach überfordert wäre

Gute Engines sind seit Jahren so weit, dass sie ausgeklügelte Mechanismen haben, unnötiges möglichst nicht zu rendern. Das kostet zunächst CPU-Power, senkt diese an anderer Stelle aber auch. Zudem wird auch die Graka weiter entlastet z.B. dadurch, dass möglichst wenig die Textur geändert wird, das hat erst mal mit opaquem Overdraw nichts zu tun. Mit unoptimiertem Rendering habe ich mal in OpenGL meine GF4 Ti 4600 mit lächerlichen 10000 Vertices in die Knie gezwungen. Ganz davon zu schweigen von einer anderen Szene (mit einem Haus und primitivem Garten) was bei mir mir leidlich flüssig ist, auf einer TNT2 erbärmlich ruckelt — wo Szenen ganz anderer Komplexität bei besserer Optimierung richtig flutschen. Dabei war meine Szene füllratenmäßig ein Lacher für 'ne TNT2, die Probleme liegen da ganz woanders (sprich, auf Kyro hätte es ebenso geruckelt.)

MTB-ThePsycho hat geschrieben:
und mit doom3, half-life2 und dem nächsten ut wird das thema grafik erstmal ausgelutscht sein.
jetzt stehen erstmal sachen wie physik-engine oder noch intelligentere KIs im vordergrund und da ist ein prozessor, der mit z-tests ausgelastet ist, sehr hinderlich

Kein Prozessor macht "Z-Tests". HSR kann wie gesagt die CPU-Last an anderer Stelle auch wieder senken.


Zuletzt geändert von aths am 08 Nov 2003 04:25, insgesamt 5-mal geändert.

Nach oben
 Profil  
 
Beiträge der letzten Zeit anzeigen:  Sortiere nach  
Ein neues Thema erstellen Auf das Thema antworten  [ 109 Beiträge ]  Gehe zu Seite Vorherige  1, 2, 3, 4, 5  Nächste

Alle Zeiten sind UTC + 1 Stunde


Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast


Du darfst keine neuen Themen in diesem Forum erstellen.
Du darfst keine Antworten zu Themen in diesem Forum erstellen.
Du darfst deine Beiträge in diesem Forum nicht ändern.
Du darfst deine Beiträge in diesem Forum nicht löschen.
Du darfst keine Dateianhänge in diesem Forum erstellen.

Gehe zu:  
cron
Powered by phpBB® Forum Software © phpBB Group
Deutsche Übersetzung durch phpBB.de