Diskussion:Nvidia-GeForce-500-Serie

Letzter Kommentar: vor 10 Jahren von DeffiSK in Abschnitt GTX580 gibts auch mit doppelter Speichermenge
Diese Diskussionsseite dient dazu, Verbesserungen am Artikel „Nvidia-GeForce-500-Serie“ zu besprechen. Persönliche Betrachtungen zum Thema gehören nicht hierher. Für allgemeine Wissensfragen gibt es die Auskunft.

Füge neue Diskussionsthemen unten an:

Klicke auf Abschnitt hinzufügen, um ein neues Diskussionsthema zu beginnen.

Beschreibung

Bearbeiten

?? Was soll das für ne Beschreibung sein ?? Das ist eher die Geschichte, dieser Grafikkarten, als ne Beschreibung. Bedarf es einer stupiden Grafikkarte solch einer Beschreibungsgeschichte , oder soll ich sagen; Geschichtenbeschreibung? Das zeigt nur, dass dort jemand in seine digitalen Freunde verliebt ist. Und hilft auch nicht wirklich. Bitte Beschreibung auf das Wesentliche in Daten wandeln. --01:57, 2. Sep. 2012 (CEST) (ohne Benutzername signierter Beitrag von 84.190.186.66 (Diskussion))


Die bei der NVidia GT 520 angegebene Datenübertagungsrate ist unwahrscheinlich

Bearbeiten

Hallo,

dass die Geforce GT 520 mit 64 bit und DDR3-RAM mit 98,5 GB/s dieselbe Datenübertragungsrate haben soll wie die GTX 550 ti mit GDDR5 und 192 bit, sollte ein Übertragungsfehler sein.

MFG

--Shaadar 17:59, 12. Apr. 2011 (CEST)Beantworten

Ja, danke für den Hinweis; das war wirklich ein Übertragungsfehler. mfg -- DeffiSK 18:07, 12. Apr. 2011 (CEST)Beantworten

Aufgebohrter Chip

Bearbeiten

Das ist so nicht richtig, der Chip wurde abgespeckt! Dadurch, und durch weitere im Artikel erwaehnte Optimierungen, konnte die Leistung in Spielen deutlich verbessert werden gegenueber dem GTX480. Die GTX580 ist jedoch nur zum Spielen tauglich. Zwar ist sie großteils schneller unter Cuda wie eine gewoehnliche GTX480, aber gegen die Tesla- Version des Chips haette sie bei doppelter Genauigkeit keine Chance. (Die GTX480 wird per Treiber kuenstlich ausgebremst) So weit ich weiss basiert aktuell keine Tesla- variante auf der neuen GPU. (nicht signierter Beitrag von 87.139.55.127 (Diskussion) 14:38, 16. Mai 2011 (CEST)) Beantworten

Alternative Tabellenlayout?

Bearbeiten

Ich wollte mal zur Diskussion stellen, ob das neue Tabellenlayout aus dem Geforce M Artikel auch eine Option für die normalen Desktopartikel ist. Derzeit verfügen diese über vier Tabellen; mit dem alternativen Layout würden daraus drei werden. Das könnte eventuell helfen, die Übersicht etwas zu verbessern, auch wenn die Umstellung erst mal eine ganze Menge Arbeit wäre. mfg -- DeffiSK 20:43, 17. Mai 2011 (CEST)Beantworten

Beim GeForce M-Artikel hat man auf einem normal üblichen Laptop mit 15,4 Zoll (1280 pixel Breite) bereits einen horizontalen Scrollbalken. Dort geht es aber nicht anders, hier ist dagegen das Layout ganz gut auch für kleinere Auflösungen geeignet und die zusätzlichen Tabellen stören auch niemanden, sondern sind gut strukturiert in den Artikel eingefügt. Außerdem ist es imo leichter mehrere kleine Tabelle zu überblicken, als eine zu sehr in die Länge gezogene... --Juri S. 22:48, 17. Mai 2011 (CEST)Beantworten

GPU-Wettrüsten

Bearbeiten

Auch wenn es nicht ganz hier hinpasst, danke für den Hinweis wegen Dual-GPU-Karten (6990 vs 580). Da ich auf Preis Wert lege, hab ich sowieso immer ATI, besseres Preis-Leistungsverhältnis. Außerdem eben den Stromverbrauch unter Vollast gesehen... verstehe das Wettrüsten eh nicht, komme mit meiner 5770 bis ans gesunde Limit overclocked eigentlich bestens zurecht, und 390 Watt bei der 580 unter Vollast, da brauchen die Radeon eigentlich alle spürbar weniger, die wie ihr sie wohl nennen würdet "alte" 5770 von mir 236 Watt (wohl durch OC etwas mehr), okay die 6990 frisst 433 ohne OC, aber die Dual-GPU-580 frisst gleich 517 Watt o.O Ich glaub das würde mein PC gar nicht schaffen und ich will etwas helfen bis 2020 den CO² Ausstoß zu verringern :P Bei 30-40 Cent pro Kilowattstunde kann das zocken mit den Karten doch etwas teuer werden. Zum Glück hab ich auch bei der Intel CPU eine sparsame erwischt, da hat sich das etwas Geld mehr gelohnt gegenüber AMD CPU. Zockt ihr alle mit 27" oder so? Schrieb der eine im Forum er will bei 27" alles sauber haben und ohne irgendwelche Kleinigkeiten. Naja die Firmen freuen sich, verrückt von 5000 schon auf 6000 bei Radeon zu wechseln bzw. bei den GTX von dessen HighEnd-Vorgängern auf die 570, 580 oder 590... also ich hab bisher noch kein Spiel (außer GTA 4 crackbedingt, beim AddOn läuft alles supi obwohl das von 2010 ist, scheint allgemein schlampige Arbeit zu sein, aber das auch das einzige Game). Selbst Crysis 2 war ich erstaunt läuft sauber auf 23" bei 1920x1080 und bis auf 1 Einstellung alles Maximum... dachte ich krieg da ne Diashow. Saints Row The Third fordert die Karte auch gut, aber es geht?! :> Komisch... CPU ist für euch wohl auch Low-End mit i3-540 :X -- Kilon22 23:39, 29. Dez. 2011 (CET)Beantworten

Bitte, gern geschehen. Inzwischen gibt es übrigens eine neue, schnellste Single-GPU-Karte, die Radeon HD-7970, welche dank 28nm-Fertigung zum Glück keine neuen Negativrekorde beim Stromverbrauch aufstellt... Die 3 Milliarden Transistoren in 40nm-Fertigung bei der GTX-580 ist halt schon extrem.... Der i3-540 ist übrigens Mainstream (kein Low-End), genau so wie die HD5770 und das man mit Mainstreamhardware gut Spielen kann, ist doch eine gute Entwicklung, früher war das problematischer imho. Wer diese DUAL-GPU-Karten kauft, ist mir aber auch schleierhaft... --Juri S. 11:06, 30. Dez. 2011 (CET)Beantworten

Pixelfüllrate

Bearbeiten

Die maximale Pixelfüllrate von Fermi-GPUs wird durch die Streaming-Multiprozessoren begrenzt, da diese je nur einen maximalen Durchsatz von 2 Pixeln pro Takt haben. Das kann man auch leicht anhand von Benchmarks nachvollziehen: http://www.hardware.fr/articles/818-6/geforce-gtx-560-ti-contre-radeon-hd-6950-1-go.html. Die GeForce GTX 560 Ti hat z.B. 8 Streaming-Multiprozessoren und kommt so auf eine Pixelfüllrate von 822 MHz * 8 * 2 Pixel/Takt = 13,152 GPixel/s. Die Messung in dem Artikel von hardware.fr bestätigt das mit einem gemessenen Maximalwert von 12,4 GPixel/s. Dass die Messung der Pixelfüllrate von hardware.fr sehr nah ans theoretische Maximum heranreicht, zeigen auch die Werte der Radeon-Karten. Hier im Wiki-Artikel ist für die GTX 560 Ti jedoch ein Wert von 26,3 GPixel/s aufgeführt, ein viel zu hoher Wert, der auch bei optimalen Durchsatz niemals erreicht werden kann. (nicht signierter Beitrag von 87.180.174.75 (Diskussion) 20:23, 3. Jan. 2012 (CET)) Beantworten

Radeon-Vergleich

Bearbeiten

Den Hinweis zum Radeon-Vergleich unter den Leistungsdaten ist in meinen Augen irrelevant für den Artikel und fachlich falsch. Der Abschnitt legt nahe, es gäbe nur eine Radeon-Architektur. Tatsächlich gibt es aber viele Architekturen, die mit dem Markennamen Radeon veröffentlicht wurden. Außerdem sehe ich keinen Grund, speziell auf den Vergleich mit Radeons einzugehen, obwohl es hunderte oder tausende Prozessorarchitekturen am Markt mit einer gewissen Floating-Point-Rechenleistung gibt. (nicht signierter Beitrag von 87.180.174.75 (Diskussion) 20:23, 3. Jan. 2012 (CET)) Beantworten

Riesen-Tabellen

Bearbeiten

Ich bin immer noch der Meinung, dass diese riesigen Tabellen absolut unübersichtlich sind. Ich weiß nicht, was DeffiSK für ein Monitor und Auflösung hat. Auf meinem, vergleichsweise kleinen Monitor mit 1280x800 sind aber die riesigen Tabellen total unübersichtlich. Dazu gab es auch schon einen Diskussionseintrag, bei der Umstellung der Geforce M-Serie, wo wir auch über die Desktopserien gesprochen haben und seit dem hat sich an der Einstellung nichts geändert. Da es bei den Desktopserien keine Notwendigkeit gibt, es in Riesentabellen zu packen, sehe ich kein Grund für die Umgestaltung der Desktopserien. --Juri S. (Diskussion) 21:37, 12. Okt. 2012 (CEST)Beantworten

Also ich habe ein 21" mit einer 1680x1050 Auflösung, sowie zwei Laptops mit HD+ bzw. Full-HD-Auflösung (und logischer Weise damit keinerlei Probleme mit den „Riesen-Tabellen“). Da aber Wikipedia-Artikel nicht für spezielle Auflösungen angelegt werden sollen, spielt das gar keine Rolle (wenn dem so wäre, würde sowieso alles auf Full-HD hinauslaufen). Das Problem, dass ich sehe ist folgendes: Selbst unter den Desktop-Serien gibt es unterschiedliche Layouts, was niemals im Interesse des (vermeintlich unwissenden) Lesers sein kann. Bei den Pre-DX-10-Serien geht es teilweise immernoch drunter und drüber, ab der Geforce-8-Serie gibt es dann eine zeitlang relativ einheitliches Design, bis zu den neuen Artikeln, die nun an das Layout der Mobilartikel angepasst sind. Der Aussage, es gebe keinen Grund für die Umgestaltung der Desktopserien, muss ich daher klar widersprechen. Wenn man sich das Layout genau anguckt, dann stellt sich die Frage, warum die Modell- und Leistungsdaten getrennt angegeben werden (ein Umstand, der erst mit der Geforce-8-Serie eingeführt worden ist). Rein von der Datenverarbeitung her, gibt es keinen Grund diese Angaben zu trennen, im Gegenteil, es ist für den unwissenden Leser sogar erschwerend, hier von Tabelle zu Tabelle springen zu müssen. Bemerkenswert finde ich in diesem Zusammenhang, dass alle anderssprachigen Wikipediaseiten nur eine Tabelle verwenden und nicht drei bis vier!
Unabhängig davon, warum wurden eigentlich die Messwerte mit zurückgesetzt? Fehlende Daten, bzw. teilweise fehlerhafte Verlinkungen waren gestern überhaupt erst der Grund, warum ich mich damit auseinander gesetzt habe, aber diese haben nun ja wirklich nix mit dem Layout zu tun!? mfg -- DeffiSK (Diskussion) 13:00, 13. Okt. 2012 (CEST)Beantworten
1. Unterschiedliche Layouts bei den neuesten Serien (GF600, HD7000) hast DU geschaffen. Diese müssen natürlich ebenfalls zurückgesetzt werden.
2. Ab der GeForce-8-Serie wurde eine weitere Tabelle hinzugefügt, eben weil mehr Daten hinzugekommen sind und damit die Tabellen unübersichtlich wurden. Im Übrigen wurde zu dem Zeitpunkt auch auf die Politik von Wiki hingewiesen, auf kleine Auflösungen Rücksicht zu nehmen. Einfach mal in den alten Diskussionen schauen.
3. Schön für dich, dass du größere Auflösungen hast. Es ist jedoch kein Problem auf größeren Auflösungen drei Tabellen zu sehen. Eine riesiege Tabelle auf kleiner Auflösung ist jedoch ein Problem und damit ist die kleinere Auflösung das, woran man sich halten sollte, den was auf kleiner Auflösung man erkennen kann, kann man auch auf größerer. Es gibt immer noch unzählige Laptops und inzwischen auch Tablets, die keine FUL-HD oder HD+ Auflösung haben. Deine Schlussfolgerun alles auf FULL-HD zu optimieren ist damit schlicht falsch.
4. Nein, für einen nicht wissenden User sind drei Tabellen kein Problem. Sogar für mich als wissender User ist die riesiege Tabelle so unübersichtlich, dass ich sie gar nicht mal überblicken und editieren will. Genau deswegen wurden auch alle deine Änderungen verworfen, weil sie in dem Layout nur unnötiger "Pain in the ass" sind. Du kannst die Änderungen abzüglich des Layouts gerne wieder einpflegen, ich bitte sogar darum. Wenn du nicht wärst, würden hier viele Informationen fehlen, also weiter so, nur bitte nicht diese Riesentabellen, wo sie nicht notwendig sind. --Juri S. (Diskussion) 13:29, 13. Okt. 2012 (CEST)Beantworten

OpenGL Versionen passen nicht zueinander

Bearbeiten

im Einführungstext ist von einer andern OpenGL Version die Rede als in der Tabelle, vlg. GeForce-400-Serie (nicht signierter Beitrag von 82.113.99.106 (Diskussion) 14:16, 22. Jan. 2013 (CET))Beantworten

OpenGL wird öfters aktualisiert und dann vom Grafikkartenhersteller per Treiber die Unterstützung nachgereicht. In der Tabelle passt die Angabe. --Juri S. (Diskussion) 20:50, 26. Jan. 2013 (CET)Beantworten

GTX580 gibts auch mit doppelter Speichermenge

Bearbeiten

3GB statt 1,5GB -> http://www.palit.biz/palit/vgapro.php?id=1503 --62.159.14.9 12:58, 21. Aug. 2014 (CEST)Beantworten

Es gab zahlreiche Boardpartner, die die GTX 580 mit 3 GB angeboten haben, aber das waren Eigenkreationen, die in der Tabelle nicht aufgeführt werden können, da andernfalls diese gesprengt werden würde. -- DeffiSK (Diskussion) 09:29, 22. Aug. 2014 (CEST)Beantworten