Diskussion:Nvidia GeForce

Letzter Kommentar: vor 8 Jahren von 91.67.31.234 in Abschnitt Überarbeiten der Seite

8xxx

Bearbeiten

Man könnte schonmal 'ne Tabelle mit leeren, oder mit "keine Informationen verfügbar"-Felder, für die 8er machen.

leere tabellen gehören nich in die wikipedia --Overclocker 18:50, 20. Okt. 2006 (CEST)Beantworten
Ich glaube auch, dass wir früh genug sind, wenn wir die Geforce 8 eintragen, wenn sie vorgestellt worden ist. --Highdelbeere 14:48, 7. Nov. 2006 (CET)Beantworten
Im Übrigen wird die 8xxx auch DX10 unterstützen, habe ich glesen. eher symbolisch, da dx10 erst januar oder so verwendet werden kann...--Overclocker 16:11, 7. Nov. 2006 (CET)Beantworten
Sowas hab ich auch gelesen. Weiters soll die 8800 GTS 800 Gramm wiegen und zwei Stromanschlüsse benötigen und ca. 150 Watt verbrauchen. Der G80 soll zudem eine 384 biz-GPU sein. Sie ist um ca. 30 Prozent schneller als die schnellste 79er. --Highdelbeere 16:45, 7. Nov. 2006 (CET)Beantworten
  1. 800g da geht doch jede Mainboard in die Knie. Brauch ich dann ne Verstärkung an der Hinterseite der Mainb. oder was? (THG hat das mal an der CPU gemacht um eine kilo-schwere Stckstoffkühlung dranzubasteln.
  2. Und 2 Stromanschlüsse sind bei 1 Netzteil sinnlos, da es doch 1 Kabel und ein NT ist? Oder haben die neuen NTs mit 24 Pins auch gleich 2 NTs? PS: 150 Watt wollen auch gekühlt werden. Ich denk grad dran, was fürn Hammer-Kühler an eine Intel Extreme dition mit 130 Watt dran muss... Kurzgefasst: Die neue Mode geht wieder zu zimmergroßen Computern...
  3. Meinst du mit 384biz 384-bit oder was? Achja: 30 % mehr Grafikleistung solltens der Stromrechnung zufolge auch sein... --Overclocker 13:51, 9. Nov. 2006 (CET)Beantworten
Mit den Biz sind Bits gemeint und wie du bereits aus der nun aktualisierten Tabelle sehen kannst, hat die kleinere Variante eine Bandbreite von 320 bit. Das Ding braucht zwei Slots und zwei Extra-Stecker am Netzteil, weil der normale PCI-Express-Anschluss höchstens 75 Watt liefern kann. Das Ding läuft auch nur mit einem 450-Watt-Netzteil stabil. Der Kühler soll hervorragend sein und nicht laut werden. Das Ding ist übrigens laut THG in manchen Bereichen doppelt so schnell als die ATI 1900 XTX im Einzelbetrieb. Im SLI-Betrieb muss das Ding ein Hammer sein: Aber nur mit 650-Watt-Netzteil. --Highdelbeere 23:19, 9. Nov. 2006 (CET)Beantworten
Achso. Ich komme manchmal mit so schrägen Zahlen nicht zurecht (früher 32, 64, 128, 256, 384). Obwohls ja 3x 128 ist... Du sagtest 2 Slots. 1 GraKa 2PCIe oder wie? Und was ich mit NT meinte, ob das NT intern 2 NTs hat oder nur 1. --Overclocker 13:28, 10. Nov. 2006 (CET)Beantworten
Wenn due mit NTs Netzteile meinst, dann brauchst du natürlich nur eines mit den passenden Anschlüssen, also ein Netzteil das mindestens den ATX 2.0-Standard erfüllt, besser eines das ATX 2.2 entspricht. Diese Netzteile haben meist extra Stromanschlüsse für Grafikkarten. Zur Datenübertragung brauchst du nur einen 16x PCI-Express-Slot, jedoch zwei um das Ding zu befestigen, weil das Ding (oder sollte ich sagen Monster?) die doppelte Bauhöhe einer normalen Grafikkarte hat und somit zwei Blenden belegt. Wie schon erwähnt, weigt das gute Stück 800 Gramm, hat also für eine Steckkarte ein enormes Gewicht. Mit der Bandbreite verhälte es sich so, wie du vermutest. --Highdelbeere 22:49, 11. Nov. 2006 (CET)Beantworten

Bild der "Leadtek" GeForce 6800GT

Bearbeiten

Ich werde das Bild der GeForce 6800GT mal umbenennen, denn es zeig definitiv nicht das Leadtek Modell sondern ein Modell irgeneines anderen Herstellers. Ist sehr leicht an dem nVidia Referenzaufbau zu erkennen; Das Leadtek Modell hat eine markante eigene Kühllösung. Mal sehen ob ich dazu komme von meiner Leadtek 6800GT ein Foto zu machen... --84.148.103.187 20:41, 18. Mär 2006 (CET)

Stimmt die LeadTek hat nen dicken Kupferkühler drauf, das Bild ist also definitiv falsch beschriftet.

MD5-hash

Bearbeiten

Moinsen, im Artikel hab ich diese Sätze gefunden: Seit der Treiberversion 77.xx ist im Treiber eine MD5-Hashüberprüfung integriert, die überprüfen soll, ob es sich bei der Applikation, welche gestartet werden soll (in aller Regel ein Spiel), um Originalsoftware handelt oder ob sie "gecrackt" wurde. Dies stieß in vielen Foren und Newsgroup auf heftige Kritik. Dieses Vorgehen wurde,wie viele andere Maßnahmen des Digital Rights Management auch, von vielen Teilnehmern als Entmündigung der User bezeichnet.

Gibts dafür auch Quellen? Ich war mir so sicher, das an diesen Aussagen etwas nicht stimmen kann, das ich sie zunächst mal rausgenommen habe.--Löschkandidat 07:33, 2. Mai 2006 (CEST)Beantworten

kopie von meiner diskussionseite
ich hab auch keine belege gefunden, eintrag stammt auch nicht von mir --suit   12:15, 2. Mai 2006 (CEST)Beantworten

Zum Pixel Shader und GeForce-Karte

Bearbeiten

Ist mir bislang nicht gelungen, zweifelsfrei heraus zu finden, ob ein Programm (game) mit einer Grafikkarte, die Pixel Shader an sich nicht unterstützt (konkret eben die GeForce2 MX mit 32MB VGA chip, Agp 4x Bus) dennoch läuft.

Also lediglich Einbußen in der Grafik zu befürchten sind - oder ob das Programm gar nicht laufen kann.

Wäre sehr interessiert an einer eindeutigen Aussage oder Hinweisen, wo ich das (verlässlich) heraus finden kann. Bisher wie gesagt recht unterschiedliche Aussagen dazu gefunden.

Danke, Q.

Antwort: das hängt komplett davon ab, was sich der Programmierer gedacht hat. Das Programm fragt den Treiber nach unterstützten Erweiterungen (Funktionen, die nicht auf allen Systemen verfügbar sind) - darunter auch Shader. Wenn eine gewünschte Erweiterung nicht unterstützt wird, muss sich der Programmierer entscheiden was zu tun ist. Ein Versuch, die Erweiterung trotzdem zu nutzen, sollte im Allgemeinen zum Absturz des Programms führen.

Die Shaderfunktionen ersetzen komplett die Standardfunktionen, das heisst, dass im Programm die alternative Darstellungsform ohne Shader explizit vorgesehen sein muss - unter Umständen ein zusätzlicher Aufwand. Man kann also nicht davon ausgehen dass jedes Programm, das normalerweise Shader nutzen würde, auch einfach so ohne Shader irgendwie laufen kann.

Anmerkung: Eigentlich kann es gar nicht laufen. Aber was nicht passt kann passend gemacht werden, aber nicht von alleine. Ein nettes Beispiel ist "Oldblivion" (http://www.oldblivion.com/). Das ist ein Tool, daß es erlaubt das Spiel "Oblivion", welches ShaderModel 2.0 vorraussetzt auch auf älteren Grafikkarten mit ShaderModel 1.1 zu spielen. Dabei wurden die pixel shader 2.0 and vertex shader 2.0 -programme in pixel shader 1.1 und vertex shader 1.1 -programme übersetzt und die oben genannten abfragen, ob eine geeignete Grafikkarte vorhanden ist werden entfernt.

Pixel Shader

Bearbeiten

Jetzt habe ich u.a. sogar die Aussage des Asus-Supports, dass die GeForce2 (V7100 Series) bis max. pixel shader 1.1 unterstützt! Ich bin über jeden Hinweis froh, der mich zu einer seriösen Informationsquelle zu dertigen Themen bringt, weil ich wie gesagt nun schon alle möglichen widersprüchlichen Aussagen dazu habe. In Wikipedia wird z.B. das Gegenteil mitgeteilt.

Danke, zuvor nicht signierter beitrag ("Q.") --suit   16:35, 17. Jun 2006 (CEST)

Also ich hab selber noch eine GeForce 2MX und die unterstützt definitiv _keine_ Pixelshader... Hoffe dir geholfen zu haben - zuvor nicht signierter beitrag ("BigD") --suit   16:35, 17. Jun 2006 (CEST)
ihr beiden, bitte immer mit --~~~~ unterschreiben --suit   16:35, 17. Jun 2006 (CEST)

Idioten dieser Support! http://www.nvidia.com/object/geforce3_faq.html ist für Software-Entwickler geschrieben und sagt es klar und deutlich: Geforce 2 hat gar keine Pixelshader. Vertexshader hat sie zwar auch nicht, aber diese können wenigstens mit einer passablen Performance auf der CPU emuliert werden. -3yE

überarbeiten

Bearbeiten

die tabellen sollten wirklich mal aufs niveau der englischen wikipedia gebracht werden. da ist z.b. zweimal ne tabelle mit nahezu identischem inhalt enthalten, desweiteren enthält die der englischen viel mehr information - hab leider keine erfahrung mit solchen tabellen und wollte die zweite tabelle auch nicht einfach löschen da dort das erscheinungsdatum der chips vermerkt ist. wär nett wenn sich da mal jemand mit mehr wissen ans werk machen würde. mfg --Theclaw 21:08, 2. Jul 2006 (CEST)

habs jetzt mal veruscht zu übersetzen, leider ist die tabelle zu breit, die bilder am anfang des abschnitts musste ich auch auskommentieren da die sonst weitere darstellungsfehler verursachten - kann da jemand helfen? --Theclaw 14:56, 11. Aug 2006 (CEST)
Es fehlen noch weitere Überarbeitungen, die MHz-Zahlen für den Speichertakt sind größtenteils falsch und zeigen nciht die physikalischen Frequenzen sondern die schönen Marketing-MHz (sprich das Doppelte von dem was wirklich abläuft). --Denniss 09:15, 24. Sep 2006 (CEST)
Und das ist noch lang nicht alles. Allein schon die - Entschuldigung - blödsinnigen Einträge wie PCI bei den AGP-Chips (jeder AGP-Chip läst sich als PCI-Gerät betreiben) und AGP bei den PCI-Express-Chips (Jeder PCI-Express-Chip ist per Bridge-Chip für AGP nutzbar) sollten dringend weg. Und bin mir sicher, dass da noch mehr nicht passt... Wenn ich nächste Woche mal a bisserl Zeit hab, werd ich das mal anpacken --Stickedy 18:15, 20. Okt. 2006 (CEST)Beantworten
Zu MHz: Wegen DDR würde ich die doppelte Freq stehen lassen, da es den user ua. auch verwirrt... ("UnProfis")--Overclocker 18:53, 20. Okt. 2006 (CEST)Beantworten
Nur weil es Leute mit weniger Fachwissen verwirren könnte muß etwas falsches nicht drin stehen bleiben, die Taktfrequenz ist nun mal ohne irgendwelche Verdoppelungen durch DDR. Das native Interface des Chips sollte drin stehen bleiben und bekannte Abwandlungen in Klammern dahinter also AGP (PCI) oder PCIe (AGP). Es gibt ja viele ähnliche Artikel zu Grafikkarten und auch ähnliche Tabellen. Vielleicht sollten wir mal so eine Art Referenzlayout ausprobieren in dem auch mehrere Einträge zusammengefasst werden können. Gutes Beispiel wäre z.B. Codename und Herstellungsprozess und Chip-/Speichertakt, ggf auch Breite vom Speicherbus mit unterstütztem Speicher.--Denniss 20:39, 20. Okt. 2006 (CEST)Beantworten
Ich stimme dir in allen Punkten zu, außer PCIe (AGP). Denn das verwirrt wirklich! Möglich wäre das nur mit Erklärung unter / über der Tabelle. --Overclocker 18:17, 21. Okt. 2006 (CEST)Beantworten
Ich habe die Tabelle der der Geforce 8 einmal überarbeitet. Ist sie nun übersichtlich genug, also soll das auch auf die anderen Artikel ausgeweitet werden? Ionenweaper 17:29, 6. Dez. 2006 (CET)Beantworten
Hallo! Sorry, dass ich deine Arbeit wieder rückgängig gemacht habe. Aber imho war das nicht sonderlich sinnvoll gemacht. "Fertigung" / "Schnittstelle" und "Einführungsdatum" / "Codename" haben imho nichts zusammen in einer Spalte zu suchen, da sie nix miteinander zu tun haben. Und übersichtlicherer wurde es deswegen auch nicht. Ich habe das ganze deswegen nochmal umgeändert und die Grafikchips selber (sind ja normalerweise nur ein paar) mir ihren Basisdaten (Schnittstelle, Fertigung, Quads, DirectX/OpenGL) in einer exra Tabelle ausgegliedert. In den Modelldaten bleiben so nur noch die Sachen, die wirklich unterschiedlich sind. D.h. das gnaze schrumpft extrem zusammen, behält aber letzlich seinen Informationsgehalt. Schaut es am besten einfach mal im GeForce 7- und GeForce 8-Artikel an! Und bitte in den anderen Artikeln auch ändern wenn jmd. zu viel Zeit hat ;) --Stickedy 11:17, 7. Dez. 2006 (CET)Beantworten
Moin! Ist ok, so sieht es in der Tat noch übersichtlicher aus. Nur: Jetzt ist wieder ein Fehler drinne, den ich schon herauskorrigiert hatte: Alle G73 Chips (7300 GT, 7600 GS und die 7600 GT) gibt es auch als AGP Versionen, und eben die 7800 GS. So wie es aktuell ist, kommt das nicht herüber...
Was fehlt noch, damit der Überarbeiten-Kasten heraus kann (7er-Serie)? Ionenweaper 14:02, 7. Dez. 2006 (CET)Beantworten
Hmm, ja, prinzipiell kann es ja alle Versionen für AGP geben... Ich arbeite das noch rein. Aber die 7800GS gibt es doch nur als AGP und nicht als PCI-Express, oder? Naja, wenn das drin, ist er glaub ich erst mal soweit OK, dann kann der Überarbeiten Tag raus. GeForce 6 und FX wird kein Spaß werden... --Stickedy 14:24, 7. Dez. 2006 (CET)Beantworten
Ja, die 7800 GS ist nur AGP, 7300 GT, 7600 GS und 7600 GT PCIe und AGP, alle anderen nur PCIe.
Oh ja, die alten Artikel. Da habe ich auch nicht so das Wissen parat, um das alles zu überprüfen, ich schaue mir das mal an, sobald der Standard auf 7 (und 8) fertig ist. Ionenweaper 15:49, 7. Dez. 2006 (CET)Beantworten
Auch hier nochmal: Ich habe den Geforce 6 Artikel überarbeitet (insbesondere Tabelle), bitte einmal anschauen und eventuelle Fehler verbessern, damit der Überarbeiten kasten dort auch heraus kann. Ionenweaper 21:12, 9. Dez. 2006 (CET)Beantworten

Große Änderungen müssen her

Bearbeiten

Ich finde, dieser Artikel ist fern von der Neutralität. Eine X1900XTX is z.b. niemals 10% schneller (sondern nur ca. 2-3%). Desweiteren war der 3DMark03 sehr auf ATI optimiert, is ja logisch das NVIDIA da mit neuen Treibern kontern muss. Außerdem: Die Grafikkarten-Charts sind sehr alt und fehlerhaft:

-X1900XT schneller als 7900GTX

-7900GT (512MB) schneller als 7800 GTX 512

-X1900GT schneller als 7900GT

-X850XT PE/X800XT PE/X850XT schneller als 7800GS

-6800Ultra,X800XT,X800XL,6800GT schneller als 7600 GT

-7600GT schneller als X1800 GTO

-weiter möchte ich nicht gehen... (ist ja verstandlich )


Thema Aktualität, folgendes fehlt:

7950GX2

7950GT

7900GS

7100GS

X1950XTX

X1950Pro

X1900XT (256MB)

X1650XT

X1650Pro

Vielleicht auf diese umrüsten? http://www.hardware-infos.com/grafikkarten_charts.php

Zum Schluss sind d die teschnichen Daten teilweise falsch.XBraten92 21:19, 23. Okt. 2006 (CEST)Beantworten

Bist du vllt bei NV statt bei AMD/ATI gelandet? Was genau willst du ändern? Neue Karten rein, kein Problem, aber was noch? Vergleich??? --Overclocker 13:52, 24. Okt. 2006 (CEST)Beantworten
Ich weiß das ich hier bei NV gelandet bin (der Artikel heißt NVIDIA GeForce). Ansonsten Lesen! Ich habe jetzt den Artikel hier überarbeitet.XBraten92 22:52, 24. Okt. 2006 (CEST)Beantworten

Hinweise auf Anzahl Transistoren

Bearbeiten

Es ist sicher interessant in der Tabelle die Anzahl der verbauten Transistoren aufzunehmen. heise erzählt mir heute, daß der neue 8800er 681 Millionenn Transistoren hat (kann das egtl stimmen, zum vgl. hat der aktuelle amd x2 prozessor "nur" um die 230 Millionen). Leider brachte der Vergleich mit bisherigen Generationen hier kein Ergebnis.

Toms Hardware berichtet auch von 681 Mio. Transistoren und von ettlichen anderen Features. Es hatte glaub ich schon die GeForce 7 300 Mio Transistoren wenns mich nicht teuscht. --Highdelbeere 11:34, 9. Nov. 2006 (CET)Beantworten
Ich halts für unmöglich. Der härteste Intel Core2 Duo hat glaub ich unter 400 Mio. Und dann fast 700 Mio wäre das doppelte bei weniger Platz. Steht auf der nVidia-Homepage schon was? --Overclocker 13:43, 9. Nov. 2006 (CET)Beantworten
Das kann schon sein, dass der Chip soviel Transistoren hat. Ich weiß jedoch nicht wieviel mm² der Chip hat. Generell gilt, dass Grafikkarten in ihrem Bereich schneller sind als die CPUs und mittlerweile mehr Transistoren als diese haben. --Highdelbeere 22:54, 11. Nov. 2006 (CET)Beantworten


== Meine Geforce 6200 LE Chip fehlt:

Auf meiner Packung steht:
Hersteller: Sparkle SPPX44lDH256TC-T4;
Geforce 6200LE (PCI-E) Turbo Cache, 256MB/128Bit DDR+DVI+HDTV+TV OUT

GLH

Bearbeiten

http://www.alternate.de/html/product/details.html?artno=JBGWA

eine 7800 GS GS GLH?? Sogar mit 2 GS?? Wo gibts denn sowas??

Naja aber glh heiß does like hell und alle GraKas mit GLH haben mehr als 4 Pixelquads.

mfg Lars


War das eben deutsch? Weil ich habe garnix verstanden. Villaicht legen an meines großer SprachenWissen...
Im Übrigen brauche ich trotz DSL ewig bis sich die Seite aufbaut. Nach ca. 20 Sekunden habe ich aufgegeben (zu warten). Ist da ein TeraByte-Flash-Objekt oder was? --Overclocker 20:01, 2. Dez. 2006 (CET)Beantworten
Leider ist dieser Artikel zur Zeit oder nicht mehr verfügbar.
Sollten sie Interesse an einem Alternativ-Produkt haben, können Sie sich einfach zur Beratung an unser Call-Center-Team wenden.
Sieht so aus, als obs eine Nullnummer war - eventuell sollte man den Begriff GLH wieder streichen? Ionenweaper 22:14, 4. Dez. 2006 (CET)Beantworten

Geforce 7xxx Ultra

Bearbeiten

Mir ist keine Karte der 7er-Reihe bekannt, die Ultra heißt - welche soll das sein, bzw. wurde das im Artikel von Ende bei der 6. Reihe auf Ende bei der 7. Reihe verändert? Ionenweaper 22:15, 4. Dez. 2006 (CET)Beantworten

http://hardware-infos.com/berichte.php?bericht=11&seite=5 XBraten92 07:51, 7. Jan. 2007 (CET)Beantworten
Dagegen setze ich mal G70 Ultra cancelled und gleichlautendes von Computerbase --Denniss 13:46, 7. Jan. 2007 (CET)Beantworten
Und ich setze mal die Einleitung des Berichtes dagegen (der ist übrigens vom 16.07.05): "In diesem Bericht wollen wir einfach mal unsere Phantasie ein bisschen mit uns gehen lassen und Vermutungen aufstellen, welche technischen Eigenschaften, und vor allen Dingen welche Leistungen, die kommenden Chips von ATi und nVidia haben werden. Wir beschränken uns dabei nicht nur auf den R520, sondern schauen weit über den Tellerrand hinaus, bis zum Februar 2006. Zur besseren Darstellung der Leistung errechnen wir auch die 3DMark Score im 3DMark05. Es sei jedoch hier ausdrücklich erwähnt, dass wir ausschließlich wage Theorien aufstellen, die aber natürlich auch stimmen könnten oder zumindest nahe an der Wahrheit liegen." => Raus mit der 7800 Ultra

dtx format

Bearbeiten

hab dtx format hier zum wiederherstellen beantragt ... vielleicht schreibst du ja auch was.

--Soloturn 23:48, 29. Jan. 2007 (CET)Beantworten

keine Infos zu GeForce 6150

Bearbeiten

Hallo, Mein Gerätetreiber sagt, ich habe eine GeForce 6150. Dennoch finde ich diesen hier nicht. Warum? -- 84.132.121.189 23:06, 8. Apr. 2007 (CEST)Beantworten

NVIDIA-GeForce-6-Serie#Chips für Mainboards --Denniss 01:42, 9. Apr. 2007 (CEST)Beantworten

Namensherkunft

Bearbeiten

Es ist ein weit verbreiteter Irrtum, dass GeForce sich von Erdbeschleunigung oder ähnlichem ableitet. Es kommt von Geometrie, engl. Geometry und wird dementsprechend wie "geh" gesprochen (auch im Englischen) und nicht etwa wie z.B. "Jeans".

Dieser Irrtum zieht sich mittlerweile durch alle Bereiche, z.B. in Fachgeschäften und Großhandelsketten. Auch im Internet findet man praktisch keine richtige Beschreibung mehr. Eine gute Quelle gibt es dazu leider nicht mehr, auf den Seiten von Nvidia ist mittlerweile auch nichts mehr zu finden. Es ist einfach zu lange her, seit der erste Geometriebeschleuniger "GeForce" das Licht der Welt erblickte. Einzig auf der polnischen Wiki-Seite zu GeForce steht die richtige Wortherkunft (siehe hier) VTC 16:51, 10. Okt. 2007 (CEST)Beantworten

Wo hast du Englisch gelernt? Der Buchstabe G wird im Englischen „dschii“ ausgesprochen und nicht „geh“ wie im Deutschen. Entsprechend spricht man „GeForce“ auch „dschiifors“ aus und nicht „Gehfors“. Vergleiche „gently“ („dschenntli“), „generous“ („dschenneross“) oder „geometry“ („dschioomettri“, offenes O).
Zum Namen: „GeForce“ ist ein offensichtliches Wortspiel auf das identisch ausgesprochene „G force“ (engl. Beschleunigungskraft), das stimmte in der ursprünglichen Fassung. Dessen „Ge“ bezieht sich aber eben nicht auf die G-Kraft, sondern auf Geometrie (eine wichtige Neuerung der GeForce-Chips), hier hast du Recht. Ich bring das mal im Artikel ein. --Uncle Pain 13:01, 11. Okt. 2007 (CEST)Beantworten
Die Aussprache von "geometry" erfolgt im Englischen laut Wörterbuch natürlich so, wie du es beschreibst, allerdings bestätigten mir mehrere Amerikaner unabhängig, dass es oft eher hart gesprochen wird. Im Gegensatz zu den genannten Worten "gently" oder "generous" wird das "geometry"-G lang gesprochen. Das klingt bei GeForce wohl nicht so richtig gut. Wie auch immer, denke so steht´s jetzt gut im Text. VTC 19:51, 15. Okt. 2007 (CEST)Beantworten

Was jetzt, GeForce oder Geforce?

Bearbeiten

Kleines oder großes F? Die Artikelnamen sind da uneinheitlich und − man mag mich da für pedantisch halten − mich stört das: Dieser Artikel und die Artikel zu den Serien 8 und 9 heißen "Geforce", die Artikel zu den Serien 1 bis 7 heißen "GeForce". Mir sagt ja die Variante mit großem F eher zu, auch hinsichtlich der Konsistenz zu "nForce". Ich weiß nicht, ob es in der Vergangenheit vielleicht einen Namenswechsel gab, der verschiedene Schreibweisen rechtfertigt; wenn nicht, wäre eine konsequente Schreibweise sinnvoll. --Uncle Pain 20:32, 2. Feb. 2008 (CET)Beantworten

Geforce ist die journalistisch richtige Schreibweise, die auch den Namenskonventionen der Wikipedia entspricht. Marketingnamen wollen mit unkonventionellen Schreibweisen Aufmerksamkeit erregen, was eben nicht zu einer Enzyklopädie passt. Deswegen auch Nvidia und statt nVidia (wobei das ja auch nicht mehr die Schreibweise des Konzerns ist) und Nforce statt nForce). Ionenweaper 20:48, 2. Feb. 2008 (CET)Beantworten
Also ist die logische Konsequenz: GF1-7/nForce/GoForce etc umbenennen, Redirects erstellen, Linkfixing? --Uncle Pain 22:35, 2. Feb. 2008 (CET)Beantworten
Richtig, und die Artikel selbst müsste man auch noch anpassen. Etwas worauf ich aktuell keine Lust habe. ;-) Ionenweaper 23:34, 2. Feb. 2008 (CET)Beantworten

Überarbeiten der Seite

Bearbeiten

Der Artikel mangelt an Sachlichkeit, Neutralität, Sprachniveau und Belegen. Er sollte somit komplett überarbeitet werden. Habe daraus mal QS gemacht. --Norc 09:07, 13. Aug. 2009 (CEST)Beantworten

Ok, ich habe mal die Kritik Kategorie entfernt - weder neutral noch verifizierbar (Quellen bitte!). (nicht signierter Beitrag von Norc (Diskussion | Beiträge) 14:02, 28. Dez. 2010 (CET)) Beantworten

Belege sind in den Unterartikeln mehr als reichlich!!! (nicht signierter Beitrag von 91.67.31.234 (Diskussion) 03:47, 18. Mai 2016 (CEST))Beantworten