Die Entwicklung des modernen Grafikprozessors beginnt mit der Einführung der ersten 3D-Zusatzkarten im Jahr 1995, gefolgt von der weit verbreiteten Einführung von 32-Bit-Betriebssystemen und erschwinglichen PCs.

Die zuvor existierende Grafikindustrie bestand aus einer prosaischeren 2D-Architektur ohne PC mit Grafikkarten, die besser durch die alphanumerischen Namenskonventionen ihrer Chips und die hohen Preisschilder bekannt sind. PC-Grafiken für 3D-Spiele und Virtualisierung wurden schließlich aus verschiedenen Quellen wie Arcade- und Konsolenspielen, Militär-, Roboter- und Weltraumsimulatoren sowie medizinischen Bildgebungsverfahren zusammengeführt.

Die Anfänge der 3D-Consumer-Grafik waren ein wilder Westen konkurrierender Ideen. Von der Implementierung der Hardware über die Verwendung verschiedener Rendering-Techniken und deren Implementierung und Datenschnittstellen bis hin zur permanenten Namenshyperbel. Die ersten Grafiksysteme hatten eine Architektur, die einer Pipeline mit festen Funktionen (FFP) und einem sehr strengen Verarbeitungspfad folgte und so viele Grafik-APIs verwendete wie Hersteller von 3D-Chips.

Während 3D-Grafiken die ziemlich langweilige PC-Industrie zu einer leichten und magischen Show machen, verdanken sie ihre Existenz Generationen innovativer Bemühungen. Dies ist eine Reihe von vier Artikeln, die einen umfassenden Überblick über die Geschichte der GPU in chronologischer Reihenfolge geben. Wir bewegen uns von den Anfängen der 3D-Consumer-Grafik zum 3Dfx Voodoo-Game-Changer, der Konsolidierung der Branche um die Jahrhundertwende und der modernen GPGPU von heute.

1976-1995: Die Anfänge der 3D-Verbrauchergrafik

Die ersten echten 3D-Grafiken begannen mit frühen Display-Controllern, die als Videomodifikatoren und Videoadressgeneratoren bekannt sind. Sie dienten als Übergang zwischen dem Hauptprozessor und dem Display. Der eingehende Datenstrom wurde in eine serielle Bitmap-Videoausgabe wie Helligkeit, Farbe sowie vertikale und horizontale zusammengesetzte Synchronisierung konvertiert, wodurch die Pixellinie während eines Renderns erhalten und jede aufeinanderfolgende Zeile (die Zeit zwischen den Intervallen) synchronisiert wurde. beendet eine Scanlinie und startet die nächste).




Ein Designrausch kam in der zweiten Hälfte der 1970er Jahre und legte den Grundstein für 3D-Grafiken, wie wir sie kennen. Beispielsweise konnte der RCA-Videochip "Pixie" (CDP1861) von 1976 ein NTSC-kompatibles Videosignal mit einer Auflösung von 62 x 128 oder 64 x 32 für die schädliche RCA Studio II-Konsole ausgeben.




Dem Videochip folgte ein Jahr später der Television Interface Adapter (TIA) 1A, der in den Atari 2600 integriert wurde, um Screenshots, Soundeffekte und Eingabesteuerungen zu lesen. Die Entwicklung von TIA wurde von Jay Miner geleitet, der später das Design von kundenspezifischen Chips für den Commodore Amiga-Computer leitete.







1978 stellte Motorola den Videoadressgenerator MC6845 vor. Dies wurde die Grundlage für die Moch / CDA-Karten (Monochrome and Color Display Adapter) des IBM PC von 1981, die die gleiche Funktionalität für Apple II bieten. Motorola fügte im selben Jahr den Videobildgenerator MC6847 hinzu, der in eine Reihe von PCs der ersten Generation eingebrochen war, darunter den Tandy TRS-80.

Eine ähnliche Lösung von Commodores MOS Tech-Tochter VIC lieferte eine Grafikausgabe für ältere Commodore-Heimcomputer von 1980-83.




Im November des folgenden Jahres wurden LSIs ANTIC (Alphanumeric Television Interface Controller) und CTIA / GTIA-Coprozessor (Adapter für Farb- oder Grafikfernsehschnittstellen) wurde auf der Atari 400 vorgestellt. ANTIC verarbeitete 2D-Bildschirmanweisungen unter Verwendung des direkten Speicherzugriffs (DMA). Wie die meisten Videokoprozessoren kann CTIA beim Rendern von Farben und beim Verschieben von Objekten Spielplatzgrafiken (Hintergrund, Titelbildschirme, Bewertungsbildschirm) generieren. Yamaha und Texas Instruments lieferten ähnliche ICs für verschiedene ältere Anbieter von Heimcomputern.




Die nächsten Schritte in der grafischen Entwicklung waren hauptsächlich im professionellen Bereich.

Intel verwendete den 82720-Grafikchip als Basis für die 1000 US-Dollar teure iSBX 275 Video Graphics Controller Multi-Mode-Karte. Es könnten acht Farbdaten mit einer Auflösung von 256 x 256 (oder Schwarzweiß mit einer Auflösung von 512 x 512) angezeigt werden. 32 KB Bildschirmspeicher reichten aus, um Linien, Bögen, Kreise, Rechtecke und Zeichenbitmaps zu zeichnen. Der Chip hatte auch Zoom-, Bildschirmaufteilungs- und Bildlauffunktionen.

SGI folgte schnell IRIS Graphics für Workstations - eine GR1.x-Grafikkarte mit separaten Plug-In-Karten (Tochterkarten) für Farboptionen, Geometrie, Z-Puffer und Overlay / Pad.

Intels iSBX 275 Video Graphics Controller Multi-Mode-Karte im Wert von 1000 US-Dollar konnte acht Farbdaten mit einer Auflösung von 256 x 256 (oder monochrom mit einer Auflösung von 512 x 512) anzeigen.

Die industrielle und militärische 3D-Virtualisierung entwickelte sich zu dieser Zeit relativ gut. Mit IBM, General Electric und Martin Marietta (der 1992 die Luftfahrtabteilung von GE übernehmen wird), einer Reihe von Militärunternehmern, Technologieinstituten und der NASA wurden verschiedene Projekte durchgeführt, die Technologie für Militär- und Weltraumsimulationen erfordern. Die Marine entwickelte 1951 auch einen Flugsimulator mit 3D-Virtualisierung vom Whirlwind-Computer des MIT.

Neben Verteidigungsunternehmen gab es Unternehmen, die mit professionellen Grafiken in die Militärmärkte eintauchten.

Evans & Sutherland - das professionelle Grafikkartenserien wie z Freiheit ve REALimage - ebenfalls CT5 FlugsimulatorEin 20-Millionen-Dollar-Paket DEC PDP-11-Host. Der Mitbegründer des Unternehmens, Ivan Sutherland, entwickelte 1961 ein Computerprogramm namens Sketchpad. Mit diesem Programm konnten geometrische Formen gezeichnet und mit einem Lichtstift in Echtzeit auf einer CRT angezeigt werden.

Dies ist der Vorläufer der modernen grafischen Benutzeroberfläche (GUI).

Im weniger esoterischen Bereich des Personal Computing bot der EGA (Extended Graphics Adapter) der 82C43x-Serie von Chips and Technologies den IBM-Adaptern die dringend benötigte Konkurrenz und wurde um 1985 auf vielen PC / AT-Klonen eingesetzt. Commodore Amiga wird auch mit dem OCS-Chipsatz geliefert. Der Chipsatz bestand aus drei Hauptkomponenten-Chips (Agnus, Denise und Paula), die es ermöglichten, eine bestimmte Menge an Grafik- und Soundcomputern CPU-abhängig zu machen.

Im August 1985 gründeten drei Einwanderer aus Hongkong, Kwok Yuan Ho, Lee Lau und Benny Lau, Array Technology Inc in Kanada. Ende des Jahres hieß der Name ATI Technologies Inc. gewechselt zu.

ATI erhielt im folgenden Jahr sein erstes Produkt als OEM-Farbemulationskarte. Es wurde verwendet, um monochromen grünen, gelben oder weißen Phosphortext auf einem TTL-Monitor vor einem schwarzen Hintergrund mit einem 9-poligen DE-9-Anschluss auszugeben. Die Karte ist mit mindestens 16 KB Speicher ausgestattet und war im ersten Betriebsjahr des Unternehmens für den Großteil des Umsatzes von ATI in Höhe von 10 Millionen US-Dollar verantwortlich. Dies geschah größtenteils durch einen Vertrag, der Commodore Computers etwa 7000 Chips pro Woche zur Verfügung stellte.

Die Farbemulationskarte von ATI verfügte über mindestens 16 KB Speicher und war im ersten Betriebsjahr für den Großteil des Umsatzes des Unternehmens in Höhe von 10 Mio. USD verantwortlich.

Das Aufkommen von Farbmonitoren und das Fehlen eines Standards bei Wettbewerbern führten schließlich zur Gründung der Video Electronics Standards Association (VESA), deren Gründungsmitglied ATI ist, mit NEC und sechs anderen Herstellern von Grafikadaptern.

1987 erweiterte ATI die Produktlinie der OEMs um die Graphics Solution Plus-Linie, indem der PC / XT ISA 8-Bit-Bus für IBMs Intel 8086/8088-basierte IBM-PCs verwendet wurde. Der Chip unterstützt MDA-, CGA- und EGA-Grafikmodi mit DIP-Schaltern. Es war im Grunde ein Klon der Plantronics Colorplus-Karte, hatte aber Platz für 64 KB Speicher. PEGA1, 1a und 2a (256 kB) von Paradise Systems, veröffentlicht 1987, waren Plantronics-Klone.

Die EGA Wonder-Serie 1-4 erreichte im März 399 US-Dollar und bot 256 KB DRAM sowie Kompatibilität mit CGA-, EGA- und MDA-Emulation bis zu 640 x 350 und 16 Farben. Für die Serien 2, 3 und 4 war eine erweiterte EGA verfügbar.

High-End-Füllung war das EGA Wonder 800 mit 16-Farben-VGA-Emulation und Unterstützung für eine Auflösung von 800 x 600, und es war eine VIP-Karte (VGA Enhanced Performance), im Wesentlichen ein EGA Wonder mit zusätzlichem Digital-Analog (DAC). eingeschränkte VGA-Kompatibilität. Der zweite Betrag beträgt 449 USD plus 99 USD für das Compaq-Erweiterungsmodul.

ATI war in der Welle des Appetits der Verbraucher auf Personal Computing alles andere als allein.

In diesem Jahr kamen viele neue Unternehmen und Produkte hinzu, darunter Trident, SiS, Tamerack, Realtek, Oak Technology, G-2 Inc. von LSI, Hualon, Cornerstone Imaging und Winbond - alle 1986-87 gegründet. In dieser Zeit hätten Unternehmen wie AMD, Western Digital / Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini und Genua ihre ersten Grafikprodukte hergestellt.

Die Wonder-Serie von ATI erhielt in den nächsten Jahren weiterhin großartige Updates.

1988 wurden die Little Wonder Graphics Solution (für CGA- und MDA-Emulation) mit Controller-Port und Composite-Ausgabeoptionen sowie die EGA Wonder 480 und 800+ mit erweiterter EGA- und 16-Bit-VGA-Unterstützung sowie VGA verfügbar. Wonder and Wonder 16 mit zusätzlicher VGA- und SVGA-Unterstützung.

Das Wonder 16 war mit 256 KB Speicher für 499 US-Dollar ausgestattet, während die 512-KB-Variante 699 US-Dollar kostete.

Die aktualisierte VGA Wonder / Wonder 16-Serie kam 1989, einschließlich der kostengünstigen VGA Edge 16 (Wonder 1024-Serie). Zu den neuen Funktionen gehörten ein Bus-Maus-Anschluss und die Unterstützung des VESA Feature Connector. Dies war ein Goldfinger-Anschluss, der einem verkürzten Bussteckplatz-Anschluss ähnelte und über ein Flachbandkabel mit einem anderen Videocontroller verbunden war, um einen verstopften Bus zu umgehen.

Die Aktualisierungen der Wunderserien nahmen 1991 weiter Fahrt auf. Die Wonder XL-Karte bietet eine VESA 32K-Farbkompatibilität und einen Sierra RAMDAC, der die maximale Bildschirmauflösung auf 72 Hz oder 800 x 600 bei 60 Hz erhöht. Die Preise reichten von 249 USD (256 KB), 349 USD (512 KB) bis 399 USD für die 1-MB-RAM-Option. Eine kostengünstige Version namens VGA Charger, die auf dem Basic-16 des Vorjahres basiert, war ebenfalls erhältlich.

Die Mach-Serie wurde im Mai dieses Jahres mit Mach8 veröffentlicht. Es wird als Chip oder Board verkauft, mit dem begrenzte 2D-Zeichenvorgänge wie Strichzeichnung, Farbfüllung und Bitmap-Kombination (Bit BLIT) über eine Programmierschnittstelle (AI) entladen werden können. XL mit Creative Sound Blaster 1.5 Chip auf einer erweiterten Platine. Aus den Sound Blaster-Monodateien, die als VGA Stereo-F / X bekannt sind, konnte Stereo etwas simulieren, das sich der FM-Radioqualität annähert.

Grafikkarten wie der ATI VGAWonder GT boten eine 2D + 3D-Option, bei der Mach8 mit dem Grafikkern von VGA Wonder + (28800-2) für 3D-Aufgaben kombiniert wurde. Wonder und Mach8 haben ATI im Laufe des Jahres auf den Meilenstein von 100 Millionen CAD-Verkäufen gebracht, was weitgehend auf die Einführung von Windows 3.0 und die damit verbundenen erhöhten 2D-Workloads zurückzuführen ist.

S3 Graphics wurde Anfang 1989 gegründet und produzierte achtzehn Monate später den ersten 2D-Beschleunigerchip und eine S3 911 (oder 86C911) -Grafikkarte. Zu den Hauptmerkmalen für letzteres gehörten 1 MB VRAM und 16-Bit-Farbunterstützung.

Der S3 911 wurde im selben Jahr durch den 924 ersetzt - es handelte sich im Grunde genommen um einen überarbeiteten 911 mit 24-Bit-Farbe - und im folgenden Jahr erneut mit 928- und 801- und 805-Beschleunigern aktualisiert, die 32-Bit-Farbe hinzufügten. Der 801 verwendet eine ISA-Schnittstelle, während der 805 VLB verwendet. Zwischen der Einführung des 911 und dem Aufkommen des 3D-Beschleunigers war der Markt voll von 2D-GUI-Designs, die auf dem Original des S3 basierten - insbesondere von Tseng Labs, Cirrus Logic, Trident, IIT, Mach32 von ATI und MAGIC RGB von Matrox.

Im Januar 1992 veröffentlichte Silicon Graphics Inc (SGI) OpenGL 1.0, eine herstellerunabhängige API (Application Programming Interface) für 2D- und 3D-Grafiken.

Microsoft entwickelte eine konkurrierende API namens Direct3D und stellte sicher, dass OpenGL unter Windows so gut wie möglich funktionierte und nicht ins Schwitzen kam.

OpenGL wurde aus der proprietären API von SGI namens IRIS GL (Integrated Raster Imaging System Graphics Library) entwickelt. Es war ein Versuch, nicht grafische Funktionen von IRIS fernzuhalten und die API auf Nicht-SGI-Systemen laufen zu lassen, da konkurrierende Anbieter mit ihren eigenen proprietären APIs am Horizont auftauchten.

Ursprünglich war OpenGL auf professionelle UNIX-basierte Märkte ausgerichtet, wurde jedoch schnell für 3D-Spiele mit entwicklerfreundlicher Unterstützung für die Implementierung von Erweiterungen übernommen.

Microsoft entwickelte eine konkurrierende API namens Direct3D, und es war kein Problem, sicherzustellen, dass OpenGL so gut funktioniert, wie es auf neuen Windows-Betriebssystemen möglich ist.

Einige Jahre später, als id Software John Carmack, der zuvor Doom im Bereich PC-Spiele revolutionierte, Quake dazu brachte, OpenGL unter Windows und Windows zu verwenden direkt kritisiert Direct3D.

Der Konflikt von Microsoft hat in Windows 95 zugenommen, da er die OpenGL-Lizenzierung für Mini-Client-Treiber (MCD) verhindert und es Anbietern ermöglicht, auszuwählen, welche Funktionen auf die Hardwarebeschleunigung zugreifen können. SGI reagierte mit der Entwicklung eines installierbaren Client-Treibers (ICD), der nicht nur die gleichen Funktionen bietet, sondern sogar noch besser ist, da MCD nur Rasterungsvorgänge abdeckt und ICD-Beleuchtungs- und Transformationsfunktionen (T & L) hinzufügt.

Während des Aufstiegs von OpenGL, das zunächst auf dem Gebiet der Workstations an Bedeutung gewann, war Microsoft damit beschäftigt, den aufstrebenden Spielemarkt mit Designs auf eigenen proprietären APIs zu verfolgen. Im Februar 1995 kauften sie RenderMorphics, dessen Reality Lab-API mit Entwicklern konkurrierte und zum Kern von Direct3D wurde.

Zur gleichen Zeit schrieb Brian Hook von 3dfx die Glide-API, die die dominierende API für das Spiel sein wird. Dies war teilweise auf die Beteiligung von Microsoft am Talisman-Projekt (einem auf Kacheln basierenden Rendering-Ökosystem) zurückzuführen, bei dem die für DirectX entwickelten Ressourcen verwässert wurden.

Da D3D hinter der Einführung von Windows weit verbreitet ist, verschwanden S3d (S3), Matrox Simple Interface, Creative Graphics Library, C-Schnittstelle (ATI), SGL (PowerVR), NVLIB (Nvidia), RRedline (Rendition) und Glide mit den Entwicklern.

Es hat einigen dieser proprietären APIs nicht geholfen, sich unter zunehmendem Druck der Kartenhersteller zu verbünden, sie einer schnell wachsenden Liste von Funktionen hinzuzufügen. Dies beinhaltete Verbesserungen der Bildqualität wie höhere Bildschirmauflösungen, erhöhte Farbtiefe (von 16 Bit auf 24 und 32) und Anti-Aliasing. All diese Funktionen erforderten eine höhere Bandbreite, Grafikeffizienz und schnellere Produktzyklen.

Bis 1993 hatte die Volatilität des Marktes bereits eine Reihe von Grafikunternehmen gezwungen, in den Ruhestand zu treten oder von Wettbewerbern übernommen zu werden.

Das Jahr 1993 löste eine Reihe neuer Grafikkandidaten aus, insbesondere Nvidia, die im Januar dieses Jahres von Jen-Hsun Huang, Curtis Priem und Chris Malachowsky gegründet wurden. Huang war zuvor Director of Coreware bei LSI; Priem und Malachowsky stammten beide von Sun Microsystems, die sie zuvor entwickelt hatten. SunSPARC-basierte GX-Grafikarchitektur.

Newcomer Dynamic Pictures, ARK Logic und Rendition kamen bald zu Nvidia.

Die Volatilität auf dem Markt hat bereits eine Reihe von Grafikunternehmen gezwungen, in den Ruhestand zu treten oder von Wettbewerbern übernommen zu werden. Dazu gehörten Tamerack, Gemini Technology, Genua Systems, Hualon, Headland Technology (von SPEA übernommen), Acer, Motorola und Acumos (von Cirrus Logic übernommen).

Ein Unternehmen, das immer stärker wurde, war ATI.

Als Vorläufer der All-In-Wonder-Serie wurde Ende November der in Video-It veröffentlichte 68890 PC-TV-Decoder-Chip von ATI angekündigt! Karte. Der Chip konnte dank des integrierten Intel i750PD VCP (Videokomprimierungsprozessors) Videos mit 320 x 240 @ 15 fps oder 160 x 120 @ 30 fps aufnehmen und in Echtzeit komprimieren / erweitern. Es war auch in der Lage, über die Datenkarte mit der Grafikkarte zu kommunizieren, wodurch Dongles oder Anschlüsse und Flachbandkabel überflüssig wurden.

Video-It! Während ein weniger bekanntes Modell namens Video-Basic das Ranking vervollständigte, wurde es für 399 US-Dollar verkauft.

Fünf Monate später, im März, führte ATI einen 64-Bit-Beschleuniger mit Verzögerung ein. Mach64.

Das Geschäftsjahr war für ATI mit einem Verlust von 2,7 Mio. CAD nicht gut, da es im starken Wettbewerb auf dem Markt gefallen ist. Zu den Konkurrenzplatinen gehörten S3 Vision 968, das von vielen Panel-Anbietern erworben wurde, und Trio64, das OEM-Verträge von Dell (Dimension XPS), Compaq (Presario 7170/7180), AT & T (Globalyst) und HP (Vectra VE 4) erhielt. ) und DEC (Venturis / Celebris).

Mach64 wurde 1995 veröffentlicht und verzeichnete eine Reihe wichtiger Neuerungen. Es war der erste Grafikadapter, der für PC- und Mac-Computer als Xclaim erhältlich war (450 und 650 US-Dollar je nach integriertem Speicher) und bot mit dem S3 Trio eine Beschleunigung der Videowiedergabe in voller Bewegung.

Mach64 ist auch die erste professionelle Grafikkarte von ATI, 3D Pro Turbo und 3D Pro Turbo + PC2TVEs wird für 599 USD für die 2-MB-Option und 899 USD für die 4-MB-Option angeboten.

Im folgenden Monat entstand aus der Pixel-Grafikabteilung von DuPont ein Tech-Startup namens 3DLabs. Tochtergesellschaft gekauft Zusammen mit dem GLINT 300SX-Prozessor der Muttergesellschaft, der OpenGL erstellen, bearbeiten und rastern kann. Aufgrund ihrer hohen Preise waren die Karten des Unternehmens ursprünglich für den professionellen Markt gedacht. Der Fujitsu Sapphire2SX 4MB kostet zwischen 1600 und 2000 US-Dollar, während der 8 MB ELSA GLoria 8 zwischen 2600 und 28 US-Dollar kostet. Der 300SX wurde jedoch für den Spielemarkt entwickelt.

S3 schien zu dieser Zeit überall zu sein. High-End-OEM-Marken dominierten die Trio64-Chipsätze des Unternehmens und integrierten einen DAC, einen Grafikcontroller und einen Taktsynthesizer in einen einzigen Chip.

1995 Das Spiel GLINT 300SX enthielt viel weniger 2 MB Speicher. Es verwendete 1 MB für die Texturen und den Z-Puffer und die andere für den Framework-Puffer, bot jedoch die Möglichkeit, den VRAM für Direct3D um weitere 50 USD gegenüber dem Grundpreis von 349 USD zu erhöhen. Die Karte hat ihren Weg durch einen bereits überfüllten Markt nicht gefunden, aber 3DLabs arbeitete bereits an einem Nachfolger in der Permedia-Serie.

S3 schien zu dieser Zeit überall zu sein. High-End-OEM-Marken dominierten die Trio64-Chipsätze des Unternehmens und integrierten einen DAC, einen Grafikcontroller und einen Taktsynthesizer in einen einzigen Chip. Sie verwendeten auch einen kombinierten Bildpuffer und eine unterstützte Hardware-Videoschicht (ein reservierter Teil des Grafikspeichers, um das Video für die Anwendung zu rendern). Trio64 und sein 32-Bit-Speicherbus-Bruder Trio32 waren als OEM-Einheiten und eigenständige Karten von Anbietern wie Diamond, ELSA, Sparkle, STB, Orchid, Hercules und Number Nine erhältlich. Die Preise von Diamond Multimedia reichten von 169 USD für eine ViRGE-basierte Karte bis zu 569 USD für ein Trio64 + -basiertes Diamond Stealth64-Video mit 4 MB VRAM.

Das Hauptende des Marktes waren Angebote von Trident, einem langjährigen OEM-Anbieter von schnörkellosen 2D-Grafikadaptern, der kürzlich den 9680-Chip in sein Sortiment aufgenommen hat. Der Chip hatte die meisten Spezifikationen des Trio64 und die Karten kosten im Allgemeinen zwischen 170 und 200 US-Dollar. Innerhalb dieser Klammer haben sie eine gute Videowiedergabe und bieten eine akzeptable 3D-Leistung.

Weitere Neueinsteiger auf dem Mainstream-Markt waren Weiteks Power Player 9130 und Alliance Semiconductor's ProMotion 6410 (oft als Alaris Matinee oder FIS OptiViewPro bezeichnet). Während beide eine hervorragende Skalierung mit CPU-Geschwindigkeit bieten, kombinierte letztere die leistungsstarke Skalierungs-Engine mit einer Anti-Blockier-Schaltung, um eine reibungslose Videowiedergabe zu erzielen, die weitaus besser ist als bei früheren Chips wie ATI Mach64, Matrox MGA 2064W und S3 Vision968.

Nvidia brachte den ersten Grafikchip auf den Markt. NV1Wurde der erste kommerzielle Grafikprozessor, der 3D-Rendering, Videobeschleunigung und integrierte GUI-Beschleunigung unterstützt.

Sie haben sich mit ST Microelectronic zusammengetan, um den Chip in 500-nm-Prozessen herzustellen. Letztere haben auch die STG2000-Version des Chips eingeführt. Obwohl es kein großer Erfolg war, stellte es die anfängliche finanzielle Rendite des Unternehmens dar. Unglücklicherweise für Nvidia endete Microsoft mit der Veröffentlichung von DirectX 1.0, als die ersten Lieferanten-Boards im September ausgeliefert wurden (insbesondere Diamond Edge 3D).

Die D3D-Grafik-API hat überprüft, dass NV1 auf dem Rendern dreieckiger Polygone mithilfe der Quad-Textur-Zuordnung beruht. Über den Treiber wurde eine eingeschränkte D3D-Kompatibilität hinzugefügt, um die Dreiecke als quadratische Flächen zu verpacken. Da jedoch keine für NV1 angepassten Spiele vorhanden waren, war die Karte ein Alleskönner und nicht der Meister.

Die meisten Spiele wurden von Sega Saturn übernommen. Im September 1995 wurde ein 4 MB NV1 an integrierte Saturn-Ports (zwei pro Erweiterungshalterung, die über ein Flachbandkabel mit der Platine verbunden ist) für etwa 450 US-Dollar verkauft.

Die späten Änderungen von Microsoft und die Einführung der linken DirectX SDK-Kartenhersteller können nicht direkt auf die Hardware für die digitale Videowiedergabe zugreifen. Dies bedeutete, dass fast alle diskreten Grafikkarten unter Windows 95 Funktionsprobleme hatten. Treiber unter Win 3.1 von verschiedenen Unternehmen waren im Allgemeinen genau das Gegenteil.

Seine erste öffentliche Show fand im Mai des folgenden Jahres auf der E3-Videospielkonferenz in Los Angeles statt. Die Karte selbst wurde einen Monat später verfügbar. 3D Rage kombinierte den 2D-Kern von Mach64 mit 3D-Fähigkeiten. ATI kündigte im November 1995 den ersten 3D-Beschleunigerchip an, 3D Rage (auch bekannt als Mach 64 GT).

Späte Überarbeitungen der DirectX-Spezifikation führten dazu, dass 3D Rage Kompatibilitätsprobleme mit vielen Spielen hatte, die die API verwendeten - hauptsächlich mangelnde Tiefenpufferung. Mit dem integrierten 2-MB-EDO-RAM-Frame-Puffer war die 3D-Modalität auf 640 x 480 x 16 Bit oder 400 x 300 x 32 Bit beschränkt. Der Versuch, 32-Bit-Farben bei 600 x 480 zu verwenden, führte häufig zu Farbverzerrungen auf dem Bildschirm, und die 2D-Auflösung erreichte einen Höchstwert von 1280 x 1024. Wenn die Spieleleistung mittelmäßig ist, hat sich die Fähigkeit, MPEG im Vollbildmodus abzuspielen, zumindest beim Ausgleich des Funktionsumfangs irgendwie verschlechtert.

3Dfx Voodoo Graphics zerstörte effektiv den gesamten Wettbewerb und endete vor dem Start des Performance-Rennens.

ATI überholte den Chip und im September startete Rage II. D3DX-Probleme des ersten Chips sowie Unterstützung für die MPEG2-Wiedergabe wurden behoben. Die ersten Karten werden jedoch immer noch mit 2 MB Speicher ausgeliefert, was die Leistung beeinträchtigt und Probleme mit der Konvertierung von Perspektive und Geometrie aufweist. Da Serial Rage II + um DVD und 3D Xpression + erweitert wurde, wurden die Speicherkapazitätsoptionen auf 8 MB erweitert.

Als ATI zum ersten Mal mit einer 3D-Grafiklösung vermarktete, dauerte es nicht lange, bis andere Wettbewerber mit anderen 3D-Anwendungsideen auftauchten. Nämlich 3dfx, Interpretation und VideoLogic.

3Dfx Interactive gewinnt Rendition und VideoLogic im Wettlauf um die Markteinführung neuer Produkte. Die Leistung endete jedoch vor dem Start des Rennens und 3Dfx Voodoo Graphics zerstörte effektiv alle Konkurrenten.

Dieser Artikel ist die erste Folge der vier Serien. Wenn es Ihnen gefällt, lesen Sie weiter, während wir einen Spaziergang durch die Vergangenheit zu der jungen Firma namens 3Dfx, Rendition, Matrox und Nvidia machen.