Die Entwicklung des modernen Grafikprozessors beginnt mit der Veröffentlichung der ersten 3D-Zusatzkarten im Jahr 1995, gefolgt von der weit verbreiteten Einführung von 32-Bit-Betriebssystemen und dem erschwinglichen Personal Computer.

Die Grafikindustrie, die vorher existierte, bestand aus einer prosaischeren 2D-Nicht-PC-Architektur mit Grafikkarten, die besser für die alphanumerischen Namenskonventionen ihrer Chips und die hohen Preisschilder bekannt waren. 3D-Spiele und Virtualisierungs-PC-Grafiken wurden schließlich aus einer Vielzahl von Quellen zusammengeführt, darunter Arcade- und Konsolenspiele, Militär-, Roboter- und Weltraumsimulatoren sowie medizinische Bildgebung.

Die Anfänge der 3D-Konsumentengrafik waren ein Wilder Westen konkurrierender Ideen. Von der Implementierung der Hardware über den Einsatz verschiedener Rendering-Techniken und deren Anwendungs- und Datenschnittstellen bis hin zur persistenten Naming-Hyperbel. Frühe Grafiksysteme hatten eine Fixed-Function-Pipeline (FFP) und eine Architektur, die einem sehr strengen Verarbeitungspfad folgte, der genauso viele Grafik-APIs wie 3D-Chiphersteller verwendete.

Während 3D-Grafiken eine eher langweilige PC-Industrie in eine leichte und magische Show verwandeln, verdanken sie ihre Existenz Generationen innovativer Bemühungen. Dies ist eine Serie von vier Artikeln, die einen umfassenden Blick auf die Geschichte der GPU in chronologischer Reihenfolge werfen. Wir bewegen uns von den Anfängen der 3D-Konsumentengrafik zum 3Dfx Voodoo-Game-Changer, der Branchenkonsolidierung um die Jahrhundertwende und der heutigen modernen GPGPU.

1976-1995: Die Anfänge der 3D-Konsumentengrafik

Die ersten echten 3D-Grafiken begannen mit frühen Display-Controllern, die als Video-Switcher und Video-Adress-Generatoren bekannt sind. Sie fungierten als Umschalter zwischen dem Hauptprozessor und dem Display. Der eingehende Datenstrom wurde in eine serielle Bitmap-Videoausgabe wie Helligkeit, Farbe und vertikale und horizontale zusammengesetzte Synchronisation umgewandelt, die die Pixelzeile während eines Renderns beibehielt und jede nachfolgende Zeile (das Intervall zwischen den Intervallen) synchronisierte. beendet eine Scanzeile und startet die nächste).




In der zweiten Hälfte der 1970er Jahre kam ein Designrausch auf und legte den Grundstein für die 3D-Grafik, wie wir sie kennen. Beispielsweise war der 1976er "Pixie"-Videochip (CDP1861) von RCA in der Lage, ein NTSC-kompatibles Videosignal mit einer Auflösung von 62x128 oder 64x32 für die bösartige RCA Studio II-Konsole auszugeben.



Dem Videochip folgte ein Jahr später der Television Interface Adapter (TIA) 1A, der in den Atari 2600 integriert wurde, um die Bildschirmdarstellung, Soundeffekte und Eingabesteuergeräte auszulesen. Die Entwicklung des TIA wurde von Jay Miner geleitet, der später das Design von benutzerdefinierten Chips für den Commodore Amiga-Computer leitete.






1978 führte Motorola den Videoadressgenerator MC6845 ein. Dies wurde die Grundlage für die Monochrome and Color Display Adapter (MDA/CDA)-Karten des IBM PC von 1981, die die gleiche Funktionalität für den Apple II bieten. Motorola fügte im selben Jahr den Videogenerator MC6847 hinzu, der seinen Weg in eine Reihe von Personalcomputern der ersten Generation fand, darunter den Tandy TRS-80.

Eine ähnliche Lösung von Commodores MOS Tech-Tochtergesellschaft VIC lieferte Grafikausgabe für 1980-83 ältere Commodore-Heimcomputer.




Im November des folgenden Jahres wurden LSIs ANTIC (Alphanumeric Television Interface Controller) und CTIA / GTIA-Coprozessor (Color oder Graphic Television Interface Adapter) wurde im Atari 400 eingeführt. ANTIC verarbeitete 2D-Bildschirmanweisungen unter Verwendung von Direct Memory Access (DMA). Wie die meisten Video-Coprozessoren kann CTIA Playground-Grafiken (Hintergrund, Titelbildschirme, Bewertungsbildschirm) rendern, während Farben und bewegte Objekte gerendert werden. Yamaha und Texas Instruments stellten verschiedenen Herstellern von Heimcomputern ähnliche ICs zur Verfügung.




Die nächsten Schritte in der Entwicklung der Grafik waren vor allem im professionellen Bereich.

Intel verwendete den 82720-Grafikchip als Basis für die 1000-Dollar-iSBX 275-Videografikcontroller-Multimodekarte. Es könnte acht Farbdaten bei einer Auflösung von 256 x 256 (oder monochrom bei 512 x 512) anzeigen. 32 KB Bildschirmspeicher reichten aus, um Linien, Bögen, Kreise, Rechtecke und Zeichen-Bitmaps zu zeichnen. Der Chip verfügt auch über Zoomen, Bildschirmsegmentierung und Scrollen.

SGI Fast-Tracking IRIS Graphics für Workstations - eine GR1.x-Grafikkarte, die separate Plug-in-(Tochter-)Boards für Farboptionen, Geometrie, Z-Puffer und Overlay/Substrat bereitstellt.

Intels iSBX 275 Multimode-Grafikkarte für 1000 US-Dollar war in der Lage, achtfarbige Daten mit einer Auflösung von 256 x 256 (oder monochrom mit 512 x 512 Pixeln) anzuzeigen.

Die industrielle und militärische 3D-Virtualisierung war damals relativ gut entwickelt. Verschiedene Projekte wurden mit IBM, General Electric und Martin Marietta (der 1992 die Luft- und Raumfahrtabteilung von GE übernehmen wird), einer Reihe von Militärunternehmen, Technologieinstituten und der NASA, die die Technologie für Militär- und Weltraumsimulationen benötigen, durchgeführt. Die Navy entwickelte 1951 auch einen Flugsimulator, der die 3D-Virtualisierung des Whirlwind-Computers des MIT verwendet.

Neben Rüstungsunternehmen gab es Unternehmen, die mit professioneller Grafik in den Militärmarkt einstiegen.

Evans & Sutherland - die professionelle Grafikkartenserien wie z Freiheit ve REALimage - ebenfalls CT5 Flugsimulator, ein 20-Millionen-Dollar-Paket DEC PDP-11-Host. Der Mitbegründer des Unternehmens, Ivan Sutherland, entwickelte 1961 ein Computerprogramm namens Sketchpad; Dieses Programm ermöglichte es, geometrische Formen zu zeichnen und sie in Echtzeit auf einer CRT mit einem Lichtstift anzuzeigen.

Dies ist der Vorgänger der modernen grafischen Benutzeroberfläche (GUI).

Im weniger esoterischen Bereich des Personal Computing gab die 82C43x-Serie EGA (Extended Graphics Adapter) von Chips and Technologies den Adaptern von IBM die dringend benötigte Konkurrenz und wurde um 1985 in vielen PC/AT-Klonen eingesetzt. Ebenso der Commodore Amiga, der mit dem OCS-Chipsatz geliefert wird. Der Chipsatz bestand aus drei Hauptkomponentenchips (Agnus, Denise und Paula), die es ermöglichten, dass ein gewisses Maß an Grafik- und Audioberechnung CPU-unabhängig war.

Im August 1985 gründeten drei Einwanderer aus Hongkong, Kwok Yuan Ho, Lee Lau und Benny Lau, Array Technology Inc. in Kanada. Zum Jahresende wurde der Name in ATI Technologies Inc. geändert. gewechselt zu.

ATI erhielt sein erstes Produkt im folgenden Jahr als OEM Color Emulation Card. Es wurde mit einem 9-poligen DE-9-Anschluss verwendet, um monochromen grünen, gelben oder weißen Phosphortext vor schwarzem Hintergrund auf einem TTL-Monitor auszugeben. Die Karte war mit mindestens 16 KB Speicher ausgestattet und war im ersten Betriebsjahr des Unternehmens für den Großteil des Umsatzes von ATI in Höhe von 10 Millionen US-Dollar verantwortlich. Dies geschah größtenteils durch einen Vertrag, der Commodore Computers etwa 7.000 Chips pro Woche zur Verfügung stellte.

Die Color Emulation Card von ATI wurde mit mindestens 16 KB Speicher geliefert und war für den Großteil des Umsatzes des Unternehmens in Höhe von 10 Millionen US-Dollar im ersten Betriebsjahr verantwortlich.

Das Aufkommen von Farbmonitoren und das Fehlen eines Standards bei den Wettbewerbern führten schließlich zur Video Electronics Standards Association (VESA), deren Gründungsmitglied ATI ist, zusammen mit NEC und sechs weiteren Grafikkartenherstellern.

1987 erweiterte ATI die Produktpalette von OEMs um die Graphics Solution Plus-Serie, die den PC/XT ISA 8-Bit-Bus für IBMs Intel 8086/8088-basierte IBM PCs verwenden. Der Chip unterstützte MDA-, CGA- und EGA-Grafikmodi mit Dip-Schaltern. Es war im Grunde ein Klon des Plantronics Colorplus-Boards, aber mit Platz für 64 KB Speicher. Die 1987 veröffentlichten PEGA1, 1a und 2a (256 kB) von Paradise Systems waren Plantronics-Klone.

Die EGA Wonder-Serie 1-4 erreichte im März 399 US-Dollar und bietet 256 KB DRAM sowie Kompatibilität mit 640 x 350 und CGA-, EGA- und MDA-Emulation von bis zu 16 Farben. Extended EGA war für die 2er, 3er und 4er Serie erhältlich.

Top-End-Stuffing war der EGA Wonder 800 mit 16-Farben-VGA-Emulation und 800x600-Auflösungsunterstützung und die VGA Enhanced Performance (VIP)-Karte, im Grunde ein EGA Wonder mit zusätzlichem Digital-Analog (DAC). eingeschränkte VGA-Kompatibilität. Letzteres kostet 449 US-Dollar plus 99 US-Dollar für das Compaq-Erweiterungsmodul.

ATI war bei weitem nicht allein in der Welle des Verbraucherhungers nach Personal Computing.

Viele neue Unternehmen und Produkte kamen in diesem Jahr hinzu. Dazu gehörten Trident, SiS, Tamerack, Realtek, Oak Technology, G-2 Inc. von LSI, Hualon, Cornerstone Imaging und Winbond - alle 1986-87 gegründet. Unterdessen produzierten Unternehmen wie AMD, Western Digital/Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini und Genua in dieser Zeit ihre ersten Grafikprodukte.

Die Wonder-Serie von ATI erhielt in den nächsten Jahren weiterhin enorme Updates.

1988 wurden die EGA Wonder 480 und 800+ sowie VGA mit der Small Wonder Graphics Solution (für CGA- und MDA-Emulation) mit Game-Controller-Port und Composite-Ausgangsoptionen sowie Extended EGA und 16-Bit-VGA erhältlich Unterstützung. Wonder und Wonder 16 mit zusätzlicher VGA- und SVGA-Unterstützung.

Das Wonder 16 war mit 256 KB Speicher für 499 US-Dollar ausgestattet, während die 512-KB-Variante 699 US-Dollar kostete.

Die aktualisierte VGA Wonder/Wonder 16-Serie kam 1989 auf den Markt, einschließlich des kostengünstigen VGA Edge 16 (Wonder 1024-Serie). Zu den neuen Funktionen gehörten auch ein Bus-Maus-Port und die Unterstützung von VESA Feature Connector. Dies war ein Anschluss mit Goldfingern, ähnlich einem verkürzten Bussteckplatzanschluss und wurde über ein Flachbandkabel mit einem anderen Videocontroller verbunden, um einen überlasteten Bus zu umgehen.

Die Updates der Wonder-Serie gewannen 1991 weiter an Fahrt. Die Wonder XL-Karte fügte VESA 32K-Farbkompatibilität und einen Sierra RAMDAC hinzu, der die maximale Bildschirmauflösung auf 72 Hz oder 800 x 600 bei 60 Hz erhöht. Die Preise lagen zwischen 249 US-Dollar (256 KB), 349 US-Dollar (512 KB) und 399 US-Dollar für die 1-MB-RAM-Option. Es war auch eine kostengünstige Version namens VGA Charger erhältlich, die auf dem Basic-16 des Vorjahres basiert.

Die Mach-Serie wurde im Mai desselben Jahres mit dem Mach8 auf den Markt gebracht. Es wird als Chip oder Platine verkauft, die es ermöglicht, begrenzte 2D-Zeichenoperationen wie Strichzeichnungen, Farbfüllungen und Bitmap-Kombinationen (Bit BLIT) über eine Programmierschnittstelle (AI) auszulagern. XL mit dem Creative Sound Blaster 1.5 Chip auf einer erweiterten Platine. Der als VGA Stereo-F/X bekannte Sound Blaster war in der Lage, Stereo aus Monodateien in annähernd UKW-Radioqualität zu simulieren.

Grafikkarten wie die ATI VGAWonder GT boten eine 2D + 3D-Option, die Mach8 mit dem Grafikkern von VGA Wonder+ (28800-2) für 3D-Aufgaben kombinierte. Wonder und Mach8 haben ATI auf den Meilenstein von 100 Millionen CAD für das Jahr gebracht, was weitgehend hinter der Einführung von Windows 3.0 und den zunehmenden 2D-Workloads, die damit verwendet werden können, zurückbleibt.

S3 Graphics wurde Anfang 1989 gegründet und produzierte 18 Monate später den ersten 2D-Beschleunigerchip und eine S3 911 (oder 86C911) Grafikkarte. Zu den wichtigsten Funktionen für letzteres gehörten 1 MB VRAM und 16-Bit-Farbunterstützung.

Der S3 911 wurde im selben Jahr durch den 924 ersetzt - es war im Grunde ein überarbeiteter 911 mit 24-Bit-Farbe - und im folgenden Jahr mit den Beschleunigern 928 und 801 und 805 mit 32-Bit-Farbe erneut aktualisiert. Der 801 verwendet eine ISA-Schnittstelle, während der 805 VLB verwendet. Zwischen der Einführung des 911 und dem Aufkommen des 3D-Beschleunigers wurde der Markt mit 2D-GUI-Designs auf Basis des S3-Originals überschwemmt - insbesondere von Tseng Labs, Cirrus Logic, Trident, IIT, ATIs Mach32 und Matroxs MAGIC RGB.

Im Januar 1992 veröffentlichte Silicon Graphics Inc (SGI) OpenGL 1.0, eine plattformunabhängige Anwendungsprogrammierschnittstelle (API) für 2D- und 3D-Grafiken.

Microsoft entwickelte eine konkurrierende API namens Direct3D, die nicht ins Schwitzen kam, um sicherzustellen, dass OpenGL so gut wie möglich unter Windows funktionierte.

OpenGL hat sich aus der proprietären API von SGI namens IRIS GL (Integrated Raster Imaging System Graphics Library) entwickelt. Es war ein Versuch, nicht-grafische Funktionalität von IRIS zu behalten und die Ausführung der API auf Nicht-SGI-Systemen zu ermöglichen, da konkurrierende Anbieter mit ihren eigenen proprietären APIs am Horizont auftauchten.

Ursprünglich war OpenGL auf professionelle UNIX-basierte Märkte ausgerichtet, wurde aber schnell für 3D-Spiele mit entwicklerfreundlicher Unterstützung für die Erweiterungsimplementierung übernommen.

Microsoft entwickelte eine konkurrierende API namens Direct3D, und es kam nicht ins Schwitzen, um sicherzustellen, dass OpenGL auf neuen Windows-Betriebssystemen so gut wie möglich funktioniert.

Ein paar Jahre später, als id Software John Carmack, zuvor Doom das PC-Gaming revolutionierte, Quake portierte, um OpenGL unter Windows zu verwenden und offen kritisiert Direct3D.

Die Unnachgiebigkeit von Microsoft ist eskaliert, da sie die Lizenzierung des Mini-Client-Treibers (MCD) von OpenGL in Windows 95 blockiert und es den Herstellern ermöglicht, auszuwählen, welche Funktionen Zugriff auf die Hardwarebeschleunigung haben. SGI reagierte mit der Entwicklung eines installierbaren Client-Treibers (ICD), der nicht nur die gleichen Funktionen bietet, sondern sogar noch besser ist, da der MCD nur die Rasterung abdeckt und ICD-Beleuchtungs- und -Konvertierungsfunktionen (T&L) hinzufügt.

Während des Aufstiegs von OpenGL, das zunächst im Workstation-Bereich an Bedeutung gewann, war Microsoft damit beschäftigt, den aufstrebenden Spielemarkt mit Designs für seine proprietären APIs zu überwachen. Im Februar 1995 erwarben sie RenderMorphics, dessen Reality Lab API mit Entwicklern konkurrierte und zum Kern von Direct3D wurde.

Zur gleichen Zeit schrieb Brian Hook von 3dfx die Glide-API, die die dominierende API für das Spiel werden sollte. Dies lag zum Teil an der Beteiligung von Microsoft am Talisman-Projekt (einem kachelbasierten Rendering-Ökosystem), das die für DirectX entwickelten Ressourcen verwässert.

Als D3D hinter der Einführung von Windows weit verbreitet wurde, verschwanden S3d (S3), Matrox Simple Interface, Creative Graphics Library, C Interface (ATI), SGL (PowerVR), NVLIB (Nvidia), RRedline (Rendition) und Glide mit den Entwicklern.

Es hat nicht geholfen, dass sich einige dieser proprietären APIs mit Kartenherstellern verbündet haben, die unter zunehmendem Druck stehen, eine schnell wachsende Liste von Funktionen zu erweitern. Dazu gehörten höhere Bildschirmauflösungen, eine größere Farbtiefe (von 16 Bit auf 24 und 32) und Verbesserungen der Bildqualität wie Anti-Aliasing. All diese Funktionen erforderten eine höhere Bandbreite, Grafikeffizienz und schnellere Produktzyklen.

Bis 1993 hatte die Marktvolatilität bereits eine Reihe von Grafikunternehmen gezwungen, ihr Geschäft aufzugeben oder von Wettbewerbern übernommen zu werden.

Das Jahr 1993 begann eine Flut neuer Grafikkonkurrenten, allen voran Nvidia, das im Januar desselben Jahres von Jen-Hsun Huang, Curtis Priem und Chris Malachowsky gegründet wurde. Huang war zuvor Director of Coreware bei LSI; Priem und Malachowsky kamen beide von Sun Microsystems, die sie zuvor entwickelt hatten. GX-Grafikarchitektur basierend auf SunSPARC.

Die Newcomer Dynamic Pictures, ARK Logic und Rendition stießen bald zu Nvidia.

Die Marktvolatilität hatte bereits eine Reihe von Grafikunternehmen gezwungen, aus dem Geschäft auszusteigen oder von Konkurrenten übernommen zu werden. Dazu gehörten Tamerack, Gemini Technology, Genua Systems, Hualon, Headland Technology (übernommen von SPEA), Acer, Motorola und Acumos (übernommen von Cirrus Logic).

Ein Unternehmen, das immer stärker wurde, war jedoch ATI.

Als Pionier der All-In-Wonder-Serie wurde ATIs 68890 PC-TV-Decoder-Chip, der Ende November in Video-It vorgestellt wurde, angekündigt! Karte. Der Chip konnte Videos mit 320x240@15fps oder 160x120@30fps aufnehmen und dank des integrierten Intel i750PD VCP (Video Compression Processor) in Echtzeit komprimieren/erweitern. Es war auch in der Lage, über die Datenkarte mit der Grafikkarte zu kommunizieren, wodurch Dongles oder Ports und Flachbandkabel überflüssig wurden.

Video-It! Ein weniger ausgestattetes Modell namens Video-Basic vervollständigte die Produktpalette, während es für 399 US-Dollar verkauft wurde.

Fünf Monate später, im März, stellte ATI einen verzögerten 64-Bit-Beschleuniger vor; Mach64.

Das Geschäftsjahr verlief für ATI mit einem Verlust von 2,7 Mio. CAD nicht erfreulich, da der Markt bei starkem Wettbewerb rückläufig war. Zu den konkurrierenden Boards gehörten das S3 Vision 968, das von vielen Board-Anbietern erhalten wurde, und das Trio64, das OEM-Verträge von Dell (Dimension XPS), Compaq (Presario 7170/7180), AT&T (Globalyst), HP (Vectra VE 4) erhielt. ) und DEC (Venturis / Celebris).

Mach64 wurde 1995 veröffentlicht und verzeichnete eine Reihe wichtiger Neuerungen. Es war der erste als Xclaim erhältliche Grafikadapter (450 $ und 650 $ je nach Onboard-Speicher) für PC- und Mac-Computer und bot mit dem S3 Trio eine Beschleunigung der Wiedergabe von Full-Motion-Videos.

Mach64 ist auch die erste professionelle Grafikkarte von ATI, 3D Pro Turbo und 3D Pro Turbo + PC2TVEs kostet 599 US-Dollar für die 2 MB-Option und 899 US-Dollar für die 4 MB-Option.

Im folgenden Monat ging ein Tech-Startup namens 3DLabs aus der Pixelgrafikabteilung von DuPont hervor. erwarb die Tochtergesellschaft zusammen mit dem GLINT 300SX-Prozessor der Muttergesellschaft, der OpenGL-Rendering, -Rendering und -Rasterung unterstützt. Aufgrund ihrer hohen Preise waren die Karten des Unternehmens ursprünglich für den professionellen Markt bestimmt. Die Fujitsu Sapphire2SX 4MB kostete 1600-2000 $, während die 8MB ELSA GLoria 8 00-28 kostete. Der 300SX wurde jedoch für den Gaming-Markt entwickelt.

Der S3 schien damals überall zu sein. High-End-OEM-Marken dominierten die Trio64-Chipsätze des Unternehmens, die den DAC, einen Grafikcontroller und einen Taktsynthesizer in einem einzigen Chip integriert haben.

Das Gaming GLINT 300SX von 1995 enthielt deutlich weniger 2 MB Speicher. Es verwendete 1 MB für die Texturen und den Z-Puffer und das andere für den Framebuffer, aber für Direct3D gab es die Option, den VRAM vom Basispreis von 349 US-Dollar um weitere 50 US-Dollar zu erhöhen. Die Karte konnte sich in einem bereits überfüllten Markt nicht durchsetzen, aber 3DLabs arbeitete bereits an einem Nachfolger der Permedia-Reihe.

Der S3 schien damals überall zu sein. High-End-OEM-Marken dominierten die Trio64-Chipsätze des Unternehmens, die den DAC, einen Grafikcontroller und einen Taktsynthesizer in einem einzigen Chip integriert haben. Sie verwendeten auch einen kombinierten Bildpuffer und eine unterstützte Hardware-Videoschicht (ein reservierter Teil des Grafikspeichers, um das Video für die Anwendung zu rendern). Das Trio64 und sein 32-Bit-Speicherbus-Schwester Trio32 waren als OEM-Einheiten und eigenständige Boards von Anbietern wie Diamond, ELSA, Sparkle, STB, Orchid, Hercules und Number Nine erhältlich. Die Preise von Diamond Multimedia lagen zwischen 169 US-Dollar für eine ViRGE-basierte Karte und 569 US-Dollar für ein Trio64+-basiertes Diamond Stealth64 Video mit 4 MB VRAM.

Zur Hauptstütze des Marktes gehören auch Angebote von Trident, einem langjährigen OEM-Lieferanten von schnörkellosen 2D-Grafikadaptern, der kürzlich den 9680-Chip in seine Produktpalette aufgenommen hat. Der Chip hatte die meisten Funktionen des Trio64, wobei Karten normalerweise zwischen 170 und 200 US-Dollar kosten. Sie haben eine gute Videowiedergabe und bieten eine akzeptable 3D-Leistung innerhalb dieser Kategorie.

Andere neue Marktteilnehmer auf dem Mainstream-Markt waren der Power Player 9130 von Weitek und der ProMotion 6410 von Alliance Semiconductor (oft als Alaris Matinee oder OptiViewPro von FIS bezeichnet). Während beide eine hervorragende Skalierung mit CPU-Geschwindigkeit bieten, hat letzterer eine leistungsstarke Skalierungs-Engine mit Anti-Lock-Schaltung kombiniert, um eine reibungslose Videowiedergabe zu erzielen, die weit besser ist als bei früheren Chips wie ATI Mach64, Matrox MGA 2064W und S3 Vision968.

Nvidia hat seinen ersten Grafikchip auf den Markt gebracht. NV1Es war der erste kommerzielle Grafikprozessor, der 3D-Rendering, Videobeschleunigung und integrierte GUI-Beschleunigung ermöglichte.

Sie arbeiteten mit ST Microelectronic zusammen, um den Chip in 500-nm-Prozessen herzustellen, und letztere führte die STG2000-Version des Chips ein. Obwohl es kein großer Erfolg war, stellte es die erste finanzielle Rendite des Unternehmens dar. Unglücklicherweise für Nvidia hat Microsoft DirectX 1.0 eingestellt und veröffentlicht, als die ersten Vendor-Boards im September ausgeliefert wurden (insbesondere Diamond Edge 3D).

Die D3D-Grafik-API hat bestätigt, dass der NV1 auf das Rendern dreieckiger Polygone mit Quad-Textur-Mapping angewiesen ist. Eingeschränkte D3D-Kompatibilität über den Treiber hinzugefügt, um die Dreiecke als quadratische Flächen zu umhüllen, aber das Fehlen von Spielen, die für die NV1 angepasst wurden, machte die Karte zu einem Alleskönner, einem Meister von keinem.

Die meisten Spiele wurden vom Sega Saturn übernommen. Im September 1995 wurde ein 4 MB NV1 mit integrierten Saturn-Ports (zwei pro Erweiterungshalterung über Flachbandkabel mit der Platine verbunden) für rund 450 US-Dollar verkauft.

Die späten Änderungen von Microsoft und die Einführung des DirectX-SDK sind linke Kartenhersteller nicht in der Lage, direkt auf die Hardware für die digitale Videowiedergabe zuzugreifen. Dies bedeutete, dass fast alle diskreten Grafikkarten in Windows 95 Funktionsprobleme hatten. Treiber unter Win 3.1 von diversen Firmen waren dagegen im Allgemeinen fehlerfrei.

Sein erster öffentlicher Auftritt fand im Mai des folgenden Jahres auf der E3-Videospielkonferenz in Los Angeles statt. Die Karte selbst wurde einen Monat später verfügbar. 3D Rage kombinierte den 2D-Kern von Mach64 mit 3D-Fähigkeiten.Im November 1995 kündigte ATI den ersten 3D-Beschleunigerchip 3D Rage (auch bekannt als Mach 64 GT) an.

Späte Überarbeitungen der DirectX-Spezifikation haben dazu geführt, dass 3D Rage Kompatibilitätsprobleme mit vielen Spielen hat, die die API verwenden - hauptsächlich ein Mangel an Tiefenpufferung. Mit einem eingebauten 2 MB EDO RAM Framebuffer war die 3D-Modalität auf 640 x 480 x 16 Bit oder 400 x 300 x 32 Bit beschränkt. Das Ausprobieren von 32-Bit-Farben bei 600 x 480 führte oft zu Bildschirmverfärbungen, wobei die 2D-Auflösung bei 1280 x 1024 Spitzenwerte erreichte. Wenn die Spieleleistung mittelmäßig ist, ist die Möglichkeit, MPEG im Vollbildmodus abzuspielen, zumindest in Bezug auf die Ausgewogenheit des Funktionsumfangs etwas zurückgegangen.

3Dfx Voodoo Graphics zerstörte effektiv die gesamte Konkurrenz und beendete das Leistungsrennen, bevor es überhaupt begonnen hatte.

ATI hat den Chip überarbeitet und Rage II im September auf den Markt gebracht. Die D3DX-Probleme des ersten Chips sowie die Unterstützung für die MPEG2-Wiedergabe wurden behoben. Die ersten Karten werden jedoch immer noch mit 2 MB Speicher geliefert, was die Leistung beeinträchtigt und Probleme mit der Perspektive/Geometrie-Konvertierung hat. Die Speicherkapazitätsoptionen sind auf 8 MB angewachsen, da die Serie um Rage II+ DVD und 3D Xpression+ erweitert wurde.

Als ATI erstmals eine 3D-Grafiklösung auf den Markt brachte, dauerte es nicht lange, bis andere Konkurrenten mit anderen 3D-Anwendungsideen auf den Markt kamen. Nämlich 3dfx, Interpretation und VideoLogic.

3Dfx Interactive gewinnt Rendition und VideoLogic im Rennen um die Markteinführung neuer Produkte. Das Performance-Rennen endete jedoch, bevor es überhaupt begonnen hatte, und 3Dfx Voodoo Graphics zerstörte effektiv die gesamte Konkurrenz.

Dieser Artikel ist der erste Teil der vier Serien. Wenn es Ihnen gefallen hat, lesen Sie weiter, während wir eine Reise in die Vergangenheit an die jungen Unternehmen 3Dfx, Rendition, Matrox und Nvidia unternehmen.