AGB 2016: Nvidia denkt über das Gaming hinaus, zeigt die Zukunft von KI und Deep Learning - Rechnen - 2019

Anonim

Es ist kein Geheimnis, dass GPUs mehr als nur dazu beitragen, Ihre Bildrate in der Division zu maximieren. Sie werden schnell zu einem integralen Bestandteil der Erforschung von Deep Learning, KI und sogar lebensrettender Medizin.

Nvidia ist sich der veränderten GPU-Entwicklung bewusst. Der Eröffnungsvortrag konzentrierte sich ausschließlich auf Nicht-Spiele-Anwendungen, von denen einige ernsthafte Auswirkungen auf alles haben, von selbstfahrenden Autos bis hin zu autonomen Drohnen.

Pascal rollt zunächst zur Forschung

Die neueste GPU-Architektur von Nvidia, Pascal, wurde von Gamern lange erwartet, aber die Einführung bei GTC 2016 konzentrierte sich stattdessen auf extremes High-End-Gaming. Wir haben die Ankündigung ausführlich behandelt. Während die Hardware, die bisher gezeigt wurde, nicht für Spiele ausgelegt ist, werden wir wahrscheinlich diesen Sommer eine neue Grafikkartenlinie auf Pascal-Basis sehen.

Nvidia öffnet seine Toolbox

Nvidias CEO und Mitbegründerin Jen-Hsung Huang trat bei der GTC-Keynote auf und sprang direkt mit dem Nvidia SDK. Dieses umfangreiche Paket an Tools, von denen einige schon lange im Einsatz sind, wie PhysX, ist Teil des grünen Teams, um den Einsatz von GPUs aus dem Gaming-Bereich zu erweitern.

CUDA-Kerne sind der Schlüssel zu diesem Ansatz. Das verteilte Netzwerk von Tausenden von Kernen in einer GPU eignet sich perfekt für die schnelle Verwaltung großer Datenmengen. Das bedeutet, dass neue Bibliotheken wie Graph Analytics Tausende oder Millionen von Faktoren durchlaufen und sie schnell vergleichen können, indem sie eine neuronale Karte der Kreuzungspunkte dieser verschiedenen Datensätze erstellen.

Diese Tools erstrecken sich auch auf andere Nicht-Gaming-Anwendungen. Nvidias IndeX ist ein speziell für den Umgang mit Umwelt- und geografischen Daten entwickeltes SDK. Diese Datasets können problemlos Terabyte an Speicherplatz vergrößern, und die Systeme, die sie verwalten, benötigen in der Regel sehr viel Speicher. IndeX sollte Forschern dabei helfen, GPU-beschleunigtes Computing zu nutzen, um aus diesen Daten viel schneller als jemals zuvor Schlussfolgerungen zu ziehen und Schlussfolgerungen daraus zu ziehen.

Künstlich intelligent werden

In den letzten fünf Jahren hat sich AI von einem Science-Fiction-Traum zu einer Realität gemausert. Deep-Learning-Techniken haben sich von der einfachen Bilderkennung zu autonomen Robotern, Sprachverständnis und Go-Spielen entwickelt.
Aber damit hört es nicht auf.

GPUs sind perfekt für AI und Deep Learning geeignet.

Nvidia bewegt sich auf dem Weg zur KI als Plattform, auf der alles von der Bilderkennung bis hin zum Sortieren und Lehren durch Deep-Learning-Netzwerke abgewickelt wird. Diese Netzwerke führen nicht nur Befehle aus, sie interpretieren neue, lehren sich selbst, Probleme zu lösen und wenden sich neuen Aufgaben zu.

Und im Mittelpunkt dieser Bemühungen stehen GPUs. Mit großen Mengen an Onboard-Speicher und einem leistungsstarken Satz von Tausenden von CUDA-Kernen arbeiten die Chips perfekt für AI und Deep Learning. Das liegt vor allem an Nvidias Tesla M40 und M4 Karten.

"Ich glaube nicht, dass tiefes Lernen in einer Branche stattfindet, ich denke, es wird in jeder Branche sein", erklärte Huang.

In einer besonders auffälligen Demo während der Keynote wurde ein unbeaufsichtigtes Facebook AI-System mit 20.000 Bildern aus einer bestimmten Kunstperiode gespeist. Anstatt zu erfahren, was wichtig ist und was nicht, lernte die KI den Stil und schaffte es schließlich, ihren eigenen, abgeleiteten Kunststil zu schaffen.

Dann kann das Team "Landschaft" oder "Wald" zurückgeben und die KI wird das Gelernte verwenden, um ein neues, originelles Bild zu "malen". Es kann sogar mehrere Faktoren verwalten, wie zum Beispiel die Wolken von einem Sonnenuntergang am Strand schneiden.

Derselbe Algorithmus kann, wenn er mit Videos von Menschen konfrontiert wird, die Sport und Spiele spielen, zwischen diesen mit erstaunlicher Genauigkeit unterscheiden. In der Demo war das System in der Lage, den Unterschied zwischen Rafting und Kajakfahren zu erkennen und einen Berg-Uni-Cycler korrekt zu identifizieren, etwas, das sogar die meisten Leute unterschätzt hätten, wenn sie es gesehen hätten.

Kürzlich konnte ein KI-System von Googles DeepMind-Programm einen der besten Go-Spieler der Welt schlagen. Das massiv komplizierte Spiel war lange Zeit eine Fantasie von Programmierern, und der 4-1 Sieg der Maschine bestätigt nur die Idee, dass KI endlich in einer sinnvollen Weise hier ist.

Fotorealistische virtuelle Realität

Eines der eindrucksvollsten DesignWorks- Tools von Nvidia, IRay, erstellt eine präzisere, lebensechte Lichtkarte, als Computer in Echtzeit rendern können. Dies geschieht durch langsames Berechnen der Lichtstrahlen von verschiedenen Punkten, um eine perfekte Lichtkarte zu erzeugen, aber es dauert eine Weile, bis sie ausgeführt wird, was es nur für das Rendern von Filmen oder die Herstellung einer architektonischen Präsentation nützlich macht.

Jetzt bringt Nvidia diese Technologie in VR-Headsets, um fotorealistische Beleuchtung und Texturen beim Tragen eines Headsets zu unterstützen. Er erzeugt 100 Lichttaster, von denen jede eine einzigartige Sicht auf die Art und Weise hat, wie Licht reflektiert und in den Raum scheint. Diese 4K-Renderings dauern jeweils etwa eine Stunde, um auf einem DGX-1 zu laufen, was bedeutet, dass die Zeit, die zum Rendern einer einzelnen Erfahrung benötigt wird, mindestens ein paar Tage beträgt.

Wenn das Headset angelegt wird, vergleicht die Grafikkarte, die nicht besonders leistungsstark sein muss, den Blickpunkt mit den Lichtsensoren und gibt ein genaues Ergebnis wieder. Die Demo war angemessen spektakulär und zeigte ein perfektes Abbild von Beleuchtung und Reflexionen. Erwarte nicht, dies in Spielen bald zu sehen. Es funktioniert nur von einer festen Position und die Szene kann sich nicht in Echtzeit ändern.

Es gibt auch eine leichtere Version von IRay VR, die für Android-Geräte und einfache VR-Headsets wie Google Cardboard entwickelt wurde. Es kann eine 3DSMax- oder eine andere Modellierungsszene aufnehmen und eine Photosphäre von einem einzigen Punkt aus erzeugen. Es ist eine großartige Möglichkeit, die Technologie auf leicht verfügbarer Hardware zu präsentieren.

AI, du kannst mein Auto fahren

Bild von Chief Design Officer Daniel Simon / Roborace Ltd.

Während der Automotive-Bereich in Nvidias Drive-Programm detaillierter ist, ist es auf jeden Fall erwähnenswert, dass Entwickler in diesem Bereich viel arbeiten. Um diese Bemühungen zu unterstützen, führt Nvidia eine große Auswahl an SDKs für selbstfahrende Autos sowie einen speziell für sie entwickelten Chip mit Unterstützung für bis zu 12 hochauflösende Kameras ein.

Lesen Sie hier mehr darüber.

Was ist mit Spielen?

Nvidia konzentriert sich nicht mehr auf die Produktion von Grafikkarten für Spieler. Das grüne Team hat eine neue Nische für seine Produkte gefunden, und Nvidias Pläne aus der Keynote decken ein breites Spektrum von Branchen ab, die nichts mit Spielen zu tun haben. Egal, ob es sich um tiefe Lernnetzwerke, KI-Forschung oder die Erweiterung unserer Vorstellungskraft in virtuellen Welten handelt, es sieht aus, als gäbe es nichts, was eine schnelle GPU nicht leisten kann.