Gestern habe ich diesem Video gesehen:
Heute habe ich erfahren dass bei SIGGRAPH-Konferenz in Vancouver die nächste Generation der Turing-Grafikarchitektur des Nvidia vorgestellt wurde. Das habe ich von hier erfahren:
Nvidias CEO Jensen Huang sagte dass es „den größten Sprung seit der Erfindung der CUDA-GPU 2006“ ist. Das liegt zum Teil an der Einführung von dedizierten Raytracing (RT). Während Raytracing für mehrere Jahre von Nvidia und anderen versprochen (und demontiert) wurde, scheint es, dass dieses Feature ein Kennzeichen von Turing-basierten GPUs sein wird, wobei Huang seine Ankunft als „den Heiligen Gral unserer Industrie“ bezeichnen wird.
Laut Nvidia werden die ersten drei Turing-basierten Grafikkarten Quadro RTX 8000 (10.000 $), RTX 6000 (6.300 $) und RTX 5000 (2.300 $) sein.
GPU | Erinnerung | Speicher mit NVLink | Ray Tracing | CUDA-Kerne | Tensorkerne |
---|---|---|---|---|---|
Quadro RTX 8000 | 48GB | 96 GB | 10 GigaRays / Sek | 4.608 | 576 |
Quadro RTX 6000 | 24GB | 48GB | 10 GigaRays / Sek | 4.608 | 576 |
Quadro RTX 5000 | 16 GIGABYTE | 32 GB | 6 GigaRays / Sek | 3072 | 384 |
Hier habe ich erfahren dass Nvidia den RTX 2080 für Montag, den 20. August 2018, bei Gamescom in Köln bestätigt:
Bin begeistert Deep Learning Modelle später mit einen Turing GPU zu trainieren, den gestern habe ich ein Forschungsartikel gelesen über Highly Scalable Deep Learning Training System with Mixed-Precision: Training ImageNet in Four Minutes und konnte nicht glauben dass jemand die Idee hatte um ImageNet mit 1000 GPUs oder auch 2000 GPUs zu trainieren. Und ich, armer Promotionsstudent :)) leiste ich mir nicht mal einen GTX 1080 Ti GPU.
PS. Diese Asus GeForce GTX 1080 Ti ROG Strix OC bestellung habe ich storniert, denn, wie ich merke seit ein paar Monaten, Mindfactory hat die 11GB Asus GeForce GTX 1080 Ti ROG Strix OC Aktiv PCIe 3.0 x16 (Retail) nie verfügbar. Dort steht fast immer „Bestellt | Ohne Liefertermin (Max. Bestellmenge: 3)“. Nachdem ich meine Forschungsartikeln bei SIITME präsentieren werde, überlege ich mir ob sich vielleicht doch besser ein RTX 2080 GPU mit der neue Turing-Architektur sich für Deep Learning lohnt. Darüber werde ich aber später schreiben.
Neueste Kommentare