Das beste KI-System sollte dasjenige sein, das nicht nur die beste Präzision, sondern auch den geringsten Energieverbrauch und die geringsten Energiekosten hat

Heute gilt MLPerf als der wichtigste Deep Learning Benchmark. Dies zeigt sich auch in der zunehmenden Zahl großer Technologieunternehmen, die um die weltweite Nummer 1-Position hinsichtlich der Trainingsgeschwindigkeit ihres KI-Systems konkurrieren.

Nvidia gab heute bekannt, dass es 16 AI-Leistungsrekorde bei MLPerf-Benchmarks gebrochen hat (NVIDIA stellte auch bei den ersten MLPerf-Ausbildungsbenchmarks im Dezember 2018 sechs und im Juli 2019 acht Rekorde auf).

NVIDIA A100 GPUs, DGX SuperPOD-Systeme wurden heute zu den weltweit schnellsten kommerziell erhältlichen Produkten für KI-Trainings erklärt.
Das gleiche gilt auch für Google. Der Supercomputer, den Google für diese 2020 MLPerf-Trainingsrunde verwendet hat, ist viermal so groß wie der Cloud TPU v3 Pod, der im vorherigen Wettbewerb drei Rekorde aufgestellt hat.

All diese großen Technologieunternehmen prahlen mit ihren „KI-Supercomputern“, vor allem aber mit ihrer Spitzenposition in MLPerf, wobei viele Blogs über ihren Erfolg unmittelbar nach der Ankündigung von MLPerf schreiben, ähnlich wie ich gerade. Ich bin der Meinung, dass MLPerf damit beginnen sollte, nicht nur Präzision und Trainingszeit, sondern auch Energieverbrauch und Energiekosten als Metriken in ihrer Leistungsbewertung zu berücksichtigen.

Das beste KI-System sollte dasjenige sein, das nicht nur die beste Präzision, sondern auch den geringsten Energieverbrauch und die geringsten Energiekosten hat.

Nur wenn es keinen Schaden für die Umwelt (durch den CO2-Ausstoß dieser riesigen Computers) und die Wirtschaft (enorme Training und Inferenz Kosten) gibt, und wenn die MLPerf integrativer sein wird, werden wir sehen, wer der wahre Held Nr. 1 ist.

Leave a Comment

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .