c't 2/2019
S. 20
News
Server-CPUs, Chipsätze

Server-Prozessoren für Deep Learning

Intels kommende Xeon-Serverprozessoren Cascade Lake und Cooper Lake sollen vor allem Deep Learning stark beschleunigen, wieder etwas sicherer werden und später ein neues Datenformat nutzen – all das in 14 nm.

Mit Cooper Lake soll ein neues Datenformat kommen, welches die KI-/Deep-Learning-Leistung weiter steigert.

Die für 2019 erwarteten, weiter in 14-nm-Technik hergestellten Cascade-Lake-Xeons werden im Rahmen der AVX512-Befehlssatzerweiterung vier neue KI-Instruktionen erhalten. Je zwei davon arbeiten mit reduzierter Ganzzahlpräzision INT16 und INT8. Daher eignen sie sich hauptsächlich für die Folgerungsschicht (Inferencing), weniger für das Training neuraler Netze. Intel nennt das Deep-Learning Boost, vormals Vector Neural Net Instructions (VNNI).

Sie wollen wissen, wie es weitergeht?

Intels seltsamer B365-Chipsatz

Die Neuerungen USB 3.1 Gen 2 und CNVi-WLAN, wie beim B360 im Bild, fehlen dem B365.

Auf der Intel-Website ist ohne großes Brimborium der neue B365-Chipsatz aufgetaucht, der nur 2 US-Dollar mehr kostet als die Einsteiger-Variante H310. Seine angepriesenen Merkmale entsprechen denen des H270 und deuten darauf hin, dass es sich um Restbestände aus der 200er-Serie handelt. Mit neuen Boards mit passender Einstellung der Management-Engine unterstützt der B365 Core-i-8000-/-9000-CPUs. Verzichten muss man allerdings auf die eigentlichen Neuerungen der 300er-Reihe: eingebautes USB 3.1 Gen 2 sowie CNVi-WLAN.