Amazon Web Products and Companies (AWS) hat EC2-Hüllen auf den Markt gebracht, von denen es sagt, dass sie besonders für tiefgehendes Üben optimiert sind.
Die einzigartigen Amazon EC2 Trn1-Gehäuse werden von AWS Trainium-Chips betrieben, einem von AWS entwickelten ML-Chip mit 2D-Fähigkeiten, der auf seinen AWS Inferentia-Chips aufbaut.
Die c Laut großen Behauptungen sind diese einzigartigen Fälle erfolgreich für das verteilte Üben komplexer Deep-Finding-Einheiten im eleganten Maßstab geeignet, die der Verarbeitung natürlicher Sprache und der Bilderkennung ähneln.
Was leisten Kunden?
Trn1-Gehäuse sind in zwei Konfigurationen erhältlich und werden von bis zu 16 AWS Trainium-Chips mit 128 vCPUs betrieben.
Die Gehäuse, die es zu sehen gibt, bieten bis zu 512 GB Speicher mit übermäßiger Bandbreite und liefern bis zu 3,4 petaFLOPS TF32/FP16/BF16-Rechenenergie und verfügen über eine NeuronLink-Verbindung zwischen den Chips. NeuronLink hilft, Kommunikationsengpässe zu vermeiden, wenn Workloads über eine Vielzahl von Trainium-Chips skaliert werden.
Um zu booten, sagt Amazon, dass Trn1-Gehäuse die ersten EC2-Gehäuse sind, die bis zu 800 Gbit/s von Elastic Fabric Adapter (EFA) ermöglichen. Community-Bandbreite für Community-Kommunikation mit übermäßigem Durchsatz. Und Trn1-Fälle erreichen mit bis zu 8 TB lokalem NVMe-SSD-Speicher für furchtbar schnellen Zugang zu eleganten Datensätzen. AWS gab außerdem an, dass seine Trainium-Chips spezifische Skalar-, Vektor- und Tensor-Engines enthalten, die dies tun würden vielleicht vielleicht gut vielleicht vielleicht Grund gebaut für tiefes Finden von Algorithmen.
Weitere einzigartige Aspekte von Trainium-Chips sind die Stärkung einer wertvollen Menge an Dateitypen neben FP32, TF32, BF16, FP16 und UINT8, stochastische Rundung, so erfolgreich wie benutzerdefinierte Operatoren schreiben