Neue Technologie von IBM erlaubt, beschleunigen die Ausbildung KI 4 mal

0
4

Computational Effizienz der künstlichen Intelligenz ist eine Art zweischneidiges Schwert. Einerseits muss er lernen ziemlich schnell, aber je mehr «beschleunigt» нейросеть — desto mehr Energie verbraucht. So kann einfach unrentabel. Doch ein Ausweg geben kann IBM, die gezeigt, die neue Techniken lernen KI, die es ihm ermöglichen, zu lernen um ein Vielfaches schneller auf dem Niveau der Kosten von Ressourcen und Energie.

Um diese Ergebnisse zu erreichen IBM aufgeben musste Berechnungsmethoden mit der Verwendung von 32-und 16-bit-Techniker, Entwicklung eines 8-bit-Technik, sowie einen neuen Chip für die Arbeit mit Ihr.

«Die kommende Generation von Anwendungen für KI erfordert mehr als eine schnelle Reaktionszeit, große Workloads und die Fähigkeit, mehrere Datenströme). Um das volle Potenzial der KI, wir перепроектируем alle Hardware vollständig. Skalierung KI durch neue Hardware-Lösungen ist Teil des IBM Research auf dem übergang von узкогопрофильного KI, die Häufig verwendet, um bestimmte, klar definierte Aufgaben, zu многопрофильному KI, die deckt alle Bereiche.» — sagte der Vize-Präsident und Direktor des Labors von IBM Research Jeffrey Вельзер.

Alle Entwicklungen von IBM vorgestellt wurden im Rahmen der NeurIPS 2018 in Montreal. Die Ingenieure des Unternehmens haben über zwei Entwicklungen. Die erste trägt den Titel «tief maschinelles lernen neuronale Netze mit Hilfe von 8-bit-Gleitkommazahlen.» Darin beschreiben Sie, wie Sie es geschafft, so senken die arithmetische Genauigkeit für Anwendungen mit 32 bit bis zu 16 bit und speichern Sie es auf 8-bit-Modelle. Experten behaupten, dass Ihre Technik beschleunigt die Lernkurve der tiefen neuronalen Netzen 2-4 mal im Vergleich zu 16-bit-Systemen. Die zweite Entwicklung «8-bit-Multiplikation im Gedächtnis mit Gedächtnis eines projizierten Phasenübergang». Hier Experten zeigen die Methode, die kompensiert die geringe Genauigkeit der analogen schaltkreise KI, so dass Sie verbrauchen 33 mal weniger Energie als ein vergleichbarer Digital-KI-System.

«Verbesserte die Genauigkeit, die Einigung unserer Forschungsgruppe, weist darauf hin, dass die Berechnungen im Arbeitsspeicher zur Verfügung stellen können leistungsstarke Tiefe Ausbildung in Umgebungen mit niedrigem Stromverbrauch. Wie mit unseren digitalen Beschleunigern, unsere analoge Chips sind für die Skalierung und der Ausbildung von AI und O durch visuelle, Sprach-und SMS-Datensätze und gelten für fachübergreifende KI.»

Diese und weitere Neuigkeiten können Sie diskutieren Sie in unserem Chat in Телеграм.