Die neue In-Memory-Computing-Lösung von IBM macht das Training von Geschäfts-KI schneller und einfacher

CES 2018: Wie IBM einen Quantencomputer beim maschinellen Lernen einsetzt und AI Jeff Welser, Vizepräsident und Laborleiter des IBM Almaden Research Center, erläutert, wie Quantencomputer und maschinelles Lernen zusammenarbeiten könnten, und zeigt einen Prototyp des 50-Qubit-Systems von IBM .
Erstellen Sie ein Dia-Deck, einen Pitch oder eine Präsentation? Hier sind die großen Imbissbuden:
  • Das neue In-Memory-Computing-Konzept von IBM mit gemischter Präzision kombiniert eine von Neumann-Maschine mit einer Computerspeichereinheit, um die Geschwindigkeit und die Kosten der Datenverarbeitung zu verbessern.
  • Das In-Memory-Computing-Konzept von IBM mit gemischter Präzision könnte das Training von KI-Systemen schneller und kostengünstiger machen.

Während wir in eine neue Ära des kognitiven Rechnens eintreten und versuchen, Erkenntnisse aus immer größeren Datenmengen zu gewinnen, sind viele der heutigen Computer nicht für solch große Arbeitslasten optimiert. Ein neues Hybridkonzept, das von IBM-Wissenschaftlern entwickelt und in Nature Electronics veröffentlicht wurde, könnte es jedoch erheblich einfacher machen, Analysen und Anwendungen für maschinelles Lernen auszuführen und Systeme für künstliche Intelligenz (KI) zu trainieren.

Die meisten Computer basieren auf der von Neumann-Architektur, bei der Daten zwischen Verarbeitungs- und Speichereinheiten übertragen werden müssen - ein ineffizienter Prozess. Dies geht aus einem IBM Research-Blogbeitrag vom Dienstag hervor.

Rechenzentrum muss unbedingt gelesen werden

  • 8 Vorhersagen für Rechenzentren für 2020
  • 7 Netzwerkvorhersagen für 2020: Automatisierung, Edge-Computing, Wi-Fi 6, mehr
  • Best Practices für die Servervirtualisierung und Tipps, was nicht zu tun ist
  • Quantencomputer: Sieben Wahrheiten, die Sie kennen müssen

Das neue Konzept von IBM, das als In-Memory-Computing mit gemischter Präzision bezeichnet wird, kombiniert eine von Neumann-Maschine mit einer Computerspeichereinheit. Bei diesem Entwurf führt die Computerspeichereinheit die meisten Rechenaufgaben aus, während die von Neumann-Maschine die Genauigkeit der vorliegenden Lösung verbessert.

"Das System profitiert daher sowohl von der hohen Präzision des digitalen Rechnens als auch von der Energie- / Flächeneffizienz des In-Memory-Rechnens", so der Beitrag.

Der Ansatz könnte IBM die Lösung für die Hardwarebeschleuniger für Hochleistungsanwendungen und Anwendungen für maschinelles Lernen bieten, nach denen Microsoft und Google gesucht haben, wie unsere Schwestersite ZDNet feststellt.

In-Memory-Computing mit gemischter Präzision basiert auf Geräten, die als Phasenwechselspeicher (PCM) bezeichnet werden und so programmiert werden können, dass sie ein bestimmtes Leitfähigkeitsniveau erreichen. Die PCM-Einheiten können den größten Teil der Schwerlast-Datenverarbeitung verarbeiten, ohne dass Daten an eine CPU oder GPU übertragen werden müssen, was eine schnellere Verarbeitung bei geringeren Energiekosten ermöglicht, so ZDNet.

"Die Tatsache, dass eine solche Berechnung teilweise mit einem Computerspeicher durchgeführt werden kann, ohne die allgemeine Rechengenauigkeit zu beeinträchtigen, eröffnet aufregende neue Möglichkeiten für eine energieeffiziente und schnelle Datenanalyse in großem Maßstab", so IBM-Kollege Evangelos Eleftheriou, Mitautor des Papier, schrieb in der Post.

"Dieser Ansatz überwindet eine der wichtigsten Herausforderungen in den heutigen von Neumann-Architekturen, in denen die massiven Datenübertragungen zum energiehungrigsten Teil geworden sind", schrieb er. "Solche Lösungen sind sehr gefragt, da die Analyse der ständig wachsenden Datensätze, die wir produzieren, die Rechenlast schnell auf das Exascale-Niveau erhöht, wenn Standardtechniken verwendet werden sollen."

Es ist wichtig anzumerken, dass diese Forschung noch neu ist und dass der Prototyp-Speicherchip von IBM laut ZDNet Gigabyte Speicher erreichen muss, um für Anwendungen im Rechenzentrumsmaßstab nützlich zu sein, anstatt seines aktuellen Megabytes. IBM hat jedoch Pläne, dieses Ziel zu erreichen, indem größere Arrays von PCM-Geräten erstellt oder mehrere gleichzeitig betrieben werden, berichtete ZDNet.

Newsletter zu Trends im Rechenzentrum

DevOps, Virtualisierung, Hybrid Cloud, Speicher und betriebliche Effizienz sind nur einige der Themen im Rechenzentrum, die wir hervorheben werden. Wird montags und mittwochs geliefert

Heute anmelden

© Copyright 2021 | pepebotifarra.com