Für CPUs der nächsten Generation ist das neue 1GHz . kein Verschieben von Daten

Diese Site kann durch die Links auf dieser Seite Affiliate-Provisionen verdienen. Nutzungsbedingungen..

(Bildnachweis: Tomekbudujedomek / Getty Images)
Eine Art und Weise, wie sich die Computerindustrie im letzten Jahrzehnt langsam entwickelt hat, ist die sich ändernde Situation, in der Ingenieure nach weiteren Verbesserungen der Leistung und Effizienz suchen. Der alte Fokus auf die Taktrate endete 2004, als Intel Tejas, Jayhawk und 4GHz Pentium 4 einstellte. 2004-2011 kann als die erste Multi-Core-Ära bezeichnet werden. Die durchschnittliche Anzahl an CPU-Kernen für High-End-Enthusiasten hat sich in den letzten sieben Jahren vervier- bis sechsmal erhöht. Von 2011 bis 2017 konzentrierte sich Intel auf die Stabilisierung der Kernzahlen und die Verbesserung des Stromverbrauchs bei niedrigeren TDPs. 2017 hat AMD den Co-Account-Krieg erneut effektiv gestartet.

Das Wachstum der 6-Kern- und 8-Kern-CPUs ist wirklich bemerkenswert. Im Juli 2011 ergab eine Steam-Hardware-Umfrage, dass 43,3 % der Spieler über Quad-Core-CPUs verfügten, nur 0,08 % des Marktes über 8-Core-Chips und 1,36% über 6-Core-CPUs verfügten. Im Juli 2017 hatten 51,99% der Gamer eine Quad-Core-CPU, 1,48% einen 6-Core-Chip und 0,49% einen 8-Core-Chip. heute, 31.11 Prozent der Spieler haben einen 6-Kern-Chip und 13,6% haben einen 8-Kern-Chip. Dies hat seine Popularität in nur vier Jahren um das 21- und 27-fache gesteigert, und die neue Konkurrenz zwischen Intel und AMD ist dafür dankbar.

Leider ist die Anzahl der Kerne, die erhöht werden können, begrenzt. In den meisten Fällen sinken die Renditen aufgrund des Hinzufügens neuer CPU-Kerne, und der Markt verdaut den Anstieg der Kernzahlen von 2017 bis 2019. Die Lithografie sieht nicht mehr die gleichen Leistungssteigerungen wie früher. Die Summe der kumulativen Leistungs- und Leistungsverbesserungen, die TSMC von 7 nm -> 5 nm -> 3 nm vorhersagt, ist ungefähr die gleiche wie die Verbesserung, die aus der Reduzierung von 16 nm -> 7 nm erhalten wird. Intel und andere Halbleiterunternehmen forschen weiterhin an einer besseren Materialtechnik, besseren Verpackung und neuen Verbindungsmethoden, die energieeffizienter und leistungsfähiger sind als heute, aber der effektivste Weg zur Verbesserung der Energieeffizienz mit modernen Systemen. Es ist eine der Methoden. Hören Sie schließlich auf, Daten zu verschieben.

Eine Möglichkeit, dieses Problem zu lösen, besteht darin, Rechenspeicher zu verwenden. Die Idee ist einfach. Anstatt die CPU wie folgt zu behandeln Zentral Computerspeicher, bei denen es sich um eine Verarbeitungseinheit handelt, integriert Verarbeitungsfunktionen direkt in das Speichergerät selbst. Dies ist für heutige Solid-State-Laufwerke sinnvoller als für ältere Festplatten. NAND-Flash-Controller verfügen bereits über ein erhebliches internes Datenmanagement. In einer kürzlich erschienenen Abhandlung haben wir die potenziellen Stromeinsparungen beim Ausführen einer Anwendung im Vergleich zu herkömmlichen Anwendungen durch den Bau eines voll funktionsfähigen Prototyps untersucht. Das System verbesserte die Leistung um das 2,2-fache und reduzierte den Energieverbrauch um 54 %, „wenn mehrdimensionale FFT-Benchmarks auf verschiedenen Datensätzen ausgeführt werden“.

Die Idee, Daten richtig zu verarbeiten, liegt in der Anwendung außerhalb des Speichers. In-Memory-Stack des Samsung-Prozessors Anfang dieses Jahres habe ich HBM2 mit einem Array von FP16-Registern kombiniert, die Berechnungen direkt anstelle der CPU durchführen können. In diesem Fall behauptete Samsung eine doppelte Leistungssteigerung bei einer Leistungsreduzierung von 70 %.

Obwohl diese Technologien noch in den Kinderschuhen stecken und Jahre von Mainstream-Anwendungen entfernt sein können, zeigen sie, wie Ingenieure die Systemleistung weiter verbessern können, wenn die Lithografie verkleinert wird. Um das Beste aus diesen Ideen herauszuholen, müssen Sie die Beziehungen zwischen den verschiedenen Komponenten in Ihrem Computer oder SoC überdenken.

Von der Zentraleinheit zum „Last Resort Accelerator“

Irgendwann möchte ich wetten, dass wir alle die folgende Zahl bekommen haben.

Computer sind nach der Idee organisiert, dass viele, wenn nicht die meisten üblichen Rechenaufgaben auf der CPU ausgeführt werden, die als eine Art Arbiter für den Datenfluss durch das System fungiert. Es war nicht immer so. In den späten 1990er Jahren verwendete jeder mit einem Hochleistungsspeicher-Array eine RAID-Karte, um damit umzugehen. Seit den frühen 2000er Jahren sind CPUs leistungsfähig genug für Motherboard-Chipsatzhersteller wie VIA, um Software-RAID-Array-Unterstützung in die Southbridge zu integrieren. Andere Unternehmen wie AMD, Intel, Nvidia und SiS haben dasselbe getan, jedoch mit einem bemerkenswerten Unterschied. VIA war das einzige Unternehmen, das bereit war, eine Southbridge zu liefern, die nicht behebbare Speicherfehler verursachte, wenn Endbenutzer Sound Blaster Live ausführten.

Als CPUs leistungsstärker wurden, absorbierten sie mehr Funktionalität von den Mikrocontrollern und spezialisierten Hardwarechips, die sie einst betrieben. Für viele Unternehmen war es billiger, die CPU für eine Vielzahl von Aufgaben zu verwenden, als in den weiteren Bau von spezialisiertem Silizium zu investieren, das mit Intel konkurrieren oder es übertreffen könnte.

Nach jahrzehntelanger Optimierung und kontinuierlichen Verbesserungen in der Fertigung und Werkstofftechnik haben sich die Parameter geändert. Computer laufen derzeit mit riesigen Datensätzen, und der Austausch von Petabyte an Informationen über den Speicherbus auf Unternehmensebene kann sehr energieaufwendig sein.

Um ein effizienteres Rechenmodell zu erstellen, das weniger davon abhängig ist, Daten in die und aus der CPU zu verschieben, müssen Sie überdenken, was die CPU zuerst verarbeitet und was nicht. Sie müssen auch grundlegend überdenken, wie Sie Ihre Anwendung erstellen. SemiEngineering hat kürzlich ein Paar Excellent Story Sie sprachen mit Intels Senior Director of Optane Solutions and Strategy, Chris Tobias, über die Reduzierung der Kosten für die Datenverschiebung und die Idee eines computergestützten Speichers. Einige Intel Optane-Produkte, wie z. B. Direct Connect Optane Persistent Memory, können als riesige Bank von nichtflüchtigem DRAM (viel größer als ein normaler DRAM-Pool) verwendet werden, aber vorhandene Optionen sind verfügbar, um diese Option zu nutzen. Sie müssen die Software ändern.

„Die einzige Möglichkeit, dies zu nutzen, besteht darin, die Software komplett neu zu erstellen“, sagte Tobias gegenüber Semi Engineering. „Was Sie jetzt tun, ist, dass wir diesen Teil haben [an application] Computerspeicher funktioniert gut. Entfernen Sie diese Verantwortung von der Serversoftware und farmen Sie mehrere Kopien dieses einen Teils auf der SSD. Jetzt läuft jedes Stück das Stück. Jemand muss die Serversoftware in die Teile zerhacken, die in die SSD eingebaut sind. “

Diese Arten von Effizienzverbesserungen ermöglichen es dem Chip, mehr Zeit mit der Ausführung nützlicher Aufgaben zu verbringen und die Zeit zu reduzieren, die benötigt wird, um auf E / A-Anforderungen zu reagieren, die an anderer Stelle besser verarbeitet werden können, was zu einer CPU-Reaktionsfähigkeit und einer CPU-Reaktionsfähigkeit führt. Verbessert die Leistung. Eines der interessanten Dinge an Apples M1 und macOS vor einigen Monaten war, dass Apple die Reaktionsfähigkeit des Gesamtsystems verbessert hat, indem es Hintergrundaufgaben auf dem IceStorm-Kern mit einer kleineren CPU und dem FireStorm-Kern priorisiert hat. Wird für wichtigere Aufgaben frei. Benutzer berichten, dass sich der M1 Mac einfacher zu bedienen anfühlt als herkömmliche Intel-Geräte, auch wenn Benchmarks keine wirklichen Geschwindigkeitsgewinne zeigen. Vor zehn Jahren war Nvidias Atom-basierte Ion-Netbook-Plattform ein weiteres historisches Ereignis, bei dem verbesserte Latenz (in diesem Fall Anzeige- und UI-Latenz) das System viel schneller erscheinen ließ, als es tatsächlich ist. Hier ist ein Beispiel.

Alles, was eine umfassende Neuinterpretation des Speicherstapels erfordert, wird sich nicht sofort auf Verbraucherprodukte auswirken, aber das langfristige Verbesserungspotenzial ist real. Der größte Teil der Geschichte der Computerindustrie hat die Leistung verbessert, indem die Arbeitsmenge erhöht wurde, die die CPU in jedem Zyklus verrichtet. Die Herausforderung bei Rechenspeicher und anderen Methoden zum Verschieben von Workloads von der CPU besteht darin, die CPU-Leistung zu verbessern. Dadurch können Sie in jedem Zyklus weniger Arbeit verrichten und sich auf andere Aufgaben konzentrieren.

Bei diesem Modell ist die CPU ein bisschen wie der Beschleuniger selbst. Konkret ist die CPU der „Beschleuniger“ der letzten Instanz. Wenn Ihr Workload komplex, serialisiert oder voll von verzweigtem und unvorhersehbarem Code ist, der nicht für zukünftige KI-Hardware geeignet ist, die GPUs, AMD oder Intel in Zukunft möglicherweise ausliefern, dann wird es auf der CPU übersprungen. Die CPU ist genau das. Irgendein Problem. Wenn die Speichersuche und einige Berechnungen auf SSD und RAM verschoben werden, hat die CPU mehr Taktzyklen, um die Daten tatsächlich zu verarbeiten.

Deshalb zielen wir mit dem neuen „1GHz“ darauf ab, keine Daten zu verschieben. Mitte der 2010er Jahre war es der Wettlauf um 0 W, der die Energieeffizienz von x86 definierte, und sowohl Intel als auch AMD erhielten große Vorteile aus der Reduzierung der Leerlaufleistung. Im Laufe des nächsten Jahrzehnts könnte ein neuer Wettbewerb beginnen, der sich auf die Datenmenge konzentriert, die die CPU vermeiden kann, anstatt die Menge an Informationen hervorzuheben, die die CPU verarbeiten kann.

Lies jetzt:

Der Anteil von Qualtrics steigt um 7 %: Die Ergebnisse des dritten Quartals sind besser als erwartet und die Prognosen hoch. Wir sind auf Kurs, sagt CEO Serafin. Forscher entdecken erste Krabbe aus der Dinosaurierzeit, die vollständig in Bernstein konserviert ist Möchten Sie Zuckerverse beitreten? Social-Media-Stornierungen unter dem neuen Namen von Facebook Amazon bietet mehr Daten, um Drittanbietern mitzuteilen, welche Artikel beliebte Instagram-Testkollaborationen sein werden; Benutzer können möglicherweise bald auch Fotos von ihrem Desktop hochladen. Neueste Technologienachrichten

    Der Anteil von Qualtrics steigt um 7 %: Die Ergebnisse des dritten Quartals sind besser als erwartet und die Prognosen hoch. Wir sind auf Kurs, sagt CEO Serafin. Forscher entdecken erste Krabbe aus der Dinosaurierzeit, die vollständig in Bernstein konserviert ist Möchten Sie Zuckerverse beitreten? Social-Media-Stornierungen unter dem neuen Namen von Facebook Amazon bietet mehr Daten, um Drittanbietern mitzuteilen, welche Artikel beliebte Instagram-Testkollaborationen sein werden; Benutzer können möglicherweise bald auch Fotos von ihrem Desktop hochladen

Leave a Comment