PC-Experience (https://www.pc-experience.de/wbb2/index.php)
- Artikel und Workshops: (https://www.pc-experience.de/wbb2/board.php?boardid=60)
-- Hardware, Tipps und Tricks: (https://www.pc-experience.de/wbb2/board.php?boardid=65)
--- Der Arbeitsspeicher-Workshop (Update 09.09.2016) (https://www.pc-experience.de/wbb2/thread.php?threadid=3494)
Parameter | Symbol | Einheit | PC66 | PC100 | PC133 |
---|---|---|---|---|---|
Taktperiode, Zykluszeit | t_CK | [ns] | 15 | 10 | 7.5 |
CAS Latency = 2 | CL | [ns] | 30 | 20 | 15 |
CAS Latency = 3 | CL | [ns] | 45 | 30 | 22.5 |
RAS-to-CAS-Delay = 2 | t_RCD | [ns] | 30 | 20 | 15 |
RAS-to-CAS-Delay = 3 | t_RCD | [ns] | 45 | 30 | 22.5 |
RAS Precharge Time = 2 | t_RP | [ns] | 30 | 20 | 15 |
RAS Precharge Time = 3 | t_RP | [ns] | 45 | 30 | 22.5 |
Output Valid from Clock | t_AC | [ns] | 9.0 | 6.0 | 5.4 |
Sonderfall (1): Output Valid from Clock | t_AC | [ns] | 10.0 | 7.0 | 7.0 |
RAS Cycle Time bei t_RP=3 | t_RC | [Takte] | 8 | 8 | 9 |
RAS Cycle Time bei t_RP=2 | t_RC | [Takte] | 8 | 7 | 8 |
RAS Active Time | t_RAS | [Takte] | 5 | 5 | 6 |
Der Nachfolger des früheren Speicherkönigs SDRAM wurde nicht unerwartet Double Data Rate SDRAM (DDR-SDRAM), die Module werden häufig auch als PC200 und PC266 für die Taktraten 100 MHz und 133 MHz bezeichnet. Die Begriffe PC1600 bzw. PC2100 beziehen sich auf die theoretisch maximalen Übertragungsraten von 1600 MByte und 2100 MByte pro Sekunde. Die DDR Module sind nicht mehr zu den 168 poligen Standard SDRAM-DIMMs kompatibel. Für die DDR-DIMMs sind ein neuer 184 poliger Modulsockel und die Unterstützung des Chipsatzes notwendig.
Ein PC266 DDR SDRAM arbeitet z.B. wie ein PC133 Modul mit einer Taktfrequenz von 133 MHz. Die Bezeichnung 266 wird fälschlicherweise als Takt-frequenz von 266 MHz angesehen. Tatsächlich nutzt ein DDR SDRAM-Modul nur beide Flanken eines 133MHz Signals.
Der interne Aufbau der DDR-SDRAM Chips entspricht im Wesentlichen dem von Standard SDRAMs. Lediglich der Datentransfer erfordert wegen der höheren Empfindlichkeit auf Laufzeitverzögerungen Änderungen in den Chips und zusätzliche Steuerleitungen. Für die Synchronisierung zwischen den Speichermodulen und dem Chipsatz wurde zusätzlich zum Systemtakt das bidirektionale Strobe Signal DQS eingeführt. Dieses parallel zu den Daten laufende Signal dient als Referenz für die Gültigkeit der Daten.
Der Schreib und Lesevorgang wird nicht mehr allein durch den Chipsatz geregelt, die DDR SDRAM Modul nehmen aktiv am Datenaustausch teil. Das DQS Signal wird abhängig vom Schreib oder Lesevorgang entweder vom Chipsatz oder vom DDR Chip generiert. Bei einem Lesebefehl erzeugt das DDR SDRAM das DQS Signal und zeigt dem Chipsatz die Gültigkeit der Daten mit beiden Flanken eines Takts an. Das DQS Signal für einen Schreibvorgang wird vom Chipsatz generiert und gesteuert. Es zeigt dem Speichermodul an, ob die empfangenen Daten gültig sind. Grundsätzlich soll das DQS-Signal dazu dienen, bei hohen Taktfrequenzen mit vielen physikalischen Einflüssen einen korrekten Datenfluss zu erreichen. Dies ist möglich, weil Laufzeitveränderungen, die auf die Daten einwirken, auch das DQS Signal beeinflussen und diese dadurch gleichzeitig am Empfänger ankommen.
Der Überrsichtlichkeit halber und ob der etwas anderen Nomenklatur bei DDR-SDRAM ist die folgende Tabelle für DDR-Speichermodule etwas anders als beim SDRAM aufgestellt. Zykluszeiten, CAS-Latency, Delay-Zeiten, Precharge Time und RAS Cycle Zeiten sind alle in Nanosekunden [ns] angegeben.
Modulbezeichnung | Chiptyp | Timing | Frequenz [MHz] | Zykluszeit | CAS-Latency | t_RCD | t_RP | t_RAS |
---|---|---|---|---|---|---|---|---|
PC1600 | DDR200 | 2,0-2-2 | 100 | 10 | 20 | 20 | 20 | 50 |
PC2100 | DDR266B | 2,5-3-3 | 133 | 7.5 | 18.75 | 22.5 | 22.5 | 45 |
PC2100 | DDR266A | 2,0-3-3 | 133 | 7.5 | 15 | 22.5 | 22.5 | 45 |
PC2100 | DDR266 (Intel) | 2,0-2-2 | 133 | 7.5 | 15 | 15 | 15 | 45 |
PC2700 | DDR333B | 2,5-3-3 | 166 | 6 | 15 | 18 | 18 | 42 |
PC2700 | DDR333A | 2,0-3-3 | 166 | 6 | 12 | 18 | 18 | 42 |
PC3200 | DDR400B | 3,0-4-4 | 200 | 5 | 15 | 20 | 20 | 40 |
PC3200 | DDR400A | 2,5-3-3 | 200 | 5 | 12.5 | 15 | 15 | 40 |
Bei neueren Chipsätzen von ViA sollte man das Bank Interleaving einsetzen. Hier gibt es 2-way und 4-way Bank Interleaving, wozu man allerdings zunächst erklären muß, was eine Bank überhaupt bedeutet. Eine Speicherbank ist eine RAM-Einheit, die sich auf eine Bestückungsseite bezieht. Ist ein RAM-Modul nur auf einer Seite mit Chips bestückt, erhält man eine Bank. Bei beidseitiger Bestückung also 2 Banks. Zwei einseitige bilden wieder 2 Banks. Die schnellste und stabilste Kompromißbestückung stellen bei ViA 2 beidseitig bestückte Module dar, da man hier die Stabilität durch nur 2 Module hoch hält und die Geschwindigkeit mit 4-way Bank Interleaving maximieren kann. Das Bank Interleaving stellt eine Art Parallelzugriffsmodus auf die RAM-Banks dar.Entsprechende Mainboards haben die Aktivierung dafür im BIOS vorgesehen.
Wenn es einen technischen Begriff gibt, der sich wie ein roter Faden durch alle Mainboard/Arbeitsspeichertests zieht, dann ist es sicherlich Dual-Channel.
Dual-Channel bedeutet nichts anderes, als daß der Speicherbus bei Einsatz von zwei RAM-Modulen (in Bank 0 und 1 z.B.) auf 128 Bit (normal 64 Bit) zur Leistungssteigerung verbreitert wird, was in der Praxis eine Leistungssteigerung von 3-6 % bringt, es werden also 2 Speicherkanäle parallel angesprochen. Es können für die Dual-Channel-Technik aber auch 3 oder 4 Speichermodule eingesetzt werden, weil die 4 vorhandenen Speicherbänke (je nach Chipsatz) in Kanal 1(Speicherbank 1+2) und Kanal 2 (Speicherbank 3+4) unterteilt sind.
Für den Betrieb sind keine speziellen Module notwendig - allein der Speicherkontroller muss Unterstützung für diese Technologie bieten. Auch ist es nicht unbedingt notwendig, zwei baugleiche Module zu verwenden. Dual Channel funktioniert mit jeder Art von Arbeitsspeicher, vorausgesetzt die folgenden 3 Punkte sind erfüllt:
• Gleiche Speicherkapazität der Module
• Gleiche Betriebsgeschwindigkeit der Module
• Gleiche Anzahl von Chips und gleiche Anzahl von "module sides", d.h. entweder einseitig oder zweiseitig bestückt.
Da diese Voraussetzungen von vielen Herstellern erfüllt werden, können auch Module unterschiedlicher Hersteller kombiniert werden.
Eine Vollbestückung ist auch je nach Mainboard möglich, bringt aber keine Steigerung der Speicherperformance zusätzlich.
Es gibt mittlerweile von vielen Markenherstellern speziell für Dual-Channel validierte Module, die auf die entsprechende Tauglichkeit in aktuellen Dual-Channel-Systemen wie z.B. nForce 2/3/4 oder Springdale/Canterwood/Beachwood usw. von Intel abgestimmt sind und getestet wurden.
Bei AMD-CPU basierten Systemen ist seit der Einführung des Athlon64 der Speichercontroller direkt in die CPU integriert. Die Dualchannelfähigkeit hängt dort somit von der CPU ab, nicht vom Chipsatz der Hauptplatine!
Bekanntermaßen wird die Speicher- und I/O-Anbindung für schnelle CPUs zum Flaschenhals. HyperTransport soll mit bis zu 12,8 GByte/s für genügend Luft und Reserven sorgen und kommt bei AMDs Athlon64/Opteron als CPU- und Systembus zum Einsatz.
Die HyperTransport™ Technologie ist ein neuer Hochgeschwindigkeits-Punkt-zu-Punkt-Bus, der integrierte Schaltkreise mit dem Motherboard verbindet. Sie kann bei gleicher Pin-Anzahl deutlich schneller sein als der PCI-Bus.
Das HyperTransport-Konsortium hat jetzt eine Spezifikation für "HyperTransport Release 2.0" vorgelegt, die höhere Datentransferraten, direkte Anbindung an PCI Express und eine verbesserte I/O-Interconnect-Architektur mit sich bringt. Die Verbindungstechnik HyperTransport wird unter anderem von AMDs 64-Bit-Prozessoren Athlon64 und Opteron, Microsofts Xbox oder Apples PowerMac G5 verwendet.
So steigt die mit HyperTransport erreichbare Geschwindigkeit von 1,6 GigaTransfers pro Sekunde (GT/s) auf 2,0, 2,4 bzw. 2,8 GT/s. Dabei kommen Taktfrequenzen von 1,0, 1,2 bzw. 1,4 GHz zum Einsatz. So erlaubt HyperTransport Datendurchsatzraten von bis zu 22,4 GByte pro Sekunde, bleibt dabei aber abwärtskompatibel zu allen vorherigen HyperTransport-Spezifikationen.
HyperTransport soll als serieller Universalbus all die Performance- und Kompatibilitätsprobleme lösen. Preiswert, skalierbar und schnell soll er nicht nur Peripheriekomponenten auf dem Mainboard miteinander verbinden. AMDs 64-Bit-Opteron-CPUs kommunizieren mit der Außenwelt nur noch über drei unabhängige HyperTransport-Links und greifen darüber in SMP-Systemen sogar auf Teile des Hauptspeichers zu. Künftig sollen HyperTransport-Steckplätze auch zur extrem schnellen Anbindung von Erweiterungskarten dienen.
Flaschenhals ade`? Wir werden sehen ...
Rambus Inc. stellt im übrigen selbst keine Speicherchips her, sondern lizenziert nur die Technologie.
Die Rambus-Technologie wird bereits seit 1995 in den Workstations von SGI verwendet. Auch in der Spielekonsole Nintendo 64 findet ihr den Rambus. Die hohe Bandbreite, über die ein Rambus-System verfügt, ist in diesen Fällen wichtiger als die vereinzelt höheren Zugriffszeiten, die im Vergleich zu Standard SDRAM/DDR-Modulen auftreten.
Seit Ende 1999 gibt es von Intel den Chipsatz i820. Damit soll der Rambus auch in den PC eingeführt und verbreitet werden. Durchsetzen konnte sich der Rambus bisher nicht. Die ihm nachgesagten höheren Leistungsgewinne fallen in der Praxis eher gering aus und bleiben in einzelnen Bereichen unter den Leistungen von DDR Modulen. Zusätzlich verzögerten die aufwendige Technik und die damit verbundenen ho-hen Kosten für ein Rambus-System eine schnelle Verbreitung.
Die RIM oder RDRAM Module, so werden die Rambus Speichermodule genannt, lehnen sich mit ihrer Bezeichnung an die von DDR Modulen an. Ein Modul, welches mit 400 MHz getaktet wird, trägt die Bezeichnung PC800. Wie DDR Module haben sie 184 Pins, beide sind nicht zueinander kompatibel.
Eine weitere wichtige Kenngröße der Module ist die Zugriffszeit, auch Row Access Time (RAC) genannt. Sie wird gemäß der Rambus RIMM-Spezifikation hinter der Taktrate als Zahlenwert angegeben, beispielsweise als 800 50. Schneller wäre ein Modul mit der Zeitangabe 45 oder 40. An einen Kanal können unterschiedliche Module angeschlossen werden, jedoch gibt das langsamste Modul die maximale Geschwindigkeit vor. Ein Rambus System besteht aus dem Rambus Memory Controller (RMC),
der den Rambus Channel bzw. Kanal steuert, und Rambus DRAMs. Der Rambus Channel ist als schneller Bus ausgeführt. Dieser beginnt beim RMC und führt über jeden Steckplatz der Speichermodule zurück zum Rambus-Controller. Dadurch ist jeder einzelne Speicherchip eines RIMM direkt in den Rambus Channel integriert.
Diese Topologie ist dafür verantwortlich, dass einzelne Steckplätze für weitere Module, die nicht belegt sind, durch Dummy Platinen mit der Bezeichnung Continuity RIMMs (C-RIMMs) überbrückt werden müssen. Diese C-RIMMs schleifen alle Leitungen durch. Damit sind mit jedem leeren Steckplatz weitere Kosten verbunden. RMC und Speicherchip kommunizieren über ein festgelegtes Übertragungsprotokoll. Dafür sind in jedem Rambus Speicherchip zahlreiche Demultiplexer und Decoder integriert, die das komplizierte Transportprotokoll entschlüsseln. Die Kommunikation auf den 16 bzw. 18 Datenleitungen (mit ECC) läuft paketweise ab. Dabei werden pro Paket acht Taktflanken verwendet, die jeweils 2 Byte übertragen. Dadurch ist ein PC800 Chip theoretisch in der Lage, 100 Millionen 16 Byte Pakete zu übertragen, was einer maximalen Übertragungsrate von 1,6 GByte pro Sekunde entspricht.
Die Chipsätze i850E und SiS-658 sind momentan die Einzigen, die 32Bit-RIMMs ansprechen können. Diese "RIMM 3200" bzw. "RIMM 4200" haben
die gleiche Modulbreite wie PC800-RIMMs, jedoch haben sie 232 Pins statt nur 184 Pins und lassen sich daher nicht in die 16Bit RIMM-Slots einsetzen. Durch die Verdopplung der Datenbusbreite bereits im RIMM
verdoppelt sich die Bandbreite, so dass man nicht mehr 2 Module braucht, um auf die für den P4 nötige Bandbreite zu kommen. Großartige Performancevorteile haben aber auch diese neuen RIMMs nicht erzielt, trotz der theoretischen Übertragungsrate von 4,2 Gbyte pro Sekunde.
Bedingt durch die Erfolge von DDR-Speichermodulen und deren ständig steigenden Übertragungsraten und Weiterentwicklungen (Chipsätze für DualChannel usw.) wie z.B. die kommenden DDR-2 und DDR-3 Speichermodule, hat Intel inzwischen Rambus den Rücken zugekehrt und diese Schiene verlassen.
DDR2-SDRAM ist eine konsequente Weiterentwicklung des DDR-SDRAM Konzeptes, bei dem anstatt mit einem Zweifach-Prefetch mit einem Vierfach-Prefetch gearbeitet wird.
DDR2-SDRAM-Speicherchips besitzen 240 (bzw. 200, 214 oder 244) Kontakte/Pins ("normale" DDR-Chips: 184, SDRAM besitzt 168 Kontakte) und sind dadurch bedingt natürlich nicht kompatibel zu DDR1 Mainboards.
DDR2-SDRAM taktet den I/O-Puffer mit der zweifachen Frequenz der Speicherchips. Hier erhält man, wie bei dem älteren DDR-Standard, jeweils bei steigender als auch bei fallender Flanke des Taktsignals gültige Daten. Beim DDR-SDRAM werden mit einem Read-Kommando (mindestens) zwei aufeinanderfolgende Adressen gelesen, bei DDR2-SDRAM vier. Dies ist durch die jeweilige Prefetch-Methode des jeweiligen Standards bedingt. Aus einem 128 Bit breiten DDR-Modul werden pro Readvorgang 256 Bit gelesen, aus einem vergleichbaren DDR2-Modul aber 512. Die absolute Datenmenge bleibt bei gleichem Takt von z.B. 200 MHz aber identisch, da das DDR2-Modul zwei anstelle von einem Takt benötigt um die Daten zu übertragen. DDR2 unterstützt nur 2 mögliche Burst-Längen (Anzahl an Datenwörtern die mit einem einzelnen Kommando gelesen oder geschrieben werden können): nämlich 4 (bedingt durch Vierfach-Prefetch) oder 8, DDR hingegen unterstützt 2, 4 oder 8.
Zur Erhöhung der Taktraten und zur Senkung der elektrischen Leistungsaufnahme, wurde die Signal- und Versorgungsspannung von DDR2-SDRAM auf 1,8 Volt verringert (bei DDR-SDRAM sind es 2,5 oder 2,6 Volt). Nebenbei führt die verringerte Spannung naturgemäß zu einer geringeren Wärmeentwicklung, was dichtere Gedächtniskonfigurationen für die höheren Kapazitäten ermöglicht.
Die elektrische Leistungsaufnahme sinkt auf für den Mobilbereich akkufreundlichere 247 mW (statt bisher 527 mW).
DDR2-SDRAM Chips arbeiten mit "On-Die Termination" (ODT). Der Speicherbus muss also nicht mehr auf der Modulplatine (oder dem Board) terminiert werden. Die Terminierungsfunktion wurde direkt in die Chips integriert, was wiederum Platz und Kosten spart. ODT arbeitet wie folgt: der Speicher-Controller sendet ein Signal zum Bus, das alle inaktiven DDR2-SDRAM Chips dazu motiviert, auf Terminierung umzuschalten. Somit befindet sich nur das aktive Signal auf der Datenleitung, Interferenzen sind im Grunde so gut wie ausgeschlossen.
Schauen wir uns noch einmal in einer übersicht die konkreten Unterschiede zwischen den jeweiligen Takt-und Übertragungsraten an, denn diesbezüglich herrschen oft große Mißverständnisse:
DDR2 Taktungen und Übertragungsdaten | ||||||
Chip | Modul | realer Takt | I/O Takt | effektiver Takt | Übertragungsrate pro Modul | Übertragungsrate Dualchannel |
DDR2-400 | PC2-3200 | 100 MHZ | 200 MHZ | 400 MHZ | 3,2 GB/s | 6,4 GB/s |
DDR2-533 | PC2-4200 | 133 MHZ | 266 MHZ | 533 MHZ | 4,2 GB/s | 8,4 GB/s |
DDR2-667 | PC2-5300 | 166 MHZ | 333 MHZ | 667 MHZ | 5,3 GB/s | 10,6 GB/s |
DDR2-800 | PC2-6400 | 200 MHZ | 400 MHZ | 800 MHZ | 6,4 GB/s | 12,8 GB/s |
DDR2-1066 | PC2-8500 | 266 MHZ | 533 MHZ | 1066 MHZ | 8,5 GB/s | 17 GB/s |
Bei DDR2-SDRAM taktet der I/O-Puffer mit der zweifachen Frequenz der Speicherchips. Hier erhält man, genau wie bei dem älteren DDR1-Standard, jeweils bei steigender und fallender Flanke des Taktsignals gültige Daten. Beim DDR-SDRAM werden mit einem Read-Kommando (mindestens) zwei aufeinanderfolgende Adressen gelesen, beim DDR2-SDRAM allerdings deren vier!
Daraus folgt: der reale Takt multipliziert mit 4 ergibt den effektiven Takt.
DDR3 Taktungen und mögliche theoretische Übertragungsdaten | ||||||||
Chip | Modul-JEDEC | realer Takt | I/O Takt | effektiver Takt | Übertragungsrate pro Modul | Übertragungsrate Dualchannel | Übertragungsrate Triple Channel | Übertragungsrate Quad Channel |
DDR3-800 | PC3-6400 | 100 MHZ | 400 MHZ | 800 MHZ | 6,4 GB/s | 12,8 GB/s | 19,2 GB/s | 25,6 GB/s |
DDR3-1066 | PC3-8500 | 133 MHZ | 533 MHZ | 1066 MHZ | 8,5 GB/s | 17,0 GB/s | 25,5 GB/s | 34,0 GB/s |
DDR3-1333 | PC3-10600 | 166 MHZ | 667 MHZ | 1333 MHZ | 10,6 GB/s | 21,2 GB/s | 31,8 GB/s | 42,4 GB/s |
DDR3-1600 | PC3-12800 | 200 MHZ | 800 MHZ | 1600 MHZ | 12,8 GB/s | 25,6 GB/s | 38,4 GB/s | 51,2 GB/s |
DDR3-1800 | PC3-14400 | 225 MHZ | 900 MHZ | 1800 MHZ | 14,4 GB/s | 28,8 GB/s | 43,2 GB/s | 57,6 GB/s |
DDR3-2000 | PC3-16000 | 250 MHZ | 1000 MHZ | 2000 MHZ | 16,0 GB/s | 32,0 GB/s | 48,0 GB/s | 64,0 GB/s |
DDR3-2133 | PC3-17000 | 266 MHZ | 1066 MHZ | 2133 MHZ | 17,0 GB/s | 34,0 GB/s | 51,0 GB/s | 68,0 GB/s |
DDR3-2400 | PC3-19200 | 300 MHZ | 1200 MHZ | 2400 MHZ | 19,2 GB/s | 38,4 GB/s | 57,6 GB/s | 76,8 GB/s |
DDR3-2600 | PC3-20800 | 325 MHZ | 1300 MHZ | 2600 MHZ | 20,8 GB/s | 41,6 GB/s | 62,4 GB/s | 83,2 GB/s |
DDR3-2800 | PC3-22400 | 350 MHZ | 1400 MHZ | 2800 MHZ | 22,4 GB/s | 44,8 GB/s | 67,2 GB/s | 89,6 GB/s |
DDR3-2933 | PC3-23460 | 366 MHZ | 1466 MHZ | 2933 MHZ | 23,4 GB/s | 46,8 GB/s | 70,2 GB/s | 93,6 GB/s |
DDR3-3000 | PC3-24000 | 375 MHZ | 1500 MHZ | 3000 MHZ | 24,0 GB/s | 48,0 GB/s | 72,0 GB/s | 96,0 GB/s |
DDR3-3100 | PC3-24800 | 387 MHZ | 1550 MHZ | 3100 MHZ | 24,8 GB/s | 49,6 GB/s | 74,4 GB/s | 99,2 GB/s |
Noch einmal eine kurze Zusammenfassung der prägnantesten Neuerungen bezüglich DDR3 Arbeitsspeicher:
• Acht (statt bisher vier) gleichzeitig ansprechbare Speicherbänke für effektivere Datenverarbeitung.
• Integrierte Temperatursensoren, die aber nicht von allen Herstellern genutzt werden.
• Die Anordnung der Chip-Pins wurde für höhere Taktraten optimiert.
• Eine Master-Reset-Funktion stabilisiert das RAM-Verhalten beim Einschalten des Rechners.
• Die RAM-Abschlußwiderstände wurden vom Mainboard auf den Speicherriegel verlegt, kalibrieren sich selbst und beugen so zumindest theoretisch Kompatibilitätsproblemen vor.
• Die Versorgungsspannung beträgt 1,5 Volt statt 1,8V bei DDR2.
• Der "Speicher-Cache" wurde von 4- auf 8-fach-Prefetch-Einheiten erhöht, dadurch arbeiten die Chips intern mit halbem Takt. Das senkt einerseits die Verlustleistung, erhöht aber auch die Wartezeiten zwischen der Anforderung und der Auslieferung eines Speicherinhaltes (CAS-Latency), darum sind die Speicherlatenzen bei DDR3 höher. Auf der anderen Seite sind so aber höhere Taktraten möglich, wobei die DDR3 Latenzen in kommenden Modulen noch etwas nach unten korrigiert werden dürften.
Das sich die Innovationen trotzdem in Grenzen halten, kann man einem schönen Beispiel deutlich erkennen: am Takt der Speicherzellen !
DDR400 = 200MHZ in der Speicherzelle, DDR2-800 = 200 MHZ in der Speicherzelle, DDR3-1600 = 200 MHZ in der Speicherzelle...
Um die Core i7 Prozessoren in einem idealen Umfeld zu nutzen, bedarf es nicht nur eines Sockel 1366 Mainboards, sondern auch eines entsprechenden Triple-Channel Speicherkits, von welchem Hersteller auch immer.
3x1GB erscheint diesbezüglich etwas mager, insofern bieten sich die aktuellen 3x2Gb Kits an, die natürlich nur auf einem 64bittigen Betriebssystem mit entsprechendem Mainboard Unterbau genutzt werden können.
Was aber genau hat sich Intel eigentlich beim Triple-Channel gedacht und wo liegen die Vorteile im Vergleich zu Dual-Channel und Single-Channel?
Intel hat den Speichercontroller seiner Core i5 und Core i7 Prozessoren endlich in den Prozessor integriert und somit den lange vorhandenen Flaschenhals des Frontsidebus eliminiert. Da AMD dies schon seit einiger erfolgreich praktiziert, war dies auch wirklich Zeit, wenn man denn technologisch Schritt halten möchte.
Die Unterschiede zwischen Dual-Channel und Triple-Channel liegen auf der Hand. Das Dualchannel Interface greift auf in Abhängigkeit vom Mainboard auf die jeweilig vorhandenen Speicherbänke zu, wobei der Datentransfer über zwei Leitungen parallel stattfindet. Das Triple-Channel Interface hat dafür drei Leitungen zur Verfügung, so daß mehr Daten in einer kürzeren Ansprechzeit bereit gestellt werden.
Noch einmal etwas deutlicher:
Im Single-Channel-System werden die Speichermodule in einem Speicherkanal installiert und es gibt nur eine Anbindung an den Speicherkontroller, der für den Datentransfer zwischen dem Speicher und dem restlichen System zuständig ist.
Im Dual-Channel-System werden die Speichermodule in zwei getrennten Speicherkanälen mit jeweils eigener Anbindung an den Speicherkontroller betrieben. Dadurch verdoppelt sich die Übertragungskapazität.
Im Triple-Channel-System existieren drei Speicherkanäle mit jeweils eigener Anbindung an den Speicherkontroller. Die theoretische Übertragungskapazität verdreifacht sich gegenüber dem Single-Channel-Modus. Der neue Intel-Prozessor Core i7 verfügt über einen integrierten Speicherkontroller. Der Vorteil: Der bisherige Front Side Bus (FSB) und die damit verbundene Latenz entfallen.
Worauf muss beim Betrieb im Triple-Channel-Modus geachtet werden?
Um das System optimal auszuschöpfen, sollten jeweils drei baugleiche, sprich in puncto Hersteller, Geschwindigkeit, Typ und Kapazität identische Module installiert werden, wobei die farbliche Zuordnung der Speicherslots zu beachten ist. Das gilt auch für eine Vollbestückung, obwohl es eigentlich egal ist, wenn alle sechs Speichermodule identisch sind und alle sechs Bänke bestückt werden. Die ersten drei Module müssen in der ersten Speicherbank und entsprechend den jeweiligen Anforderungen des Motherboard-Herstellers installiert werden. In gleicher Weise wird der zweite Dreiersatz installiert (falls auf dem Motherboard zulässig). Zur leichteren Unterscheidung von Speicherbank 1 und 2 verwenden die meisten Motherboard-Hersteller bestimmte Farben.
Die Module in Bank 1 müssen nicht dieselbe Kapazität aufweisen wie die in Bank 2. Liegen jedoch innerhalb einer Speicherbank unterschiedliche Kapazitäten vor, schaltet das System ungeachtet der Modulkonfiguration automatisch in den Single-Channel- oder Dual-Channel-Betrieb zurück !
Beachtet bitte die Motherboard-Spezifikationen der jeweiligen Hersteller für die Konfiguration von Speichermodulen und halten euch in jedem Fall an deren Vorgaben. Das gilt natürlich auch für die jeweilige Bestückung eurer Mainboards, denn deren mögliche Kapazität im Handbuch hat mit der Realität nicht sehr viel gemeinsam. Marketing und Alltagsbetrieb korrespondieren selten miteinander, darum solltet ihr euch immer eine gesunde Skepsis bewahren.
Die eben erklärten Channel Aufteilungen fallen natürlich flach, wenn sechs Module verbaut werden, denn die sechs Module erfordern eine Vollbestückung, bei der die Triple-Channel Fähigkeit aber nicht terminiert wird.
Sind die SPD-Angaben (Serial Presence Detect) fehlerhaft oder unvollständig integriert, ist es reine Glückssache, ob das Modul korrekt betrieben wird oder nicht, insofern sind diese Daten eminent wichtig! Nun sollte man aber leichte Abweichungen nach dem ersten Systemstart mit den neuen Modulen auch nicht überbewerten, denn einige Hersteller schreiben ins SPD oft reduzierte Timings hinein (wie bei unserem Testkit), damit das System wirklich sicher startet, die optimierten Einstellungen für die Timings kann man ja anschließend im Bios durchaus manuell vornehmen. Oder man bedient sich eben der vorhandenen Profile, die wir nachstehend erläutern.
Viele Hersteller setzen auf Enhanced Performance Profiles, um zusätzliche Leistungsdaten in ungenutzte SPD-Teile zu schreiben.
Konkret bedeutet dies:
Im SPD (Serial Presence Detect) werden grundsätzlich nur die ersten 96 Bit des 128 Bit großen JEDEC SPD ROM genutzt. Bit 97 bis Bit 127 können also vom jeweiligen Hersteller für eigene Informationen und Optionen verwendet werden.
Die nun zur freien Verfügung stehenden 30 Bits des SPD ROMs können von Mushkin in genau zwei Varianten für die Enhanced Performance Profiles genutzt werden, denn viel Platz für das Hinterlegen von Informationen ist in 30 Bits natürlich nicht vorhanden. Entweder hinterlegt man 2 Profile oder 4, in diesen Profilen sind dann explizite Informationen wie Speicherspannung, Command Rate, Cycle Time, CAS Latency, tRCD, tRP und tRAS abrufbar.
Diese Profile sind aber nur nutzbar, wenn man über ein Mainboard mit entsprechender Kompatibilität zu diesen Profilen verfügt. In der Regel sind dies Mainboards mit Nvidia Chipsätzen ab Generation Nforce590 aufwärts, da Nvidia Initiator dieser speziellen Übertaktungsprozeduren war. Das EPP 2.0 der DDR3 Module wird nur auf den neuen Nvidia 790i Chipsätzen voll unterstützt. Ansonsten bleiben diese Profile deaktiviert und ungenutzt. Das heißt natürlich nicht, das diese Speicher nun nicht übertaktbar wären, das sind sie durchaus, man muß dies nur wie gehabt manuell einstellen und verfügt so in der Regel sogar über mehr Spielraum und Flexibilität.
Auch die neuen XMP Profile von Intel arbeiten grundsätzlich sehr ähnlich im Vergleich zu EPP. Der Unterschied zu EPP liegt darin begründet, das auf entsprechenden Mainboards der Frontsidebus nicht unabhängig vom Speicherteiler eingestellt werden kann. Wer also ein aktuelles Intel Mainboard besitzt, wird feststellen, das beim Auswählen der XMP Profile im Bios nicht nur der Speichertakt, die Timings, CommandRate und die Spannung, sondern auch Frontsidebus und CPU-Multiplikator automatisch angepaßt werden.
Das ist sehr praktisch, denn so werden alle relevanten Segmente automatisch eingestellt, was eine zeitaufwendige manuelle Einstellung erspart. Natürlich geht an dieser Stelle die Individualität verloren, aber die manuellen Einstellungen bleiben dem Anwender ja unbenommen, zumal er nicht gezwungen wird, XMP zu verwenden.
Beim XMP 1.2 Profil, das für die aktuellen Sockel 1366 und 1156 Mainboards weiterentwickelt wurde, schaut die Sachlage geringfügig anders aus, denn der Frontsidebus existiert ja de Facto nicht mehr, weil der Datenbus in die CPU integriert wurde. Nichtsdestotrotz ermöglichen die XMP 1.2 Profil eine automatische Anpassung an die wichtigsten Leistungsindikatoren (BLCK, CPU Ratio, QPI und RAM Parameter), eine manuelle Einstellung ist aber auch hier wieder optioniert.
Das XMP Profil 2.0 entspricht weitestgehend den Vorzügen der früheren XMP-Versionen, findet seine Daseinsberechtigung allerdings erst seit Herstellung und vor allem Auslieferung von DDR4 Arbeitsspeicher. Die Differenzierung als solche findet wie gewohnt über die im SPD der Speichermodule verankerten Daten statt, so dass eine reibungslose Kommunikation nur dann stattfindet, wenn das SPD (im Grunde das BIOS des Arbeitsspeichers) seriös programmiert wurde. Und nur dann kann das XMP Profil auch entsprechend im BIOS eingestellt werden und seine Wirkung entfalten. Wer dem nicht traut und/oder das letzte Quentchen Leistung aus den RAM -Modulen kitzeln möchte, kann dies natürlich umgehen, in dem man stattdessen die Daten alle manuell einstellt, was aber inzwischen alles andere als trivial ist und wo wir eigentlich abraten, weil diesbezüglich sehr viele Homeuser schlichtweg überfordert wären.
Diese Profile obliegen den aktuellen AM3 Systemen, wo analog zu EPP und XMP dem Speicher entsprechende Einstellungsprofile implementiert werden, um auch hier dem Anwender die Einstellungsvielfalt durch vorgegebene Profile zu erleichtern. Das ist auch ein Grund, warum die aktuellen Ram Kits für AMD Systeme nicht auf Intel Systemen eingesetzt werden sollten. Nicht das sie nicht laufen würden, aber sie sind weder für Intel selektiert noch optimiert und das die Hersteller (in diesem Fall Corsair) nicht für einen fehlerfreien Einsatz garantieren, versteht sich fast von selbst.
Jein lautet die "klare Antwort", denn es hängt schon sehr vom Einsatzgebiet und Betriebssystem ab, ob man 2GB oder mehr im System einsetzen sollte oder nicht.
Für normale Desktopanwendungen, Windows XP und Office genügen 1 Gb noch eine ganze Weile, diesbezüglich sicherlich sogar 512MB. Für Spiele wie Battlefield 2 und Quake4, das mit weniger als 2 GB sogar Probleme produziert, sollte man über eine eventuelle Nachrüstung nicht lange nachdenken, beide Spiele profitieren davon deutlich. Unter den aktuellen Actionkracher Crysis Warhead oder GTA4 lassen sich unter Windows Vista 64-bit mit 4GB Speicher die Ladezeiten deutlich reduzieren. Wobei anzumerken ist, das allein viel Arbeitsspeicher aus einem sonst langsamen System kein schnelles zaubert, denn Flaschenhälse wie langsame CPU >langsame Grafikkarte >langsame Festplatte werden dadurch nicht kompensiert!
Eine Workstation mit Windows 7, Windows 8.1, Windows 10, aufwendiger Videoschnitt, exzessiver Gebrauch von virtuellen Maschinen, kommende Spiele, CAD, Dreamweaver und Photoshop gehören ebenso wie Zip-Programme und das völlig überfrachtete Nero 8.0/9.0/10.0/12.0 sowie auch Power DVD zu den Kandidaten, die sich über eine Speicheraufrüstung nicht beklagen.
Wer in die Zukunft investieren möchte und will, der sollte über eine Arbeitsspeicheraufrüstung intensiv nachdenken, denn 1. werden die Spieleanforderungen von den Publishern künftig kaum minimiert und 2. gab Microsoft seinerzeit für Windows Vista schon 512MB als Minimalaustattung an, bei Windows 7 waren es bereits 1024MB bis 2048MB, was auch für Windows 8.1 gilt. Das mag auf den ersten Blick hoch erscheinen, aber wenn man überlegt, wie miserabel Windows XP mit der ursprünglichen Werksvorgabe von 128 MB zurecht kam, sollte klar sein, wo wir landen werden respektive schon gelandet sind. Weder Vista noch Windows 7 sind mit 512 oder gar 1024MB RAM ernsthaft zu betreiben, dies gilt für Windows 8.1 oder Windows 10 gleichermaßen, es sei denn das Starren auf den Idle-Desktop im Schneckentempo gilt als angestrebtes Ziel...
Zur speziellen 4GB-Situation unter Windows XP, Vista, Windows 7, oder Windows 10 sowie dessen technischem Hintergrund lest bitte unseren aktualisierten ausführlichen Artikel:
Auch hier kursieren wilde Gerüchte, von ganzen neuen Parametern bis hin zur gänzlichen Abschaltung des viruellen Speichers (Auslagerungsdatei).
Es bringt nichts, den virtuellen Speicher abzuschalten, denn Windows 2000/XP lagert trotzdem aus und es gibt auch keine Möglichkeit, dies zu ändern, ganz im Gegensatz zu Linux, dort ist dies explizit möglich. Drüber hinaus meckern auch weiterhin speicherhungrige Programme wie Photoshop ob der fehlenden Auslagerungsdatei, egal wieviel Speicher real vorhanden ist...
Wir haben zahlreiche Tests durchgeführt und konnten performancetechnisch keine Veränderung oder gar Verbesserungen konstatieren, wenn man die Auslagerungsdatei nun noch weiter erhöht. Darum lautet unsere aktuelle Empfehlung, stellt euren Arbeitsspeicher so ein, wie in unserem Artikel
beschrieben, damit fahrt ihr zur Zeit immer noch am Besten.
Unter Vista oder Windows 7 ist diese Empfehlung nicht mehr zu halten, da Vista und insbesondere auch 7 über eine gänzlich andere Speicherverwaltung verfügen, darum solltet ihr an den Werkseinstellungen auch möglichst nichts ändern, wir konnten jedenfalls keinen Optimierungsvorteil erkennen, wenn man die Auslagerungsdatei manuell vorgibt oder gar abschaltet.
Mit ausreichender Sicherheit kann man defekte RAM-Module nur im Labor diagnostizieren. Somit kann man mit Programmen zum Speichertest eigentlich nur Fehler nachweisen, nicht aber die Fehlerfreiheit. Eine Aussage auf die Fehlerfreiheit auf dem betrefffenden Board ist jedoch durchaus mit entsprechenden Tools bzw. Programmen möglich.
Verdachtsmomente sind:
• Rechner startet gar nicht.
• CRC-Fehler.
• Instabilität des Systems und unmotivierte Abstürze.
• Häufung von Bluescreens (Windows).
• Windows lässt sich nicht installieren.
• Probleme beim Zippen von großen Dateien.
Testprogramme:
• Jedes aktuelle Zipprogramm, mit dem man große Dateien (nicht unter 600Mbyte) packt und wieder entpackt.
• Memtest 86
• Windows Memory Diagnostic (Microsoft)
• c't-ramtest 5.1
Nicht nur Speicherzellen können defekt sein, auch das SPD-EEPROM kann durchaus defekt oder schlecht (bzw. falsch) programmiert sein. Um dies zu testen, gibt es das Testprogramm "ctSPD", welches man sich unbedingt downloaden sollte, da grade das SPD häufig eine Fehlerursache ist.
• c't SPD
Wir hoffen euch die komplexe Speichertechnik etwas näher gebracht zu haben. Sollten diesbezüglich Fragen auftauchen, so beantworten wir sie gerne in unseren Foren.
Memtest Workaround
Arbeitsspeicher-Tests
Arbeitsspeicher: Die 4GB Problematik...