[Technik] SSD Speicher geht in die nächste Stufe - 8 TB bei 2,5 GByte/s

13487.jpg Liebe Speicherfreunde, PMC-Sierra hat in Zusammenarbeit mit Memblaze eine neue SSD vorgestellt, die Pblaze 4. Mit einer Gesamtkapazität von 8 TB gehört sie zweifelsfrei zu den größeren Massenspeichern. Die Anbindung an das System erfolgt dabei über PCI-E x8 und erreicht Transferraten von bis zu 3,2 GByte/s beim Lesen und 2,5 GByte/s beim schreiben. Besteller können sich dann in Zukunft über mehrere Varianten entscheiden, nämlich der vollen Höhe des PCI Formats, oder der halben Höhe. Außerdem soll sich dann der Kunde zwischen Single-Level- und Multi-Level-Zellen entscheiden können, die zur Veränderung der Performance und Ausdauer führen. Ein Veröffentlichungsdatum und Listenpreis ist aktuell noch nicht bekannt.

Quelle:
Bild: Memblaze
 
Zuletzt bearbeitet:
Quantum hat vor etwas mehr als 20 Jahren versucht wieder eine 5.25" Platte unters Volk zu bringen. "Quantum-Bigfoot" War aber damals aus Kostengründen.
Wäre es heute denkbar, dass wenn 3.5" Platten an ihre Grenze gestoßen sind, doch wieder 5.25" erneut das Licht der Welt erblicken?
Ich glaube nicht das so ein Flash-Speichermonster in naher Zukunft für Normalsterbliche bezahlbar wird.

Anders rum, gibt es schon 2.5" Platten mit 2TB. 4 Stück davon haben exakt die gleichen Abmessungen wie eine 3.5" Platte. Lässt die Vermutung nahe das wohl bei 8TB/3.5" ende ist.
Ich hatte einmal ein Festplattenlaufwerk mit 5.25" Abmessungen in der sich 2 einzelne 3.5" Laufwerke befanden (Nur die Mechanik) gesteuert von einer Elektronik. (War aber defekt. Habe ich selber nie am laufen gehabt)
Ich könnte mir daher auch ein 3.5" Laufwerk vorstellen, dass im Inneren 4 einzelne 2.5" Laufwerke hat.

Bei 8 TB ist noch lange nicht Schluss, die erste 10 TB Platte gibt es schon. Und in 10 Jahren will man 100TB erreichen.

Nachzulesen bei Golem.
 
Nur weil es eine Roadmap gibt heißt das noch lange nicht, dass es auch technisch möglich ist.
Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.
 

Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.
Dennoch steigt die Leistung immer noch exponentiell an und das Moorsche Gesetzt wurde noch nicht gebrochen...
 
Dachte immer, eine SSD wäre nicht so gut für wichtige Daten und eher so ein Zocker-Ding und OS-Only. Falls sie mal defekt ist, ist es doch schwerer, die Daten zu retten oder? (Im Vergleich zu HDD)
 

Jein, vom Prinzip her kann man Daten von einer HDD noch retten, bei einem defekten Sektor auf einer SSD ist dies nicht mehr möglich. Bis SSDs aber kaputt gehen dauert es sehr sehr lange, insbesondere da diese nicht mechanisch beansprucht werden.
SSDs haben nur den Nachteil, dass man die Sektoren nur bis x mal neu beschreiben kann, danach nehmen sie keine Zustandsänderung an und gelten als defekt, daher verbauen die Hersteller ca. 30% Reservesektoren in ihren SSDs.
Der normale Consumer wird die die End-of-life Schreibzyklen extremst selten erreichen. "the Techreport" hat seit ca. einem Jahr einen Langzeittest am Laufen, alle getestet SSDs haben die vom Hersteller angegebene max. Laufzeit um vielfaches übersprungen. Imo laufen nur noch zwei Platten, bisher wurden auf diese mit 2 Petabyte Daten überschrieben

 
die datensicherheit sollte man nicht unterschätzen.. wenn man eine SSD einsetzt, sind regelmäßige backups pflicht bzw. man darf darauf keine daten speichern, die man vermissen würde (d.h. für system-/programm-/temp-daten top, als lager gefährlich).. die daten auf der magnetplatte sind relativ sicher (1 bitfehler alle 10 jahre ist der richtwert) - selbst wenn die mechanik und elektronik ausfällt, kann man die platten im labor (für viel geld) noch auslesen.. bei SSDs fallen sehr gerne mal die controller aus und dann ist feierabend: die daten im flash sind zwar immernoch da (und für viel mehr geld kann man sie wohl auch auslöten und auslesen lassen), aber sobald die adresszuweisung verloren ist (also welche LBA sich in welchem flash-sektor befindet), die i.d.r. mit dem controller stirbt, kann man die rekonstruktion der daten komplett vergessen.. mit etwas glück bekommt man vielleicht noch dokumentfetzen oder sehr kleine dateien (<512 bytes) wieder.. ironischerweise sind diese dokumentfetzen aber selbst nach dem wipen der SSD noch da, wenn sie in den nicht adressierten sektoren liegen ;)...
 
...mit dem controller stirbt, kann man die rekonstruktion der daten komplett vergessen.. mit etwas glück bekommt man vielleicht noch dokumentfetzen

Das kann man so und so vergessen da alle namhaften SSD-Hersteller (Crucial, Samsung, Intel, ...) hardwarebasierte Verschlüsselung einsetzen. Ist der Controller tot ist die Cipher weg.
 
Nur weil es eine Roadmap gibt heißt das noch lange nicht, dass es auch technisch möglich ist.
Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.

Takt ist nicht ganz so wichtig, / und weitaus wichtiger. Mit dem Takt steigt auch die Leistungsaufnahme und manche andere Störfaktoren (ab 4,5GHz z.B. Beeinflussung durch WLAN).

die datensicherheit sollte man nicht unterschätzen.. wenn man eine SSD einsetzt, sind regelmäßige backups pflicht
Bei HDDs auch.
 
Takt ist nicht ganz so wichtig, / und weitaus wichtiger. Mit dem Takt steigt auch die Leistungsaufnahme und manche andere Störfaktoren (ab 4,5GHz z.B. Beeinflussung durch WLAN).
Ich habe auch nie behauptet, dass es seit 10 Jahren in der Leistung keinen Fortschritt gäbe?
Es ging mir darum, dass wir nach diversen Roadmaps und Prognosen aus den 90ern heute zwischen 5 und 15GHz hätten.
 
Damals konnte man wohl noch nicht abschätzen, dass das überhaupt nicht nötig ist.

Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten, da es recht elementare Kenntnisse zu Elektrik erfordert, um zu wissen, dass die Temperatur und andere unangenehme Nebeneffekte mit dem Takt steigen. Gerne darfst du mich eines Besseren belehren :)
 
Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten, da es recht elementare Kenntnisse zu Elektrik erfordert, um zu wissen, dass die Temperatur und andere unangenehme Nebeneffekte mit dem Takt steigen. Gerne darfst du mich eines Besseren belehren :)
Natürlich steigt mit dem Takt die Verlustleistung und somit die Temperatur, dem wirkt allerdings die Verkleinerung der Baugröße sowie der Betriebsspannung entgegen.
Damals ging man davon aus, dieses Spiel noch lange fortsetzen zu können. Intel stieß dann ~2005 mit dem P4 bei 3,6GHz an die Grenzen der 90nm-Technologie und erst da begann bezüglich Taktraten ein Umdenken.
Ironischer Weise stolperte der Pentium M/Centrino (~2GHz) dann über die eigene Werbung, nur Takt sei entscheidend, die man jahrelang gegen AMD gefahren hatte.
 
Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten

Vielleicht noch aus P3/P4 Zeiten wo Netburst in Intels Augen der geilste Scheiss am Markt war. Spätestens als AMD mit halber Frequenz mehr Power lieferte gab's bei Intel das erste Umdenken.

Apropo Roadmap: Intel hat im Jahre 2006 die ersten 16-Core CPUs für das erste Halbjahr 2011 angekündigt...
 
Apropo Roadmap: Intel hat im Jahre 2006 die ersten 16-Core CPUs für das erste Halbjahr 2011 angekündigt...
Das ist allerdings etwas, dass vermutlich nicht an technischen Gründen scheitert...

Vielleicht noch aus P3/P4 Zeiten wo Netburst in Intels Augen der geilste Scheiss am Markt war. Spätestens als AMD mit halber Frequenz mehr Power lieferte gab's bei Intel das erste Umdenken.
Ja, aber nur in der Werbeabteilung: Daraufhin wurde in den Prospekten für Fertig-PCs mit echten xxGHz geworben und den Kunden eingeredet, nur die Taktfrequenz zählt. Genau daher kommt ja der Blödsinn.
Der Centrino scheiterte dann an der Kundenmeinung "Wenn Intel selbst sagt, nur Takt zählt, was soll ich dann mit einem Prozessor mit nichtmal 2GHz von denen?"

Bei den ersten Multicore-CPUs wurde dann in der Werbung plötzlich die Taktfrequenz mit der Coreanzahl multipliziert und schon bald mit >6GHz geworben.
 
Da fällt mir auch noch eine alte Werbung von Fobis ein. (Die ältere Generation sollte die Läden noch kennen)
Die haben zu Zeiten der 486er Auch mit hohen Werten (Damals ja noch Mhz) geworben und ganz klein "n. Lm" dahinter geschrieben. (nach Landmark):D
 
Zurück
Oben