• Hallo liebe Userinnen und User,

    nach bereits längeren Planungen und Vorbereitungen sind wir nun von vBulletin auf Xenforo umgestiegen. Die Umstellung musste leider aufgrund der Serverprobleme der letzten Tage notgedrungen vorverlegt werden. Das neue Forum ist soweit voll funktionsfähig, allerdings sind noch nicht alle der gewohnten Funktionen vorhanden. Nach Möglichkeit werden wir sie in den nächsten Wochen nachrüsten. Dafür sollte es nun einige der Probleme lösen, die wir in den letzten Tagen, Wochen und Monaten hatten. Auch der Server ist nun potenter als bei unserem alten Hoster, wodurch wir nun langfristig den Tank mit Bytes vollgetankt haben.

    Anfangs mag die neue Boardsoftware etwas ungewohnt sein, aber man findet sich recht schnell ein. Wir wissen, dass ihr alle Gewohnheitstiere seid, aber gebt dem neuen Board eine Chance.
    Sollte etwas der neuen oder auch gewohnten Funktionen unklar sein, könnt ihr den "Wo issn da der Button zu"-Thread im Feedback nutzen. Bugs meldet ihr bitte im Bugtracker, es wird sicher welche geben die uns noch nicht aufgefallen sind. Ich werde das dann versuchen, halbwegs im Startbeitrag übersichtlich zu halten, was an Arbeit noch aussteht.

    Neu ist, dass die Boardsoftware deutlich besser für Mobiltelefone und diverse Endgeräte geeignet ist und nun auch im mobilen Style alle Funktionen verfügbar sind. Am Desktop findet ihr oben rechts sowohl den Umschalter zwischen hellem und dunklem Style. Am Handy ist der Hell-/Dunkelschalter am Ende der Seite. Damit sollte zukünftig jeder sein Board so konfigurieren können, wie es ihm am liebsten ist.


    Die restlichen Funktionen sollten eigentlich soweit wie gewohnt funktionieren. Einfach mal ein wenig damit spielen oder bei Unklarheiten im Thread nachfragen. Viel Spaß im ngb 2.0.

[Technik] SSD Speicher geht in die nächste Stufe - 8 TB bei 2,5 GByte/s

13487.jpg Liebe Speicherfreunde, PMC-Sierra hat in Zusammenarbeit mit Memblaze eine neue SSD vorgestellt, die Pblaze 4. Mit einer Gesamtkapazität von 8 TB gehört sie zweifelsfrei zu den größeren Massenspeichern. Die Anbindung an das System erfolgt dabei über PCI-E x8 und erreicht Transferraten von bis zu 3,2 GByte/s beim Lesen und 2,5 GByte/s beim schreiben. Besteller können sich dann in Zukunft über mehrere Varianten entscheiden, nämlich der vollen Höhe des PCI Formats, oder der halben Höhe. Außerdem soll sich dann der Kunde zwischen Single-Level- und Multi-Level-Zellen entscheiden können, die zur Veränderung der Performance und Ausdauer führen. Ein Veröffentlichungsdatum und Listenpreis ist aktuell noch nicht bekannt.

Quelle: http://winfuture.de/news,84850.html
Bild: Memblaze
 
Zuletzt bearbeitet:

GigaShadow

Neu angemeldet

Registriert
15 Juli 2013
Beiträge
11
Quantum hat vor etwas mehr als 20 Jahren versucht wieder eine 5.25" Platte unters Volk zu bringen. "Quantum-Bigfoot" War aber damals aus Kostengründen.
Wäre es heute denkbar, dass wenn 3.5" Platten an ihre Grenze gestoßen sind, doch wieder 5.25" erneut das Licht der Welt erblicken?
Ich glaube nicht das so ein Flash-Speichermonster in naher Zukunft für Normalsterbliche bezahlbar wird.

Anders rum, gibt es schon 2.5" Platten mit 2TB. 4 Stück davon haben exakt die gleichen Abmessungen wie eine 3.5" Platte. Lässt die Vermutung nahe das wohl bei 8TB/3.5" ende ist.
Ich hatte einmal ein Festplattenlaufwerk mit 5.25" Abmessungen in der sich 2 einzelne 3.5" Laufwerke befanden (Nur die Mechanik) gesteuert von einer Elektronik. (War aber defekt. Habe ich selber nie am laufen gehabt)
Ich könnte mir daher auch ein 3.5" Laufwerk vorstellen, dass im Inneren 4 einzelne 2.5" Laufwerke hat.

Bei 8 TB ist noch lange nicht Schluss, die erste 10 TB Platte gibt es schon. Und in 10 Jahren will man 100TB erreichen.

Nachzulesen bei Golem. http://www.golem.de/news/astc-roadmap-fuer-100-tbyte-festplatten-steht-fest-1411-110823.html
 

Pleitgengeier

offizielles GEZ-Haustier

Registriert
14 Juli 2013
Beiträge
7.411
Ort
127.0.0.1
@GigaShadow: Nur weil es eine Roadmap gibt heißt das noch lange nicht, dass es auch technisch möglich ist.
Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.
 

NecroniX

Kompetenzfetischist

Registriert
21 Juli 2013
Beiträge
536
@Pleitgengeier:
Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.
Dennoch steigt die Leistung immer noch exponentiell an und das Moorsche Gesetzt wurde noch nicht gebrochen...
 

harvi

The People's Champion

Registriert
14 Juli 2013
Beiträge
738
Dachte immer, eine SSD wäre nicht so gut für wichtige Daten und eher so ein Zocker-Ding und OS-Only. Falls sie mal defekt ist, ist es doch schwerer, die Daten zu retten oder? (Im Vergleich zu HDD)
 

NecroniX

Kompetenzfetischist

Registriert
21 Juli 2013
Beiträge
536
@harvi:
Jein, vom Prinzip her kann man Daten von einer HDD noch retten, bei einem defekten Sektor auf einer SSD ist dies nicht mehr möglich. Bis SSDs aber kaputt gehen dauert es sehr sehr lange, insbesondere da diese nicht mechanisch beansprucht werden.
SSDs haben nur den Nachteil, dass man die Sektoren nur bis x mal neu beschreiben kann, danach nehmen sie keine Zustandsänderung an und gelten als defekt, daher verbauen die Hersteller ca. 30% Reservesektoren in ihren SSDs.
Der normale Consumer wird die die End-of-life Schreibzyklen extremst selten erreichen. "the Techreport" hat seit ca. einem Jahr einen Langzeittest am Laufen, alle getestet SSDs haben die vom Hersteller angegebene max. Laufzeit um vielfaches übersprungen. Imo laufen nur noch zwei Platten, bisher wurden auf diese mit 2 Petabyte Daten überschrieben

Quelle
 

Novgorod

ngb-Nutte

Registriert
14 Juli 2013
Beiträge
3.055
die datensicherheit sollte man nicht unterschätzen.. wenn man eine SSD einsetzt, sind regelmäßige backups pflicht bzw. man darf darauf keine daten speichern, die man vermissen würde (d.h. für system-/programm-/temp-daten top, als lager gefährlich).. die daten auf der magnetplatte sind relativ sicher (1 bitfehler alle 10 jahre ist der richtwert) - selbst wenn die mechanik und elektronik ausfällt, kann man die platten im labor (für viel geld) noch auslesen.. bei SSDs fallen sehr gerne mal die controller aus und dann ist feierabend: die daten im flash sind zwar immernoch da (und für viel mehr geld kann man sie wohl auch auslöten und auslesen lassen), aber sobald die adresszuweisung verloren ist (also welche LBA sich in welchem flash-sektor befindet), die i.d.r. mit dem controller stirbt, kann man die rekonstruktion der daten komplett vergessen.. mit etwas glück bekommt man vielleicht noch dokumentfetzen oder sehr kleine dateien (<512 bytes) wieder.. ironischerweise sind diese dokumentfetzen aber selbst nach dem wipen der SSD noch da, wenn sie in den nicht adressierten sektoren liegen ;)...
 

The_Emperor

&#65279;

Registriert
17 Juli 2013
Beiträge
2.801
...mit dem controller stirbt, kann man die rekonstruktion der daten komplett vergessen.. mit etwas glück bekommt man vielleicht noch dokumentfetzen

Das kann man so und so vergessen da alle namhaften SSD-Hersteller (Crucial, Samsung, Intel, ...) hardwarebasierte Verschlüsselung einsetzen. Ist der Controller tot ist die Cipher weg.
 

gelöschter Benutzer

Guest

G
@GigaShadow: Nur weil es eine Roadmap gibt heißt das noch lange nicht, dass es auch technisch möglich ist.
Bei den Prozessoren geht es bezüglich Takt auch seit 10 Jahren kaum vorwärts - nach Roadmaps aus den 90ern müssten wir da heute ganz wo anders sein.

Takt ist nicht ganz so wichtig, OPS/IPS und IPC weitaus wichtiger. Mit dem Takt steigt auch die Leistungsaufnahme und manche andere Störfaktoren (ab 4,5GHz z.B. Beeinflussung durch WLAN).

die datensicherheit sollte man nicht unterschätzen.. wenn man eine SSD einsetzt, sind regelmäßige backups pflicht
Bei HDDs auch.
 

Pleitgengeier

offizielles GEZ-Haustier

Registriert
14 Juli 2013
Beiträge
7.411
Ort
127.0.0.1
Takt ist nicht ganz so wichtig, OPS/IPS und IPC weitaus wichtiger. Mit dem Takt steigt auch die Leistungsaufnahme und manche andere Störfaktoren (ab 4,5GHz z.B. Beeinflussung durch WLAN).
Ich habe auch nie behauptet, dass es seit 10 Jahren in der Leistung keinen Fortschritt gäbe?
Es ging mir darum, dass wir nach diversen Roadmaps und Prognosen aus den 90ern heute zwischen 5 und 15GHz hätten.
 

gelöschter Benutzer

Guest

G
Damals konnte man wohl noch nicht abschätzen, dass das überhaupt nicht nötig ist.

Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten, da es recht elementare Kenntnisse zu Elektrik erfordert, um zu wissen, dass die Temperatur und andere unangenehme Nebeneffekte mit dem Takt steigen. Gerne darfst du mich eines Besseren belehren :)
 

Pleitgengeier

offizielles GEZ-Haustier

Registriert
14 Juli 2013
Beiträge
7.411
Ort
127.0.0.1
Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten, da es recht elementare Kenntnisse zu Elektrik erfordert, um zu wissen, dass die Temperatur und andere unangenehme Nebeneffekte mit dem Takt steigen. Gerne darfst du mich eines Besseren belehren :)
Natürlich steigt mit dem Takt die Verlustleistung und somit die Temperatur, dem wirkt allerdings die Verkleinerung der Baugröße sowie der Betriebsspannung entgegen.
Damals ging man davon aus, dieses Spiel noch lange fortsetzen zu können. Intel stieß dann ~2005 mit dem P4 bei 3,6GHz an die Grenzen der 90nm-Technologie und erst da begann bezüglich Taktraten ein Umdenken.
Ironischer Weise stolperte der Pentium M/Centrino (~2GHz) dann über die eigene Werbung, nur Takt sei entscheidend, die man jahrelang gegen AMD gefahren hatte.
 

The_Emperor

&#65279;

Registriert
17 Juli 2013
Beiträge
2.801
Mir ist allerdings auch keine Roadmap bekannt, nach der die Taktraten immer weiter steigen sollten

Vielleicht noch aus P3/P4 Zeiten wo Netburst in Intels Augen der geilste Scheiss am Markt war. Spätestens als AMD mit halber Frequenz mehr Power lieferte gab's bei Intel das erste Umdenken.

Apropo Roadmap: Intel hat im Jahre 2006 die ersten 16-Core CPUs für das erste Halbjahr 2011 angekündigt...
 

Pleitgengeier

offizielles GEZ-Haustier

Registriert
14 Juli 2013
Beiträge
7.411
Ort
127.0.0.1
Apropo Roadmap: Intel hat im Jahre 2006 die ersten 16-Core CPUs für das erste Halbjahr 2011 angekündigt...
Das ist allerdings etwas, dass vermutlich nicht an technischen Gründen scheitert...

Vielleicht noch aus P3/P4 Zeiten wo Netburst in Intels Augen der geilste Scheiss am Markt war. Spätestens als AMD mit halber Frequenz mehr Power lieferte gab's bei Intel das erste Umdenken.
Ja, aber nur in der Werbeabteilung: Daraufhin wurde in den Prospekten für Fertig-PCs mit echten xxGHz geworben und den Kunden eingeredet, nur die Taktfrequenz zählt. Genau daher kommt ja der Blödsinn.
Der Centrino scheiterte dann an der Kundenmeinung "Wenn Intel selbst sagt, nur Takt zählt, was soll ich dann mit einem Prozessor mit nichtmal 2GHz von denen?"

Bei den ersten Multicore-CPUs wurde dann in der Werbung plötzlich die Taktfrequenz mit der Coreanzahl multipliziert und schon bald mit >6GHz geworben.
 

Cybercat

Board Kater

Registriert
21 Juli 2013
Beiträge
9.067
Ort
Ruhrpott
Da fällt mir auch noch eine alte Werbung von Fobis ein. (Die ältere Generation sollte die Läden noch kennen)
Die haben zu Zeiten der 486er Auch mit hohen Werten (Damals ja noch Mhz) geworben und ganz klein "n. Lm" dahinter geschrieben. (nach Landmark):D
 
Oben