Das Projekt klingt ganz cool. Vermutlich nicht für Rollenspiele oder sowas, wohl aber für Strategiespiele zum Beispiel. Da muss ja beispielsweise regelmäßig das Objekt eines Fußsoldaten erstellt werden, die allgemeine "Map" aber eher nur einmal zum Spielstart.
Auch stelle ich mir den Boost in verschiedensten anderen Programmen gut vor.
Dass am Ende natürlich alles bestenfalls in einer "einfachen" GUI Platz findet und man als Nutzer nur noch zwei Ordner auswählt und sagt "Mach mal" und irgendwann noch einen Klick macht "Bin fertig, schieb mal Kram rum", ist denke ich klar.
Dann würde ich das zumindest mal bei mir ausprobieren.
Wichtig wäre mir aber auch eine Funktion wie "mach es rückgängig" - also wo alle Dateien wieder an den korrekten Ort verschoben werden und Symlinks aufgelöst werden. Das bedeutet, dass neben dem Profil für die einzelnen Anwendungen auch noch eine Art von "Ich habe folgendes verschoben und verlinkt"-Liste abgespeichert wird. Das ist natürlich im Zweifel einige KB, vielleicht sogar wenige MB Overhead aber für mich auf alle Fälle wünschenswert.
Ich habe mir das PayLoadTimer-Skript noch nicht wirklich angeschaut. Speichert das nur einmal am Ende, welche Dateien wie häufig angefragt wurden und ähnliches? Ich könnte mir nämlich auch vorstellen, dass man daraus eine regelrechte Versuchsreihe machen könnte. Folgende Szenarien habe ich da so im Kopf
1) Das Skript speichert die Anzahl der Zugriffe auf eine Datei, ggf. speichert es auch noch dazu, wie groß diese Datei ist. Dann kann man über einen definierten Threshold entscheiden, wie viel % der Dateien auf die SSD kommen oder auch nicht.
2) Man zeichnet über mehrere Programm-Nutzungszeiträume Profile auf und hat die Möglichkeit diese mit einem irgendwie gearteten Algorithmus zu analysieren. Beispielsweise kann es ja vorkommen, dass einzelne Dateien nur bei wenigen Nutzungen viele Aufrufe haben, andere dafür aber immer sehr häufig angefragt werden.
3) Es sollte sich erkundigt werden, ob man auch eine Schnittstelle zu dem OS oder einer anderen naheliegenden Treiberebene hat, in der man auch auslesen kann, welche Teile der Datei gerade geladen wurden. Das würde die Profile zum Analsysieren erstmal ernorm vergrößern. Hierdurch kann man aber sehen, ob einzelne Dateibereiche regelmäßig angefragt werden (ggf HDD), oder aber eine ganze Datei auf einmal geladen werden muss (SSD).
4) Zudem könnte man als "Analyse" auch überlegen, ob es Sinn macht ein Vortrainiertes Neuronales Netz am Ende an den Nutzer auszuliefern, dass die Auswertung der Profile übernimmt und dabei die "beste Performance" ausgibt. Die Frage ist natürlich in wie weit jemand da eine Testreihe durchführen möchte und dort ein entsprechendes Netz (a) entwerfen und (b) trainieren möchte.
5) Es wäre vermutlich auch interessant zu wissen, in welchen zeitlichen Abständen die Zugriffe auf die Datei durchgeführt wurden. Viele Zugriffe zeitlich nah beieinander sprechen eher für eine SSD, viele Zugriffe, dafür aber mit größeren Pausen, sprechen für HDD. Entsprechendes sollte auch in den Profildaten enthalten sein.
---
Jetzt sind die Szenarien mit irgendwelchen Ideen, die mir im Kopf rumgeschwirt sind vermischt. Viel Spaß beim Querlesen und Kopfschütteln. Vielleicht habe ich ja schon einen sinnvollen Beitrag geleistet.
---
Bezüglich Programmierer die dabei mitmachen. Ich werde zumindest mal in das Repo schauen und jenachdem, wie das hier weiter voran geht auch mal was beitragen - vielleicht aber auch nur Hinweise auf mögliche Probleme oder dergleichen geben. Ich bin (noch) nicht so sehr vertraut mit dieser Art der Projektumsetzung und halte mich da lieber etwas zurück.