Beiträge von WalterSullivan
-
-
Ja, die waren sprichwörtlich ein Schuss in den Ofen. Ich kannte ein paar die haben damals damit rumgebastelt. Aber die Dinger waren einfach nur ein schlechter Kompromiss und krankten halt an der typischen "Kombi-Gerät-Problematik". Seit schneller SSD-Schnittstellen und stark gefallenen Preisen, gibt es dafür einfach keinen Markt mehr.
-
Warum schaust Du nicht etwas weiter, wie zum Beispiel bei den Spielen von Wadjet Eye Games?
Einige davon haben Demos.
dberlin Unbedingt die Blackwell-Reihe spielen - du wirst es lieben
Hatte neulich hier irgendwo (für die P&C-begeisterte Dame) ein paar Empfehlungen gepostet. Eventuell finde ich es nochmal
In jedem Fall würde ich aber
Toonstruck
Woodruff and the Schnibble of Azimuth
die Book of unwritten tales-Reihe
Thimbleweed Parkempfehlen.
Und wenn du Zak McKracken gespielt hast, dann unbedingt das hier:Between Time&Space - McKracken.net
Achja und Kathy Rain wäre auch fast noch "Pflicht". Außerdem fand ich das moderne King's Quest richtig gut (da hatte Roberta ja auch ihre Finger im Spiel).
-
TLER spielt im NAS keine große Rolle, die meisten NAS-Systeme für den privaten Einsatz verwenden Software-RAID, da braucht man kein TLER, denn das RAID kann die Funktion unabhängig davon abbilden. TLER macht nämlich genau nichts anderes als das Error-Handling an das RAID zu übergeben, statt einen Fehler zurückzumelden. Ganz mal abgesehen davon, dass das oft auch ein Firmware-Feature ist, was man steuern kann (also es ist generell ein Firmware-Feature, aber man kann es IIRC nicht immer steuern).
Und natürlich kann man die Konsistenz des Arrays wiederherstellen, wenn die Metadaten dupliziert, das heißt zusätzlich redundant gespeichert sind. Sie geht sogar niemals verloren, solange die Platten(n) nicht großflächig oder komplett ausfallen. Bei den Nutzdaten im Array sieht das anders aus, die sind natürlich nur so stark redundant, wie es das RAID-Level vorgibt. Da kann man dann schon mal ein paar Dateien verlieren. Das betrifft NAS-Platten aber genauso, auch da können während des Rebuilds Sektoren aussteigen.
Das automatische Parken bzw. den automatischen Spindown kann man in den Desktopplatten deaktivieren, zum Beispiel mit hdparm, auch das schrieb ich bereits mehrfach hier. Das habe ich bei meinen Platten immer getan, selbst bei denen, die nicht im NAS stecken, denn sowas kann auch eine externe Disk enorm beanspruchen und nervt zudem, durch die hohen Wakeup-Zeiten, ganz massiv.
Ich banalisiere gar nichts, ich empfehle auch nichts, schon gar nicht für den professionellen Einsatz. Alles was ich sage, ist dass man für ein Heim-NAS durchaus Desktop-Platten verwenden kann. Natürlich empfiehlt Dir das niemand, schon alleine die Parameter zu ändern würde ja viele überfordern. Und Tools wie hdparm können eine Platte auch bricken, wenn man die falschen Parameter setzt.
SMR/CMR ist kein Desktop vs. NAS-Thema, da es ja NAS-Platten mit SMR gibt. Da muss man dann ohnehin schauen. Bzw. bei einigen Herstellern muss man das, bei anderen nicht. Für Archivierungszwecke spielt es kaum eine Rolle, weil die Daten, einmal geschrieben, meist lange Zeit unverändert gespeichert bleiben und daher kaum Rewrites nötig sind. SMR ist nur wirklich schlecht für häufiges Überschreiben.
Dein großer Fehler ist, dass Du durch Deine enorme Überheblichkeit den Blick für das Wesentliche verlierst und nicht in der Lage bist, sachlich zu bleiben. Auch unterstellst Du zwanghaft jedem, der etwas anders löst, als es allgemein empfohlen wird, unwissend zu sein. Das muss doch nicht sein. Wir können doch anderer Meinung sein ohne dem anderen gleich Unwissenheit vorzuwerfen.
Jeder hier kann doch letztendlich selbst entscheiden was er sich kauft.
Unglaublich, was du mir hier vorwirfst. Aber ok, du kannst natürlich denken was du möchtest.
Jedem anderen steht es natürlich frei zwischen den Zeilen zu lesen und sich dann für common sense bzw. sagen wir mal "best practice" zu entscheiden oder für die andere "propagierte Variante" - für die sollte man dann auch schon etwas risikobereit sein (wie von mir eingangs erwähnt).
Meine Empfehlung wäre auch von solchen Empfehlungen, wie mit einem Tool die Hardware-Parameter zu verändern und damit quasi hart in die Firmware einzugreifen, Abstand zu nehmen. Aber auch das kann natürlich jeder für sich selbst entscheiden.
Habe gerade auch noch einen sehr guten, kompakten und vor allem passenden iX-Artikel gefunden, der tief blicken lässt
Kurz erklärt: Bitfehler bei FestplattenJe größer die Festplattenkapazität, desto wahrscheinlicher sind Fehler beim Speichern. Dank Prüfsummen sollte die Hardware keine falsche Daten zurückliefern –…www.heise.de -
Hast die von AMAZON direkt bekommen oder von einem 3.Händler ?
Bei Amazon würde das nicht so aussehen
-
Was ist eigentlich mit den Hybrid-HDDs, auf denen man wenigstens das Betriebssystem und die (wichtigsten) Pogramme auf SSD installieren kann? Taugen die nix?
Die gibt es noch? Dachte irgendwie, dass das so "Eintagsfliegen" waren und die gar nicht mehr produziert werden.
-
Da erinnere ich mich noch genau dran: ab da hatte mir das Spiel damals keinen Spaß mehr gemacht. Genau wie bei Far Cry mit diesen ***** Supermutanten.
-
Amazon hat ja nicht mal solche Schaumstoffpolster! Gibt wie gesagt zig Beiträge dazu. Ich dachte damals auch mit trifft der Schlag, als die Platten in nem Karton umhergeflogen sind, in den ein BigTower samt Umverpackung gepasst hätte. Die Ersatzlieferung kam exakt nochmals genau so.
Zur Frage:
Früher konnte sowas böse ins Auge gehen und wurde nicht empfohlen.
Heutzutage sollte das aber wohl kein Problem mehr sein (habe aber keinerlei eigene Erfahrung dazu). -
Und das sieht bei Amazon leider anders aus.
-
Ja, Marketplace ist natürlich ein erheblicher Unterschied zu Versand über die "Amazon-Pack-Sklaven" (meine verzeihe mir den Ausdruck). In der Regel haben die die Platten einfach lose in viel zu große Kartons geworfen oder in die dünnen Papierumschläge gesteckt.
Kann ich auch aus eigener Erfahrung bestätigen, aber wurde auch so auf unzähligen Plattformen geteilt.
-
Festplatten über Amazon kaufen?
Sollte sich das mittlerweile nicht rumgesprochen haben, dass man das besser nicht machen sollte (außer die Platte ist in einer Retail-Verpackung - was in 99 von 100 Fällen nicht der Fall sein sollte)?
Als Lektüre empfehle ich die unzähligen Beiträge/Erfahrungen zu dem Thema auf diversen Plattformen -
Gehöre ich wirklich zu den wenigen Auserwählten, die FIFA 98 problemlos spielen können?
Ich glaube, ich werde mal meinen Fix mal hochladen. Ist nur ab XP (?) aufwärts kompatibel.
Manuelle Installation des Spieles:
- Die Ordner AUDIO, COMM, COMMON, FEPACK, INGAME, USER und VIDEO von der CD in ein beliebiges Verzeichnis kopieren.
- Den Fix ins Verzeichnis aus Schritt 1 kopieren und entpacken.
- PatchInstall.bat ausführen und gegebenenfalls von der Benutzerkontensteuerung die Installation bestätigen.
- Das Spiel über die fifartwc.exe starten.
- (Optional) Glide-Wrapper (nGlide/dgVoodoo2) installieren und konfigurieren. Es wird nur die Glide2x.dll im Spielverzeichnis gebraucht.
Wenn das Spiel per Installer installiert wurde, empfehle ich trotzdem ALLE Ordner aus Schritt 1 ins Spielverzeichnis zu kopieren. Außerdem muss die INSTALL.DAT gelöscht werden.
Credits für die SDB: https://www.zeus-software.com/forum/viewtopic.php?p=287#p287
Grundsätzlich sollten wir erstmal klar festhalten, welches FIFA 98 überhaupt gemeint ist - das Gute oder das Schlechte
Aber ich denke wir sind uns einig, dass es um das Gute geht (RtWC).
Nachfolgend habe ich mal die Anleitung rausgesucht, nach der wir auf den LANs vorgegangen sind (also alles ab 64 bit OS):
- aktuelle Version von nGlide installieren (nGlide210_setup.exe)
- unter D:\Spiele\ (natürlich nur beispielhaft) das Verzeichnis "FIFA RTWC 98" anlegen
- Image mounten (f98.iso)
- aus dem Image folgende 3 Dateien in das "FIFA RTWC 98"-Verzeichnis kopieren: eacsnd.dll / fifa98.ico / fifartwc.exe
- aus dem Image folgende 5 Ordner in das "FIFA RTWC 98"-Verzeichnis kopieren: AUDIO / COMM / COMMON / FEPACK / INGAME
- fifa_rtwc_98_installation_package.rar in das "FIFA RTWC 98"-Verzeichnis entpacken
- aus dem zuvor entpackten Archiv-Verzeichnis die key.reg ausführen
- aus dem zuvor entpackten Archiv-Verzeichnis die PatchInstall.bat als Administrator ausführen (im "Compatibility entries"-Unterverzeichnis)
- in dem zuvor entpackten Archiv-Verzeichnis in das "CD reference"-Unterverzeichnis wechseln und dort aus dem Unterverzeichnis, das dem Buchstaben eures virtuellen Laufwerks entspricht, in dem das f98.iso-Image gemountet ist, die INSTALL.DAT in das "FIFA RTWC 98"-Verzeichnis kopieren
- die 4 dlls + directplay-win64.reg aus dem ipxwrapper-0.7.0.zip-Archiv in das "FIFA RTWC 98"-Verzeichnis entpacken und die directplay-win64.reg ausführen
- aus dem dsound.zip-Archiv die dsound.dll in das "FIFA RTWC 98"-Verzeichnis entpacken
- das Spiel über die FIFARTWC.EXE starten (beim Spielstart wird dann das 3dfx-Logo angezeigt)
- man darf das Spiel nicht zusätzlich im Kompatibilitätsmodus starten!
> Beim ersten Spielstart kam die Meldung, dass die CD eingelegt werden soll - beim zweiten Start hat es dann problemlos gestartet (das Image muss natürlich im korrekten Laufwerksbuchstaben gemountet sein)!
--> Wenn man "GALAHs Patch" (fifa98_update.zip) verwendet/installiert, dann kommt immer die "CD-einlegen-Meldung" und das Spiel startet nicht mehr durch!
> Trotz dem Einsetzen der dsound.dll ins Spieleverzeichnis, gibt es im Spiel/Hauptmenü noch immer die Knackser/Störungen im Ton! -
Ist zum Beispiel bei Synology ein Standard-Feature und ergibt in meinen Augen auch Sinn. Grundsätzlich einstellbar dürfte das aber in jedem NAS sein, es ist ja auch überaus relevant wenn das System parallel weiter beschrieben wird (was im Unternehmensumfeld ja oftmals nötig ist).
Zu den Klammern: Nichts dergleichen deute ich auch nur an.
Stimmt so nicht, ich glaube das Thema hatten wir auch schon mal. Ein unrecoverable error heißt so, weil er aus Herstellersicht bei einem Lesevorgang unrecoverable ist. Es kann aber sowohl ein erneuter Versuch erfolgreich sein, als auch (viel wichtiger) die Software im Nachgang die Datenkonsistenz wiederherstellen. Zudem muss selbst ein wirklich nicht lesbarer Sektor keinesfalls bedeuten, dass der Rebuild fehlschlägt. Es können auch "nur" einzelne Dateien verloren gehen. Mit entsprechenden Dateisystemen kann man die Gefahr sogar noch weiter verringern.
Das dürften so ziemlich die meisten Privatanwender tun, es ist nunmal standardmäßig erlaubt.
Das ist richtig und dem widerspreche ich doch gar nicht. Jedoch: Platten fallen nicht ständig ohne jegliche Vorwarnung aus, sehr oft erkennt man an den SMART-Daten schon vorher, dass man handeln sollte. Und auch wenn das Alter zu hoch wird, sollte man handeln.
Das kann es mit einer NAS-Festplatte auch. Die Wahrscheinlichkeit eines Ausfalls mag bei einer Desktopplatte statistisch höher sein, aber da man im privaten Bereich unterwegs ist, ist das tendenziell verschmerzlich, da es auf Hochverfügbarkeit kaum ankommen wird. Gerade da man privat niemals auch nur annähernd an weder die IOPS noch die Datenmengen herankommen wird, ist die theoretisch höhere Zuverlässigkeit mitunter gar nicht relevant.
Nichts gegen dich (wirklich) aber das wird mir hier jetzt zu anstrengend - dafür fehlt mir momentan einfach die Zeit das immer wieder richtigzustellen (oder ggf. zu widerlegen).Du versuchst hier bewusst manches zu banalisieren bzw. möchtest nicht verstehen, dass Desktop-HDDs eben nichts in einem Standard-NAS zu suchen haben (oder schreibst bewusst am Thema vorbei - das glaube ich aber eher nicht, dass du einfach nur "trollen" möchtest, da du doch sonst eigentlich auch ganz umgänglich bist - I mean it).
Welche Software sollte denn im Nachgang die Datenkonsistenz wiederherstellen?
Im dümmsten Fall wird die HDD aus dem Verbund gekickt und das war es dann.
Bei einem Standard-NAS mit Standard-Filesystem wird die Datenintegrität im regulären Betrieb nie geprüft - was stark vereinfacht zur Folge haben könnte, dass bei einer Bilddatei eine Zeile kaputt ist oder in einer Musikdatei ein schriller Ton entsteht oder dass im dümmsten Fall ein riesiges Image nicht mehr lesbar sein wird (oder im noch viel dümmeren Fall verschlüsselte Platten gar nicht mehr lesbar sein werden).
Vielleicht mache ich mir irgendwann mal die Mühe, um das alles etwas umfangreicher aufzuarbeiten. Ansonsten gibt es mehr als genug Berichte hierzu übers Internet verteilt.
In aller Kürze die wichtigsten Argumente dafür (bzw. dagegen):
- kein TLER/ERC-Feature
- Desktop-HDDs sind nicht für einen Einsatz, dicht beeinander, auf engstem Raum vorgesehen oder vom Hersteller freigegeben (z. B. aufgrund der entstehenden Vibrationen)
- viele Desktop-HDDs fahren die Köpfe schnell in die Parkposition (ich glaube da muss ich nicht weiter drauf eingehen)
- und da rede ich noch nicht mal von dem SMR-Müll
Aber es steht natürlich jedem frei, ob er die "was soll's, wird schon gut gehen"-Attitüde fahren oder sich halt doch mal mit den Hintergründen beschäftigen möchte.Ich habe nur ein Problem damit, wenn unwissenenden Mitlesern (nicht böse gemeint - nicht jeder steckt tief in allen Themen drin) vermittelt wird, dass das ja alles kein Problem ist und man einfach irgendeine Platte auswürfeln kann.
Grundsätzlich beschäftige ich mich persönlich lieber etwas länger/intensiver mit einem Thema und gebe (falls notwendig!) auch gerne ein paar Euros mehr aus, als hinterher dann mein blaues Wunder zu erleben - aber jeder so, wie er mag (was nicht heißen muss, dass man auch einfach mal Pech haben kann - aber das würde ja jedes Risikomanagement obsolet machen).
Wie versprochen habe ich auch mal nachgeschaut und den "Wähle die passende/richtige HDD aus"-Thread gefunden - dort hatte ich auch schon einige wichtige bzw. die wichtigsten Aspekte genannt (das Thema ist dort dann aber leider auch wieder etwas "entgleist" und irgendwie scheint was zu fehlen oder ich habe es beim Querlesen versehentlich überflogen). Aber das Thema wurde ja auch immer mal wieder andiskutiert.
In den Anfängen von SSDs konnte man/ich auch gut über alle möglichen SSD-Modelle diskutieren. Mittlerweile ist das ja (teilweise leider) ein völlig anderer Markt. "Am Anfang" gab es aber auch bestimmte Modelle, mit denen man richtig ins Klo greifen konnte und bei denen dann im Zweifel alle Daten weg waren.
Eventuell kann diese Themen ja jemand zusammenlegen/ordnen, dann hätte man im Endeffekt (irgendwann mal) ja wirklich einen Empfehlungsthread/-guide (wobei da dann immer das Problem sein dürfte, das entsprechend aktuell zu halten).
ThemaDiskussion: Welche Festplatte ist die Richtige? HDD? SSD?
Ich würde mir gern erneut eine Festplatte mit 2 TB Speicherplatz kaufen. Aber bei meiner aktuellen Ausfallrate (2 von 3 Seagate HDDs) bin ich mir nicht mehr sicher, ob es wieder eine Festplatte von Seagate sein sollte ...
Wenn, dann würde ich erneut diese von Seagate nehmen:
https://geizhals.de/seagate-barrac…8-a1700138.html
Oder lieber eine von Western Digital? Aber welche? Oder lieber direkt eine SSD? Letztendlich landen dort nur Daten darauf. Ich spiele nicht damit und arbeite nicht großartig…PoooMukkel14. Februar 2024 um 13:28 -
Wobei ich davon bestimmt gut 3, 4 Stunden umhergetaucht bin, um vielleicht 5 Einzelfische zu finden. Mit deinem Tipp dann natürlich kein Problem
-
Danke.
Alles gecheckt,Anti Virus Programme etc. ist alles auf dem NAS deaktiviert.Keine Art von Limitierung (der berühmte "0") usw.
I versteh´s hoit ned.
Wie sieht es von einem anderen Rechner im LAN aus - gleiches "Fehlerbild"?
Möglicherweise ein bekannter Bug von dem NAS bzw. Ethernet-Controller?
-
Weshalb sollte die Aussage keinen Sinn machen? Wenn Du den Rebuild drosselst, verringerst Du die Last der Platten, sie werden weniger warm und weniger beansprucht. Ungedrosselt wird der Rebuilt so schnell wie möglich ausgeführt, was natürlich auch die höchste Last erzeugt. Wenn Du zusätzlich während des Rebuild auf den Zugriff verzichtest, schonst Du die Platten maximal.
Also 1. habe ich noch niemals davon gehört, dass irgendwer das Rebuild des Arrays drosselt (aber wahrscheinlich habe ich einfach keine Ahnung) und 2. geht es bei den heutigen Kapazitäten auch darum, dass man rechnerisch mindestens einen Bitfehler beim Rebuild bekommen wird und 3. wer bei einem Rebuild eines privaten NAS währenddessen auf die Daten zugreift, dem ist ohnehin nicht mehr zu helfen.
Mit macht überhaupt keinen Sinn, meinte ich übrigens "Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet." Es sollte doch allgemein bekannt sein, dass der kritische Pfad immer beim Rebuild ist (besonders bei den heutigen Kapazitäten - aber ich wiederhole mich nur noch
).
Sicher nicht. Ich wollte auch nur darauf hinaus, dass es nicht möglich ist pauschal zu sagen, dass man keine Desktopplatten verwenden sollte.
Nicht böse gemeint (ich verstehe auch nicht immer alles - aber wer tut das schon), aber anscheinend verstehst du das wirklich nicht.
Desktopplatten sollte man niemals für ein Standard-NAS einsetzen. Rein technisch kann man das natürlich, aber das kann eben böse nach hinten losgehen (ich wiederhole mich aber auch hier nur noch).
Den Hintergrund hatte ich hier schon mal an anderer Stelle ausführlich erläutert. Eventuell finde ich es nochmals.
-
Aber Spaß beiseite - dass lesen deutlich schneller als schreiben möglich ist, liegt in der Natur der Sache. Sollte aber in dem von dir genannten Bereich absolut kein Thema sein.
Kann man am NAS irgendwas entsprechendes konfigieren (Bandbreiten reservieren, drosseln, whatever)?
-
Das kann viele Ursachen haben - biste nur mit Half-Duplex verbunden?
-
Nö, Du kannst den Rebuild ja drosseln, dann ist das eher kein Problem. Wenn dadurch eine der anderen Platten aussteigt, hast Du eh viel zu lange gewartet.
Die Aussage macht doch überhaupt keinen Sinn?! Unzählige Praxisberichte malen da eher ein anderes Bild (besonders bei den heutigen Plattenkapazitäten).
Sooo himmelweit ist der Unterschied in der Praxis nicht immer, auch Serverplatten fallen schließlich ständig aus. Es gibt mitunter Berichte von Storageanbietern dazu, welche Platten bei ihnen lange durchhielten und welche schneller abrauchen. Meistens sind das gute oder schlechte Serien, mit der Hochwertigkeit hat es nicht direkt zu tun.
Du spielst damit auf Backblaze an. Hat aber auch erstmal nichts zwangsläufig mit dem Szenario von Platten in privaten NAS zu tun
Es geht aber (wie bereits jetzt mehrfach erwähnt) nicht darum, ob die Platte jetzt perspektivisch nach 3, 5 oder 8 Jahren die Grätsche macht. Das kann dann nachgelagert interessant sein!
Im Enterprise-Bereich geht es um Schreibzyklen, die wird privat niemand erreichen können.
Wir reden im Enterprise-Bereich auch von SCSI/SAS - also auch von ganz anderen Bandbreiten, die dort abdeckt werden müssen. Aber wir driften hier völlig ab - da müsste ich jetzt wesentlich weiter ausholen, aber das ist absolut müßig und führt zu nichts.
-
Dauerlast wird man spätestens beim Rebuild bekommen und das wird dann der Tag der Wahrheit sein. Bei den heutigen Plattengrößen (gerade wenn man so Späße mit RAID5 oder sowas fährt) kann das dann noch richtig spannend werden!
Es gibt aber einen himmelweiten Unterschied zwischen Ausschussschrott und sonstigen Billig-Desktop-HDDs und "professionellen NAS-Platten" (die wird hier garantiert niemand privat einsetzen!).
Genau auf das wollte ich hinaus - es gibt für alles einen Anwendungszweck und für einen Plattenverbund auf engstem Raum sollte man nunmal mindestens die passenden Platten einsetzen (und keinen Ausschussschrott oder Billig-Desktop-HDDs).
Bei Platten, die für den Verbundbetrieb konzipiert wurden, geht es übrigens mitnichten darum, dass sie irgendwie besonders lange halten sollen.
Ein Admin, der im Enterprise-Bereich von "sündteuren NAS-Platten" spricht, der ist möglicherweise auch einfach nur fehl am Platze
Bei kleinen Firmen mag man mit solchen Aussagen vielleicht ja sogar noch punkten können