Ich habe mal eine...naja...fast schon...computerphilosophische Frage.
Geht es euch auch so, dass eure Hardware immer älter wird und dennoch akzeptabel bleibt und ihr nur wenig Gründe findet das ganze System auszutauschen?
Ich kann mich erinnern, dass mein erster eigener Rechner anno 1997 sehr schnell veraltet war. 2001 kam ein netter Medion-PC, der schon nach zwei Jahren ausgetauscht werden musste...etc...bis ich dann...im Kern...meinen aktuellen PC 2013 erstellt habe und den "nur" hier und da upgrade. Anfangs Phenom II, nun FX Schlagmichtotirgendwas (wegen Mass Effect Andromeda, autsch)...und der tuts noch...mit 8GB-Ram und der Grafka von 2013. Klar: Mit SSD.
Mir ist schon in den 2000ern langsam aufgefallen, dass die parallele Verfügbarkeit vieler Titel auf PC, PS3 und Xbox positive Seiten für meinen Gaming-PC hatte. Es reichte ein recht bescheidener Rechner, um die Spiele akzeptabel spielen zu können - mehr war natürlich möglich, aber optional. Und mein Build von 2013 habe ich auch nur gebaut, weil ich mein Phenom I-System von 2008 zu dem Zeitpunkt meinen Eltern überließ, weil deren Rechner nen Kurzschluss hatte und notgedrungen ersetzt werden musste.
Auch im Produktivitätsbereich: Für meine Autorentätigkeit reicht mir mein 24" Full HD, damit ich ein Din A4-Blatt schön in "Echtgröße" sehen kann...dazu ein 19" Secondscreen. Mehr WÄRE möglich, war für mich aber beruflich nicht sinnvoll...und fürs Gaming...naja...ich nehme an, für 4k-Gaming müsste ich dann SCHON meinen PC deutlich aufrüsten, aber das was ich bei Bekannten gesehen habe war zwar nice, aber halt nur "nett." Kein Vergleich zu "Gaming 1995 Bleifuß I vs. NFS Porsche im Jahre 2000". DAS waren noch Unterschiede. Oder täuscht mich da mein Laieneindruck?
Ist der Consumerbereich - ein Stück weit - an einer Obergrenze angelangt, was die Aufrüstorgien angeht? Oder verbaue ich mir "unnötig" Stellaris mit 2000 Sternen, riesigen Flotten und geilster Grafik bei hoher Spielgeschwindigkeit?