Ich hab mal im Hintergrund Hardware-Monitor laufen lassen, dann etwa zwei Stunden am Stück gespielt, das Spiel beendet und als ich dann auf die Temperatur im Programm geguckt habe, stand da bei der Grafikkarte echt was von 90°C Max-Temperatur!
Warum glaubst Du, dass das zuviel ist? Das kann auch absolut im Rahmen sein - GPUs halten prinzipbedingt sehr viel höhere Temperaturen aus als CPUs. Wenn Du sicher gehen willst, mal mal einen Gegencheck mit Furmark.
(Und das hab ich nicht irgendwo gelesen sondern direkt bei Microsoft auf der Seite, als empfehlung).
Link, bitte.
tönt vielleicht blöd, aber deine Grafikkarte ist für Sims 3 zu stark, diese Annahme ist nicht von mir, sondern beruht auf einer Aussage von Pescado:{...}
Pescado ist zwar ein kompetenter Coder, darüber hinaus ist sein Wissen allerdings ziemlich eingeschränkt.
Kurz zusammengefasst heisst das: Die Sims 3 haben keinen VSYNC eingebaut und deshalb läuft das Spiel mit einer Geschwindigkeit, was die fps bzw. das Rendering betrifft, ungebremst. Daher läuft die teure Grafikkarte zu schnell und kann deshalb überhitzen, was unweigerlich zu freez führt, was in deinem Fall ja zutrifft.
Diese Erklärung ist jedenfalls völliger Mumpitz. Es gibt immer einen Front-Buffer (das ist der Speicherbereich, in dem das aktuell angezeigte Bild liegt) und einen oder mehrere Back-Buffer, in die gerendert wird bzw. in denen fertig gerenderte Bilder auf ihren "Einsatz" warten.
Die CPU stellt quasi die Szene zusammen (die Engine tut es mittels CPU) und übergibt das dann der GPU (bzw. der API) für den eigentlichen Rendervorgang (das heißt DrawCall), die das dann in einen der Back-Buffer rendert. Wenn die GPU fertig ist, schickt sie eine "Bin Fertig"-Mitteilung zurück, woraufhin die Grafikengine den Befehl zum Umschalten des Front-Buffers gibt. VSYNC hat damit nicht das Geringste zu tun, das sorgt nur dafür, dass dieses Umschalten verzögert wird, bis der Monitor ein Bild komplett angezeigt hat, weil sonst immer eine Mischung aus zwei oder mehr Bildern angezeigt wird => Tearing.
Wenn Pescados Infos stimmen, dann führt TS3 diese vorgenannte Umschaltung nur 30 mal pro Sekunde durch, lässt die Grafikkarte also u.U. eine ganze Ladung Frames nur rendern, um sie gleich wieder zu verwerfen, ohne sie je anzuzeigen. Das ist zwar einigermaßen gehirnalbern, bedeutet aber keinerlei zusätzliche Belastung für die Grafikkarte - d.h. die Grafikkarte müsste dann auch bei allen anderen Programmen überhitzen, die vergleichbare GPU-Last erzeugen.
Dass es tatsächlich ein Temperaturproblem ist, halte ich für unwahrscheinlich, denn anders als Pescado glaube ich nicht, dass die meisten Grafikkarten Schrott sind, sondern Vollast sehr wohl aushalten. Ich denke, dass durch den Frame-Limiter eher ein anderes Problem verdeckt wird, z.B. ein Speicherleck.
Ist jetzt nur die Frage ob die Schuld bei EA oder aber bei Nividia liegt, die es nicht fertigbringen, einen neuen Treiber zu allen Games kompatibel zu machen.
Hast Du Dich schonmal gefragt, weshalb Grafiktreiberpakete mittlerweile so riesenfette Dinge sind? Sie enthalten massenweise Code-Optimierungen und Bugfixes für Computerspiele, d.h. Sachen für die eigentliche die Spieleentwickler zuständig wären. Wenn "Grafiktreiber" wirklich reine Treiber wären, würde ein Großteil der Computerspiele gar nicht laufen bzw. alle Nase lang abstürzen. IMHO ist es daher illusorisch, einen Treiber immer und ohne Fehltritt zu
allen Spielen kompatibel zu machen oder jeden Bug, der in einer Grafikengine schlummert, vorherzusehen.