Intel schießt gegen AMD: Ryzen 4000 ist gar nicht so gut

In einer virtuellen Produktpräsentation behauptet Intel, dass Notebooks mit AMD-Ryzen-4000-Prozessoren im Akkubetrieb signifikant an Leistung einbüßen – und die aktuellen Intel-CPUs nicht so sehr.

AMD ist aktuell der Star in der IT-Branche, was vor allem an den leistungsfähigen, aber auch preislich attraktiven Ryzen-Prozessoren und Radeon-GPUs liegt. Außerdem sind beide aktuellen Serien nicht nur konkurrenzfähig, sondern teilweise auch besser, wie unsere Tests von Ryzen 5000 und Radeon RX 6000 beweisen.

Da fällt es umso mehr auf, dass Intel vermeintliche Nachteile von AMD-Hardware besonders herausstellt. Denn in einer virtuellen Präsentation, die erst kürzlich von Intel für Medien abgehalten wurde, wurde die Leistung von AMD-Ryzen-4000-Prozessoren (Codename Renoir) im Vergleich zu Intels elften Core-Generation (Codename Tiger Lake) für Notebooks miteinander verglichen. Vor allem wenn sich die mobilen Computer im Akkubetrieb befinden, sollen die AMD-Chips herbe an Leistung einbüßen, während die Intel-Pendants nur wenig Performance verlieren.

Intel: „Leistung im Akkubetrieb zählt“

Auf einer Folie sagt Intel: „Die Konkurrenz opfert erhebliche Leistung, um bei der Akkulaufzeit auf Augenhöhe mit Intel zu sein.“ Verdeutlicht wird das mithilfe eines Balkendiagramms, das die durchschnittliche Akkulaufzeit und Leistung von fünf AMD- und fünf Intel-basierten Notebooks miteinander vergleicht. Die Ergebnisse wurden mit dem MobileMark18 (MM18) erhoben, einem synthetischen Benchmark der mittels verschiedener Anwendungen Produktivitätsszenarien simuliert. Im Schnitt erreichen die Intel-Geräte höhere Ergebnisse in MM18 von über 1.200 Punkten, während AMD-Systeme nur knapp über 400 erreichen.

AMD Ryzen 4000: Weniger Leistung im Akkubetrieb

Im Applications-Benchmark (Office 365) von PCMark 10 wird der Unterschied im Akkubetrieb noch etwas konkreter. Getestet wurden wieder je fünf AMD- und Intel-Notebooks, und zwar im Netz- und Akkubetrieb. Hier stellt Intel besonders heraus, dass AMD-Systeme bis zu 38 Prozent weniger Leistung bieten, wenn das Notebook auf die interne Batterie zurückgreifen muss, während Intel-Modelle nur geringfügig lahmer werden.

Dramatischer wird der Leistungsverlust im Benchmark WebXPRT, bei dem es sich um einen Browser-Benchmark handelt, der verschiedene HTML5- und JavaScript-basierte Szenarien durchtestet. Hier beläuft sich laut Intel auf stolze 48 Prozent im Akkubetrieb bei AMD-Notebooks. Harter Tobak, falls das so stimmen sollte. In einem reinen CPU-Test in Form des beliebten Cinebench R20 ließ sich dieses Verhalten jedoch nicht nachvollziehen.

Geht der Kampf zwischen AMD und Intel in eine neue Runde?

In der Zusammenfassung der Präsentation stellt Intel noch einmal heraus, dass Tiger Lake sowohl im Netzbetrieb, als auch bei der Nutzung abseits des Stromnetzes eine gute Leistung liefert und betont noch einmal den 48-prozentigen Leistungsverlust bei AMD Ryzen 4000. Deshalb empfiehlt Intel den Medien auch, die Leistung auch im ausgesteckten Zustand zu testen, um den Endkunden ein möglichst praxisnahes Ergebnis zu liefern.

Natürlich sind Testergebnisse von Herstellern immer mit Vorsicht zu genießen. Doch selbst wenn Intels Behauptungen stimmen, ist das noch lange kein Todesurteil für AMDs Renoir-CPUs: Letztere sind ganz klar besser, wenn es um Inhaltserstellung wie Animationen oder Videobearbeitung geht, während Intels Tiger Lake in Single-Core-lastigen Anwendungen besser abschneidet. Es muss in diesem Fall also jeder für sich entscheiden, was er oder sie in Kauf nimmt: Eine deutlich bessere Multi-Core-Leistung mit AMD Ryzen im Netzbetrieb und eine etwas schlechtere Leistung unterwegs, oder bessere Leistung für Office-Anwendungen im Akkubetrieb mit Intel Tiger Lake – nur ohne den Vorteil, dass man im eingesteckten Zustand nicht von der Multi-Core-Leistung von Ryzen profitiert. 

Ryzen 5000: Precision Boost Overdrive 2 für Dezember geplant

Mit Precision Boost Overdrive 2 will AMD die Ryzen-5000-CPUs ab Dezember noch schneller machen.

Hersteller AMD will die erst kürzlich angekündigten Ryzen-5000-CPUs noch besser machen. Ein Feature namens Precision Boost Overdrive 2 soll ab Dezember dafür sorgen, dass die auf der Zen-3-Technik basierenden Chips noch effizienter oder leistungsstärker arbeiten. Dazu sollen Nutzer die Spannung und damit auch die Abwärme sowie den Stromverbrauch feiner einstellen können. Diese Anpassungen sollen durch einen Kurven-Optimierer auch für Einsteiger beherrschbar sein, gleichzeitig aber für Profis viele Eingriffmöglichkeiten zur Verfügung stellen. Das zugehörige Curve Optimization Tool soll für Mainboards der 400er- und 500er-Reihe angeboten werden. Mit dem Tools sei es laut AMD möglich, bei wenig Last eine niedrigere Spannung anzulegen, gleichzeitig aber bei hoher Last für genügend Spannung zu sorgen. Die bislang festgelegten Spannungswerte und Offsets sind dann nicht mehr zwingend gültig. 

Ältere Ryzen-Prozessoren bleiben außen vor, da ihnen die nötigen Sensoren in der CPU fehlen, um die Änderungen genau überwachen zu können. Letztlich werden die Ergebnisse aber von der Qualität der jeweiligen CPU abhängen, Werte baugleicher Prozessoren müssen mit dem eigenen Chip nicht zwingend funktionieren. Die Leistungssteigerungen fallen moderat aus: AMD spricht von maximal 2 Prozent mehr Single-Thread-Performance, dafür könne die Multi-Thread-Performance um bis zu 10 Prozent ansteigen. Die größten Leistungssteigerungen werden für den Ryzen 9 5900X erwartet. Zuerst soll der Kurven-Optimierer im BIOS bzw. UEFI zur Verfügung stehen. AMD stellt aber für 2021 auch eine Integration in das Ryzen Master Tool in Aussicht, so dass der Zugriff über Windows möglich wird. Mit einer Änderung der Werte durch Precision Boost Overdrive 2 ist jedoch ein Erlöschen der Garantie verbunden, da der Nutzer damit Änderungen außerhalb der Spezifikation des Prozessors vornimmt.

Samsung erweitert Galaxy-Reihe um Galaxy A12

Samsungs neues Budget-Smartphone Galaxy A12 erscheint im Januar 2021 für rund 180 Euro in Europa.

Samsung hat in dieser Woche das neueste Mitglied seiner Galaxy-A-Familie angekündigt . Das Galaxy A12 bietet ein LC-Display im 6,5-Zoll-Format mit HD+-Auflösung. Die Front-Kamera bringt Samsung in einer Teardrop-Notch in der oberen Bildschirm-Mitte unter. Sie löst mit acht Megapixeln auf.

Im Gehäuse verbaut Samsung einen nicht näher benannten Achtkern-Soc unter, der eine maximale Taktrate von 2,3 Gigahertz liefern soll. Je nach Speicher-Ausstattung werkeln im Gehäuse außerdem drei, vier oder sechs Gigabyte RAM. Ebenfalls an Bord ist ein Micro-SD-Karten-Slot für eine Speicher-Erweiterung. An der Rückseite des Smartphones ist eine Vierfach-Kamera untergebracht. Der Hauptsensor löst mit 48 Megapixeln auf und wird von einer Ultraweitwinkel-Linse mit fünf Megapixeln, einer Makro-Linse mit zwei Megapixeln und einem Tiefensensor mit zwei Megapixeln unterstützt. Zur weiteren Ausstattung zählen ein Akku mit 5.000 mAh sowie ein seitlich am Gehäuse verbauter Fingerabdruck-Sensor.

Das Galaxy A12 erscheint im Januar 2021 in den Farben Schwarz, Weiß, Blau und Rot in Europa. Zur Auswahl stehen drei unterschiedliche Versionen mit drei Gigabyte RAM und 32 Gigabyte internem Speicher, vier Gigabyte RAM und 64 Gigabyte internem Speicher und sechs Gigabyte RAM mit 128 Gigabyte internem Speicher. Der Preis für die drei Modelle soll zwischen 180 und 200 Euro liegen.

Nvidia GeForce RTX 3060 Ti: Release, Spezifikation, Performance und Preis

Die Nvidia GeForce RTX 3060 Ti soll in Kürze veröffentlicht werden und die Leistung der RTX 2080 SUPER bieten. Wir haben alle wichtigen Informationen hinsichtlich der technischen Spezifikationen, der Leistung, dem Preis und dem Release-Termin für Sie zusammengefasst.

Mit einer GeForce RTX 3060 Ti will Nvidia ein neues Geschütz gegen AMD in Stellung bringen. Auch wenn Nvidia die technischen Spezifikationen noch nicht bekannt gegeben hat, gibt es mit dem 2. Dezember immerhin einen konkreten Release-Termin. Außerdem ist auf der Webseite Videocardz eine Grafik zur Performance der RTX 3060 Ti aufgetaucht: Die vermeintlich von Nvidia stammende Übersicht soll die Leistung der RTX 3060 Ti mit der einer RTX 2060 Super und RTX 2080 Super vergleichen. Als Grundlage für diesen Test diente ein Core i9-10900K und ein Monitor mit einer Auflösung von 2.560 × 1.440 Pixeln. Videocardz hat sich die Arbeit gemacht und die Länge der Balkendiagramme nachgemessen, um einen prozentualen Vergleich ziehen zu können.

Hierbei kommt die RTX 3060 Ti im Schnitt auf eine 1,4 Mal höhere Leistung als eine RTX 2060 Super. Interessanter ist jedoch, dass die RTX 3060 Ti im Bereich Rasterisierung – also der herkömmlichen Bilddarstellung – in allen vier Spielen etwas vor der RTX 2080 Super liegt. Bei aktiviertem Raytracing ist in wiederum vier Spielen sogar ein noch größerer Vorsprung zu sehen. Den größten Abstand zur RTX 2080 Super kann die RTX 3060 Ti dann jedoch beim Rendering vorweisen. 

Die Nvidia GeForce RTX 3060 Ti soll mit der GA104-200 GPU ausgestattet sein, welche 4.864 Shader, 152 Tensor-Kerne, 38 Raytracing-Einheiten und 8 GB GDDR6-Speicher bietet. Der Basistakt liegt wohl bei 1410 MHz und kann im Turbo 1665 MHz erreichen. Mit einer TGP von 200 Watt wäre die Karte in Anbetracht ihrer Leistung relativ stromsparend. All diese Informationen gehen aus einem Datenblatt des Grafikkartenherstellers Manli hervor, welches VideoCardz veröffentlicht hat. Als Verkaufsstart für die RTX 3060 Ti hat Nvidia den 2. Dezember genannt. Teilweise haben die Händler schon damit begonnen, die Karten in ihre Regale zu räumen.

Mittlerweile sind auf der Seite VideoCardz auch das erste Bild der GeForce RTX 3060 Ti Founders Edition und weitere Bilder der Custom-Designs aufgetaucht. Laut der Quelle soll der Kühlkörper der FE abgesehen von einer kleinen Farbänderung identisch mit dem Kühler der RTX 3070 Founders Edition ausfallen. Das bedeutet Nvidia setzt auch bei der RTX 3060 Ti auf den neu entwickelten 12-Pin-Anschluss. Ein entsprechender Adapter dürfte wie auch bei den anderen RTX-300-Modellen in der Founders Edition beiliegen.

Virensuche mit dem Process Explorer

Das Tool Process Explorer ist ein sehr nützlicher wie auch informativer Taskmanager. Mit dem Tool lässt sich sogar Schadcode im System aufspüren.

Der Process Explorer stammt aus der Sysinternals-Programmsammlung, die mittlerweile Microsoft gehört. Neben dem Process Explorer bieten die Sysinternals-Tools viele weitere, meistens systemnahe Tools, zum Beispiel den Process Monitor. Die meisten der Tools wurden von Mark Russinovich entwickelt. In einigen Blog-Einträgen und Videos gibt Russinovich auch Anleitungen sowie Tipps zu seinen Tools. Dazu zählen ebenfalls Hinweise, wie sich Schadcode im System mit den Sysinternals-Tools aufspüren lässt.

Speziell für den Taskmanager Process Explorer liefert Russinovich neun Punkte, auf die man bei der Suche nach verdächtigem Code achten soll. So gehen Sie vor:

Starten Sie den Process Explorer. Er läuft ohne Installation. Sie müssen beim ersten Start nur einmalig die Lizenzbestimmung abnicken. Verdächtig sind jene Prozesse, auf die mehrere der folgenden neun Punkte zutreffen. Verdächtig heißt allerdings nicht zwingend, dass es sich um Schadcode handelt.

1. Der Prozess hat weder ein Icon noch eine Beschreibung („Description“) oder einen Firmennamen („Company Name“). Das Icon wird, so vorhanden, vor dem Prozessnamen („Process“) angezeigt. Die zwei anderen Infos finden Sie in den Spalten rechts im Process Explorer. Wichtig: Es gibt viele harmlose Prozesse, zu denen der Process Explorer weder Icon noch Beschreibung oder Firmenname anzeigt. Diese Kriterien allein machen einen Prozess noch nicht bösartig. Es müssen weitere Punkte hinzukommen.

2. Der Prozess startet aus dem Windows- oder aus einem Benutzerverzeichnis: Schadcode versucht sich typischerweise in einem dieser Ordner zu platzieren. Zeigen Sie mit der Maus auf einen Prozess, wird sein Startordner per Pop-up angezeigt.

3. Der Prozess wird von einem untypischen Prozess gestartet („parent process“): Wenn bei Ihnen etwa Word, also der Prozess Winword.exe, eine Eingabeaufforderung, also den Prozess Cmd.exe, gestartet hat, dann ist das ungewöhnlich und damit verdächtig. Um die Abhängigkeit eines Prozesses zu erkennen, doppelklicken Sie auf ihn. Jetzt öffnen sich die Eigenschaften, wo auf der Registerkarte „Image“ hinter „Parent“ der „parent process“ steht.

4. Prozess mit falscher Schreibweise: Der Systemdienst Svch ost.exe läuft auf jedem Windows meistens mehrmalig. Er startet Dienste sowie andere Programme. Bereits vor rund 20 Jahren haben Virenprogrammierer ihre Schädlinge ähnlich wie das Programm Svchost.exe genannt, um sie so zu tarnen. Die Schädlinge heißen beispielsweise „svchosl.exe“ oder „svhost.exe“.

5. Der Prozess ist nicht signiert: Um zu überprüfen, ob die laufenden Prozesse signiert sind, wählen Sie im Process Explorer „Options –› Verify Image Signatures“. Die Angabe erscheint als neue Spalte im Fenster des Process Explorers.

6. Ein Prozess ist gepackt: Wenn der Process Explorer einen gepackten Prozess entdeckt oder vermutet, dann wird dieser Prozess lila eingefärbt. Der Farbcode des Process Explorers sieht ansonsten so aus: Grün steht für einen neuen Prozess. Rot zeigt einen Prozess, der gerade beendet wird. Hellblau bedeutet, dass der Prozess mit denselben Benutzerrechten läuft wie der Process Explorer. Pink steht für Windows-Dienste. Grau steht für Prozesse im Ruhezustand.

7. Unterhalb des Prozesses laufen verdächtige Dienste (DLL-Dateien): Was für Mark Russinovich in diesem Fall verdächtig ist, gibt er nicht an. Aber vermutlich sind die Dienste dann verdächtig, wenn einige der hier genannten Punkte zutreffen.

8. Der Prozess hat TCP-IP-Verbindungen geöffnet: Ob das der Fall ist, sehen Sie nach einem Doppelklick auf den Prozess auf der Registerkarte „TCP/IP“.

9. Der Dateiname des Prozesses enthält merkwürdige URLs oder andere merkwürdige Zeichen. Denn Schadcode speichert sich zur Tarnung oft mit einem zufälligen Dateinamen.

Steam: PC-Spieler greifen häufiger zum Controller

Nach Angaben von Steam hat sich die Anzahl der PC-Spieler, die mit Playstation-Controller zocken, in den letzten zwei Jahren verdoppelt.

Die meisten PC-Spieler greifen klassisch zu Maus und Tastatur. Doch der Anteil der Spieler, die die Vorzüge eines Controllers zu schätzen wissen, steigt offenbar an. Steam-Betreiber Valve teilt per Blogbeitrag mit, dass sich der Anteil der PC-Spieler mit Playstation-Controller in den letzten zwei Jahren mehr als verdoppelt habe. Durch die Steam-Eingabe-API kann Valve erkennen, mit welchen Eingabegerät die meisten Nutzer spielen. Bei 60 Prozent der Spiele, die auf Steam per Controller gesteuert werden können, nutzen die Spieler dieses Feature auch. Besonders beliebt ist das Gamepad als Eingabegerät bei Games wie Skateboard-Spielen oder Fußballspielen. Hier werden in 90 Prozent der Fälle Gamepads bevorzugt. 

Besonders beliebt sei dabei der Playstation-Controller, dessen Anteil von 10,9 auf 21,6 Prozent angestiegen ist. Neben den schon lange unterstützen Dualshock-Controller der Playstation 4 lässt sich auch der Dualsense-Controller der PS5 in Steam-Spielen nutzen. Sogar das Touchpad, die Bewegungssensoren sowie die neuartige Vibration können von PC-Entwicklern angesprochen werden. Auch die Controller der Xbox können in Steam-Spielen verwendet werden. Viele PC-Spieler greifen lieber zu den bewährten Gamepads von Sony oder Microsoft, anstatt sich das Gerät eines Drittherstellers zuzulegen, das vielleicht in einigen Bereichen Schwächen aufweist. Schließlich werden Controller in stressigen Situationen auch stark beansprucht.

Kommt der Router-Zwang zurück? Gesetzesentwurf birgt Risiko

Ein zusätzlicher Absatz im Entwurf für das neue Telekommunikationsgesetz treibt die Router-Hersteller auf die Barrikaden. Sie fürchten, dass der nach langem Kampf endlich abgeschaffte Router-Zwang durch die Hintertür wieder eingeführt wird.

Ein neuer Absatz im Entwurf der Novelle des Telekommunikationsgesetzes würde es erlauben, die Endgerätefreiheit in Einzelfällen mittels einer Ausnahmeregelung außer Kraft zu setzen. Damit hätten Netzbetreiber erneut die Möglichkeit, ihren Kunden vorzuschreiben, welchen WLAN-Router sie nutzen sollen.

Dieser sogenannte Router-Zwang wurde nach jahrelangen Streitigkeiten mit Wirkung zum 1. August 2016 abgeschafft . Drei Jahre später gaben in einer Umfrage des Verbunds der Telekommunikations-Endgerätehersteller (VTKE) 80 Prozent der Befragten an, dass ihnen die Wahlmöglichkeit beim Router zu Hause wichtig ist. Nun befürchtet der VTKE, dass dieses Recht durch die Einführung von Ausnahmeregelungen unterhöhlt wird.

„Diese Öffnungsklausel birgt das Risiko, dass Verbraucherrechte eingeschränkt und die freie Endgerätewahl de facto abgeschafft werden könnten. Der Verbund der Telekommunikations-Endgerätehersteller ( VTKE ) fordert daher die Streichung des Absatzes aus dem Gesetzentwurf“, teilt der Verbund mit. In ihm haben sich vorwiegend mittelständische, in Europa agierende Unternehmen zusammengeschlossen. Zu den Mitgliedsfirmen gehören unter anderem AVM, Bintec-Elmeg, Buffalo, Devolo, D-Link, Draytek und Lancom sowie mehrere Hersteller von Telefonanlagen.

Ausnahmen von der Router-Freiheit sind unnötig

„Die in § 70 Abs. 2 neu aufgenommene Regelung, dass die Bundesnetzagentur (BNetzA) Ausnahmen vom passiven Netzabschlusspunkt zulassen kann, halten wir für unnötig. Die äußerst positiven Erfahrungen mit der freien Endgerätewahl in den letzten vier Jahren bestätigen dies“, so der Verbund weiter. Wichtig anzumerken ist, dass dem Verbund auch Firmen angehören, die als Lieferanten der Netzbetreiber fest etabliert sind und daher von einem reduzierten Wettbewerb potenziell profitieren könnten.

Die Verbundmitglieder haben in der Vergangenheit aber mehrfach klargemacht, dass aus ihrer Sicht Fortschritt im Sinne der Verbraucher vor allem durch Wettbewerb um deren Gunst beim Kauf des Endgeräts zustande kommt. Schließlich hat sich zuletzt die Technik auf Seiten der Verbraucher (insbesondere Wi-Fi) deutlich schneller entwickelt als auf Seiten der Netzbetreiber.

Regelung des passiven Netzabschlusspunktes soll bleiben

Als positiv begrüßt der VTKE, dass die Regelung des passiven Netzabschlusspunktes in § 70 Abs. 1 des Entwurfs grundsätzlich beibehalten werde. Diese Festlegung entspreche den GEREK-Leitlinien (Gremium Europäischer Regulierungsstellen für elektronische Kommunikation) zur Festlegung des Netzabschlusspunktes und sei der Grundstein für eine freie Endgerätewahl in Deutschland. Die Frage, wo der Netzabschlusspunkt ist – also wo das Netz des Netzbetreibers endet und wo das lokale Netz des Verbrauchers oder Unternehmens anfängt – war Dreh- und Angelpunkt des Streits um die Router-Freiheit.

Mit der nun angedachten Neuregelung gehen dem VTKE zufolge erhebliche Risiken und großes Missbrauchspotenzial einher. „So könnte die Möglichkeit zur Ausnahme vom passiven Netzabschlusspunkt dazu genutzt werden, die Endgerätewahlfreiheit zu umgehen beziehungsweise massiv zu erschweren. Der VTKE sieht die konkrete Gefahr, dass eine Vielzahl von Netzbetreibern Ausnahmen per Allgemeinverfügung über die BNetzA beantragen könnten, die durch die klare Definition des Netzabschlusspunktes als passiv im Gesetz eigentlich verhindert werden sollen.“

Für Verbraucher drohten dadurch eine unübersichtliche Marktsituation und eigentlich überwunden geglaubte Hürden beim Provider-Wechsel. „Das ist weder im Sinne des Verbraucherschutzes noch der Endgerätewahlfreiheit oder des Wettbewerbs für mehr Innovation“, kommentiert der VTKE. Die Abschaffung des Router-Zwangs bedeutete übrigens keineswegs, dass Provider keine eigenen Endgeräte mehr anbieten dürfen. Sie dürfen sie eben nur nicht verpflichtend machen. Wie ein Urteil im Frühjahr 2019 bestätigt hat , dürfen sie beim Verkauf von DSL-Tarifen auch nicht den Anschein erwecken, dass für die Nutzung ein bestimmter Router erforderlich ist.

Wasserkühlung für Asus RTX 3080 und 3090 ROG Strix

Wer seine Asus ROG Strix RTX 3080 oder 3090 mit einer Wasserkühlung versehen möchte, findet bei Phanteks eine Lösung.

Hersteller Phanteks hat mit Glacier G30 Strix eine Wasserkühlung für die Asus ROG Strix RTX 3080 und 3090 vorgestellt, mit der sich die beiden High-End-Grafikkarten effizient und leise kühlen lassen sollen. Optisch zum Hingucker wird die Hardware durch eine transparente Verkleidung aus Acrylglas. Diese ist wahlweise mit schwarzen oder chromfarbenen Aluminiumelementen erhältlich. Die zugehörige Backplate ist ebenfalls in verchromter Optik oder in Schwarz erhältlich. Wer will, kann auch seine Original-Backplate weiter nutzen. Noch auffälliger wird die Wasserkühlung Glacier G30 Strix durch 15 digital adressierbare RGB-LEDs, die den Kühler und die durchgeleitete Flüssigkeit beleuchten. Zum Mainboard findet die Lichtshow über einen 3-Pin-Connector Verbindung. Dadurch ist die Wasserkühlung mit Gigabyte RGB Fusion, Asrock Polychrome Sync, Asus Aura Sync, MSI Mystic Light und Razer Chroma kompatibel.

Nach dem Umbau muss die Umrüstlösung noch per G¼-Zoll-Gewinde mit einer Wasserkühlung verbunden werden. Der eigentliche Kühler ist laut Hersteller 1,3 Kilogramm schwer. Zum Lieferumfang gehören Schrauben, Unterlegscheiben, Wärmeleitpaste, Verschlussstopfen und Wärmeleitpads. Die Auslieferung des Sets soll Anfang Dezember 2020 erfolgen.

Caseking bietet Glacier G30 Strix bereits an: Das Modell in Schwarz kostet 165,61 Euro, im Chrome-Look werden 175,36 Euro fällig. Backplates kosten zusätzlich 38,89 Euro bzw. 48,64 Euro. Als Paket werden 185,11 und 194,86 Euro fällig. Wie der Umbau genau abläuft, erklärt der Hersteller in einer umfangreichen, allerdings nur in englischer Sprache erhältlichen Anleitung . 

Alte Rechner mit neuem Windows-Betriebssystem aufrüsten

Sie nutzen Ihren PC nur gelegentlich und benötigen nicht die alleraktuellste Technik. Trotzdem wollen Sie den Rechner auffrischen und überlegen deshalb, ihm ein neues Betriebssystem zu gönnen. Sie sind sich jedoch nicht ganz sicher, ob die Upgrade-Maßnahme tatsächlich Vorteile bringt und welche Windows-10-Version mit Ihren Komponenten kompatibel ist.

Zunächst einmal ist es wichtig zu wissen, dass es für ältere Windows-Versionen (wie zum Beispiel Windows 7) häufig keine oder nur noch wenige offizielle Software-Updates von Microsoft gibt. Dies kann schnell zu einer Sicherheitslücke führen und viele Gefahren bergen, wenn Sie mit dem System im Internet surfen. Deshalb ist von so einem Upgrade dringend abzuraten. Mit einer aktuellen Betriebssystemversion, die noch regelmäßig Aktualisierungen erhält, können Sie dem entgegenwirken. Doch da stoßen Sie auch bereits auf die Frage, welche neuere Windows-Version mit der eingebauten Hardware und der damit verbundenen Leistung kompatibel ist.

Praktisch wäre eine Software, die jede Windows-10-Version auf Kompatibilität mit Ihrem älteren System testet – vergleichbar mit dem „Upgrade Advisor“, der das seinerzeit für Windows 7 übernommen hat. Für das aktuelle Betriebssystem steht als Alternative die „Enterprise-Trial-Version“ kostenfrei zur Verfügung. Auf der Website von Microsoft können Sie diese herunterladen und Windows 10 für 90 Tage kostenlos testen. In dieser Zeit finden Sie heraus, ob der Rechner und die von Ihnen benötigten Programme problemlos laufen.

Wenn eine solche Probephase nichts für Sie ist, dann gibt es nachfolgende Faustregel, die Ihnen bei der Entscheidung helfen kann: Um auf Ihrem Intel- System eine 64-Bit-Windows- Version zu betreiben, sollten Sie mindestens einen Prozessor ab der Generation Core 2 Duo benutzen. Ältere Prozessoren wie Pentium 4 oder Atom-CPUs haben ein größeres Potenzial zu scheitern. Bei AMD-Prozessoren sollten Sie mindestens über ein Modell ab dem Athlon 64 (oder auch Athlon/Phenom X2-X6, FX oder A4-A10) verfügen. Prozessoren wie der Athlon XP, Duron oder Sempron lassen dagegen nur eine 32-Bit-Version zu. Und mit den Nvidia-nForce-Chipsätzen sollten Sie gleichfalls vorsichtig sein, weil es hier keine Updates mehr für die neueren Windows-Versionen gibt.

Ein weiterer Grundsatz für das Ermitteln der passenden Windows-Version ist das Kaufdatum Ihres PCs beziehungsweise Ihrer Komponenten. Denn sämtliche Hardware, die ab Ende 2009 auf den Markt kam, ist sehr wahrscheinlich schon mit Windows 10 kompatibel.

Dafür gibt es eine USB-Buchse auf dem Mainboard

Wenn Sie schon einmal einen PC aufgeschraubt oder sogar selbst zusammengebaut haben, dann ist Ihnen vielleicht aufgefallen, dass sich auf manchem Mainboard ein vollwertiger USB-Anschluss (Typ A) befindet.

Gemeint sind damit aber nicht die USB-Buchsen, die sich an der Rückseite des PCs befinden, sondern ein einzelner Anschluss mitten auf dem Mainboard. Doch welche Funktion hat diese Buchse?

Gedacht ist eine solche „Extra-Buchse“ eigentlich für Server- Mainboards. Denn dort können Sie einen USB-Stick einstecken, von dem ein Spezial-Betriebssystem booten kann – wie Sie es beispielsweise bei einem NAS- oder Storage-System finden. Es lässt sich auch mit einer virtuellen Maschine vergleichen. Damit niemand diesen Stick versehentlich absteckt, befindet sich der Spezial-USB-Anschluss im Inneren des Rechners.

Doch auch in einer Notlage kann ein solcher Stick hilfreich sein, wenn der Administrator ein entsprechendes Notfall-System auf Linux-Basis für die Reparatur starten muss. Würde der Server nun ausfallen, kann das Notfall-System über die Fernwartungskonsole starten. Ähnlich funktioniert das bei Hauptplatinen für Embedded-Systeme und Industriecomputer.

Doch auch bei Desktop-Mainboards können Sie gelegentlich eine derartige Buchse finden. Der Onboard-Anschluss dient dazu, ein Kabel für die Frontbuchse anzuschließen.