Platforma testowa i metodyka pomiarowa

Wszystkie testy zostały przeprowadzone na 64-bitowym systemie operacyjnym Windows 10. Procesory pracowały na ustawieniach standardowych tzn.: fabrycznie zdefiniowanych trybach Turbo. Pamięci DDR3 pracowały przy 1600 MHz CL 9-9-9-27 dla większości platform, aby zapewnić procesorom identyczne warunki, nawet jeśli zastosowane kontrolery oficjalnie wspierały moduły 1066, 1333, 1866 lub 2133 MHz. W przypadku starszych systemów (m.in. LGA 1156), gdzie wymuszenie wyższych dzielników pamięci na standardowych ustawieniach było niemożliwe, procesory testowaliśmy na 1333 lub 1066 MHz CL 9-9-9-27. Ustawienie 1600 MHz oznaczałoby ingerencję w domyślne parametry układów - zmianę FSB, taktowań bazowych lub Turbo. W pozostałych przypadkach odpowiednie dzielniki załatwiały sprawę bezinwazyjnie, zaś podczas OC ustawialiśmy wartość DDR3 najbliższą lub równą 1600 MHz. Moduły DDR4 pracowały przy taktowaniu 2133 MHz oraz opóźnieniach CL 14-14-14-35.

Analizując wykresy wydajności musicie pamiętać, że bazowe taktowanie w przypadku procesorów jest zazwyczaj wyższe, niż faktycznie deklaruje producent. Powód? Fabrycznie zdefiniowane tryby Tubo Core (AMD) i Turbo Boost (Intel), które w zależności od obciążenia rdzeni dynamicznie dostosowują częstotliwość. Przykładowo Intel Core i5-4690K ma wprawdzie na zegarze 3500 MHz, aczkolwiek jeden rdzeń potrafi osiągnąć nawet 3900 MHz, dzięki czemu zyskuje dużą przewagę w aplikacjach jednowątkowych. Nie powinna zatem dziwić sytuacja, gdy różnica w wynikach między procesorami jest większa, niż wskazywałaby podawana wartość bazowa (np.: 3100 vs 3200 MHz), bowiem tryby Turbo odgrywają tutaj kluczowe znaczenie i może się okazać, że ustawione zostały wyższej dla jednostki z niższym zegarem podstawowym.