Що таке адаптивна синхронізація?

Ось один незаперечний факт: в останні кілька років на ринку РС ноутбуків було продано більше, ніж настільних комп'ютерів. Це неминучий побічний ефект мобільної революції, в результаті якої сьогодні ми живемо в світі, в якому користувачі комп'ютерів більше не хочуть бути "на якорі" в одному місці. Замість цього вони хочуть використовувати їх в русі, в будь-який час, в будь-якому місці, як їм заманеться.

Для більшості сучасних моделей це не проблема - сучасні конфігурації ноутбуків забезпечують блискавичну швидкість в таких сценаріях використання, як веб-серфінг, робота з офісними додатками, перегляд фільмів і прослуховування музики.

З іграми, однак, ситуація трохи по-іншому. Традиційно вони є одними з найбільш "жадібних" на апаратні ресурси комп'ютерних програм, що пред'являють виключно високі вимоги до характеристик системи. А оскільки сучасні мобільні технології все ще вимагають певного рівня компромісу між продуктивністю та енергоефективністю, навіть найпотужніший (і дорогий) ноутбук ігрового класу не може забезпечити продуктивність рівня настільного ПК, оснащеного компонентами останнього покоління.

Але це може залишитися в минулому завдяки дуже цікавою технології під назвою "Адаптивна синхронізація". За неї ми повинні дякувати компанію NVIDIA, яка, хоча і не може бути названа її творцем, внесла найбільший внесок в комерціалізацію цієї технології.

З її допомогою зовсім скоро ігрові ноутбуки будуть мати можливість запропонувати ігровий досвід можна порівняти за якістю з таким у їх настільних аналогів, причому без рішучих компромісів з точки зору ефективності використання енергії.

Синхронізація кадрів і чому це проблема для геймерів?

Якщо ви читали матеріали, в яких обговорюється ігрова продуктивність тієї чи іншої конфігурації, ви, мабуть, помітили, що в них автори часто посилаються на один конкретний показник - 60 кадрів в секунду. Для більшості геймерів заповітні 60 fps є свого роду "Святим Граалем" високоякісного комп'ютерного гейминга, але причина цього пов'язана не з комп'ютерним "залізом", а з характеристиками сучасних ЖК-дисплеїв.

Сьогодні більшість дисплеїв, особливо ті, якими оснащуються мобільні комп'ютери, використовують фіксовану частоту оновлення. Це один з ключових показників кожного монітора, який вказує на те, скільки разів в секунду оновлюється зображення, що відображається на ньому.

Інший параметр, який вже відноситься безпосередньо до відеокарти, відомий як "Кількість кадрів в секунду" (frames per second або просто fps) і його назва говорить сама за себе: це кількість ігрових кадрів, які можуть бути забезпечені відповідною конфігурацією для створення реалістичної ілюзії руху.

Щоб отримати максимальні ігрові переживання, ці два показники повинні бути синхронні - тобто обладнання комп'ютера повинно забезпечувати 60 кадрів в секунду, які монітор буде візуалізувати з частотою оновлення 60 Гц. У цьому ідеальному випадку ви побачите на екрані картинку, яка буде плавною, без мерехтінь, розривів або розмиття.

На жаль, на практиці такого ніколи не буде. Причина полягає в тому, що будь-який сучасний дисплей працює з фіксованою частотою оновлення 60 герц (хоча в деяких моніторах частота становить 120-144 Гц). Однак кількість кадрів в секунду обов'язково варіюється, тобто цей показник не може бути постійним. Наприклад, в грі з відкритим світом одна і та ж система може видавати 50+ кадрів в закритих приміщеннях (тобто продуктивність, близьку до заповітних 60 fps), але на відкритих локаціях показник може швидко просідати до 30-40 кадрів в секунду. На слабких конфігураціях розрив між частою поновлення дисплея і кількістю кадрів в секунду буде ще більше.

Проблема додатково ускладнюється ще й тим, що кількість кадрів в значній мірі залежить від обраного рівня графічних налаштувань і дозволу в грі. Так, наприклад, певна конфігурація може гарантувати 50-60 fps і щодо комфортну гру при дозволі 1280 х 720 пікселів і середньому рівні деталізації. Однак варто збільшити дозвіл до Full HD (1920 х 1080 пікселів), а візуальні параметри до рівня Ultra, і продуктивність "звалиться" до 10-20 кадрів в секунду, що на практиці зробить гру "неіграбельной".

Рішення проблеми

До недавнього часу традиційним відповіддю на проблеми синхронізації між монітором і комп'ютером (відкритий) була V-Sync. Інакше кажучи, "вертикальна синхронізація". Це грубий, але щодо ефективний спосіб, який на практиці змушує ігровий движок синхронізуватися з частотою оновлення зображення на дисплеї.

На жаль, це рішення має один серйозний недолік: працює правильно тільки в тому випадку, якщо кожен наступний кадр візуалізується менш ніж за 1/60 секунди. Якщо підготовка кадру займає більше часу, то при наступному циклі поновлення дисплея він просто не буде готовий до візуалізації. Відповідно відеокарти доведеться візуалізувати його знову. На жаль, це трапляється з більшістю сучасних відеокарт - навіть найвищого класу, а видимим результатом всього цього стають дратівливі затримки зображення та інші неприємні побічні ефекти.

Саме тут втручаються NVIDIA з ідеєю так званої "адаптивної синхронізації", яка в їхньому випадку стала відома як G-Sync. Це протилежність V-Sync, яка примушує монітор синхронізуватися з грою, а не навпаки. Таким чином, навіть якщо апаратні засоби (відеокарта) в змозі забезпечити, скажімо, 30 кадрів в секунду, це не буде особливою проблемою, тому дисплей системи буде синхронізований з нею і буде працювати з частотою оновлення 30 Гц.

Ця технологія може виявитися манною небесною для всіх геймерів і особливо для тих, хто грає на ноутбуках, які традиційно пропонують меншу ігрову продуктивність в порівнянні з настільними ПК.

Не тільки плюси

На папері G-Sync звучить чудово і має потенціал забезпечити високу якість гри навіть на слабких ноутбуках, які інакше тільки можуть мріяти про заповітних 60 кадрах в секунду. На практиці, однак, все не так просто - особливо щодо імплементації G-Sync в мобільних комп'ютерах.

Проблема в тому, що для реалізації адаптивної синхронізації монітор комп'ютера потребує додаткового модулі, який динамічно регулює частоту оновлення відповідно до кількості кадрів в секунду. Цей модуль дорогий і, що ще гірше - вимагає досить багато енергії, що робить його недоцільним доповненням, по крайней мере, в ноутбуках, для яких питання, пов'язані зі споживанням енергії є особливо болючими.

Така ситуація з G-Sync була в 2013 році, коли NVIDIA вперше анонсувала цю технологію. Тим не менш, компанія продовжила активно працювати над розвитком концепції адаптивної синхронізації, і в результаті світу недавно була представлена ​​Mobile G-Sync - різновид оригінальної ідеї, розроблена спеціально для використання в портативних комп'ютерах.

Mobile G-Sync

Основним плюсом нової модифікації технології є відсутність необхідності в окремому апаратному модулі синхронізації. Замість цього Mobile G-Sync використовує можливості одного з найсучасніших інтерфейсів - embedded DisplayPort (eDP), яким оснащується більшість ноутбуків нового покоління.

У мобільному варіанті G-Sync надає собою скоріше софтверний, ніж апаратний метод адаптивної синхронізації. В його основі лежить складний математичний алгоритм, який намагається передбачити з високою точністю здатність відеокарти підготувати наступний, призначений для візуалізації кадр, і з урахуванням цього налаштовує частоту оновлення зображення на дисплеї.

Звичайно, досягнення 100-відсоткової точності в даному випадку неможливо, але навіть приблизний результат дає серйозне відображення на якості ігрового досвіду.

Плюси Mobile G-Sync очевидні: більш гладке відтворення навіть на слабких апаратних конфігураціях, при цьому без збільшення споживання енергії. Але, на жаль, технологія має і свої слабкі сторони. Як уже згадувалося, досягнення абсолютної точності в прогнозуванні кадру неможливо. Саме з цієї причини алгоритм частково жертвує точністю передачі кольору за рахунок фіксованої частоти оновлення та більш гладкого відтворення.

Більш неприємний побічний ефект від практичної реалізації цієї технології полягає в тому, що Mobile G-Sync і NVIDIA Optimus є взаємовиключними. Як ви, можливо, знаєте, остання є популярною функцією, яка дозволяє динамічно перемикатися між вбудованим в центральний процесор графічним ядром і дискретною (GeForce) відкритий. Так, при роботі з легкими завданнями, такими як, скажімо, перегляд інтернету та редагування документів, ноутбук може використовувати інтегроване відео, яке споживає значно менше енергії, ніж дискретний графічний адаптер.

Однак для роботи Mobile G-Sync дисплей ноутбука повинен бути підключений безпосередньо до дискретної відеокарти (з маркою NVIDIA, зрозуміло). Це на практиці виключає участь вбудованого в процесор графічного ядра і робить Mobile G-Sync і Optimus взаємовиключними.

За словами NVIDIA, це не істотна проблема, особливо для моделей ноутбуків з графічними процесорами нового покоління - Maxwell, які є надзвичайно енергоефективними. Проте, це важливий компроміс, на який доведеться піти багатьом OEM-партнерам компанії, якщо вони вирішать запропонувати Mobile G-Sync як опцію в своїх ігрових ноутбуках наступного покоління.

Звичайно, за відсутності незалежних тестів все ще не дуже ясно, наскільки великим буде цей компроміс і в якій мірі використання Mobile G-Sync за рахунок Optimus відіб'ється на часі автономної роботи.

Інше питання, що навіть найбільш просунуті моделі ноутбуків не можуть запропонувати особливо вражаючою автономності - особливо на тлі надефективних мобільних систем, таких як ультрабуки останнього покоління.

Але з огляду на той факт, що мова йде про вузькоспеціалізованих портативних конфігураціях, призначених для специфічної аудиторії (геймери), які віддають перевагу пікової продуктивності, то подібна жертва в плані часу роботи від акумулятора навряд чи може виявитися смертельною в тому випадку, якщо Mobile G-Sync виконає обіцянку забезпечити дійсно суттєве підвищення якості ігрового досвіду.

Відмінного Вам дня!