Наука и техника
18:08, 26 июля 2010

Графика-2015 Интервью с генеральным менеджером по продуктам Nvidia GeForce Дрю Хенри

Александр Амзин (журналист, независимый медиаконсультант)

Мы продолжаем цикл интервью о будущем различных IT-технологий и перспективах их развития. О видеокартах, графических процессорах, играх образца 2015 года, а также парадоксе машины времени нам рассказал генеральный менеджер по продуктам Nvidia GeForce Дрю Хенри.

На что будут похожи графические системы 2015 года? Большая коробка с огромной системой охлаждения? Сверхтихая тонкая штуковина? Обычная видеокарта? И что у нее будет внутри?

В этом вопросе много вопросов. Во-первых, графические чипы еще довольно долгое время будут подчиняться закону Мура (Мур предположил, что число транзисторов на кристалле будет удваиваться каждые два года при сохранении стоимости - прим. Ленты.ру). Закон позволяет со временем решать проблемы, которые слишком велики для современных устройств, превосходят их вычислительные способности. Во-вторых, благодаря широкому распространению цифровых камер и мобильных устройств, сегодня потребители располагают огромным количеством видео- и фотоконтента. И нам предстоит понять, что с этим можно сделать. GPU - прекрасный вычислительный механизм для обработки фотографий и видеороликов. Он позволяет обеспечить владельцев цифровых медиабиблиотек новыми возможностями. На жизнь потребителей будет влиять именно связка закона Мура и растущих объемов контента.

Но в целом GPU через пять лет будут очень похожи на сегодняшние. У нас все так же будут передовые и качественные GPU для тех потребителей, которым нужна максимальная производительность. И все так же будут очень маленькие GPU для мобильников и других портативных устройств. Объединять эти два типа продуктов будут фантастические способности в области обработки медиа- и 3D-контента.

Я пользовался несколькими нетбуками на платформе Ion - великолепная производительность для такого класса устройств. Недавно на тест ко мне попал MacBook Pro с новым решением Nvidia GeForce 320M - то же самое, несмотря на очевидную бюджетность. Если они через пять лет станут еще лучше, зачем мне понадобится что-то большее?

Это тот вопрос, который задаешь себе каждые пять лет, не ожидая каких-то новых технологий и возможностей, которые через пять лет появятся на рынке. Допустим, в 2005 году вы спросили меня, каким будет GPU-2010. Мы вряд ли бы говорили про огромные объемы цифрового контента, а также проблемах и возможностях, связанных с этим.

Мы также не затрагивали бы геометрические преобразования в реальном времени, тесселяцию, которая позволяет нам создавать замечательно реалистичные трехмерные миры. Мы бы упустили множество вещей.

Через пять лет на рынке появятся проблемы и технологии , о которых мы сегодня даже не подозреваем. Я просто приведу вам пример. На моем домашнем компьютере хранится 30 тысяч цифровых фотографий. Большинство снимков сделаны за последние несколько лет, потому что мои дочки подросли и обзавелись цифровыми камерами. Они постоянно снимают. И мы на самом деле не знали, что делать с этим морем фотографий. Как быстро их рассортировать и обработать.

А ведь это хорошая возможность применить вычислительные возможности массивно-параллельной архитектуры GPU. Через пять лет в фототеке будет уже 150 тысяч снимков, и нам будут жизненно необходимы возможности мгновенной сортировки и просмотра, поиска общих лиц, анализ мест, где была сделана фотография. Наконец, реконструкция, сборка трехмерных миров из сделанных фотографий. Все это потребует колоссальной производительности графического чипа.

У тех же ноутбуков Apple на платформе NVIDIA Ion нет встроенных средств обработки геометрической информации, а также возможности тесселяции в реальном времени. Эти вещи не существовали, когда мы запускали Ion.

Мы не можем себе представить, на что будут способны через пять лет массовые GPU, не говоря уже о самых дорогих и мощных. Сейчас я доволен Ion, но через пять лет в нем полностью разочаруюсь.

Давайте перейдем к мобильным устройствам. У Nvidia есть довольно эффективная мобильная платформа - Tegra. Однако, насколько я знаю, корпорация решила не наращивать ее производительность, сконцентрировавшись на энергоэффективности. Почему? Нужны ли нам более мощные устройства? Современные достаточно многое умеют.

Именно. Я как раз об этом и говорил, когда говорил о росте возможностей. Самая важная характеристика мобильных устройств - мобильность, то, что он не подключен постоянно к сети. Он работает от аккумулятора, и ваша удовлетворенность устройством зависит от того, насколько часто вам приходится его подключать к розетке. Ничто так не раздражает, как мобильник, который приходится ежедневно подзаряжать.

Mобильные устройства нужно подзаряжать не чаще раза в несколько дней. Поэтому в таких продуктах мы экономим каждый микроватт или даже нановатт. Здесь мы измеряем не просто производительность, а производительность на микроватт. Потому что прежде всего нужно добиться сверхэффективности в потреблении энергии.

Эту философию мы применяем в разных продуктах. Например, создали технологию Optimus для ноутбуков. Впервые в системах с дискретной графикой графический процессор можно полностью отключить, то есть сделать так, чтобы он вообще не потреблял энергии. Система даже не знает, что он есть. С Optimus батарея ноутбуков используется гораздо эффективнее.

То же можно сказать про телефоны, медиаплееры и другие устройства, где хорошая производительность GPU обеспечивается лишь тогда, когда она нужна. Tegra - прекрасный чип, потому что мы можем включить любую его часть, когда она нужна, и выключить - когда нет.

Поговорим про эволюцию CPU и GPU. Обычные процессоры становятся все более многоядерными, а графические пытаются охватить все больший объем задач, для которых раньше использовали только CPU. Как вы считаете, появится ли некий гибрид обоих подходов, когда нельзя будет сказать, где заканчивается один чип и начинается другой? Я не говорю сейчас об интеграции графики, как, например, в чипах Intel Core i7.

Да, я понимаю, что вы имеете в виду.

С одной стороны, уже сегодня есть устройства, в которых стирается граница между CPU и GPU. Tegra - прекрасный тому пример. Для нас Tegra – это компьютер-на-чипе, единая замкнутая система, в которую на равных основаниях входят процессор приложений, графический процессор, видеопроцессор, процессоры ввода-вывода. Вы, пользователь, не знаете, что и где задействуется. А главное, программные интерфейсы позволяют абстрагироваться от технических подробностей при написании кода. Где-то на низком уровне устройство само поймет что и чем обрабатывать.

С другой стороны, нет смысла стремиться к объединению CPU и GPU в некий гибрид. Природа этих процессоров все же сильно отличается, и каждый из них хорош для выполнения своих задач. Тут я вернусь к обработке медиаконтента. Массивно параллельная архитектура GPU отлично подходит для обработки очень больших объемов мультимедийых данных. Такие задачи GPU спускает сверху программный интерфейс. Apple использует OpenCL, Microsoft - DirectCompute, мы - CUDA. Центральный процессор лучше справляется с последовательными задачами.

Я считаю, что в эпоху визуализации GPU будет все больше и больше важен, а CPU для новых поколениях приложений отойдет на второй план. .

В мире GPU есть какие-то до сих пор не решенные проблемы. Например, трассировка лучей. Будут ли какие-то из таких крупных проблем решены в ближайшие годы? Та же Intel, кажется, убила проект Larrabee, который изначально должен был сказать свое слово в трассировке лучей.

Трассировка лучей (Ray Tracing) - очень серьезная вычислительная проблема. Производительность, необходимая для фотореалистичной имитации мира, во столько раз выше доступных сегодня решений, что только этот вызов сам по себе еще не один год будет стимулировать развитие индустрии GPU.

В то же время трассировка лучей – это только одна из техник, которые применяются в компьютерной графике для создания фотореализма. Для решения этой задачи есть и другие способы. У NVIDIA, как лидера рынка, есть определенные наработки в этой области, но до полноценной трассировки лучей в реальном времени все еще далеко.

Правда, связка ПО и оборудования очень быстро совершенствуется. Мы уже недалеки от фотореализма, и в течение пяти лет GPU в режиме реального времени сможет обсчитывать сцены уровня сложности "Аватара".

Как я понимаю, GPU все же не сможет заменить Джеймса Кэмерона?

Воображение Джеймса Кэмерона всегда будет превосходить любые графические процессоры. Мы сейчас вместе с Microsoft работаем над тем, чтобы позволить художникам вроде Кэмерона привнести такое же качество в обычные компьютерные игры.

Недавно мы совершили прорыв и смогли создавать предельно детализированные миры с проработанной геометрией благодаря эффективной работе с тесселяцией. Новое поколение GPU позволит обрабатывать в десять раз больше деталей, чем предыдущее. Это открывает перед компьютерными художниками потрясающие возможности.

В наших футурологических интервью есть традиционный вопрос. Представьте, что вы супергерой.

(смеется) Ну, мне этого представлять не нужно.

У вас есть сверхспособность - взять технологию из 2015 года и привезти сюда. Что это будет?

Если бы у меня была машина времени, я бы, конечно, попытался бы привезти технологию, с помощью которой можно разобраться с фотографиями и видеозаписями. Мне бы хотелось привезти приложение, с помощью которого я смогу быстро привести в порядок свой огромный цифровой архив и больше не думать об этом. Это огромная проблема, но я гарантирую, что в течение пяти лет появятся программы, которые ее решат.

У меня есть пример, который потрясает, если во все это вдуматься. Слайдшоу изобрели в девятнадцатом веке. Принцип прост - вы берете картинку, еще одну и еще, и показываете их одну за другой. Получается, что слайдшоу в качестве инструмента просмотра фотоснимков существует уже двести лет. Мы до сих пор так все и смотрим. Пусть на компьютере, но все так же по одной картинке. У нас появились красивые переходы между картинками, но фотографии по-прежнему плоские. Может быть, когда они станут трехмерными, это изменит сам способ работы с изображениями и видеозаписями?

Камеры будут снимать трехмерные фотографии. Из нескольких фотоснимков можно будет создать трехмерный мир. Вся наша концепция обращения с таким контентом наверняка изменится в течение пяти лет. Уже сегодня мы наблюдаем начало этого процесса, например, в нашем продукте 3D Vision.

Никто пока не думает о пользовательском интерфейсе как о трехмерной среде. Но в обычном мире вы взаимодействуете с миром в трех измерениях, и то же ждет пользовательские интерфейсы. Я видел рекламу новой камеры - или это был концепт, неважно. Главное, что когда вы делаете снимок, она оставляет объектив открытым и записывает видео. Так получается короткий ролик, в центре которого расположена очень четкая фотография. Когда вы на нее смотрите, то видите застывшее изображение, а на фоне что-то двигается - крутится видеозапись.

То есть сфотографировали вы, скажем, футболиста, и видите, как за него волнуются болельщики, а мимо пробегают игроки.

Похоже на газету из "Гарри Поттера"

Точно. Это она и есть.

У вас есть видеоролик о возможностях Ion и видении будущего. Счастливые люди, какие-то радуги, просмотр HD-фильмов и так далее. Представим, что подход Nvidia ко всему победил. Каким был бы мир по Nvidia?

Отличный вопрос, я хочу ответить на него примером, который уже использовал пару раз. Всемирная Сеть даже сегодня, в общем, простовата, очень ориентирована на текст. Там и близко нет тех объемов визуализации информации, которые могли бы быть. Одной из причин этого является то, что веб ограничен возможностями интегрированной графики Intel. Они контролируют 80 процентов рынка и сдерживают инновации на нем.

Если бы веб использовал мощь GPU - будь то чипы Nvidia или любые другие, вы были бы потрясены. Я надеюсь, что через пять лет мы свернем с нынешнего пути взаимодействия с вебом. Информация станет гораздо более визуальной. Веб будет трехмерным и станет понятен на интуитивном уровне.

Два-три года назад появились нетбуки. Мы думали, что за ними будущее и что это отличная альтернатива более дорогим ноутбукам. Сейчас это обычное устройство, которое потихоньку вытесняют обычные ноутбуки. Теперь вот появились планшеты. Как вы считаете, они пришли надолго? Являются ли они теми устройствами, которыми так и не стали нетбуки?

Начать с того, что "нетбук" - понятие, изобретенное и продвигаемое Intel, так как корпорации требовался рынок для процессоров Atom. Правда о нетбуках заключается в том, что это продукты с ограниченными возможностями, они не развивают рынок.

Планшеты - совсем другое дело. Планшеты - одна из лучших инноваций в отрасли за последние годы. Их очень легко использовать, в них все просто. В отсутствие клавиатуры разработчики создают приложения с гораздо более интуитивным интерфейсом. Управление голосом сделает планшеты еще лучше.

А главное, при работе с фото, видео и прочими вещами пользователь такого устройства получает удовольствие. Планшеты определенно останутся надолго.

Сегодня планшет заканчивается там, где начинается ноутбук. У последнего больше дисплей и вообще больше возможностей для наращивания производительности. Как устройство с клавиатурой, ноутбук останется корпоративным компьютером. Следующая ступень - настольные системы с еще большей диагональю.

Я думаю, что всем им пригодятся мультисенсорные возможности, но особенно, конечно планшету. Нетбуки же, которые были откатом назад, улучшатся, сохранив привлекательную цену.

Как насчет времени автономной работы? Это достоинство нетбуков.

Да, но из-за этого вам приходится работать с компьютером уровня 2005 года. Это пожалуй, единственный продукт, ради которого пришлось воспользоваться технологией пятилетней давности. Именно поэтому более мощные нетбуки на Ion оказались так востребованы.

Планшеты же - по-настоящему инновационные устройства, причем сразу во многих отношениях. Я считаю, что ноутбуки и настольные компьютеры по-прежнему будут важны, однако планшеты привнесут на рынок интеграцию разных функций в одном устройстве и мультисенсорное управление.

У планшета футуристический дизайн, но у ноутбука больше пространства для размещения электронных компонентов. Это одна из главных характеристик любого типа устройств - объем. Инженеры все равно будут искать новые способы впихнуть в устройство побольше компонентов, так что появление новых форм-факторов, отличных от планшетного, неизбежно. У планшета же пространство для маневра в этом смысле сильно ограничено - есть только экран и немного пространства за ним.

Наверняка дисплейные технологии очень сильно изменятся. Гибкие дисплеи с высоким разрешением – это то, что нас ждет завтра. Уже сегодня от этого сносит крышу.

Дисплею даже не обязательно быть физическим. Я даже считаю, что клавиатуре не обязательно быть физической, взаимодействовать можно жестами или голосом. Сама идея физически существующей панели ввода и панели вывода скоро радикально изменится. Это всего лишь вопрос времени.

Хотите что-нибудь добавить?

Да, хочу вернуться к машине времени. Я никак не могу понять, почему все говорят, что с машиной времени я бы сделал то-то и то-то, но никто не говорит, что собирается ее изобрести.

< Назад в рубрику