×

 

Открытие, побудившее Нира Шавита создать компанию, произошло так же, как это приключилось с большинством открытий – случайно. Профессор Массачусетского технологического института работал над проектом по реконструкции карты мозга мыши и нуждался в некоторой помощи в виде технологии глубокого обучения. 

Тут нужно пояснить, что, вообще-то говоря, на данном этапе развития упомянутого научного подхода, видеокарты или графические процессоры являются наиболее распространённым вариантом аппаратного обеспечения для разработки самих моделей машинного обучения. И так случилось, что неумение их программировать вынудило профессора выбрать вместо графического – центральный процессор как наиболее распространённый компьютерный чип, который встречается в любом среднем ноутбуке. Иначе говоря – ЦП был знаком и доступен.

«О чудо, – вспоминает Шавит, – я понял, что процессор может делать то же, что и графический процессор, если его запрограммировать правильно».

Это понимание стало основой для его стартапа Neural Magic, который выпустил на днях свой первый набор продуктов. Рождённая из разового решения идея довольно амбициозна и глобальна: она состоит в общедоступной технологии реализации глубокого обучения без спецоборудования. В случае удачи такой метод не только снизит затраты на обеспечение ИИ, но и сделает его более универсальным и гибким инструментом.

«Это означало бы, что вы могли бы использовать нейронные сети на гораздо большем количестве машин и на многих других существующих машинах, – говорит Нил Томпсон, научный сотрудник лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института, не участвующий в деятельности Neural Magic. – И вам не нужно обновляться до чего-то особенного».

Чтобы понять, почему идея Нира Шавита столь необычна (ведь, как знаем мы –обыватели, – практически все компьютерные вычисления протекают в центральном логическом устройстве, а всё остальное железо призвано обеспечить его работу и ввод-вывод информации), нужно учесть ещё одну случайность: гНачало формы

Конец формы

графические процессоры стали инструментом глубокого обучения по большей части благодаря совпадению. Дело в том, что чипы изначально были предназначены для быстрой визуализации графики в таких приложениях, как видеоигры. В отличие от центральных, которые имеют от четырёх до восьми сложных ядер для выполнения различных вычислений, графические процессоры имеют сотни простых ядер. Да, они могут выполнять только определённые операции, но зато – одновременно (а не одну за другой, как ядра CPU), повышая скорость интенсивных вычислений.

Естественно, это массовое распараллеливание делает GPU отличным решением для глубокого обучения. Как и в рендеринге графики, здесь происходит множество простых математических вычислений, выполняющихся сотни тысяч раз. В 2011 году исследовательское сообщество ИИ убедилось в верности своего выбора ещё раз: сотрудничая с производителем графических микросхем Nvidia, в Google обнаружили, что модель компьютерного зрения по различению кошек и людей, которая была сформирована на 2000 ЦП, могла достичь той же производительности на конструкции всего лишь из 12 графических элементов. Так графические логические устройства стали единственным вариантом проведения грандиозных объёмов простых вычислений для обучения и работы моделей ИИ.

Но для глубокого обучения видеопроцессоры тоже далеко не идеальны. С одной стороны, они не могут функционировать как отдельный чип, поскольку ограничены в типах выполняемых операций, и для решения неподвластных им задач не могут обойтись без подключения к другим участникам обработки. Они также имеют ограниченный объем кэш-памяти, что означает хранение большей части данных вне чипа и необходимость их извлечения для проведения расчётов. А вот пропускная способность этого обратного потока данных довольно невелика, что ограничивает скорость, с которой GPU могут запускать алгоритмы глубокого обучения.

Офис Neural Magic.

В последние годы десятки компаний ищут способы обойти эти проблемы вплоть до разработки специализированных под ИИ микросхем. Проблема в том, что чем специфичнее оборудование, тем дороже оно становится.

Так что Neural Magic намерена противостоять этой тенденции. Вместо того, чтобы возиться с оборудованием, компания модифицировала программное обеспечение. Алгоритмы глубокого обучения были переработаны для повышения эффективности работы на основе CPU. Этого удалось добиться посредством использования большой доступной памяти чипов и сложных ядер. Конечно, такой подход теряет скорость в сравнении с распараллеливанием графического процессора. Но, с другой стороны, он устраняет необходимость пересылать данные на чип и с него, чем примерно то же время и выигрывает. Компания уверяет, что за сравнительно небольшую стоимость новые алгоритмы позволяют работать на центральных процессорах «на скоростях GPU». «Выходит, что они сделали – так это нашли способ использовать память ЦП так, как люди раньше не делали», – говорит Томпсон.

В самой компании полагают, что может быть несколько причин, почему никто не использовал этот подход ранее. Во-первых, это нелогично. Идея о том, что глубокое обучение требует узкоспециализированного оборудования, настолько укоренилась, что другие подходы могли даже не рассматриваться. Во-вторых, широкое применение ИИ в промышленности всё ещё является относительно новым методом производства, поэтому компании только начинают искать более простые способы устроить это у себя.

В связи с этим до сих пор не вполне ясно, настолько ли велик спрос на технологию Neural Magic, как это может показаться на первый взгляд. Дело в том, что бета-тестирование продукта проводилось с участием всего лишь около 10 компаний, что само по себе не отражает обширных потребностей и потенциала индустрии искусственного интеллекта.

«Мы хотим улучшить не только нейронные сети, но и вычислительные возможности в целом», – говорит Нил Томпсон.

Пока что с помощью техники Neural Magic решаются задачи в области компьютерного зрения: сами модели по-прежнему формируются на специализированном оборудовании, но затем можно использовать программное обеспечение компании для полноценной их совместимости с процессором. По словам Шавита, как раз сейчас один из крупных производителей микроскопов испытывает этот подход для оснащения своих приборов возможностями ИИ. И поскольку приборы уже оснащены процессорами, подключение дополнительного оборудования им не понадобится. А вот при использовании модели глубокого обучения на основе графического устройства, напротив, потребовалось бы более объёмное и более энергоёмкое оборудование.

Другой клиент намерен использовать Neural Magic для обработки видеозаписей с камер безопасности для контроля входящих и исходящих потоков посещений зданий. Если использовать уже имеющиеся компьютеры, структура наблюдения сохранится, и новых уязвимостей не прибавится, чего нельзя сказать об альтернативе на основе GPU. Тут уже либо понадобится специальное оборудование для каждого здания, либо, при удалённых расчётах, повысятся риски конфиденциальности при отправке отснятого материала в облако.

Мало того, идейный вдохновитель и основоположник компании говорит, что подобный перевод «с языка GPU на язык CPU» – это только начало. В будущем Neural Magic планирует расширять свои предложения вплоть до обучения моделей искусственного интеллекта на обычных компьютерах. «Мы считаем, что через 10–20 лет центральные процессоры станут реальной структурой для запуска алгоритмов машинного обучения», – оптимистично заявляет Шавит.

А вот Томпсон не столь категоричен. «Экономика вокруг производства чипов действительно изменилась, и это приведёт к гораздо большей специализации», – считает он. Кроме того, несмотря на повышение производительности существующего аппаратного обеспечения с техникой Neural Magic, этот ресурс не бесконечен. Нужно быть реалистами: единственным способом продолжать наращивание вычислительных мощностей по-прежнему будут фундаментальные усовершенствования аппаратного обеспечения. «Это реально хороший способ улучшить производительность нейросетей», – отдаёт он должное достижению коллеги, – «но мы хотим улучшить не только нейронные сети, а ещё и вычислительные возможности в целом».


 

По материалам MIT