Электронные компоненты граничного узла интеллектуальной обработки данных

Искусственный интеллект: от метафоры к техническим решениям

Опубликовано в номере:
PDF версия
Метафора искусственного интеллекта (ИИ) широко применяется для характеризации технических систем, функциональность которых определяется не столько возможностями управления энергией или механизмами, сколько так называемой силой знаний. Считается, что возможности использования такой силы ограничены объемом доступной памяти, скоростью обмена данными, способностью к обучению и применению полученных знаний. С учетом этого смысл метафоры ИИ можно связать со специальным классом компьютерных систем, в которых в процессе функционирования находят решения различные, как «прямые» — расчеты по математическим формулам, так и «обратные» — построение алгоритмов обработки данных. Цель статьи — определить ведущую роль компьютерных наук в развитии ИИ и сформулировать границы, отделяющие технологические аспекты его применения от подходов и методов, развиваемых в рамках смежных отраслей гуманитарных и экономических наук, переводя обсуждение в плоскость рассмотрения конкретных технических решений, формирующих основу дорожной карты Национальной стратегии развития ИИ в Российской Федерации [1].

Определите значения слов, и вы избавите человечество
от половины его заблуждений

Р. Декарт

Введение

В утвержденной 10 октября 2019 г. Национальной стратегии (НС) развития ИИ на период до 2030 г. сказано, что она является основой разработки программ и проектов, при реализации которых требуется использование технологий ИИ. Ключевое понятие НС «искусственный интеллект» определяется как «комплекс технологических решений, позволяющих имитировать когнитивные функции человека (рис. 1), получая результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека» [1].

Когнитивные функции «понимания», формирующие алгоритмы координатизации и извлечения из «входных данных» целевых множеств понятий и классов

Рис. 1. Когнитивные функции «понимания», формирующие алгоритмы координатизации и извлечения из «входных данных» целевых множеств понятий и классов

 

Это весьма емкое, но по сути «рекурсивное» определение ИИ через когнитивные функции и интеллектуальную деятельность допускает различные интерпретации. Чтобы придать введенным в НС понятиям инженерный аспект, целесообразно провести ретроспективный анализ данной проблемы одновременно с рассмотрением современных подходов и методов моделирования функций, непосредственно характеризующих когнитивные способности человека. Прежде всего, заметим, что понимание «интеллектуальности» и возможностей ее имитации с помощью различных механизмов в процессе развития научных знаний существенно менялось. Так, практически до средины XIX века задачи простого счета представлялись весьма интеллектуальными. При этом если человек умел быстро и без ошибок вычислять, используя математические формулы, и на этой основе управлять, например, своей коммерческой деятельностью, то его когнитивные функции или интеллектуальные способности оценивались весьма высоко. Однако благодаря математической формализации алгоритмов вычислений именно задачи счета удалось автоматизировать одними из первых. В 1822 г. Чарльзом Бэббиджем (Charles Babbage) была создана так называемая разностная машина, позволяющая автоматизировать процессы вычислений путем аппроксимации функций многочленами и вычисления их конечных разностей с использованием строго упорядоченной последовательности операций, устройства ввода/вывода и хранения данных. Очевидно, что работу такого механического автомата вряд ли можно считать интеллектуальной, но вот составление самой последовательности операций, которая приводит к решению, — это, конечно, интеллектуальная задача в самом точном смысле слова. Фактически такой автомат, но вместе с человеком, понимающим цели вычисления, образовывают естественную «интеллектуальную» систему, которой философ Платон сопоставил слово «киберно», характеризующее возможности человека управлять материальными объектами для реализации своего замысла [3]. В XX веке после работ Алана Тьюринга (Alan Turing), Норберта Винера (Norbert Wiener) и Джона фон Неймана (John von Neumann) стало ясно, отдельные вычислительные операции лишь суть механические манипуляции с символами, поэтому «интеллектуальным» может быть только «комплекс технологических решений», в котором явно с помощью текста или неявно с помощью когнитивных функций задается смысл проводимых манипуляций. Поэтому в дальнейшем основные усилия по интеллектуализации вычислительных технологий были направлены на разработку решений, объединяющих аппаратные возможности высокопроизводительных компьютеров (high performance computing) [2] и программного обеспечения, реализующего алгоритмы обработки текстов на естественном языке, проведения символьных вычислений, создания экспертных баз знаний и систем машинного обучения. Попытки формализации и обобщения этих усилий хотя потенциально имели большую научную ценность, но не привели к прорывным результатам, так как исходили из идеи, что процесс решения «интеллектуальных задач» должен во всем имитировать (то есть быть похожим) на аналогичную деятельность человека. При этом, как ни странно, наибольших практических успехов удалось достигнуть, используя методы, которые в принципе не свойственны человеку, а основаны на использовании «грубой вычислительной силы», или, другими словами, возможности быстрого перебора различных вариантов решений с помощью высокопроизводительных компьютеров. В силу естественной ограниченности скорости компьютерных вычислений и экспоненциального роста сложности процесса перебора вариантов, в теории компьютерных наук были выделены алгоритмически неразрешимые и алгоритмически разрешимые задачи. Последние характеризовались разной степенью сложности, точнее объемом вычислений, а именно полиномиальные по отношению к размеру входных данных задачи, или класс P — сложность которых оценивалась O (nm), где n — размерность входных данных, а m — постоянная, не зависящая от n величина, и недетерминированных полиномиальных задач, или класс NP — сложность которых оценивалась как O (2n). Заметим, что вычислительная сложность решения таких прикладных задач, как распознавания и классификации объектов, наряду со скоростью света в вакууме, постоянной Планка или математическими константами, вполне можно считать одной из фундаментальных характеристик Природы. Очевидно, что для любой алгоритмически разрешимой задачи существует множество различных алгоритмов решения, а процессы формирования алгоритмов и разработка технических средств их реализации — суть технологии интеллектуализации вычислительных процессов. В этом контексте основополагающую идею А. Тьюринга можно перефразировать так: цифровые автоматы могут точно имитировать работу цифровых автоматов, поэтому существующие в настоящее время алгоритмы работы с множествами больших данных могут быть декомпозированы с помощью когнитивных возможностей человека, на алгоритмы решения задач генерации алгоритмов, которые используются для выбора и обработки целевых подмножеств больших данных. Таким образом, фактическая мощность множества обрабатываемых цифровых данных становится сопоставима с мощностью множества алгоритмов их обработки (рис. 1).

Надежда на то, что по мере роста скорости обработки данных будет неуклонно расти и число решаемых интеллектуальных задач, не сбылась, поскольку рост производительности вычислителей, естественно, приводил к увеличению объемов обрабатываемых данных и соответствующему увеличению мощности множества алгоритмов их обработки. Опыт применения вычислительных технологий показывает, что на любом экстенсивном пути их развития неизбежно возникают практически неразрешимые проблемы масштабирования. Учитывая приведенную в [1, стр. 2] НС формулировку понятия ИИ, а именно ту ее часть, где сказано: «…получая результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека», необходимо принять во внимание следующие количественные данные. В среднестатистическом мозге человека примерно 86 млрд нейронов и 150 трлн синапсов. Каждый синапс содержит около 1 тыс. молекулярных переключателей. Таким образом, если пересчитать вычислительные ресурсы мозга в условные логические элементы (ЛЭ), получится 150 кдрл, или 1,5×1017 ЛЭ, которые для своей работы потребляют около 20 Вт.

Если теперь сравнить удельные показатели энерго-вычислительной эффективности лидера списка ТОР-500 суперкомпьютера SUMMIT, а именно величину 14.7 ГФлопс/Вт [2] с аналогичным показателем мозга человека, то даже для лучших современных компьютеров результаты будут удручающие, и не только с точки зрения удельных затрат энергии, но и по количеству используемых ЛЭ. Продолжая анализ возможности получения результатов «как минимум сопоставимых с результатами интеллектуальной деятельности» [1], следует отметить, что современные микропроцессоры или программируемые вентильные матрицы (FPGA) содержат около 2×1010 ЛЭ, что «как минимум» на семь порядков меньше, чем число ЛЭ в мозгу человека. Судя по всему, именно здесь проходит «количественная» граница, разделяющая способности решать задачи класса NP методами «брутфорс» с помощью современных программируемых вычислителей и природные когнитивные системы, способные не только к вычислениям, но и к опережающей адаптации своего «вычислительного поля» к особенностям получаемых данных и алгоритмов их обработки. Основная проблема разработки «комплекса технологических решений», о котором идет речь в [1], прежде всего, в архитектуре и «программном обеспечении» самих «интеллектуальных» вычислителей.

Для конкретизации изложения проблемы ИИ мы будем в дальнейшем рассматривать с позиций компьютерных наук и возможностей имитировать отдельные когнитивные функции человека, опираясь на методы агрегации и классификации данных на основе различных критериев схожести объектов, используя для этого возможности как биологических, так и искусственных интеллектуальных систем (рис. 2).

 Процессы и компоненты технологий имитации когнитивных функций синтеза алгоритмов вычислений

Рис. 2. Процессы и компоненты технологий имитации когнитивных функций синтеза алгоритмов вычислений

 

Технологии

Основой технологии объединения вычислительных ресурсов компьютерных систем и возможностей человеческого интеллекта для решения экспоненциально сложных задач являются методы «обработки больших данных». «Вычислительное поле» новых технологий составляют: 1) кортеж «данные-алгоритмы» и 2) ресурсы распределенных гетерогенных реконфигурируемых компьютерных платформ, узлы которых объединяются в систему «умными» каналами передачи данных. Использование фактора гетерогенности вычислений, то есть применение процессорных элементов с различной архитектурой, а именно CPU, GPU, TPU и FPGA, позволяет эффективно масштабировать как по «горизонтали», так и по «вертикали» различные задачи «извлечения знаний» из обрабатываемых данных, «корректируя» с учетом ситуационного контекста реализуемое множество алгоритмов, которые используются для оценки потенциальных угроз и рисков, связанных с реализацией «вычисленных» решений и точностью применяемых компьютерных моделей. Следует заметить, что благодаря гетерогенности в системах, ориентированных на процессы «интеллектуализации» обработки данных, общепринятый процессорно-центрический подход к созданию вычислительных платформ может быть объединен с памяти-центрическими решениями, что позволяет весьма эффективно имитировать такие когнитивные функции, которые можно характеризовать как «вычислительный insight» или специальный механизм ускорения работы переборных алгоритмов, требующий предварительной и весьма трудоемкой в вычислительном отношении индексации хранилища данных, потенциально содержащего ответы на корректные запросы к информационным ресурсам. Именно такая технология в настоящее время широко используется в современных поисковых системах «Яндекс» и Google, успешно имитируя функции интеллектуальной деятельности, которые обычно связывают с понятием «интуиция». Другой важной характеристикой технологий вычислений является диссипация энергии, необходимая для работы электронных компонентов современных компьютеров. Учитывая, что все процессоры на макроуровне построены на логических вентилях «И-НЕ» или «ИЛИ-НЕ», любые вычислительные операции уменьшают информационную энтропию обрабатываемых данных, что, в свою очередь, приводит к увеличению термодинамической энтропии и, как следствие, к выделению тепла не менее чем Q = k×T×ln 2 Дж энергии, где k — постоянная Больцмана и T — температура системы. Сама по себе эта энергия невелика, так Q для T = 300 K составляет 0,017 эВ на бит, но в пересчете на число ЛЭ в современном микропроцессоре 2×1010 суммарная энергия вырастает до величин порядка 1 Дж за каждую секунду работы микропроцессора. Поэтому если с помощью современных микропроцессоров, объединенных в суперкомпьютерный кластер, попытаться имитировать работу мозга, включающего 1,5×1017 ЛЭ, то затраты энергии будут превышать уровень практической целесообразности применения компьютерных технологий и могут представлять только чисто научный интерес. Хотя реконфигурируемые вычислители на базе FPGA имеют по сравнению с микропроцессорами CPU и графическими ускорителями GPGPU большую удельную емкость логических элементов, такие устройства проводят вычисления на существенно более низких частотах и с меньшими потерями информации, что позволяет либо снизить удельные показатели потребления энергии при сравнимой производительности, либо при тех же энергетических затратах получить большую производительность процессов обработки данных.

Объединение отдельных гетерогенных вычислителей в распределенную систему и реализация на этой основе комплекса технологических решений для реализации интеллектуальных задач требует сбалансированного использования аппаратно-программных ресурсов. Эффективность кластеризации зависит от того, как информационная структура конкретного алгоритма, представленная в виде программы, отображается на архитектуру вычислителя, ключевым требованием к которому является обеспечение высокого уровня параллелизма решения задачи по командам и данным. Структура гетерогенной реконфигурируемой платформы интеллектуальной обработки данных, реализация которой отвечает перечисленным требованиям, приведена на рис. 3.

Структура гетерогенной распределенной реконфигурируемой платформы интеллектуальной обработки данных

Рис. 3. Структура гетерогенной распределенной реконфигурируемой платформы интеллектуальной обработки данных

 

Решения

Процессы цифровой трансформации различных секторов отечественной и мировой экономики, проблемы обработки больших данных и формирование глобальной инфраструктуры «Интернета вещей» по-новому определяют приоритетные направления развития компьютерных наук и технологий. В современных условиях особое значение приобретают не только чисто технические характеристики компьютерных систем, такие как уровень реальной производительности решения конкретных прикладных задач, обеспечение информационной безопасности, энергопотребление, но и эксплуатационно-экономические характеристики — стоимость владения, возможности «эволюционной» модернизации, масштабирования и т. д. Достижение технико-экономической эффективности использования компьютерных систем требует поиска сбалансированных в аспекте «стандартизация-специализация» решений, которые наряду с эффективной реализацией стандартных вычислительных процедур наделены ресурсами, необходимыми для использования технологий машинного обучения для оптимальной конфигурации аппаратного обеспечения к особенностям решаемых задач. С учетом этого переход к применению технологий кластеризации с помощью массово-параллельных, многоядерных и мультитрендовых архитектур, реализуемых на базе MIMD-микропроцессоров, гетерогенных SIMD-ускорителей и реконфигурируемых вычислителей FPGA- или Edge-узлов с Reconfigurable Architecture (E-RA), необходимо дополнить эффективно масштабируемыми высокопроизводительными системами хранения данных, относящимися к storage class memory устройств, высокоскоростными каналами обмена данными, наделенными функциями интеллектуальной обработки данных c использованием специализированных процессоров, оптимизируемых для обработки пакетного трафика (рис. 4).

Структура «граничного гетерогенного узла» реконфигурируемой платформы интеллектуальной обработки данных

Рис. 4. Структура «граничного гетерогенного узла» реконфигурируемой платформы интеллектуальной обработки данных

Очевидно, что реальная производительность таких систем весьма чувствительна к возможностям «натянуть» алгоритм решения конкретной прикладной программы на аппаратно-программную архитектуру гетерогенного вычислительного узла. Решение этой задачи хотя и отличается от известных подходов, реализуемых в рамках модели «одна программа — много данных» (модель SPM) и феноменологических законов Амдала — Уэра, для программ с неизменной долей последовательных и параллельных вычислений и закона Густавсона — Борсиса, для программ, которые могут усложняться за счет увеличения объема обрабатываемых данных, может базироваться на использовании методов машинного обучения и функциональности узла Edge Reconfigurable Architecture для динамической адаптации аппаратной платформы под особенности выбранного и реализуемого в данный момент времени алгоритма. Очевидно, что универсального решения проблемы повышения производительности и одновременно энерговычислительной эффективности вычислительных платформ нет. Однако сблизить значения реальной и пиковой производительности компьютерных систем можно, если, опираясь на законы Амдала и Густавсона, целенаправленно реконфигурировать, используя «базу знаний типовых прошивок», архитектуру E-RA-узла платформы, выбирая его текущую конфигурацию с помощью методов машинного обучения на основе учета параметров вычислительной эффективности и требований к точности обработки данных (рис. 5).

Пример вычисления функции: Z = 5 × f (X, Y) + 3 × g (X, Y) + h (X, Y) в гетерогенной вычислительной среде CPU/TPU/E-RA

Рис. 5. Пример вычисления функции: Z = 5 × f (X, Y) + 3 × g (X, Y) + h (X, Y) в гетерогенной вычислительной среде CPU/TPU/E-RA

Изменение модели вычислений за счет перехода от «вызова процедуры-при-упоминании/передача-по-ссылке» на вызов процедуры по значению/контексту данных, когда аргументы процедуры вычисляются до их передачи телу процедуры, является примером использования описанного выше подхода к адаптации вычислительных платформ для решения интеллектуальных задач, связанных с контекстным выбором алгоритма обработки данных. В такой модели возможен и «вызов функции по необходимости», что в конечном итоге позволяет автоматически реконфигурировать архитектуру вычислителя в соответствии с информационной структурой алгоритма и обрабатываемых данных, одновременно поддерживая высокий уровень реальной производительности и удельной энерговычислительной эффективности вычислительных процессов.

В общем случае оптимизация «на лету» алгоритма вычислений, которая учитывает различные ограничения, связанные с контекстом решения задачи, и конкретные архитектурные особенности компьютера, является весьма сложной как с теоретической, так и технологической точки зрения проблемой, однако возможна весьма эффективная регуляризация этой задачи на основе сравнения эффективности распределения процедур обработки на гетерогенном вычислительном поле интеллектуальной компьютерной платформы, которая циклически обращается к среде больших данных (рис. 6).

Цикл интеллектуализации вычислительных процедур

Рис. 6. Цикл интеллектуализации вычислительных процедур

Примерами интеллектуализации являются также многочисленные методы приближенной оптимизации на основе случайного поиска, например генетические алгоритмы, алгоритмы случайного поиска на основе метаэвристик, заимствованные у природы (муравьиные алгоритмы, пчелиные и другие алгоритмы из этой серии, которые определенно не являются «интеллектуальными»). и др. Строго говоря, сюда же следовало бы отнести и очень большую группу методов машинного обучения с подкреплением, прообразами для которых являются методы стохастической аппроксимации Роббинсона — Монро и Кифера — Вольфовица, а также другие хорошо известные численные методы оптимизации на основе случайного поиска, которые активно развивались вне задач ИИ, причем чаще всего задолго до появления ИИ.

Формально эти методы и алгоритмы напрямую не относятся к методам синтеза алгоритмов, но, как и методы глубокого обучения нейронных сетей, могут быть эффективно реализованы на базе гетерогенной распределенной реконфигурируемой платформы интеллектуальной обработки данных, структура граничного узла которой представлена на рис. 7.

Электронные компоненты граничного узла интеллектуальной обработки данных

Рис. 7. Электронные компоненты граничного узла интеллектуальной обработки данных

 

Заключение

Анализ Национальной стратегии развития искусственного интеллекта показывает, что ведущую роль в этом процессе должны занять компьютерные науки, а решение сформулированных задач невозможно без согласованных усилий научного, инженерного и бизнес-сообщества страны. Особое знание приобретают вопросы обеспечения квалифицированными кадрами всех задуманных целевых комплексных проектов, что требует разработки новых программ подготовки студентов и аспирантов, охватывающих как фундаментальные, так и прикладные аспекты развития и применения технологий ИИ в экономике России. Приоритетом при разработке дорожной карты федерального проекта «Искусственный интеллект» должно стать формирование компетентного научно-инженерного сообщества, обеспечивающего переход от метафоры к техническим решениям создания систем ИИ.

Литература
  1. Указ Президента РФ «О развитии искусственного интеллекта в Российской Федерации» от 10 октября 2019 г. № 490. 
  2. Dongarra J. High Performance Computing and Future Requirements. Russian Supercomputing Days, September 23–24, 2019.
  3. newsland.com/community/politic/content/kibernetika-eshche-raz/3405431
  4. Каляев И.А. Гонка за цифровым призраком. Есть ли у России шанс поучаствовать в борьбе за первенство в разработке искусственного интеллекта //Огонек. 24.06.2019. № 24 (5569).
  5. Каляев И. А., Левин И. И., Семерников Е. А., Шмойлов В. И. Развитие отечественных многокристальных реконфигурируемых вычислительных систем: от воздушного к жидкостному охлаждению // Труды СПИИРАН. 2017. Вып. 1.
  6. Юсупов Р. М. К семидесятилетию отечественной информатики // Труды СПИИРАН. т. 18. № 1.
  7. Utkin L. V., Zhuk Y. A., Zaborovsky V. S. An anomalous behavior detection of a robot system by using a hierarchical Siamese neural network. 2017 XX IEEE International Conference on Soft Computing and Measurements (SCM). IEEE, 2017.
  8. Sheu P., Yu H., Ramamoorthy C. V., Joshi A., Zadeh L. A. Semantic Computing. IEEE/Wiley, 2010.
  9. Городецкий В. И., Тушканова О. Н. Семантические технологии для семантических вычислений. Часть 1. Базовые компоненты семантических технологий // Искусственный интеллект и принятие решений. 2018. № 4.
  10. Антонов А. П., Заборовский В. С. Гибридные суперкомпьютерные системы на основе программной платформы OPENCL // Известия ЮФУ. Технические науки. 2018. № 8.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *