Научная статья на тему 'Общие аспекты создания интегрированных приложений по обработке данных в реальном времени'

Общие аспекты создания интегрированных приложений по обработке данных в реальном времени Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
552
94
i Надоели баннеры? Вы всегда можете отключить рекламу.
i Надоели баннеры? Вы всегда можете отключить рекламу.
iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

Текст научной работы на тему «Общие аспекты создания интегрированных приложений по обработке данных в реальном времени»

Р.А. Бабкин

ОБЩИЕ АСПЕКТЫ СОЗДАНИЯ ИНТЕГРИРОВАННЫХ

w _

ПРИЛОЖЕНИИ ПО ОБРАБОТКЕ ДАННЫХ В РЕАЛЬНОМ ВРЕМЕНИ

Роман Александрович Бабкин

Старший менеджер Департамента Бизнес-решений SAP, БДО Юникон Бизнес Солюшнс.

В 1997 году окончил Московский институт электронной техники.

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

31

ВВЕДЕНИЕ

Текущее состояние функциональной среды человеческой деятельности характеризуется стремительным ростом объема цифровых данных. Исследования под названием «Цифровая вселенная», проводимые компанией EMC, показали, что объем цифровых данных удваивается каждые два года. По прогнозам, к 2020 году мировой объем информации увеличится до 44 трлн. Гб. Сегодня каждое домохозяйство ежегодно создает объем данных, достаточный для заполнения хранилища объемом 2 Тб, к 2020 году для хранения создаваемого объема информации потребуется уже 10 Тб. Во многом этому способствует стремительное распространение «Интернета вещей», который в отличие от обычного Интернета характеризуется массовым подключением к Интернету различных устройств, которые в настоящее время используются больше для сбора информации, но уже в ближайшем будущем эти устройства (например, машины) смогут обмениваться информацией и между собой. Согласно исследованиям количество устройств и предметов, которые можно подключить к Интернету, приближается на планете к 200 млрд. единиц, из которых 7% (14 млрд) уже подключены к мировой сети и активно передают информацию. Сейчас данные с таких устройств составляют 2% от суммарного объема информации, генерируемого в мире. По прогнозу специалистов IDC количество подключенных к Сети устройств к 2020 году составит до 32 млрд. штук, что будет соответствовать 10% общего объема генерируемых данных. Результатом происходящих процессов станет появление колоссальных объемов информации, которые принято объединять под универсальным названием «большие данные» (англ. Big Data). Однако сами по себе эти потоки информации без соответствующей обработки за максимально сжатое время не представляют значительного практического интереса, в частности для бизнеса. Вместе с тем, существующие системы управления базами данных (СУБД), бизнес-приложения и аналитические системы на их основе перестают обеспечивать адекватное управление бизнес-процессами или снижают эффективность ведения бизнеса.

Логичным выходом из сложившейся ситуации является проектирование и разработка систем управления, функционирующих в реальном времени. Основными характеристиками таких систем являются возможность сбора (автоматически или другими способами) любых необходимых данных в реальном времени и их обработка в максимально короткий сроки (идеально — в реальном времени), т.е. задержка между фактом регистрации данных в системе и возможностью сформировать по этим данным определенный результат должна быть минимизирована.

При построении подобных систем управления наиболее перспективным представляется использование новых технологий сбора и обработки информации, основными среди которых, на наш взгляд, являются технология In-memory (обработка данных в оперативной памяти) и RFID-технология (технология радиочастотной идентификации объектов).

32

SAP HANA

Технологическая платформа для решения современных бизнес-задач

«ИНТЕРНЕТ ВЕЩЕЙ»

Сам термин «Интернет вещей» (англ. Internet of Things) предложен достаточно давно: по данным Википедии [1] рождение концепции «Интернета вещей» произошло в 1999 году. «Интернет вещей» стал развитием существующей модели Интернета, которая в некотором роде является «Интернетом людей». Из простого сравнения этих двух определений можно легко сделать вывод о том, что «Интернет вещей» будет представлять собой процесс тотального вовлечения в мировую сеть различных устройств (сенсоров, датчиков, контроллеров и т.д.). Показательным примером таких устройств являются RFID-метки, которые, с одной стороны, характеризуются возможностью массового применения (в силу низкой стоимости, широких возможностей монтажа, простоты использования и др.), а с другой — представляют собой многофункциональное радиоэлектронное устройство (прием и передача данных по радиосигналу, обработка и хранение данных). Следующее поколение RFID-меток, как предполагается, будет обладать уже более широким спектром функциональных характеристик, которые помимо перечисленных выше свойств получат возможность самостоятельно собирать различные данные (например, физические — температура, давление и т.д.).

С другой стороны, появление «Интернета вещей» требует реализации и продвижения новых, согласованных на международном уровне правил передачи данных через Интернет. В этом направлении показательна работа над продвижением стандарта IPv6 для Интернета следующего поколения, которая ведется в Германии — здесь функционирует совет IPv6, который включает в себя HPI (Hasso Plattner Institute — институт Хассо Платтнера), работающий совместно с партнерами от бизнеса, науки и политики. Необходимо отметить, что новый стандарт IPv6 критически важен для развития «Интернета вещей», который позволит устройствам взаимодействовать между собой в сенсорных сетях, например с применением RFID-технологий. Разработанный более десяти лет назад, коммуникационный протокол IPv6 сегодня готов к широкому внедрению и находит активное применение в США и Азии. Новый стандарт не только ключ к интеллектуальным решениям для домашних сетей, но также открывает горизонты для развития новых бизнес-сфер, например, телемедицины, дистанционного управления различными процессами и т.д.

Другим ключевым фактором, серьезно способствующим стремительному распространению «Интернета вещей» и более интенсивному использованию больших данных, является широкое применение и устойчивое развитие технологии in-memory и приложений, построенных на ее основе.

БОЛЬШИЕДАННЫЕ

Согласно Википедии [2], большие данные — массив наборов данных, столь значительный и сложный, что его становится трудно обрабатывать, используя классические СУБД или традиционные приложения. Типовыми функциями обработки данных здесь являются захват данных, трансформация, хранение, параллельный допуск, анализ, визуализация и др. По определению компании Gartner, большие данные — это объем-

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

33

ные, вариативные, «быстрые» информационные активы, которые требуют новых форм обработки для улучшения качества принимаемых решений, открытия новых возможностей, оптимизации процессов.

Как легко убедиться, большие данные в то же время могут быть очень маленькими. Примером служат потоковые данные с датчиков современного реактивного самолета: здесь работают одновременно сотни тысяч датчиков, каждый датчик производит восемь байтов информации в секунду, итого получается чуть меньше 3 Гб данных за час полета (100 000 датчиков х 3600 секунд х 8 байт). В то же время, не все большие наборы действительно большие: так, к большим данным не относятся потоки видеоинформации плюс метаданные, телефонные звонки и т.п. Если попробовать кратко сформулировать тезис, определяющий большие данные, то он звучал бы так: задачи делают данные большими.

Рассмотрим два примера систем, генерирующих большие данные. Первый пример относится к Большому адронному коллайдеру (ускоритель заряженных частиц), и с точки зрения данных его параметры можно сформулировать так:

1. Содержит 150 млн. сенсоров, которые регистрируют 40 млн. пересылок в секунду.

2. Происходит 600 млн. столкновений в секунду.

3. Теоретически формирует объем данных в размере 500 экзабайт в день (500 квинтиллионов байт).

4. Выполняет фильтрацию данных — 100 интересных столкновений в секунду, что уменьшает поток данных на 99,999%.

5. Ежегодный уровень данных до репликации (2012) — 25 петабайт.

6. Накопленный уровень данных после репликации — 200 петабайт.

Второй пример — Sloan Digital Sky Survey (SDSS, Слоановский цифровой небесный обзор), проект исследования звезд и галактик с помощью широкоугольного телескопа. Этот проект с точки зрения данных имеет следующие характеристики:

1. Начал сбор астрономической информации в 2000 году.

2. За несколько недель собрано данных больше, чем за всю историю астрономии.

3. Генерирует объем данных в размере 200 Гб за ночь.

4. Хранит 140 Тб данных.

5. Широкий синоптический исследовательский телескоп (преемник SDSS) начнет работу в реальном времени в 2016 году и будет формировать такое же количество данных (140 Тб) каждые 5 дней.

ТЕХНОЛОГИЯ IN-MEMORY

Использование оперативной памяти в компьютерах является неотъемлемой частью любых вычислений на протяжении всей истории развития вычислительной техники.

В течение последнего полувека сложилась устойчивая вычислительная архитектура, в которой оперативной памяти отведена важная роль, но возможности ее использования долгое время ограничивались объемом оперативной памяти, который был весьма незначителен по сравнению с традиционными средствами хранения информации (жесткие диски, ленточные носители). Это было обусловлено, с одной стороны, высо-

34

SAP HANA

Технологическая платформа для решения современных бизнес-задач

кой стоимостью оперативной памяти, а с другой стороны, устойчивыми тенденциями, когда производители аппаратного и программного обеспечения ориентировались при разработке приложений на то, что оперативная память должна иметь небольшой объем и использоваться для хранения только оперативных объемов данных (необходимых в конкретный момент времени). Это повышало нагрузку на контроллеры ввода-вывода, снижало производительность операций, делало операции чтения-записи, которые преобладают в системах класса Enterprise Resource Planning (ERP, Планирование ресурсов предприятия), недостаточно эффективными с точки зрения пропускной способности. Ситуация стала иной с в 2000-х годах, когда оперативная память начала снижаться в стоимости, увеличиваться в объеме (с точки зрения возможностей размещения информации на единице площади кристалла), а также качественно улучшать свои потребительские свойства (скорость чтения-записи, надежность, компактность). Меняется ситуация и в вычислительной технике в целом: появляются многоядерные архитектуры (до 96 ядер на сервер), снижается стоимость серверов (до 50 000 USD за один корпоративный сервер), появляется возможность распределять задачи между серверами. Меняется архитектура процессоров, появляется 64-разрядная адресация памяти, в современных серверах становится доступно до 2 Тб оперативной памяти, пропускная способность возрастает до 25 Гб в секунду на ядро, кривая зависимости скорости вычислений от их стоимости идет вниз.

Другим важным фактором, предопределившим появление технологии In-memory, стало развитие концепции колоночно-ориентированного хранения данных (колоночное хранение данных). По сравнению с традиционным строчно-ориентированным способом данные при колоночном хранении содержатся в столбцах, а не в строках.

При колоночном хранении данных последовательное сканирование позволяет достичь лучшей производительности обмена данными между процессорами и памятью. Кроме того, независимость кортежей внутри столбцов позволяет легкое партицирование (сегментирование) данных между серверами и, следовательно, их параллельную обработку. Еще одним важным преимуществом колоночного хранения является возможность достаточно эффективной компрессии данных, что позволяет сократить их объем и увеличить скорость извлечения за счет более поздней «материализации» (декомпрессии) данных. Также колоночное хранение позволяет более эффективно выполнять объединение и агрегацию данных.

ПРИМЕР ИСПОЛЬЗОВАНИЯ ТЕХНОЛОГИИ IN-MEMORY ДЛЯ РЕШЕНИЯ ПРАКТИЧЕСКИХ ЗАДАЧ В МЕДИЦИНЕ

Задача расшифровки генома человека выла поставлена в 80-е годы прошлого столетия, десятилетием позже проект официально стартовал в США, и еще через десятилетие — в 2000-м году — был анонсирован первый вариант расшифрованного генома человека. В то время длительность расшифровки генома и стоимость потребных для этого вычислительных ресурсов делали задачу актуальной только для академической науки, в то время как переход к массовому лечению с использованием данных генома конкретных людей было практически невозможно. В то же время, спектр применения

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

35

данных расшифровки генома человека чрезвычайно широк: например, пораженные ткани пациентов с опухолью анализируют, чтобы принять конкретные решения в рамках индивидуального лечения, или, например, подозреваемых в преступлениях людей идентифицируют по профилю ДНК. Вместе с этим, направления исследований не ограничиваются ДНК людей. Например, улучшенные зерна отбирают, основываясь на результатах их генетического анализа для повышения урожайности агрокультур в различных регионах мира. Все примеры имеют нечто общее — данные генома, которые огромны. Например, геном человека состоит из 3,2 млрд. пар нуклеотидов. Решить задачу применения данных расшифровки генома в массовой медицине призвана инновационная технология in-memory, исследуемая в институте HPI [3] и изначально разработанная для быстрого анализа больших объемов данных. В HPI был

Образец пациента

Пациент

ДНК в цифровом формате

Sequencing

(определение

структуры)

A T G C

Выстраивание

последовательности

Назначение

лечения

Анализ в реальном времени

Результаты

анализа

Список генетических вариантов

Рисунок 1. Метод назначения лечения пациенту с использованием расшифрованного средствами технологии in-memory генома человека

36

SAP HANA

Технологическая платформа для решения современных бизнес-задач

представлен проект расшифровки генома человека с использованием технологии in-memory. Исходная предпосылка к использованию in-memory базировалась на том, что для назначения правильного лечения врачи должны обрабатывать все больше и больше данных с точки зрения понимания генетических изменений, например в ДНК человека. Это вовлекает огромное количество данных, так как каждый человек несет в себе приблизительно 3,2 млрд. частиц генетической информации. Исследователи HPI обрабатывали этот гигантский объем данных с помощью высокопроизводительного компьютера. Для того чтобы проанализировать генетические изменения в реальном времени, ученые комбинировали исследовательские результаты мировых медицинских баз данных с результатами исследовательской базы данных. Высокопроизводительные компьютеры, в комбинации с огромными массивами памяти, помогли исследователям в идентификации известных генетических диспозиций и интерактивном определении дополнительной релевантной для лечения информации. Таким образом, метод (см. рисунок 1), на который раньше могли уходить дни и даже недели, теперь можно применить за секунды. Это позволяет врачам и исследователям не тратить драгоценное время на изучение литературы и Интернета, а интегрировать все последние знания о болезни в лечение тут же — в реальном времени.

ТЕХНОЛОГИЯ RFID

Как известно, ключевой особенностью «Интернета вещей» является тотальное подключение к нему различных устройств, от простейших датчиков до сложных вычислительных систем. Ключевое место в этом ряду занимает технология радиочастотной идентификации объектов (RFID), для которой принцип функционирования заключается в закреплении на объекте RFID-метки (радиоэлектронного устройства) и записи/ считывания данных метки при ее перемещении через поле антенн RFID-считывателя. Это позволяет фиксировать факт нахождения физического объекта в определенном месте и считать всю необходимую информацию об объекте (название, уникальный код объекта и т.д.). По сравнению с другими технологиями идентификации, например, со штрихкодами, технология RFID обладает рядом преимуществ:

1. Не нужна прямая видимость между RFID-считывателем и RFID-меткой.

2. Может выполняться считывание до нескольких сот RFID-меток одновременно.

3. Возможна раздельная или одновременная идентификация различных объектов (например, тары — контейнеры, поддоны — и объектов внутри этой тары).

4. Большое расстояние для считывания.

5. Большой объем хранимых данных.

6. Устойчивость к воздействию окружающей среды.

7. Возможность реализации сложных процессов управления.

8. Высокая степень безопасности.

Перечисленные возможности технологии RFID позволяют существенно ускорить и облегчить обработку материальных потоков, повысить контроль и качество функционирования логистической инфраструктуры, открывают конкурентные возможности для построения новых и усовершенствованных бизнес-процессов, в частности, для си-

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

37

стем управлениям цепями поставок. Объединение бизнес-процессов, информационных систем, оборудования, товаров посредством технологии RFID позволит улучшить и ускорить коммуникации между ними, что фундаментально и положительно повлияет на выходной результат (будь то прибыль или другие показатели эффективности ведения бизнеса), при условии внедрения таких технологий соответствующим образом.

ИСПОЛЬЗОВАНИЕ ТЕХНОЛОГИЙ IN-MEMORY И RFID В ЦЕПОЧКАХ ПОСТАВОК

Технологии in-memory для анализа данных объектов массового движения

Системы Supply Chain Management (SCM, Управление цепочками поставок) имеют дело с координацией потоков продуктов, финансов, информации между участниками цепочек поставок. С повышением зрелости технологий автоматической идентификации, например RFID, компании способны серьезно повысить количество и качество информации, извлекаемой из процессов поставок. Объекты, движущиеся между узлами цепей поставок, оборудованы RFID-метками, которые считываются RFID-считывателями, размещенными в определенных точках цепочки поставок. Оцифрованные события далее хранятся в базах данных, размер которых может легко достигать многих терабайт. Полученные данные имеют огромный потенциал относительно информации, которая может быть получена при их анализе.

С появлением высокопроизводительных систем, таких как SAP HANA, становится возможным переосмыслить многие процессы, происходящие в цепях поставок, сформировать новый, особый взгляд на возможности управления в реальном времени. Могут быть существенно улучшены возможности анализа данных (Data Mining). Экспертные обзоры показывают, что Data Mining должен быть высокоинтерактивным и динамичными процессом, так как большинство пользователей приложений Data Mining не могут определить точно, что они ищут. В таком случае, высокую интерактивность и динамичность в состоянии обеспечить решения SAP HANA за счет кратного увеличения скорости обработки данных и новых алгоритмов работы.

Решения в реальном времени для сетей EPCglobal

Объем контрафактной продукции в мире увеличивается стремительно; особое место здесь занимает контрафакт лекарственных средств, не только подрывающий основы нормального функционирования экономики, но и создающий реальную угрозу жизни людей. Вместо использования технологий идентификации, основанных на использовании классов продуктов, таких как Electronic Article Number (EAN), начинают внедряться новые технологии идентификации, работающие на уровне объектов. К ним относится Electronic Product Code (EPC), которая создает базу для хорошо структурированного механизма отслеживания и маршрутизации индивидуальных товаров. Соответствующие технологии для автоматического считывания данных продукта, такие как RFID, используемые вместо штрихкодов, могут кардинально улучшить обработку товаров.

38

SAP HANA

Технологическая платформа для решения современных бизнес-задач

В результате применения технологии RFID данные продукта могут быть автоматически прочитаны при перемещении продукта через поле антенн RFID-считывателя. Собранные данные могут быть верифицированы и синхронизированы с бизнес-приложениями ERP-систем. Для этой цели идентичность продукта, дата и время считывания, расположение RFID-считывателя и другие релевантные для бизнеса данные протоколируются как события и сохраняются в выделенных системах участников цепочки поставок в распределенном виде. Зафиксированные события могут быть использованы для разных целей, например для верификации определенного товара или для идентификации расположения продуктов. В частности, с помощью собранных данных аутентичность продукта может быть проверена за секунды, пока один участник цепочки поставок передает его другому. Более того, на основании оцифрованных событий можно будет формировать предположения и затем принимать решения при работе с неизвестными поставщиками или продуктами-заменителями.

Большинство существующих реализаций компонентов глобальной сети отслеживания и маршрутизации товаров (EPCglobal) заканчивались неудачно по причине недостаточной производительности информационных систем. В проекте, реализованном в HPI [4], технология In-memory была применена для проектирования EPC Discovery Service (сервис обработки и анализа данных считывания) и прототипирования репозитория EPCIS (хранение событий считывания); при этом основной фокус делался на аспектах производительности. Применив в этом проекте SAP HANA, ученые получили возможность не только улучшить транзакционную производительность, но также обеспечить мгновенную аналитику по хранимым данным.

Оценивая объем обрабатываемой информации, важно отметить, что, например, в европейской фармацевтической цепи поставок регистрируется около 35 млрд. событий считывания в год, при этом через цепочку поставок проходит около 15 млрд. упаковок рецептурных медикаментов. Результат — 8 000 уведомлений о событии считывания в секунду и до 2 000 запросов к EPC Discovery service в секунду.

Функционирование интегрированных приложений в реальном времени

Развитые сетевые средства коммуникации вместе с тотальным подключением сенсорных устройств (RFID-метки, смартфоны и т.д.) способны в ближайшем будущем кардинально приблизить мир к «Интернету вещей», что потребует внедрения новых технологий и разработки на их основе новых приложений. Результатом такой эволюции станет формирование нового уклада в информационных технологиях, позволяющего работать в режиме реального времени и открывающего для бизнеса новые, беспрецедентные возможности.

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

В общем случае (рисунок 2) структура интегрированного приложения, функционирующего в реальном времени, подразумевает наличие трех основных объектов: сенсоров, соединительной инфраструктуры, приложений. В такой конфигурации сенсоры обеспечивают сбор (считывание) данных с помощью различных устройств (RFID-метки, сканеры, PDA, телефоны, камеры и т.д.). Очевидно, что сенсорные источники данных могут быть дополнены как ручным вводом, так и другими источниками (файлы, базы данных, интеграционные решения типа B2B и т.д.), однако здесь делается акцент на сенсорных

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

39

Рисунок 2. Конфигурация интегрированного приложения, обрабатывающего данные в реальном времени

способах ввода данных. Следующим ключевым компонентом конфигурации является соединительная инфраструктура, которая представлена проводными и беспроводными сетями. Следует отметить, что наибольшими перспективами в качестве средства соединения различных устройств в «Интернете вещей» обладают беспроводные сети

40

SAP HANA

Технологическая платформа для решения современных бизнес-задач

Ручная, пакетная, ограниченная информация

Ключевой пользователь (ручной ввод данных, транзакции)

База данных

Пакетная

обработка

данных

В'В

В..Й

Всегда подключено, всегда активно, всегда известно

Пользователь

(понимание

ситуации,

исключительные

возможности

Модель

реального

времени

Wired networks

Сбор

информации с объектов в реальном времени

Рисунок 3. Изменение функциональной структуры приложений при переходе к работе в реальном времени

WiFi и LTE. После того как устройства подсоединены в сеть и генерируют поток данных, встает вопрос обработки и анализа информации в реальном времени. Для такой обработки необходимы адекватные механизмы, которые, в частности, может обеспечить технология in-memory. При этом сложной задачей по-прежнему является разработка эффективных алгоритмов анализа больших объемов данных в реальном времени и создания систем поддержки принятия решений по результатам анализа. Следующим шагом развития подобных систем может быть способствование автоматическому реагированию системы, т.е. в нормальных условиях система ответит автоматически по всем интерфейсам, ожидающим ответа, и участие человека потребуется только в исключительных ситуациях.

Подобная постановка задачи позволяет увидеть колоссальный сдвиг в подходах к работе с данными — наблюдается переход от работы с «прошлыми» данными к работе с данными, отражающими процессы в реальном времени.

Рассмотрим переход от классической структуры функционирования приложений к приложениям, работающим с данными в режиме реального времени. Как показано в левой части рисунка 3, существующий формат работы пользователей с данными заключается в основном в ручной или пакетной обработке ограниченных данных (ограниченных по объему или по количеству аналитических признаков), хранящихся в обычной базе данных. Основными вопросами при работе с такой моделью приложений являются вопросы актуальности, оперативности, полноты, сложности,

Р.А. Бабкин. Общие аспекты создания интегрированных приложений по обработке данных в реальном времени

41

объемов и скорости обработки информации. Как результат, невозможность эффективного решения большинства этих вопросов накладывает определенные ограничения на бизнес-процессы, которыми управляют приложения, что часто приводит к ухудшению экономических показателей бизнеса и снижению его конкурентоспособности. Возможным выходом из сложившейся ситуации является переход к модели управления бизнес-процессами в режиме реального времени с использованием технологии in-memory. Модель базы данных при этом замещается моделью реального мира, что требует новых процессов, подходов, технологий, алгоритмов и т.д. В правой части рисунка 3 можно видеть, что происходит оперативный сбор информации с объектов (учета, наблюдения и т.д.) в реальном времени, при этом модель формируется из актуальных, а не «прошлых» данных. Бизнес-пользователь имеет возможность оперативно реагировать на изменения и принимать адекватные и взвешенные решения, которые позволяют не потерять контроль, не упустить выгоду и проч.— всё, что характерно для существующих приложений, показанных в левой части рисунка.

ВЫВОДЫ

Можно констатировать, что с появлением технологии in-memory (SAP HANA и др.), развитием сенсорных технологий (например, RFID) и становлением концепции «Интернета вещей» сформировался необходимый и достаточный набор средств и инструментов для разработки информационных систем нового поколения, основной характеристикой которых является функционирование в режиме реального времени. Подобные тенденции свидетельствуют о том, что в настоящее время формируется устойчивый тренд на совершение индустриальной революции данных, когда большинство данных формируется машинами: смартфонами, камерами, микрофонами, считывателями RFID, датчиками и т.д. Эти машины генерируют данные много быстрее, чем могут люди, и их объемы растут экспоненциально в соответствии с законом Мура. Хранение таких данных дешево, и они могут использоваться для извлечения ценной информации. В публикациях появляются термины, наподобие «сенсорной экономики», говорящие о том, что новые тенденции будут иметь прямое и существенное влияние на процессы в мировой экономической системе.

Важно отметить, что ключевой составляющей изменений в информационных технологиях является вовлеченность в эти процессы государства — через формирование законодательной базы, стандартов и политик развития новых информационных технологий. Например, Минтранс США готовится принять отраслевой стандарт для производителей легковых автомобилей, предписывающий встраивать во все новые модели возможность беспроводной связи «машина — машина» и «машина — инфраструктура». Бизнес также предпринимает серьезные шаги по созданию новых возможностей для развития «Интернета вещей». Так, гиганты шинной индустрии (Michelin, Pirelli, Kumho) заявляют о тотальном «вживлении» RFID-меток в свою продукцию. Не отстают и автопроизводители: компания Volvo анонсирует разработку технологий обмена данными между автомобилями (объединенными в сети)

42

SAP HANA

Технологическая платформа для решения современных бизнес-задач

для предупреждения автомоблями друг друга о погодных условиях или, например, пробках.

Очевидно, что и существующие информационные технологии не будут стоять на месте, и новые разработки и решения не замедлят появиться в самое ближайшее время. Наиболее перспективным здесь видится повышение интеллектуальности программного обеспечения (во многом это будет реакция на необходимость обрабатывать большие данные и извлекать из них полезную информацию), появление новых видов вычислительных систем (квантовые компьютеры), замена традиционных архитектур — например, перспективным вариантом видится изучение возможностей отказаться от файловой системы при использовании технологии in-memory. Это позволит обращаться напрямую к оперативной памяти (мэппируя данные на кристалл), что даст дополнительный прирост в скорости обращения к памяти и упростит архитектуру программного обеспечения.

С появлением систем, функционирующих в реальном времени, информационные технологии могут оказаться драйвером роста как для частного бизнеса, так и для целых секторов экономики стран и регионов, осознавших преимущества новых информационных технологий и проводящих целенаправленную политику по их развитию и внедрению.

ЛИТЕРАТУРА

1. Материал из Википедии — свободной энциклопедии. Интернет вещей (Internet

of Things) [Электронный документ]. https://ru.wikipedia.org/wiki/%C8%ED%F2%E5%F0% ED%E5%F2_%E2%E5%F9%E5%E9.

2. Материал из Википедии — свободной энциклопедии. Большие данные (Big Data) [Электронный документ]. https://ru.wikipedia.org/wiki/%C1%EE%EB%FC%F8%E8%E5_% E4%E0%ED%ED%FB%E5.

3. Bachelor Project: Real-time Analysis of Genome Data [Электронный документ]. https://epic.hpi.uni-potsdam.de/Home/BP2012HP2.

4. Integration of RFID Technology in Enterprise Platforms [Электронный документ]. https://epic.hpi.uni-potsdam.de/Home/RadioFrequencyIdentification.

i Надоели баннеры? Вы всегда можете отключить рекламу.