Новая отрасль бизнеса или опора существующего?

В круглом столе принимают участие:

Алексей ЛАГУТИН, ведущий аналитик, РДТЕХ

Алексей МЕЩЕРЯКОВ, руководитель направления платформенных решений, SAS Россия/СНГ

Никита РОГАТОВ, заместитель начальника отдела инфраструктурного программного обеспечения, «Открытые Технологии»

Дмитрий СЕРГЕЕВ, директор по развитию программных решений, «Инфосистемы Джет»

Руслан ХАЙРУЛЛОВ, заместитель директора департамента инжиниринговый центр, компания «Техносерв»

Дмитрий ШЕПЕЛЯВЫЙ, заместитель генерального директора, SAP СНГ

Александр ЯКОВЛЕВ, менеджер по развитию бизнеса СХД, Fujitsu

Ирина ЯХИНА, руководитель подразделения технологических решений, Hitachi Data Systems

 

Что именно вы понимаете под быстрыми данными? Дайте, пожалуйста, собственное определение. Чем обусловлено появление термина «быстрые данные»? Как соотносятся между собой эти два понятия – «большие данные» и «быстрые данные»?

Алексей ЛАГУТИН

Предполагаю, что есть две основные причины, по которым в последнее время активно продвигается термин «быстрые данные».

Первая причина – маркетинговая. Технологическую основу того, что сегодня называется Big Data, составляют open-source – инструменты и платформы. Традиционные крупные поставщики коммерческих решений фактически оказались в стороне от фарватера этого движения. Отдельные оригинальные продукты типа СУБД Vertica от HP общей погоды не делают. Очевидно, что у вчерашних монополистов рынка в такой ситуации нет большой мотивации вкладываться в продвижение Big Data. И нужно было придумать новый рыночный сегмент. Поэтому в очередной раз был выполнен хорошо отработанный маневр: под растяжкой Fast Data баллотируются проверенные временем продукты и технологии.

Вторая причина – объективная сложность моделей Big Data и высокие требования к пользователям. Как свидетельствует эволюция аналитических бизнес-приложений, на протяжении последних 20 лет инженерные требования к пользователю таких систем снижались обратно пропорционально расширению функционала систем. Многочисленные сотрудники всевозможных аналитических подразделений во всем мире привыкли считать, что ответы на разнообразные вопросы находятся если не на первом, то на втором экране информационной системы. Тут появляются большие данные и предлагают совершенно иной подход, в рамках которого под каждую задачу фактически собирается новая мини-система. От пользователя вдруг требуется не только понимание бизнес-задачи, но и техническое умение обращаться с данными. А еще все эти сложные алгоритмы… В результате в тех организациях, где не были сформированы специализированные группы data scientists, у традиционных аналитиков по поводу больших данных возникло легкое замешательство.

На этом фоне быстрые данные представляются логичным компромиссом – решать простые задачи традиционными методами. Но делать это быстро! И полезно, и всем понятно.

Потребность в решении аналитических задач на больших объемах данных, поступающих в реальном времени, действительно существует. Например, оперативное выявление мошенничества в гетерогенных сетях, блокирование фишинговых атак или комплексное противодействие финансовым злоупотреблениям. И если продвижение темы быстрых данных поможет структурировать ИТ-бюджеты и выделить финансирование на решение этих задач, то уже неплохо.

Алексей МЕЩЕРЯКОВ

В современных реалиях понятия «большие данные» и «быстрые данные» становятся синонимами. О больших данных начали говорить относительно недавно – считается, что этот термин появился в 2008 г. Под большими данными мы понимаем даже не конкретное количество информации, а то, что она поступает непрерывно и в огромных объемах: ее становится все больше и больше, и, как правило, она плохо структурирована. Если ко всему этому добавляем аналитику, то получаем быстрые данные. Однако эта аналитика особого рода.

Традиционный подход к анализу предполагает сохранение данных обо всех событиях в хранилище, куда периодически поступают запросы от аналитического приложения. Таким путем можно проанализировать колоссальные объемы данных, сделать выводы о причинах тех или иных событий и даже составить прогноз на будущее, но невозможно мгновенно отреагировать на событие. Сегодня необходимо анализировать данные до того, как они станут неактуальными. Таким образом, быстрые данные – это большие данные с непрерывным анализом событий по мере их возникновения и с возможностью реагировать на них в режиме реального времени.

Сегодня существуют программные решения для такой обработки, которая проводится до помещения данных в хранилище. Для современного бизнеса становится все более насущной возможность быстро и всесторонне оценить ситуацию и принять на этой основе обоснованное решение. Подобная возможность – один из залогов способности компании защищать свои интересы и добиваться поставленных целей. Поэтому все большую актуальность приобретают технологии анализа больших объемов данных, причем в режиме реального времени, по мере их генерации.

Никита РОГАТОВ

Быстрые данные – это в первую очередь результат обработки данных в реальном или близком к нему времени. В отличие от больших данных, где результат может быть получен в рамках обработки накопленных исторических показателей или сохраненных транзакций, быстрые данные могут принести наибольшую «прибыль» в основном в момент их генерации. Полезность значений, получаемых в результате обработки таких данных, очень высока.

Дмитрий СЕРГЕЕВ

Быстрые данные – следующий шаг в развитии Big Data. Это данные, которые могут быть обработаны в реальном или близком к реальному времени. Появление термина обусловлено необходимостью обрабатывать большие объемы данных в реальном времени.

Оба эти понятия – о работе с большим объемом данных. Только Big Data – это хранение и обработка без привязки к времени, а Fast Data – обработка данных в реальном времени, причем не обязательно эти данные сохранятся.

Руслан ХАЙРУЛЛОВ

Быстрые данные (Fast Data) – это набор методик и решений, нацеленных на обнаружение в большом потоке мгновенных данных из различных источников (кассы, СМИ, Интернет и др.) полезной бизнес-информации, например клиентов, готовых покупать определенный продукт. Fast Data – это класс прогнозных задач, Big Data – маркетинговое обозначение новой отрасли в бизнесе, которая самоопределяется, формирует собственный терминологический аппарат, требования к себе и потребителю.

Суть Big Data для бизнеса – монетизация большого объема не всегда структурированных и достоверных данных о потребителе, в том числе поиск, изучение потребностей клиента, выбор подходящих инструментов по доставке услуг клиенту и т. п. Применяемые в Big Data методы и инструменты известны давно. Первыми задачу поиска ранее неизвестных и практически полезных данных в большом объеме известных данных поставили математики в 70–80-х гг. прошлого века, назвав свою кафедру Data minig. При этом уже тогда сформулировали задачи двух типов:

  • описательные задачи (Big Data) – поиск скрытых закономерностей, например наиболее покупаемого набора продуктов в корзине покупателя, сценариев поведения клиента в магазине, помогающих мерчендайзерам найти географическую позицию товара в магазине, резко повышающую вероятность его продажи;
  • предсказательные задачи (Smart Data) – обнаружение событий на основе ранее обнаруженных сценариев поведения, например мошенника (Fraud-системы), или, если речь о программах лояльности, прогнозирование поведения клиента на основе закономерности его поведения в прошлом.

Кроме известных математических задач современный бизнес добавил еще одну: обеспечивать Fast Data, т. е. обнаруживать Smart Data в Big Data в режиме реального времени, давать бизнесу информацию для принятия решения мгновенно! Известные примеры решений Big Data в магазинах корректируют ассортимент на экранах точек продаж или складах ритейла на основании не только скорости сокращения остатков, но и изменений в новостных лентах, рекламных программах. Таким образом предсказывается спрос в режиме реального времени! Сети «Пятерочка», «Карусель» сейчас точно знают, сколько единиц конфет включить в набор, чтобы он начал продаваться!

Таким образом, соотношение Big Data и Fast Data можно определить следующим образом: методики Big Data обнаруживают характерные сценарии поведения потребителя, а также необходимый и достаточный объем информации для их обнаружения, а методики Fast Data позволяют найти начало этих сценариев в потоке мгновенных (online) данных из различных источников (Интернет, камеры, кассы и т. п).

Дмитрий ШЕПЕЛЯВЫЙ

В компании SAP не проводят резкой границы между терминами «большие данные» и «быстрые данные». Оба понятия объединяются в рамках нашего проекта – платформы SAP HANA, позволяющей хранить большие объемы данных и получать их в режиме реального времени. Высокая скорость обработки информации достигается с помощью различных задач, например применения прогнозных алгоритмов и проведения анализа больших объемов данных. Интеграция с Hadoop дает возможность анализировать не только бизнес-данные, но и неструктурированную информацию.

Александр ЯКОВЛЕВ

Произошли вполне логичная сегментация и разделение понятия «большие данные» на узкие сегменты, которые точнее отражают сущность технологий. Одним из направлений стала как раз возможность в реальном времени (или почти в реальном, с действительно небольшими задержками) производить аналитическую работу над большими объемами меняющихся данных. Понятно, что подобный подход позволяет снизить риски в условиях быстро меняющегося рынка и повысить адекватность и точность принимаемых решений. Конечно, новая технология предъявила новые серьезные требования как к аппаратному, так и к программному обеспечению. Ряд новых методов и технологий обеспечил возможность реализовать высокоэффективное аппаратное хранилище и для больших, и для быстрых данных.

Ирина ЯХИНА

Как известно, термин «большие данные» (Big Data) возник в связи с появлением множества устройств, способных самостоятельно генерировать большое количество данных (так называемых machine-generated data). Хаотичные и неструктурированные массивы информации преследуют нас повсюду: это данные камер видеонаблюдения, смартфонов, датчиков автомобилей и бытовых устройств, рабочих компьютеров, мобильных приложений. Поток данных растет, и самой большой проблемой становится их структурирование, анализ и выявление семантической составляющей – того компонента, который придаст большим данным практический смысл, позволит их использовать. Хороший пример – приложение Яндекс.Пробки. Есть данные спутника, дорожных камер, комментарии автомобилистов, а технологическое решение, преобразующее эту информацию, позволяет составлять карты магистралей и планировать движение. Следующий этап развития больших данных – быстрые данные (Fast Data). Это уже не просто спектр информации, которая поддается хранению и анализу. Быстрые данные подразумевают возможность как можно более оперативной обработки данных, мгновенного извлечения выгоды.

Технологии обработки больших/быстрых данных подходят для использования в разных сферах и индустриях: ритейле, электронной коммерции, маркетинге, энергетике, банковской, телекоммуникационной отраслях и т. д. На ваш взгляд, предлагаемые вендорами решения для обработки больших/быстрых данных носят универсальный характер или разрабатываются с учетом отраслевой специфики?

Алексей МЕЩЕРЯКОВ

Потоковая обработка больших данных стала доступна на рынке сравнительно недавно. Однако уже сейчас на рынке представлено немало решений в этой области – как от крупных вендоров, так и свободно распространяемых. Обычно они реализуются в виде сервисной шины, а их работа описывается в терминах технических операций. Как правило, они носят универсальный характер: когда заходит речь о больших данных, отраслевая специфика, как правило, не имеет значения. При этом существуют решения, которые адресованы не ИТ-специалистам, а непосредственно бизнес-пользователям – руководителям направлений, маркетологам, риск-аналитикам и пр. Они позволяют применять бизнес-правила (аналитические модели) непосредственно к данным, поступающим в непрерывном потоке и не утруждают пользователя решением вопросов производительности систем, накопления и хранения необходимых для работы данных или исследованием особенностей обработки постоянно обновляющихся данных.

Никита РОГАТОВ

К счастью, большая часть пространства обработки больших данных все еще содержит черты «академичности», и платформы разрабатываются как многопрофильные решения. По моему мнению, это обусловлено в первую очередь универсальностью подходов и методов анализа данных. Отраслевые решения, несомненно, занимают свою нишу, но их отличия обычно кроются в поддерживаемых источниках данных.

Дмитрий СЕРГЕЕВ

Основа большинства коммерческих решений – это проекты Hadoop и Ignite от Apache Foundation. У Hadoop и Ignite отраслевой специфики нет, они универсальны. Специализация проявляется не столько на технологическом уровне, сколько в отраслевой экспертизе вендора/интегратора. Есть ряд примеров, когда компания-вендор предлагает новое решение Fast/Big Data как дополнение к существующим отраслевым продуктам. Самый яркий пример – SAP HANA.

Руслан ХАЙРУЛЛОВ

Инфраструктурная и прикладная части Big Data – универсальны. Приложения очистки и визуализации данных, а также источники данных могут быть отраслевыми. Тем не менее любые готовые шаблоны одинаково доступны всем конкурентам. Чтобы стать первым на рынке, необходимо использовать постоянный штат аналитиков и искать собственную Smart Data внутри Big Data. Ценность предлагаемого на рынке инструментария Big Data может быть раскрыта только человеком – живой, бизнес-ориентированной командой аналитиков (data scientist). Поэтому специфику своих Big Data всегда придется строить самостоятельно.

Дмитрий ШЕПЕЛЯВЫЙ

Понимая необходимость учитывать отраслевую специфику наших заказчиков из разных сегментов рынка, мы разработали платформу, на основе которой клиенты могут построить собственное решение. Мы со своей стороны обеспечиваем инструменты для загрузки, обработки данных и готовые алгоритмы для построения прогнозных моделей. Но, безусловно, у нас есть и пакет готовых решений для отдельных отраслей. Технологии больших данных обеспечивают доступ к качественно новым знаниям и возможностям, которые не только гарантируют компаниям конкурентное преимущество на рынке, но и развивают индустрию в целом, задействуют скрытый потенциал.

Александр ЯКОВЛЕВ

Набор инструментов обычно стандартизован для разных сфер и секторов применения. Но при этом даже в одном сегменте такие решения по определению являются кастомизированными.

Ирина ЯХИНА

В каждой отрасли есть определенная специфика в отношении требований к ИТ-решениям. Решения, предлагаемые для обработки больших данных, включают в себя как минимум две составляющие: платформенную и программную. К примеру, на уровне платформенной составляющей Hitachi Data Systems использует две технологии: комплексную платформу для обработки данных SAP HANA и высокоскоростные flash-диски. Платформенные решения универсальны и не имеют отраслевой специфики.

Другое дело – программная составляющая. Как правило, она представляет собой комплекс программного обеспечения, используемый для анализа данных. Программная составляющая, напротив, должна быть кастомизирована и настроена исходя из специфики отрасли. Это не «коробочные» решения, а технологии, адаптированные под отрасль и конкретного заказчика.

Каковы критерии эффективности использования больших/быстрых данных? Можете ли вы привести примеры эффективного применения технологий больших/быстрых данных из своей практики?

Алексей МЕЩЕРЯКОВ

Главный критерий – это возможность реакции в режиме реального времени, в тот момент, когда происходит событие, когда расчеты и оценка ведутся непрерывно. Иначе мы просто не имеем права говорить о быстрых данных. Что касается примеров, то успешное применение быстрых данных можно увидеть практически в любом сегменте рынка. Скажем, в транспортной компании это предсказание потребности в техническом обслуживании отдельных машин еще до возникновения поломок, определение подходящего времени для проведения профилактических работ. С помощью специальных программных решений собираются данные с каждой машины, информация интегрируется с данными по продуктам, по гарантийным обязательствам, включаются аналитические модели, предсказывающие определенные типы поломок в течение 30 дней с точностью 90%, и все это делается в режиме реального времени.

В здравоохранении быстрые данные помогают выстраивать эффективное взаимодействие с пациентами. С их помощью обнаруживаются закономерности в данных по каждому пациенту для предотвращения резких осложнений и инициирования терапии, снимаются показания с датчиков различного оборудования, в реальном времени к анализу добавляются данные, приходящие из лабораторий. В результате мы получаем непрерывный анализ и, как следствие, возможность принять меры – скорректировать курс лечения, назначить или отменить процедуры, изменить дозировку препаратов и т. д. Или, например, успешно решаемая в нашей практике задача – выявление мошенничества в банках в реальном времени. Ведется анализ транзакций с очень низкой задержкой, «на лету» анализируется поведение каждого пользователя, подозрительные транзакции блокируются автоматически, сомнительные случаи моментально отправляются на ручное расследование.

Никита РОГАТОВ

По моему мнению, основными критериями эффективности являются показатели полезности и утилизации результатов обработки. Из моей практики один из наиболее эффективных случаев связан с многократным использованием данных, формируемых сервисом в коммерческих проектах и государственных исследованиях, что стало возможно за счет изначальной ориентации решения на универсальное использование.

Дмитрий СЕРГЕЕВ

Мы выделяем два направления, в которых быстрые/большие данные наиболее эффективны, – отчетность и аналитика. Для отчетности важны полнота и достоверность, а для аналитики – качество прогнозов.

Руслан ХАЙРУЛЛОВ

В одной из отечественных компаний финансового сектора производительность была оценена по тому факту, что по сравнению с прежним хранилищем данных, построенным на традиционной реляционной СУБД, скорость выполнения запросов возросла в десятки раз в зависимости от решаемой задачи. Отчеты и результаты незапланированных запросов стали доступны в режиме, близком к реальному времени.

Дмитрий ШЕПЕЛЯВЫЙ

Основной критерий эффективности использования больших/быстрых данных – оперативное получение достоверной информации, которая поможет бизнесу принять решение. Например, телеком-операторы стараются анализировать, кто из клиентов считается авторитетом в своем круге общения и какие у авторитетов существуют потребности. Такую информацию дает анализ социальных сетей. Если вдруг один из авторитетных клиентов публично сообщает, что переключается на другого оператора, то это может вызвать эффект домино. Естественно, в интересах компании предотвратить такое событие. И помочь в этом может прогнозная аналитика, которая выявляет тенденцию увеличения стоимости услуги или уменьшение количества вызовов. У компании появляется шанс исправить ситуацию, не доводя пользователя до перехода к конкуренту. Предиктивная аналитика может автоматически предупреждать, когда необходимо принимать меры. Таким образом американская T-Mobile сократила уровень оттока клиентов на 50% в квартал.

Александр ЯКОВЛЕВ

Да, у нас довольно много успешно реализованных проектов в ритейле, финансовом секторе, телекоме.

Ирина ЯХИНА

На сегодняшний день польза, которую могут принести большие данные, оценивается с довольно субъективных позиций. Многое зависит от типа бизнеса, от компании, внедряющей решения, от специалистов, которые будут заниматься их практическим применением. Вклад последних особенно важен: каждой компании необходим грамотный аналитик (сейчас даже появилась новая специальность – Data Scientist), который разбирался бы в специфике бизнеса и одновременно умел работать с большими данными. Работать – в этом случае означает понимать, какую информацию и по каким критериям нужно извлечь из больших данных, чтобы улучшить деятельность компании и открыть новые возможности для ее развития.

В практике Hitachi Data Systems есть множество ярких примеров эффективного применения технологии больших данных. Один из них – опыт успешного сотрудничества с компанией «М.Видео». Заказчик столкнулся с рядом сложностей: слишком медленно принимались рабочие решения из-за недостаточной актуальности и детализации данных; информация по продажам, поставкам и складским остаткам была неструктурированной и не позволяла точно планировать производство; модель прогнозирования товародвижения велась вручную, а на построение отчета бизнес-аналитики уходило все больше времени. Во взаимодействии с партнерами HDS выполнила проект по построению хранилища данных на базе решения SAP HANA. Новое решение позволило «М.Видео» формировать аналитику со сложными сочетаниями условий. Так, отслеживая данные продаж, компания теперь может генерировать акции, привязанные к поведению потребителя, рассчитывать необходимое количество товара, исключать издержки, связанные с ошибками логистики, а на построение аналитических отчетов требуется всего несколько минут.

Кстати, в сфере розничной торговли эффективность бизнеса напрямую связана с эффективностью логистики. Компании должны четко распределять задачи между дистрибуционными центрами, регулировать процесс доставки товара с учетом срока годности продаваемых продуктов. Для создания грамотных стратегий логистам и необходимы большие данные.

Чем обусловлены наибольшие трудности на стадии внедрения решений для больших/быстрых данных: финансовыми ограничениями, нехваткой персонала для ведения проектов, сложностью интеграции с имеющимися решениями, относительно небольшим количеством поставщиков или…?

Никита РОГАТОВ

Наибольшие трудности, как и во многих других сферах, связаны не с материальным обеспечением проекта, а с формированием необходимых показателей проекта и полной утилизацией его результатов впоследствии, достижением эффективности внедряемого решения. Все это возможно только при слаженной работе команд заказчика и внедренца.

Дмитрий СЕРГЕЕВ

Технологии дозрели, клиенты – нет. Поставщиков достаточно. На рынке как минимум десяток компаний с интересными решениями в этой области. Отмечу несколько: Cloudera, Teradata, Actian. Есть и российские разработки, такие как GrinGain.

На рынке недостаточно практических кейсов. Обычно к этапу внедрения заказчик приходит с несколькими гипотезами, которые могут подтвердиться, а могут и не подтвердиться. Отсюда главная проблема для клиента – неопределенный экономический эффект от внедрения решений для больших/быстрых данных. Это является катализатором целого ряда проблем при внедрении: нечеткие цели проекта, сложности с обоснованием бюджета и т. д.

Дмитрий ШЕПЕЛЯВЫЙ

Основная проблема, которая может возникнуть при внедрении технологии больших данных, – малое количество квалифицированного персонала с опытом работы. Мы можем помочь нашим клиентам, так как имеем квалифицированных специалистов и опыт реализации подобных проектов.

Ирина ЯХИНА

Думаю, что наибольшие трудности с финансовыми ограничениями как раз не связаны. Даже в период кризиса компании продолжают вкладывать средства в аналитику больших данных, что обусловлено высокой окупаемостью внедряемых решений и оптимизацией множества побочных расходов.

Сложнее всего оценить выгоду использования больших данных на первоначальном этапе. Для этого нужны люди, умеющие оценить маркетинговый и трудовой потенциал работы с данными. На сегодняшний день практически все успешные проекты, связанные с внедрением решений больших данных, были осуществлены энтузиастами, которые на свой страх и риск брались продемонстрировать руководству практическую пользу больших данных. Пока не для всех ИТ-директоров очевидна польза этих технологий.

Как вы представляете себе будущее сегмента решений быстрых данных? Какие факторы будут определяющими на этом рынке?

Никита РОГАТОВ

Дальнейшее развитие сегмента зависит в первую очередь от того, насколько эффективными будут решения, насколько дорогостоящим будет использование результатов их работы. Но основной вектор их развития задаст рынок: расширение использования облачных технологий, увеличение доли электронной коммерции, внедрение решений гигантами индустрий. Все это определит будущее быстрых данных.

Дмитрий СЕРГЕЕВ

Для многих компаний быстрые данные в перспективе станут неотъемлемой частью инфраструктуры, например системы классов АБС, ERP, CRM. Выделятся два-четыре решения, которые поделят между собой 80% рынка. Наверное, будет еще десяток нишевых решений.

Мы выделяем два фактора, которые станут определяющими: успешные внедрения, которые покажут реальный ROI (возврат на инвестиции), снижение стоимости решений. Первый фактор упростит выделение финансирования на подобные проекты, второй – расширит круг потенциальных заказчиков.

Руслан ХАЙРУЛЛОВ

Предполагаю, что подразделения, по-настоящему занимающиеся разработкой в области Big Data, выделятся в самостоятельные компании, торгующие информацией. Они будут продавать информацию о том, где находится ваш покупатель, как привлечь его внимание, как доставить ему товар. Стоимость информации будет определяться уже сформировавшимися на рынке характеристиками Big Data, так называемыми четырьмя «V» (Four V’s of Big Data):

  • достоверностью (veracity) – умением определить и выбрать достоверную информацию, из объема входящих в анализ данных определить соответствующий параметр эффективности конечного решения;
  • своевременностью (velocity) – умением найти баланс между точностью и скоростью, определить эффективность с точки зрения скорости принятия решений;
  • охватом (volume) – умением найти необходимый 1% информации в зетабайтах ненужной – эффективность с точки зрения объема обрабатываемой информации;
  • формой используемых данных (variety) – если аналитик будет учитывать новый параметр (дату выдачи зарплаты на заводе), он сможет более эффективно построить маркетинговые программы продаж.

Конечно, определяющим фактором стоимости на этом рынке будет своевременность данных, т. е. Fast Data.

Дмитрий ШЕПЕЛЯВЫЙ

Новым направлением развития больших данных является IoT (Интернет вещей). По мере развития IoT все больше предметов будут подключаться к глобальной сети, тем самым создавая новые возможности в сфере безопасности, аналитики и управления, открывая все более широкие перспективы. Мы видим развитие этой технологии во многих областях и индустриях.

Вокруг технологий обработки больших/быстрых данных циркулирует немало мифов. Какой из них вы готовы развенчать?

Дмитрий СЕРГЕЕВ

Быстрые данные еще не успели обрасти мифами, а вот о больших данных мифов предостаточно. Расскажу о моем любимом: «У всех уже Big Data, только мы отстаем»©.

Опросы среди сотрудников компаний говорят об обратном: многие говорят, мало кто реально использует.

Несмотря на то что про Big Data говорят все и везде, в реальности работают с Big Data не многие. В 2014 г. Gartner провел опрос, согласно которому 73% фирм интересуются Big Data, но только 13% применили эту технологию. По России такой статистики нет, но, думаю, у нас показатели в части применения еще ниже.

Руслан ХАЙРУЛЛОВ

Из-за неустоявшихся терминов и решаемых бизнес-задач тема Big Data/Fast Data действительно обросла мифами. Один из них в том, что Big Data – очередной «коробочный» продукт Business Intelligence, который улучшит управленческую отчетность. Но BI всего лишь помогает преобразовать существующую структурированную информацию в удобный для принятия решения вид, а Big Data поможет найти новые знания и новые бизнес-ниши.

Интернет-магазины уже продают друг другу покупателей (Leads), т. е. информацию о клиентах, готовых покупать. Это очень современный для информационного общества бизнес – продавать информацию. Ценность такой информации – в ее актуальности. Если вы предоставили информацию о наличии спроса до того, как его удовлетворил конкурент, вашу информацию можно назвать Fast Data.

Big Data/Fast Data – это не только опора существующего бизнеса, но новая отрасль бизнеса.

Дмитрий ШЕПЕЛЯВЫЙ

Известный миф о том, что наша платформа SAP HANA – технология, не относящаяся к большим данным. Между тем она представляет собой платформу, позволяющую строить системы Big Data. Недавно мы анонсировали новый in-memory-движок для анализа больших данных, который расширяет возможности Apache Hadoop и существенно повышает скорость обработки (от 10 до 100 раз) за счет использования технологии Apache Spark.

Ирина ЯХИНА

Мода на большие данные возникла несколько лет назад: термин понравился экспертам и журналистам, а представители бизнеса увидели в этом своего рода новую игрушку – шанс быстро внедрить сложное решение, быстро снизить операционные расходы, особо не вникая в специфику инновации. Однако шума вокруг больших данных оказалось больше, чем путей их реального применения. Девиз 2015 г. – «Big Data is Dead», о чем заявили эксперты компании Gartner, занимающейся исследованиями в области ИТ. На мой взгляд, посыл Gartner стоит трактовать не как необходимость отказаться от больших данных сейчас, еще до этапа их фактического расцвета, а как мотивацию заняться более углубленными исследованиями в сфере их практического применения.

Поделиться:
Спецпроект

Напряженный трафик или Современные требования к инфраструктуре ЦОД

Подробнее
Спецпроект

Специальный проект "Групповой спутниковый канал для территориально-распределенной сети связи"

Подробнее

Подпишитесь
на нашу рассылку