Юбилейный «Пиринговый форум MSK-IX» 2025 года, который состоялся 17 ноября в Конгресс-центре ЦМТ, стал знаковым событием для российской интернет-отрасли. В год 30-летия MSK-IX и 20-летия Форума площадка собрала 860 лидеров телеком-, медиа- и технологических компаний. Эксперты отрасли обсудили критическое состояние магистральных сетей, исчерпание ресурсов действующих линий связи и представили конкретные проекты и технологии, призванные обеспечить стране надежный и высокоскоростной Интернет в будущем.
Современное состояние магистральных волоконно-оптических линий связи (ВОЛС) в Российской Федерации характеризуется комплексом вызовов, требующих масштабной модернизации и стратегического планирования. Об этом в своей презентации рассказал Павел Колочкин, представитель компании TEA NEXT. Общая протяженность инфраструктуры превышает 1,3 млн км, однако значительная ее часть, построенная в 90-х и 2000-х гг., завершает период своей эксплуатации. Ключевой проблемой становится прогрессирующее затемнение оптического волокна, что напрямую влияет на надежность и пропускную способность. Ситуация усугубляется тем, что основная часть магистралей уже сегодня имеет загрузку более 75%, что является критически высоким показателем, учитывая, что максимально допустимый порог для таких линий составляет 80%. Ежегодный рост трафика оценивается в 25%, что обусловливает необходимость в увеличении общей пропускной способности магистральных сетей к 2035 г. в 18 раз по сравнению с уровнем 2022 г. Таким образом, требуется модернизация до 90% действующих линий и активное строительство новых, с обязательным использованием российского телекоммуникационного оборудования. Это закреплено в Стратегии отрасли связи до 2035 г., утвержденной Правительством РФ в ноябре 2023 г.
Проведенная оценка ключевых игроков рынка лишь подтверждает остроту проблемы. Прогнозируется, что концу следующего года 50% до 70% доступной оптической инфраструктуры на критически важном направлении запад – восток исчерпает гарантийный срок службы кабеля, а к 2035 г. этот показатель достигнет 80-100% на большинстве участков, хотя в Западной Сибири сохраняется доступность относительно новой оптики. Направление запад – восток уже сегодня не имеет свободной сквозной волоконно-оптической инфраструктуры, а оценка загрузки показывает, что сети от Москвы до Улан-Удэ близки к пределу, демонстрируя загрузку на уровне 60–70%. При этом объем спроса на транзитную емкость закономерно снижается в направлении с запада на восток. Один из вариантов решения проблемы – модернизация за счет установки более современных DWDM-систем на 16 Тбит/с взамен используемых 8 Тбит/с на тех волокнах, чей гарантийный срок истекает не ранее 2030 г.
Накопившиеся проблемы устаревания инфраструктуры и ее предельной утилизации легли в основу проекта TEA NEXt, который представляет собой создание обособленной инфраструктуры ВОЛС между западными и восточными границами России с привязкой к основным финансовым и экономическим центрам, проходящей вдоль основных маршрутов и предусматривающей бесшовное продолжение в Европе и Азию. Проект включен в «Комплексный план развития транспортной, энергетической, телекоммуникационной, социальной и иной инфраструктуры на период до 2036 года», утвержденный распоряжением Правительства РФ от 29 августа 2025 г. Сухопутная часть магистрали составит около 11 тыс. км с обходом крупных городов на расстоянии более 50 км от центра. Сам кабель содержит 96 оптических волокон, заглубленных в грунт на 1,2 м. В основе технологии лежит применение передовых типов волокна: ITU-T G.654.E с ультранизким затуханием не более 0,17 дБ/км и ITU-T G.652.D.
Архитектура проекта включает развертывание сети необслуживаемых усилительных пунктов (НУП) в одноконтейнерном модульном исполнении. Эти полностью автономные объекты оснащены выделенными стойками для оборудования, системами климат-контроля, резервным электропитанием, дизель-генераторными установками и охранно-пожарной сигнализацией, работающими под круглосуточным мониторингом. Реализация проекта ведется последовательными этапами. Первый этап, включивший строительство участков Торжок – Идрица и Москва – Санкт-Петербург, уже завершен. В настоящее время активно ведется прокладка ключевого транзитного сегмента Торжок – Кяхта протяженностью 6200 км, который должен быть сдан в третьем квартале 2026 г. В планах – продолжение магистрали от Кяхты до Владивостока (4200 км), а на следующем этапе – строительство подводной линии связи от Находки до Пусана в Южной Корее длиной 1000 км, что обеспечит бесшовную интеграцию в азиатские маршруты.
Строительство новых магистралей – это стратегический ответ на вызовы пропускной способности и надежности. Однако столь же важна и эффективная доставка трафика конечному пользователю уже сегодня, что невозможно без современных технологий кэширования. Именно здесь на первый план выходят решения в области CDN (Content Delivery Network), основная задача которых заключается в ускорении скорости скачивания контента путем кэширования на максимальном количестве серверов с максимальной полосой пропускания и распределением их максимально географически близко к конечному пользователю.
О том, как меняются подходы к построению CDN, рассказал Сергей Митин, заместитель генерального директора компании «Иви». Он отметил, что «устраивать точки концентрации трафика – не самая хорошая идея». Такой точкой концентрации для компании была Москва, и перед командой стояла задача избавиться от дисбаланса. Результатом стало активное вытеснение трафика из столицы в регионы, что позволило повысить «коэффициент региональности» и организовать передачу данных по кратчайшим маршрутам.
Традиционный подход к построению CDN-узлов подразумевал создание мощной, но громоздкой инфраструктуры: 5–15 серверов, роутер, коммутаторы, занимающие до 21 юнита в стойке, потребляющие до 5000 Вт и способные генерировать от 0,2 до 2 Tbps трафика. Однако возник закономерный вопрос — всегда ли необходима такая мощность? Для задач, когда нужно раздать с узла не несколько терабит, а несколько десятков гигабит, можно было найти более компактное и простое решение. Так родилась концепция Ivi-cache, предполагающая отказ от громоздкой инфраструктуры в пользу компактных серверов, размещаемых непосредственно в сетях провайдеров, еще ближе к пользователю, чем через IX.
Узел отличается от классического. Вместо 5–15 серверов используется всего один на платформе Supermicro 2U, роутер не требуется, а маршрутизация осуществляется прямо на сервере через BIRD. Такой узел занимает всего 2 юнита вместо 21, потребляет 270 Вт против 5000 Вт, обеспечивает емкость кэша 38–76 ТБ на базе SATA SSD и генерацию трафика 20–30 Gbps при подключении через четыре порта по 10G. За пять месяцев к «классическому» CDN было добавлено 20 таких узлов, и сейчас в сети работает уже 43 узла Ivi-cache, что существенно расширило географию покрытия и позволило стать еще ближе к конечным пользователям.
В процессе реализации проекта команда столкнулась с двумя проблемами. Первая касалась поддержки IPv6. Как констатировал Сергей, этот протокол пока не стал распространенным стандартом. Так, из 20 узлов в проекте только семь поддерживают IPv6, а 13 работают без него. Вторая была связана с маршрутизацией. Оказалось, что далеко не всегда есть возможность получить от партнера на узел полную таблицу интернет-маршрутов из-за ограниченной памяти маршрутизаторов. Во многих случаях приходится рассчитывать лишь на маршрут по умолчанию и статические маршруты.
Все эти усилия оправданы пятью ключевыми целями: повышением качества обслуживания пользователей за счет сокращения задержек, локализацией трафика и уменьшением загрузки сетевых магистралей, многократно возросшей скоростью развертывания узлов, существенным упрощением процесса эксплуатации и стандартизацией процесса развертывания узлов. Такой подход объективно не новый, тем не менее, он показывает, что для многих задач эффективность и близость к пользователю могут быть успешно достигнуты с помощью более простых, энергоэффективных и децентрализованных решений, которые к тому же быстрее внедрять и легче обслуживать.
Немаловажно измерить эффективность этих распределенных сетей и убедиться, что контент действительно доставляется по оптимальному пути. Своим взглядом на проблему мониторинга и интеллектуальной маршрутизации поделился Евгений Зайцев, руководитель сервиса CDN «Яндекса».
«Яндекс» разработал собственный инструмент для измерения скорости интернет-соединения, который работает поверх глобальной сети доставки контента Yandex CDN. Этот инструмент измеряет скорость подключения пользователя до ближайших серверов CDN и попутно собирает детальные метрики работы интернет-канала, функционируя как в проводных, так и в мобильных сетях.
Алгоритм измерения скорости скачивания построен на параллельной работе. Система выбирает три ближайших CDN-сервера и одновременно в три потока скачивает с них тестовые файлы размером по 50 МБ каждый. Для измерения задержки используется точный метод через perf-log, который замеряет время между отправкой HTTP-запроса и получением первого байта ответа (TTFB). При этом система учитывает различные нюансы: если ближайший сервер перегружен, для замера автоматически выбирается другой. При наличии у клиента поддержки IPv6 все замеры проводятся по этому протоколу.
Каждое измерение документируется. Сохраняются результаты отдельных потоков и итоговый расчет, уникальный ID замера, а также обширный набор метрик просмотра видео в формате perf log. Эти данные используются для внутренней аналитики, в частности, для выявления аномалий в связности между сетями операторов и CDN-кешами. На основе полученных данных формируются аналитические срезы, например, показ средних скоростей и TTFB для заданного оператора в сравнении с медианными значениями по региону.
Основой для интеллектуального выбора серверов служит протокол BGP. Через BGP-сессии «Яндекс» получает от операторов префиксы их сетей. Каждое пиринговое соединение имеет уникальный LinkID. Система Gorshok строит карту соответствия префиксов и линков, вычисляя приоритет для каждого префикса на основе веса LinkID, длины AS-Path и специальных BGP community.
Алгоритм выбора оптимального CDN-сервера для пользователя с IP-адресом представляет собой многоступенчатый процесс. Сначала по IP пользователя находятся все префиксы и связанные с ними LinkID. Затем оставляются только линки с наивысшим приоритетом. На следующем этапе система проверяет загруженность самих линков (пиринговых стыков) и загрузку CPU/сетевых портов целевых CDN-кешей, выбирая только недогруженные элементы. В результате формируется список хостнеймов кэшей, к которым производятся unicast-подключения для замеров.
CDN «Яндекса» раздает до 12 Тбит/с трафика, который включает видео и аудио (50%), live-стримы (40%), дистрибуцию софта (3%) и мелкую статику (7%). 80% трафика «Яндекса» отдается через CDN, что значительно разгружает магистральные каналы оператора. Более 100 площадок в России позволяют локализовать трафик, а наличие кэшей непосредственно у оператора дает ему возможность самому влиять на приоритезацию трафика.
Для операторов с небольшим объемом трафика (менее 10 Гбит/с), у которых нет возможности разместить кэш на площадках «Яндекса», было разработано специальное решение. В партнерстве с вендором согласованы валидированные конфигурации серверов Light для live-трафика и Medium для данных разного типа. После тестирования под нагрузкой операторы смогут закупать это готовое оборудование для развертывания собственных кэшей.
Среди планов по развитию системы – интеграция с кабинетом оператора, предоставление возможности выбора конкретного CDN-сервера для замеров, выгрузка результатов замеров с операторских кэшей, внедрение WebRTC-замеров, показ пользователям медианной скорости их оператора в сравнении с другими операторами в регионе.
Таким образом, устойчивое развитие цифровой инфраструктуры включает и масштабное обновление магистральных сетей для увеличения пропускной способности, и внедрение распределенных технологий доставки контента с целью повышения качества услуг непосредственно для пользователя.
Артем Пермяков, Connect


