Олика Янат
Абориген Hype.ru. Вдохновляюсь роком, футболом и творческими людьми.

Как выглядит интернет: оптоволокно, серверы и 900 000 км подводных кабелей

Дайверы снимают корродированные цинковые аноды с подводного кабеля вблизи Гавайских островов © Flickr/Official U.S. Navy Page
Дайверы снимают корродированные цинковые аноды с подводного кабеля вблизи Гавайских островов © Flickr/Official U.S. Navy Page

Каждую секунду миллионы электронных писем, кликов и поисков проходят по всемирной паутине с такой скоростью, что Интернет кажется почти вездесущим. Из-за этого люди часто ошибочно полагают, что интернет-трафик проходит по воздуху — ведь наши мобильные устройства, в конце концов, не связаны ни с чем.

Но спутники несут менее 1% человеческих взаимодействий, и в некотором смысле правильность их установки гораздо более важна, чем сигнал, посылаемый вышкой.

Интернет — возможно самый важный ресурс в современном мире, очень ощутимый и довольно уязвимый. Он в значительной степени находится под нашими ногами, в сложной системе подземных и подводных кабелей, подключенных к огромным хранилищам данных, настолько мощным, что они могут найти любую информацию в любой момент.

Как выглядит инфраструктура интернета сегодня?


Самый основной смысл работы Интернета заключается в переносе информации из пункта A в пункт Б.

Эти точки называются IP-адресами и представляют из себя уникальный код, идентифицирующий местоположения во всем мире, — с ними связаны наши устройства, когда мы подключены к Интернету. Свой IP узнать очень легко, достаточно набрать «Мой IP-адрес» в Google.

По мере перемещения, все данные, передаваемые через Интернет, поступают на серверы в дата-центры по всему миру. В 2008 году через мировые серверы прошло около 9,5 трлн Гб, но в последние годы эти цифры стали еще больше.

Data Center Map используется Google Maps, чтобы точно определить все дата-центры © Data Center Maps powered by Google Maps
Data Center Map используется Google Maps, чтобы точно определить все дата-центры © Data Center Maps powered by Google Maps

Перемещение информации на серверы и от них часто связано с пересечением океанов. Мы почти полностью полагаемся на кабели для интернет-трафика, потому что они быстрее и дешевле, чем спутники, но укладка их через водоемы — утомительный процесс, который занимает много времени и требует сложного обслуживания.

Крышка люка AT&T, округ Сан-Луис-Обиспо, Калифорния © David Greer
Крышка люка AT&T, округ Сан-Луис-Обиспо, Калифорния © David Greer

Чтобы Интернет стал тем, чем он является сегодня, люди проложили более 300 подводных кабелей, которые работают в общей сложности на 550 000 миль (или более 885 000 км).

Карта подводных кабелей © Submarine Cable Map
Карта подводных кабелей © Submarine Cable Map

По данным Азиатско-Тихоокеанского экономического сотрудничества, около 97% всех межконтинентальных данных поступает по этим кабелям.

Если подводные кабели мира выложить в длину, они могли бы протянуться с Земли до Луны и обратно, а затем обернуть Землю в самой широкой ее точке почти три раза.

Самый длинный подводный кабель длиной около 24 000 миль (38,6 тысяч км) проложен от Германии до Южной Кореи и еще дальше на юг до Австралии. На своем пути он имеет 39 наземных точек.

Самый большой подводный интернет-кабель SeaMeWe-3 был готов к обслуживанию в сентябре 1999 года © Submarine Cable Map
Самый большой подводный интернет-кабель SeaMeWe-3 был готов к обслуживанию в сентябре 1999 года © Submarine Cable Map

Первый трансконтинентальный кабель был прокинут в 1858 году и объединял Ирландию и Ньюфаундленд.

Есть несколько различных типов кабелей используются под водой, их толщина варьируется от размеров садового шланга до примерно трех дюймов в диаметре. Самые легкие (справа) обычно укладываются на океаническое дно.

© Wikimedia
© Wikimedia

В их основе находится оптоволокно, по которому передается информация, защищенное производными нефти и слоями многожильного металла.

Прокладка под водой требует нескольких месяцев работы, миллионы долларов средств и достаточно большого корабля, чтобы разместить на нем километры материала, свернутого на борту.

Некоторые кабели проложены на глубине до 25 000 футов (7,62 км), это означает, что они могут пострадать от стихийных бедствий, коррозии, рыбаков и даже акул.

Ремонт разломов происходит с помощью специальных кораблей с небольшими крючками, которые вытягивают кабель или режут его пополам и поднимают обе половинки на борт для исправления. Согласно MIT Tech Review, только в Атлантике в год происходят по меньшей мере 50 разрывов интернет-кабелей.

Кабели возвращаются на берег, к местам наземных точек, и прокладывают себе путь к центрам обработки данных, путешествуя под землей. Техобслуживание и планирование подземных трасс, в некотором смысле, проще, чем подводных, например, им не угрожают укусы акул. Но и здесь есть свои сложности.

Атлантическая трансокеанская наземная точка кабеля, Линн, Массачуссетс © David Greer
Атлантическая трансокеанская наземная точка кабеля, Линн, Массачуссетс © David Greer

В США проложены 542 кабеля (изображенных желтыми линиями), соединяющих 273 разных точки (изображенных синими квадратами).

© Business Insider
© Business Insider

А вот так выглядит карта магистральных сетей «Ростелекома», к примеру:

© rostelecom
© rostelecom
© rostelecom
© rostelecom

Экосистема кабелей во многом зависит от инфраструктуры страны. Если она позволяет, то большую часть длинномерных кабелей располагают вдоль основных и железных дорог.

Чтобы кабели не выкопали, они укладываются рядом с газопроводами или внутри старых трубопроводов с надземными маркерами по пути прокладки.

Подземный оптоволоконный кабель, Йорквилл, Калифорния © David Greer
Подземный оптоволоконный кабель, Йорквилл, Калифорния © David Greer

Как и подводным кабелям, кабелям в сухом грунте могут грозить повреждения в результате стихийных бедствий, например, землетрясений.

Подземный оптоволоконный кабель, Нью-Джерси © David Greer
Подземный оптоволоконный кабель, Нью-Джерси © David Greer

Кабели, в конечном итоге, достигают вышеупомянутых центров обработки данных и направляются к машинным серверам.

Дата-центр Facebook, Де-Мойн, Айова © David Greer
Дата-центр Facebook, Де-Мойн, Айова © David Greer

Это, как правило, незаметные здания, расположенные в сельских районах далеко за пределами города.

Центр обработки данных Google, Даллес, Орегон © David Greer
Центр обработки данных Google, Даллес, Орегон © David Greer

Или скрыты на виду в зданиях в густонаселенных городах:

Центр обработки данных Wilshire находится в Телекоммуникационном Центре Лос-Анджелеса © David Greer
Центр обработки данных Wilshire находится в Телекоммуникационном Центре Лос-Анджелеса © David Greer

Фактически один из самых концентрированных центров в мире с точки зрения подключения к Интернету расположен в нижнем Манхэттене на Хадсон стрит, 60.

Хадсон стрит, 60 © Ben Mendelsohn
Хадсон стрит, 60 © Ben Mendelsohn

Здесь местные, национальные и всемирные каналы объединяются для передачи данных.

Еще два крупных центра в Нью-Йорке расположены на 8 авеню — в здании старого порта, которое недавно приобрела Google за $1,9 млрд, и 32 авеню.

Здание AT&T на 32 авеню, Нью-Йорк © David Greer
Здание AT&T на 32 авеню, Нью-Йорк © David Greer

Каждый центр обработки данных потребляет энергию в громадных количествах. Недавно Apple построила две 100-акровые солнечные установки (свыше 400 м²) для собственного центра обработки данных в Северной Каролине, которому требуется 20 мегаватт энергии для того, чтобы работать на полную мощность. Для сравнения, этого достаточно, чтобы привести в действие чуть более 3000 домов.

Довольно затратно для обслуживания, но необходимо.

Солнечная электростанция Apple на 14 МВт, Мэйден, Северная Каролина © David Greer
Солнечная электростанция Apple на 14 МВт, Мэйден, Северная Каролина © David Greer

По словам дизайнера и художника Тимо Арналла, который побывал в большом европейском центре обработки данных Telefónica, он заполнен «оглушительно шумными комнатами, коконами стоек серверов и маршрутизаторов, где сквозь всё бьёт горячий и холодный воздух».

Центр обработки данных Telefónica, Алькала, Испания © Timo Arnall
Центр обработки данных Telefónica, Алькала, Испания © Timo Arnall

Потолки в центрах обработки данных должны быть высокими — от 12 до 14 футов в высоту (3,6-4,2 м), чтобы горячий воздух с серверов уходил вверх. Например, центр обработки данных интернет-биржи Филадельфии имеет 12-футовые потолки.

Интернет-биржа Филадельфии © David Greer
Интернет-биржа Филадельфии © David Greer

Попасть в центры обработки данных нелегко.

Масштабные компании, подобные Telefónica, имеют безопасность намного выше любого аэропорта, – говорит Арналл, которому пришлось получить специальное разрешение.
Лобби дата-центра на 32 авеню, Нью-Йорк © David Greer
Лобби дата-центра на 32 авеню, Нью-Йорк © David Greer

В России наибольшим числом центров обработки данных располагают такие коммерческие структуры, как Яндекс, Московская межбанковская валютная биржа, фондовая биржа РТС, Сбербанк, Гидрометцентр.

Так выглядит изнутри крупнейший центр обработки Яндекса площадью 4 500 кв. м в Ивантеевке, Подмосковье © Яндекс
Так выглядит изнутри крупнейший центр обработки Яндекса площадью 4 500 кв. м в Ивантеевке, Подмосковье © Яндекс
Как строился центр обработки данных Сбербанка в Сколково
Московская валютная биржа выбрала компанию DataSpace в качестве основного поставщика услуг центра обработки данных (ЦОД) © ИТ-ГРАД
Московская валютная биржа выбрала компанию DataSpace в качестве основного поставщика услуг центра обработки данных (ЦОД) © ИТ-ГРАД

Эти непритязательные снаружи здания служат самым ярким доказательством того, что Интернет более ощутим, чем мы думаем.

Центр обработки данных Telx, Атланта, Джорджия © David Greer
Центр обработки данных Telx, Атланта, Джорджия © David Greer

Они являются постоянным надземным напоминанием обо всем, что требуется, чтобы поддерживать всемирную паутину.

NAP of the Americas — массивный центр обработки данных в Майями © David Greer
NAP of the Americas — массивный центр обработки данных в Майями © David Greer

Написано при помощи Business Insider