1.1 От ARPANET до сегодняшнего интернета
Большинство того, что мы сегодня называем «айти» – от смартфонов до мемов с котиками – родилось не ради развлечений. Корни современной цифровой эпохи – в военных нуждах.
Ещё в XIX веке Бэббидж разрабатывал вычислительные машины для навигационных таблиц британского флота. В XX веке шифровальная «Энигма» и криптоаналитики Тьюринга положили начало вычислительной гонке: чтобы взламывать коды, потребовались электронные машины – Colossus в Англии, ENIAC в США. Это были не «компьютеры общего пользования», а оружие для доминирования в информационной войне.
После войны наступила эра холодного противостояния. Проект SAGE стал первым опытом создания сети реального времени: радары по всей Америке передавали данные в гигантские вычислительные центры, где принимали решения о перехвате. Для этого понадобились новые интерфейсы, дисплеи, полупроводники – всё, что потом перекочевало в гражданский сектор. Подобные системы как NORAD закладывали архитектуру глобального наблюдения и мгновенной передачи команд.
Когда в 1960-х создавался ARPANET, целью было не общение студентов, а сеть, способная пережить ядерную войну. Пакетная передача данных, децентрализация, динамическая маршрутизация – всё это родилось из военной задачи: сохранить управляемость даже после разрушения половины узлов связи. Протоколы TCP/IP, на которых до сих пор работает интернет, появились как технология выживания.
Так интернет вырос не из желания людей делиться знаниями, а из военной логики command & control – систем управления войсками и оружием в условиях катастрофы. То, что сегодня стало пространством мемов и стримов, начиналось как инфраструктура для ведения войны и удержания власти.
Кто платит за магистрали
Большинство думает об интернете как о чём-то «воздушном» и бесплатном. На деле он строится на очень конкретных инфраструктурах, которые стоят колоссальных денег. Магистральные каналы связи – это тысячи километров оптоволокна через страны и океаны, которые принадлежат не государствам, а крупным корпорациям и альянсам операторов. Платят за это телекомы, крупные контент-компании вроде Google, Meta и Amazon, которые уже сами строят сети между своими дата-центрами, а также специализированные консорциумы.
За пропуск трафика на международном уровне взимается плата (transit fees). Есть крупные узлы (Tier-1), через которые идёт весь мировой трафик, и местные провайдеры платят им за доступ. Так интернет вовсе не «равный для всех»: кто платит больше, тот получает более быстрые и надёжные каналы.
Как выглядят подводные кабели и дата-центры
Интернет физически существует в виде толстых кабелей, которые лежат на дне океанов и соединяют континенты. Эти кабели – диаметром с садовый шланг – защищены стальной оплёткой и специальной броней от якорей и подводных течений. На некоторых участках их регулярно проверяют и ремонтируют специальные суда.
А в узлах сети стоят дата-центры – гигантские здания с рядами серверных стоек, системой охлаждения, резервным питанием и многоуровневой охраной. Внутри – просто километры кабелей и стойки с мигающими лампочками. Это сердца интернета, где хранятся данные, к которым ты подключаешься.
Так магистрали и дата-центры – это вовсе не «виртуальное пространство», а вполне материальные бетон, сталь и километры стекла, за которые платят миллиарды. Без этих объектов интернета бы просто не существовало.
Как передаются данные
Что такое пакеты
Когда ты открываешь сайт или отправляешь сообщение, твои данные разбиваются на маленькие куски – пакеты. Каждый пакет несёт часть полезной информации плюс «служебные поля»: откуда пришёл, куда идёт, как собрать обратно. Это позволяет сети быстро доставлять данные даже через разные маршруты и обходить повреждённые участки.