Быстрее ли сегменты сети означают более быстрый расход или меньшую задержку?

Это еще один из этих гипотетических вопросов. Я пытался выяснить, будет ли более быстрый «сегмент» сети между хостом A и хостом B переводить в более быстрый поток или более низкую задержку между ними. Позвольте мне показать вам физические ссылки в сети между компьютером A и компьютером B:

host A (1000Base-T NIC) -> copper 1000Base-T link -> 1G copper switch -> 
[SFP module] -> a short 10G/40G/100G fibre run -> [SFP module] ->
1G copper switch -> copper 1000Base-T link -> host B (1000Base-T NIC)

Короче говоря, есть ссылка 1G от хоста A к первому коммутатору, у которого есть модуль SFP, в котором он подключен к короткому 10G /40G /100G (не имеет значения, только быстрее, чем 1G) который подключается к другому модулю SFP в другом медном коммутаторе 1G, который подключается через медь 1G к хосту B.

Увеличивает ли трафик поток между двумя хостами из-за бегуна в середине? Или скорость потока и задержка будут одинаковыми, если раздел между двумя коммутаторами был такой же, как и остальная часть сети?

Было бы разумно, чтобы латентность была ниже между хостом A и хостом B, но скорость входа и выхода сетевых адаптеров ограничивала бы скорость потока, правильно? Если это так, имеет ли смысл подключать «основные» коммутаторы и маршрутизаторы вместе с более быстрыми ссылками?

12 голосов | спросил Libbux 1 J0000006Europe/Moscow 2013, 09:40:27

5 ответов


12

Ни то, ни другое. Замена медной линии с помощью волоконно-оптической линии может уменьшить латентность маленького бита (предполагая незакрепленную ссылку), но то, что вы действительно получаете, когда вы заменяете «основную» связь с более высокой пропускной способностью, является менее вероятной заторов , В вашем примере scenerio это не имеет значения, потому что на каждом конце есть только одно устройство. В живой сети, однако, переход от 1g до 10g основных ссылок облегчит проблемы с перегрузками в ядре сети.

Теперь, в качестве побочного эффекта, вы можете получить более низкую задержку и лучший поток трафика, но это связано только с ослаблением перегруженности, поэтому маршрутизаторы /коммутаторы не перегружены и не упадут /не запустят трафик.

ответил Justin Seabrook-Rocha 1 J0000006Europe/Moscow 2013, 09:49:03
6

Скорость потока данных не имеет никакого отношения к физике среды. Под этим я подразумеваю, что для электрического сигнала требуется одно и то же время с одной стороны от медного прохода на 100 метров до другого, независимо от того, является ли этот сигнал частью линии 10 Мбит /с или 1 Гбит /с.

Если вы переходите от меди к волокну, вы можете заметить небольшое улучшение, но это действительно должно быть лишь незначительной разницей.

Теперь есть другие факторы, которые могут вступить в игру, например, оборудование, которое может делать 10 Гбит /с, как правило, более способно обрабатывать фреймы /пакеты, чем оборудование, предназначенное для выполнения 10 Мбит /с, поэтому латентность, добавленная оборудованием, может также уменьшаться. Но это полностью зависит от возможностей оборудования, а не от скорости ссылки.

ответил YLearn 1 J0000006Europe/Moscow 2013, 09:56:31
5

В этом случае переход от 1G в конец к ядру 10G не должен существенно ничего менять. Только предельное увеличение пропускной способности было бы связано с более быстрой сигнализацией (уменьшением битового времени) на линии 10G +. Но в отсутствие каких-либо перегрузок (читайте: другие хосты), они должны были с самого начала насытить ссылку.

Время, затрачиваемое хостами A & B для сигнала (в и из) пакет не изменяется. Время, затрачиваемое на пересылку пакета с коммутатора на коммутатор, теоретически пропорционально быстрее. Однако на этих скоростях разница не заметна для человека. (~ 10 единиц на 1500 мт-пакет)

ответил Ricky Beam 2 J0000006Europe/Moscow 2013, 03:28:04
0

Поскольку пропускная способность = размер окна /RTT, все, что сокращает RTT, увеличит пропускную способность, возникает другой вопрос относительно того, стоит ли это. Чем больше размер окна, тем больше уменьшается влияние RTT.

ответил fredpbaker 1 J0000006Europe/Moscow 2013, 21:16:33
0

Это зависит.

В противном случае в зависимости от того, будут ли коммутационные устройства «хранить и переадресовывать» или «прорезать». Если коммутационные устройства хранятся и пересылаются, то более быстрые ссылки будут означать более низкую задержку. Однако, если они поддерживают сквозное переключение, будет введена дополнительная латентность, поскольку невозможно выполнить переключение с более медленной входящей ссылки на более быструю исходящую связь. Однако, если вы не играете в мире высокочастотной торговли или не похожи, это, вероятно, будет небрежным в любом случае.

В практичной сети, имеющей большую емкость в ядре, уменьшается вероятность того, что столкновение с другими пользователями будет встречено. Перегруженность приводит к снижению производительности и задержке. В общем, хорошо, если ваши основные ссылки быстрее, чем ваши ссылки для конечных пользователей, поэтому ни один конечный пользователь не может их насытить (поэтому, если вы используете гигабит на рабочем столе, вы должны иметь 10-гигабитное ядро).

ответил Peter Green 4 Jam1000000amMon, 04 Jan 2016 07:30:43 +030016 2016, 07:30:43

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132