Link Aggregation Control Protocol (LACP) (IEEE 802.1AX-2008, wcześniej IEEE 802.3ad), to mechanizm umożliwiający scalenie interfejsów sieciowych w jedno, logiczne połączenie. W linuxie Link Agregation odbywa się z użyciem modułu bonding.ko, dlatego też często stosuje się nazewnictwo bondingu w kontekście linuxa, a pamiętajmy, Tomato to linux
Korzyści z Link Aggregation w porównaniu z tradycyjnym połączeniem za pośrednictwem pojedynczego kabla:
- większa prędkość połączenia
- większa niezawodność
Niezawodność jest dość oczywista. W przypadku uszkodzenia jednego linku (awaria karty sieciowej, uszkodzenie kabla, nieumyślne wypięcie kabla sieciowego) spada jedynie prędkość linku, natomiast komunikacja nadal odbywa się bez przeszkód.
Co do większej prędkości to należy się tu małe dopowiedzenie. Jeżeli mamy 2 komputery ze skonfigurowanym LAG na 2Gbps, to prędkość przesyłu między tymi dwoma komputerami nadal wyniesie maksymalnie 1Gbps. Link Aggregation nie potrafi wykorzystać wielu interfejsów między dwoma końcówkami. Co więcej nie pomoże w tym przypadku MultiChannel SMB3.0 zaimplementowany w Windows 8 i wyżej. Link Aggregation stosuje się wszędzie tam, gdzie wielu użytkowników ma jednoczesny dostęp do zasobów (np. do NAS`a). Przykładem niech będzie serwer, który pełni funkcję serwera plików. Jeżeli skonfigurujemy na nim Link Aggregation z 4-ch sieciówek, uzyskując tym samym LAG o prędkości 4Gbps i podłączy się do niego czterech klientów, każdy z linkiem 1Gbps to każdy z nich będzie w stanie wysycić max swojego linku, czyli 1Gbps (oczywiście pod warunkiem, że wydajność maszyny - dysków - na to pozwoli). W ten sposób wysycimy całe 4Gbps LAG na serwerze.
Konfiguracja
Niniejszy tutorial opisuje konfigurację Link Aggregation między Tomato a Netgear ReadyNAS Pro4, który to posiada dwa porty gigabitowe. Zalecana wersja Tomato to v138 lub wyżej. Minimalna to v137, gdyż w niej finalnie został zmodyfikowany skrypt do bindingu. Wspomnę również, że póki co bonding zaimplementowany jest tylko w Tomato ARM. Do obrazów Mipsel funkcja bondingu pojawi się od Tomato v139.
Tomato
Potrzebujemy wydzielić dwa porty routera jako dwa niezależne interfejsy. W tym celu udajemy się do Advanced -> VLAN.
Jak widać na powyższym obrazku. Porty 3 i 4 zostały wypięte z głównego VLANu (br0), dodane zostały nowe, kolejne VLANy o ID 3 i 4 (akurat tak się złożyło). Do każdego VLANu został wpięty jeden port. Oba VLANy nie zostały przyporządkowane do żadnego bridge`a.
Oczywiście konfiguracja VLANów u Was może wygląda nieco inaczej. Wszystko zależy od tego czy poczyniliście wcześniej jakieś modyfikacje w VLANach, np. przy konfiguracji dualWAN lub sieci gościnnej. Ważne by wydzielić dwa VLANy pod bonding. U mnie przykładowo wygląda to tak:
Jak widać, pomimo mocno rozbudowanej konfiguracji VLANy (u mnie akurat 5 i 6) są skonfigurowane analogicznie jak na pierwszym, wzorcowym obrazku.
Wracamy do meritum. Po ustawieniu VLANów, klikamy SAVE i następuje restart routera. W tym momencie musimy upewnić się, że nie jesteśmy podpięci kablem do wydzielonych portów, gdyż stracimy dostęp do routera. Pamiętajmy, by być wpiętym do portów sparowanych z br0 lub po WiFi.
Gdy router się uruchomi przechodzimy do Administration -> Scripts -> INIT i dopisujemy linijkę:
Cytat
linkagg vlan3 vlan4 br0
Gdzie vlan3 i vlan4 to wydzielone przez nas vlany (porty) pod bonding, zaś br0 to bridge do którego chcemy wpiąć nowoutworzony LAG.
Po zapisaniu zmian restartujemy router.
Efekt możemy obejrzeć w konsoli wydając komendy:
Pierwsza z nich (ifconfig bond0) powinna pokazać nam nowy interfejs bond0:
Druga zaś (brctl show), iż interfejs bond0 został pomyślnie wpięty do br0:
Istnieje również komenda "linkagg -s", która zwraca status utworzonego linku oraz ewentualne błędy:
Na tym kończymy konfigurację routera i przechodzimy do konfiguracji NASa
ReadyNAS Pro4 z oprogramowaniem OS 6.6.1
Tutaj nie ma żadnej filozofii. Niezależnie od posiadanego NAS`a opis bondingu będzie bardzo zbliżony. Przechodzimy do zakładki z konfiguracją połączeń. W moim przypadku jest to zakładka "Sieć".
Na aktywnym połączeniu wybieramy "Nowe powiązanie", po czym w nowym oknie wybieramy drugi interfejs (eth1), typ zespołu LACP na warstwie mieszanej 3+4, ponieważ taki tym powiązania tworzy skrypt linkagg w tomato.
Po zapisaniu zmian ujrzymy jeden interfejs bond0
Dla porównania tak wygląda bonding w Synology (zdjęcie kolegi @mosfit)
Na koniec spinamy NAS i router drugim kablem sieciowym.
Dla zaawansowanych
Skrypt linkagg został przygotowany tak by obsługiwał tylko jeden LAG, tylko dla dwóch portów i w trybie LACP w warstwie 3+4. Skrypt linkagg jest odpowiednikiem wydania poniższych komend (dla vlan5 i vlan6):
Cytat
modprobe bonding
# Setting mode to 802.3ad
echo 802.3ad > /sys/class/net/bond0/bonding/mode
# Setting LACP rate to fast
echo fast > /sys/class/net/bond0/bonding/lacp_rate
# Setting MII monitoring interval to 50
echo 50 > /sys/class/net/bond0/bonding/miimon
# Setting xmit hash policy to layer3+4
echo 1 > /sys/class/net/bond0/bonding/xmit_hash_policy
ip link set bond0 up
echo +vlan5 > /sys/class/net/bond0/bonding/slaves
echo +vlan6 > /sys/class/net/bond0/bonding/slaves
brctl addif br0 bond0
Jeżeli ktoś chce stworzyć inny typ linku agregacyjnego np. round-robin, stworzyć drugi interfejs LAG lub utworzyć jeden mega link 4Gbps między routerem a switchem zarządzalnym, wystarczy że odpowiednio zmodyfikuje powyższe komendy i wklei poprawione do skryptu INIT.
Pozdrawiam
Edytowany przez shibby dnia 10-04-2017 13:31
Proxmox VE:i7-7700T, 48GB RAM, 3x2TB SSD, 1x1TB SSD, 512GB NVMe, Intel X710-DA2 SFP+ VM Router:OpenWRT 22.03.4 VM NAS:Synology DS920+ VM VPS:Debian, WWW, Home Assistant Switch:Netgear MS510TXPP Switch:Ubiquiti USW-Flex-mini - szt. 2 Wi-Fi:Ubiquiti U6-Lite - szt. 2
Powiedzcie mi tylko jeszcze jak to się ma hardwareowo, poleci to na każdym routerku czy musi mieć zaimplementowane 802.3ad ? Prosto z mostu - zadziała na RT-N16 ?
Asus RT-N16 / Tomato Tenda N60 / Tomato Cisco RV082
HomeSerwer: HP G7 N54L | 2x WD RED 2TB | Synology DSM 6.0.2 | TimeMachine + PLEX + CouchPotato + SickRage + inne
Bond Status: bond0 UP
Bridge to WAN Status: Member of br0
Slave 1 Status: vlan=vlan4 Link=UP Port=2
Slave 2 Status: vlan=vlan5 Link=UP Port=3
0t
1t
2t
0
--- Bond Errors ---
Orange 300/50 Mb/s + ONT Terminal HPE MS gen8 Proxmox 7.0-11 VMs: Router OPNsense 23.X-amd64 and OMV HPE MicroServer gen8: Xeon E3-1265Lv2, 16GB (2x KTH-PL316E/8G), HP 331T, 4x4TB WD RED Asus RT-AC68U AccessPoint
Cześć,
zastanawiam się jak rozwiązać mój problem. Używam 4 VLAN-ów. Wszystkie "pcham" na drugie tomato z tym, że 1 jest bez taga, a 3 są otagowane. Drugi "pomidor" ma w sumie 3 br, bo jeden VLAN jest tylko przekazywany na jeden z portów. Chcę zrobić bond-a po którym będą "leciały" VLAN-y tak jak teraz, ale nie mam pojęcia jak to zrobić.
Scalony z 04 grudnia 2023 22:32:45:
Dodałem testowo VLAN z tagiem i ładnie to działa. Po dodaniu VLAN-a nie ruszyło to z automatu. Musiałem "z palca" wywołać
. Problem jeszcze taki, że bond jest między dwoma tomato - main i slave. Mam server i hosta do iperf-a. Server na VLAN 4, a host na VLAN 1. Testując szybkość połączenia ciągle mam coś w okolicach 250 Mb/s. Połączenie jest takie:
Edit:
Działało przez 5 minut i utraciłem połączenie. Po odpięciu jednego z kabli od zbondowanych interface-ów połączenie znowu działa. O co może chodzić? Jak poprawnie dodać tagowane VLAN-y do bonda?
Scalony z 05 grudnia 2023 07:16:46:
Dodam jeszcze, jaki mam soft:
master: Version 2023.2 on Netgear R6400
slave: Version 2023.3 on Netgear R6400
Wkradł się też błąd w opisie połączenia. "Zmiana" VLANu następuje na masterze. Powinno być:
Czy dobrze myślę, że zwiększenie przesyłu jest blokowane przez master-a? Przez chwię użyłem pfSense i nawet bez bondingu było szybciej, mimo, że szło jeszcze z mastera na kolejne urządzenie i z powrotem. Master był wtedy AP ze switchem.
Po pracy spróbuję jeszcze raz, ale wszystko wrzucę na jeden VLAN.
Scalony z 05 grudnia 2023 07:22:12:
Zapomniałem o screenie z konfiguracji VLANów.
Komunikacja była między portami 1 i 2 (z całą tą śmieszną ścieżką). Zastanawiam się czy VLANy nie są zwyczajnie pchane w razie potrzeby, bo WAN był odpięty, a master = slave leciało po bondzie 3 i 4.
webnoob załączono następujące plik:
Nie masz uprawnień, by zobaczyć załączniki w tym wątku.
· Łącznie użytkowników: 24,117 · Najnowszy użytkownik: Ja
Czat
Musisz się zalogować, aby opublikować wiadomość.
tamtosiamto
28-03-2024 23:24
tak, tak zgadza sie, ale ja pytam o wykluczenie noda na guest network w first set, i to nie dziala
Adooni
24-03-2024 13:16
Guest network is currently designed to allow the first set of each band (2.4G, 5G, 5G-1) available to the AiMesh node
tamtosiamto
24-03-2024 03:03
ale w 1 jest opcja do wyboru - dla calej sieci albo rutera only i wlasnie o tym mowie, ze nie dziala
Adooni
23-03-2024 16:31
w dokumencie asusa jest ze wlasnie dla 1 ma dzialac na nodach tez
tamtosiamto
23-03-2024 15:39
tak, ale nie zmienia to faktu, ze w pierwszej nie dziala wylaczanie aimesh dla goscinnej( a powinno), czyli jest jakis bug. Mam start soft, bo to dsl-ac68 ktory nie jest juz updateowany
Adooni
22-03-2024 18:07
nie, 1 wsza bedzie wszedzie trzeba 2ga zrobic dla kazdego pasma te nie sa przenoszone
tamtosiamto
19-03-2024 19:57
czyli jak mam jedna siec goscinna to powinno dzialac separowanie gosci od noda -a nie dziala
tamtosiamto
19-03-2024 19:50
@Adooni 'Only one set is available for 1 band' i tak mam-1 set dla 2.4ghz i 1 dla 5ghz-czy czegos nie rozumiemW drugiej sieci goscinnej nie ma opcji wyboru Ruter only/ All nodes
Adooni
19-03-2024 19:14
no to przeczytaj to 2 pod - 1 stet z kazdego pasma jest dopuszczony na nody. zrob 2 siec jako goscinna na danym pasmie i wtedy sprawdz