LINUX.ORG.RU

Новая инициатива проекта OpenBSD - демон OSPF маршрутизации


0

0

В дерево исходных текстов OpenBSD помещен код нового демона ospfd, поддерживающего базовые функции маршрутизации по протоколу OSPF. Ospfd построен на базе ранее выпущенного bgpd.

В будущем планируется реализовать поддержку маршрутизации сетей описанных через алиасы на интерфейсе (aliased networks), учет статуса от подсистемы carp, работу с динамически создаваемыми интерфейсами, такими как tun или pppoe.

Новость взята с http://opennet.ru

>>> Подробности

★★★☆

Проверено: Pi ()

www.quagga.net это плохо?

Imho вполне разумные разработчкики. Да, старый код часто убогий, но теперяшняя команда вполне вменяема.

?

anonymous
()
Ответ на: комментарий от anonymous

Тем что ospfd dies silently, ospfd crash, etc. сообщения в мейлинг-листе всплывают с заметной переодичностью, я одно время баг-репорты писал, потом забил на их ospfd.

majordomo
()

Почему в этом ОпенБСДэ нет нормального инсталлятора, хотябы как в Net?
Когда эта порносистема своим установичным скриптом перестанет сносить таблицу разделов без всякого
предупреждения, если _СЛУЧАЙНО_, читай в спешке или с бодуна выбрать "Use entire дискъ"?
Графический инсталер мне не надо, но минимум должен быть! Почему в Net/Free есть?
И почему это то##но при маунте игнорирует "noatime", то есть он его как бы принимает, при просмотре
замонтированных разделов он "noatime" показывает и все равно его (atime) записывает.
В какойто из более ранних версий все было ОК. Хыккеры блин великие...


anonymous
()
Ответ на: комментарий от anonymous

>читай в спешке или с бодуна выбрать "Use entire дискъ"?

дык для этого надо ввести _недефолтный_ ответ на вопрос инсталлера!

... хотя согласен, что инсталлер у них заслуживает ... внимания :)

Pi ★★★★★
()
Ответ на: комментарий от anonymous

1. спешка нужна при ловле блох
2. с бодуна тебя и инсталятор расписной от ошибки не застрахует
3. не нравиться - не пользуй

W ★★★★★
()
Ответ на: комментарий от W

люди! объясните, пожалуйста! во фрибзде, как известно, есть один cvsup-тэг - current, (остальные, привязанные к релизам смысла не имеют)... а в net/open, как я вчера вычитал на кёрнельтрапе, всё не так! объясните, пожалуйста, как! раз в квартал/полгода объявляется новая ветка. мы софт до неё обновляем. теперь что предлагается делать через месяц, когда обнаруживается дырка в софте? скачать махонький патч, пересобрать дырявую софтину и жить дальше (до следующей ветки) или как-то ещё? если первое, то мегарулез! а если не первое, то объясните, пожалуйста, как! на www.netbsd.org был, не нашёл точного ответа! :-(

p.s. А ещё... может кто проверял, в open/netbsd UFS тормозная как во фре или всё хорошо?

anonymous
()
Ответ на: комментарий от anonymous

когда какое-то время назад на ftpd была найдена нехорошая уязвимость, всё, что мне нужно было сделать на сервере это:

$ less advisory.log $ cd /usr/src/libexec/ftpd $ cvs up -dP $ make depend && make && make install

все собссно.

> p.s. А ещё... может кто проверял, в open/netbsd UFS тормозная как во фре или всё хорошо?

хорошо - это сколько?

# uname -a NetBSD NBSD1 2.99.13 NetBSD 2.99.13 (GENERIC-$Revision: 1.628 $) #0: Tue Jan 11 15:23:01 NOVT 2005 toor@NBSD1:/usr/src/sys/arch/i386/compile/NBSD1 i386 # dmesg | grep cpu cpu0 at mainbus0: (uniprocessor) cpu0: Intel Celeron (686-class), 1007.08 MHz, id 0x68a cpu0: features 383fbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR> cpu0: features 383fbff<PGE,MCA,CMOV,PAT,PSE36,MMX> cpu0: features 383fbff<FXSR,SSE> cpu0: I-cache 16 KB 32B/line 4-way, D-cache 16 KB 32B/line 4-way cpu0: L2 cache 128 KB 32B/line 4-way cpu0: ITLB 32 4 KB entries 4-way, 2 4 MB entries fully associative cpu0: DTLB 64 4 KB entries 4-way, 8 4 MB entries 4-way cpu0: 8 page colors # dmesg | grep memory total memory = 255 MB avail memory = 248 MB pci0: i/o space, memory space enabled, rd/line, rd/mult, wr/inv ok pci1: i/o space, memory space enabled # mount | grep wd1 /dev/wd1e on /home type ffs (soft dependencies, NFS exported, local) /dev/wd1f on /pub type ffs (soft dependencies, NFS exported, local) # dmesg | grep wd1 wd1 at atabus1 drive 0: <Maxtor 6Y120L0> wd1: drive supports 16-sector PIO transfers, LBA addressing wd1: 114 GB, 238216 cyl, 16 head, 63 sec, 512 bytes/sect x 240121728 sectors wd1: 32-bit data port wd1: drive supports PIO mode 4, DMA mode 2, Ultra-DMA mode 6 (Ultra/133) wd1(piixide0:1:0): using PIO mode 4, Ultra-DMA mode 2 (Ultra/33) (using DMA) # dd if=/dev/zero of=/pub/dat bs=1m count=1024 1024+0 records in 1024+0 records out 1073741824 bytes transferred in 49.579 secs (21657190 bytes/sec)

*) диск достаточно старенький **) мамка еще древнее и выше UDMA33 не держит

// wbr

anonymous
()
Ответ на: комментарий от anonymous

пардон, накосячил.. я так понимаю стоит ставить preformatted text..

# uname -a
NetBSD NBSD1 2.99.13 NetBSD 2.99.13 (GENERIC-$Revision: 1.628 $) #0: Tue Jan 11 15:23:01 NOVT 2005  toor@NBSD1:/usr/src/sys/arch/i386/compile/NBSD1 i386
# dmesg | grep cpu
cpu0 at mainbus0: (uniprocessor)
cpu0: Intel Celeron (686-class), 1007.08 MHz, id 0x68a
cpu0: features 383fbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR>
cpu0: features 383fbff<PGE,MCA,CMOV,PAT,PSE36,MMX>
cpu0: features 383fbff<FXSR,SSE>
cpu0: I-cache 16 KB 32B/line 4-way, D-cache 16 KB 32B/line 4-way
cpu0: L2 cache 128 KB 32B/line 4-way
cpu0: ITLB 32 4 KB entries 4-way, 2 4 MB entries fully associative
cpu0: DTLB 64 4 KB entries 4-way, 8 4 MB entries 4-way
cpu0: 8 page colors
# dmesg | grep memory
total memory = 255 MB
avail memory = 248 MB
pci0: i/o space, memory space enabled, rd/line, rd/mult, wr/inv ok
pci1: i/o space, memory space enabled
# mount | grep wd1
/dev/wd1e on /home type ffs (soft dependencies, NFS exported, local)
/dev/wd1f on /pub type ffs (soft dependencies, NFS exported, local)
# dmesg | grep wd1
wd1 at atabus1 drive 0: <Maxtor 6Y120L0>
wd1: drive supports 16-sector PIO transfers, LBA addressing
wd1: 114 GB, 238216 cyl, 16 head, 63 sec, 512 bytes/sect x 240121728 sectors
wd1: 32-bit data port
wd1: drive supports PIO mode 4, DMA mode 2, Ultra-DMA mode 6 (Ultra/133)
wd1(piixide0:1:0): using PIO mode 4, Ultra-DMA mode 2 (Ultra/33) (using DMA)
# dd if=/dev/zero of=/pub/dat bs=1m count=1024
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 49.579 secs (21657190 bytes/sec)

// wbr

anonymous
()
Ответ на: комментарий от anonymous

/usr/src/libexec/ftpd - это базовая система! тут и у freebsd всё кошерно! а что с pkgsrc? если там находят дырку, патч выпускается? или надо ставить новую версию софтины?

22МВ/сек при UDMA33 на современном, 120 гиговнике, это просто мрак! 8-((( Или там по NFS 20 клиентов прицепилось?

Не мрак - это когда на одном IDE-шнике 5 клиентов качают со скоростью 3.5МВ/сек (на каждого). Это в linux на любой из тамошних FS. А мрак - это когда эти клиенты качают со скоростью 2.2МВ/сек... это freebsd5.2.1, UFS2... :-( Надеялся, что в NET/OPEN с этим получше....

anonymous
()
Ответ на: комментарий от anonymous

> /usr/src/libexec/ftpd - это базовая система! тут и у freebsd всё кошерно! а что с pkgsrc? если там находят дырку, патч выпускается? или надо ставить новую версию софтины?

update по желанию. бинарные патчи под пакеты afaik не выпускают [и слава богу].

ps: на заглавной странице www.pkgsrc.org написано, что где и как.

// wbr

anonymous
()
Ответ на: комментарий от anonymous

> 22МВ/сек при UDMA33 на современном, 120 гиговнике, это просто мрак! 8-((( Или там по NFS 20 клиентов прицепилось?

ну не двадцать но порядка пяти точно есть.

> Не мрак - это когда на одном IDE-шнике 5 клиентов качают со скоростью 3.5МВ/сек (на каждого).

через NFS на 100MBit Ethernet? это наврятли вне зависимости от OS :)

> Это в linux на любой из тамошних FS. А мрак - это когда эти клиенты качают со скоростью 2.2МВ/сек... это freebsd5.2.1, UFS2... :-( Надеялся, что в NET/OPEN с этим получше....

ну если клиенты локальные, то запросто:

$ dd if=/dev/zero of=dat1 bs=1m count=1024 &
[1] 12739
$ dd if=/dev/zero of=dat2 bs=1m count=1024 &
[2] 8161
$ dd if=/dev/zero of=dat3 bs=1m count=1024 &
[3] 5577
$ dd if=/dev/zero of=dat4 bs=1m count=1024 &
[4] 9464
$ dd if=/dev/zero of=dat5 bs=1m count=1024 &
[5] 25947
$ 1024+0 records in
1024+0 records out
1073741824 bytes transferred in 177.022 secs (6065584 bytes/sec)
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 227.927 secs (4710902 bytes/sec)
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 238.031 secs (4510932 bytes/sec)
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 244.178 secs (4397373 bytes/sec)
1024+0 records in
1024+0 records out
1073741824 bytes transferred in 249.820 secs (4298061 bytes/sec)
[5] + Done dd if=/dev/zero of=dat5 bs=1m count=1024
[4] - Done dd if=/dev/zero of=dat4 bs=1m count=1024
[3]   Done dd if=/dev/zero of=dat3 bs=1m count=1024
[2]   Done dd if=/dev/zero of=dat2 bs=1m count=1024
[1]   Done dd if=/dev/zero of=dat1 bs=1m count=1024

// wbr

anonymous
()
Ответ на: комментарий от anonymous

Не, мрак - это когда тупоголовые анонисты с одним ide диском и 5

клиентами начинают рассуждать о файловых системах :))))

У меня была фряха 4.3 или 4.7 уже не помню, которая лехко отдавала

~100 мег/сек по 2 гигабитным сетевухам.

Как ты думаешь сколько процентов тут приходилось на долю фс?

Sun-ch
()
Ответ на: комментарий от Sun-ch

И кто же эти 100 мег в секунду принимал, интересно? Врешь ты все Саныч. Врешь!

anonymous
()
Ответ на: комментарий от Sun-ch

Читалось из кэша?

Я видел скорость считывания с винта в тесте около 60Мб/с, но чтобы больше, да и случайную инфу это рэйд нужен и кэш, то бишь памяти побольше.

jackill ★★★★★
()
Ответ на: комментарий от anonymous

>dd if=/dev/zero of=dat1 bs=1m count=1024 &

ээээ... мегабайтными чанками? я тестил не по сети (действительно, 12 мегпс - это уже самый предел и может помешать сравнению), а /bin/cp шками. причём, каждый с винта читает, на винт пишет... то есть copy/write ratio 50/50. cp, как я понял, работает 128кбайтными порциями или даже 64-х... а у вас сейчас 100% write и такими огромными кусками...

anonymous
()
Ответ на: комментарий от anonymous

> Не мрак - это когда на одном IDE-шнике 5 клиентов качают со скоростью 3.5МВ/сек (на каждого).

..на основании этого я и делал тест. причем не на чтение, а на запись с целью ужесточения условий (запись идет заметно медленнее).

> ээээ... мегабайтными чанками? я тестил не по сети (действительно, 12 мегпс - это уже самый предел и может помешать сравнению), а /bin/cp шками. причём, каждый с винта читает, на винт пишет... то есть copy/write ratio 50/50. cp, как я понял, работает 128кбайтными порциями или даже 64-х...

я как-то затрудняюсь представить ситуацию, при которой NFS или SMB клиент одновременно считывает и записывает [гигабайтный] файл на сервере :) обычно он его или пишет или читает..

> а у вас сейчас 100% write и такими огромными кусками...

ну в пределе можно и побайтно писать, но это уже проблемы не FS а клиента

// wbr

anonymous
()
Ответ на: комментарий от anonymous

если быть точным и считать скорость считывания файла несколькими клиентами, то получится навроде:

$ ls -l dat
-rw-r--r--  1 someone wheel  1073741824 Feb  2 12:08 dat
$ dd if=dat of=/dev/zero &
[1] 13677
$ dd if=dat of=/dev/zero &
[2] 11939
$ dd if=dat of=/dev/zero &
[3] 24397
$ dd if=dat of=/dev/zero &
[4] 6538
$ dd if=dat of=/dev/zero &
[5] 12627
$ 2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 76.764 secs (13987570 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 79.700 secs (13472293 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 78.812 secs (13624090 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 79.272 secs (13545032 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 79.802 secs (13455074 bytes/sec)
[5] + Done                 dd if=dat of=/dev/zero
[4] - Done                 dd if=dat of=/dev/zero
[3]   Done                 dd if=dat of=/dev/zero
[2]   Done                 dd if=dat of=/dev/zero
[1]   Done                 dd if=dat of=/dev/zero

// wbr

anonymous
()
Ответ на: комментарий от anonymous

$ ls -l
total 8389888
-rw-r--r--  1 someone  wheel  1073741824 Feb  3 11:48 dat1
-rw-r--r--  1 someone  wheel  1073741824 Feb  3 11:49 dat2
-rw-r--r--  1 someone  wheel  1073741824 Feb  3 11:50 dat3
-rw-r--r--  1 someone  wheel  1073741824 Feb  3 11:51 dat4
$ dd if=dat1 of=/dev/null &
[1] 24526
$ dd if=dat2 of=/dev/null &
[2] 4015
$ dd if=dat3 of=/dev/null &
[3] 16867
$ dd if=dat4 of=/dev/null &
[4] 2376
$ 2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 414.381 secs (2591194 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 431.125 secs (2490558 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 431.786 secs (2486745 bytes/sec)
2097152+0 records in
2097152+0 records out
1073741824 bytes transferred in 430.432 secs (2494567 bytes/sec)
[4] + Done                 dd if=dat4 of=/dev/null
[3] - Done                 dd if=dat3 of=/dev/null
[2]   Done                 dd if=dat2 of=/dev/null
[1]   Done                 dd if=dat1 of=/dev/null

// wbr

anonymous
()
Ответ на: комментарий от anonymous

ps: один файл == "десять пользователей смотрят один фильм" :)

// wbr

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.