@spblug

Страница 559 из 1075
Andrey
07.09.2016
20:01:15
http://www.opennet.ru/opennews/art.shtml?num=45084 уроды!

Karter
07.09.2016
20:02:18
Или не тут?

И кто-то тоже ругался. ?

Google
ovf
07.09.2016
20:04:54
а я, может, хочу air

Vartan
07.09.2016
20:05:34
а че там, кстати, новые эйры анонсировали, нет?

Aleks
07.09.2016
20:21:38
а че там, кстати, новые эйры анонсировали, нет?
Нет, только про айфоны говорили

Видимо в конце года, начале следующего

ovf
07.09.2016
20:24:21
я про adobe air

а то у меня samorost 3 в вайне тормозит

Andrey
07.09.2016
22:15:13
и нет - в окт может

Serg
08.09.2016
08:16:30
Коллеги, подскажите, никто OCFS2 не использует на iscsi или fc?

Roman
08.09.2016
08:17:51
Phil
08.09.2016
08:20:48
лурк начал продавать футболки

Serg
08.09.2016
08:21:37
Я сейчас делаю срез по всем системам виртуализации, кто как shared storage использует. И в основном это либо распределенные системы, либо lvm group. В качестве именно shared disk только vmware (vmfs) либо oracle (ocfs), есть еще gfs2, но в сравнении с ocfs2 намного сложнее и менее производительней :( А запара в том, что oracle только свои ядра поддерживает... И возникает вопрос целесообразности использования ocfs2 под deb и на сколько оно стабильно...

Kirill
08.09.2016
08:50:28
Google
Serg
08.09.2016
08:54:04
Почему не юзать oracle linux для этого?!
Было принято решение использовать 16.04 для нод.

Собственно 16.04 нас всем устраивает, но сейчас вопрос - либо мы lvm group для shared disk используем, что потом аукается в импорте, экспорте vm, либо какую-либо фс и тогда все в файлах и у нас все проще

Serg
08.09.2016
09:11:52
9P может попробовать?
Почитал - аццкая хрень, кто ее поддерживать будет потом?

Phil
08.09.2016
09:12:41
Почитал - аццкая хрень, кто ее поддерживать будет потом?
Угу. Ацкая не ацкая, а virtio её пользует. И Fuse всего-лишь аналог

Serg
08.09.2016
09:16:58
Это немного не в ту сторону, это больше user space фс.

pl
08.09.2016
09:18:50
https://lists.gnu.org/archive/html/qemu-discuss/2016-06/msg00035.html

Serg
08.09.2016
09:21:38
Да, вполне. У нас другая задача, 9P и fuse немного не подходят для этого ))

Andrey
08.09.2016
09:21:55
kvm тоже юзерспейс :)
эко тебя торкнуло

Andrey
08.09.2016
09:30:47
нам нужен ux-ер и java-программисты

резюме слать мне

Phil
08.09.2016
09:46:02
uxчто?

Andrey
08.09.2016
09:49:04
http://itasystems.ru/

вакансии тут

дддд

старые закончились :)))

Google
Denis
08.09.2016
09:56:38
старые закончились :)))
Таки вы дошираками кормите, вот и кончаются.

Aleks
08.09.2016
09:57:11
Нет, они просто съели все дошираки. И после этого они закончились.

Нельзя есть все дошираки.

Нельзя.

Sergey
08.09.2016
09:58:24
хех, юзаю заюзал retroshare... там поживее чем в телеграммчике...

если есть желающие потестить, вэлком

Andrey
08.09.2016
10:01:04
щто это было?

Sergey
08.09.2016
10:03:39
чито именно?

делюсь впечатлениями от штуковины

Karter
08.09.2016
10:11:28
щто это было?
"Извините, был напуган".

Sergey
08.09.2016
10:12:14
:)

Aleks
08.09.2016
10:21:30
https://ru.wikipedia.org/wiki/RetroShare - кто там ныл по IRC?

Sergey
08.09.2016
10:41:28
это явно лучше чем irc

seeker
08.09.2016
12:44:01
нет ничего лучше ирц!

Aleks
08.09.2016
12:44:42
нет ничего лучше ирц!
сказал он в телеграме

Sergey
08.09.2016
12:44:56
:)

seeker
08.09.2016
12:45:46
ну надо же было попробовать... у меня даже в мордокниге как-то был аккаунт

Google
Roman
08.09.2016
12:51:45
Phil
08.09.2016
12:52:34
Serg
08.09.2016
12:52:40
rados
Да, один из вариантов - CEPH.

seeker
08.09.2016
12:53:34
при нормальных каналах и большом количестве нод он даже не очень омерзителен

2016-09-08 15:54:01.484908 mon.0 [INF] pgmap v78075707: 3322 pgs: 3318 active+clean, 4 active+clean+scrubbing+deep; 28816 GB data, 85699 GB used, 57067 GB / 139 TB avail; 35554 kB/s rd, 118 MB/s wr, 6050 op/s

Roman
08.09.2016
12:55:52
Да
virtio ничего не знает про 9p

Admin
ERROR: S client not available

Roman
08.09.2016
12:56:29
Да
kvm - это модуль ядра.

seeker
08.09.2016
12:57:36
8+3 ноды 120осд кеш не используем

Roman
08.09.2016
12:58:15
8+3 ноды 120осд кеш не используем
Эээ, а чуть более развернуто можно? И по каким причинам без кеша?

И как ceph в качестве object storage?

Serg
08.09.2016
13:00:26
Да, я бы тоже с удовольствием послушал ))

seeker
08.09.2016
13:01:56
8x12 SAS15k 3x12 SATA кеш тупо пихать некуда.

как рбд оно норм. как s3 ... ну у нас не очень большой трафик. но вроде +/- работает. вот только никто так и не придумал как бы так RGW апнуть с хаммера на джевел что бы все по пошло по ...

так что ргв висят отдельно пока

в предыдущей конторке было 6x4 прям на нодах проксмокса... был сильно грустнее

Serg
08.09.2016
13:10:47
11 нод и 139 Тб внушительно??

seeker
08.09.2016
13:13:32
По результатам экспериментов - 1 вынесение журнала осмысленно только при вынесении ее на очень шустнрый ссд.

Google
seeker
08.09.2016
13:14:28
2 при умирании ссд с журналом все осд что былы на нем делают полный backfill

seeker
08.09.2016
13:15:21
maxdisk iops*2*кол-во дисков

Roman
08.09.2016
13:15:50
maxdisk iops*2*кол-во дисков
ну так это 200 для sata-диска

ну ок, 400 для sas

количество дисков в osd или вообще суммарно по всем osd?

seeker
08.09.2016
13:16:47
количество дисков в ноде.

ну у меня короче какой-то древний талос был - и он судя по графикам начал захлебываться. ну или конетроллер на нем начал захлебываться

Roman
08.09.2016
13:18:23
количество дисков в ноде.
пф... ну 400*12 это где-то 5к iops

ну т.е. при том что современные в худшем случае выдают 30k на запись

seeker
08.09.2016
13:19:10
у меня там в журнал получилось еще *2 почему-то

но разбираться было некогда и безмысленно - в боевых нодах 2ссд воткнуть некуда было

Roman
08.09.2016
13:21:26
seeker
08.09.2016
13:22:20
физически. 12 дырок спереди заняты осд, 2 дырки с зади - системой. пци-е контроллером и сетевкой.

ну и выпадение с ребилдом 12ти осд для такого маленького кластера это писец.

дата не пропадет но слоуреквесты будут

да. размер реплики у нас 3

Roman
08.09.2016
15:10:48
о, bcache - это збс

вообще огонь

Страница 559 из 1075