
Andrey
07.09.2016
20:01:15
http://www.opennet.ru/opennews/art.shtml?num=45084 уроды!

Karter
07.09.2016
20:02:18
Или не тут?
И кто-то тоже ругался. ?

Google

ovf
07.09.2016
20:04:54
а я, может, хочу air

Vartan
07.09.2016
20:05:34
а че там, кстати, новые эйры анонсировали, нет?

Aleks
07.09.2016
20:21:38
Видимо в конце года, начале следующего

ovf
07.09.2016
20:24:21
я про adobe air
а то у меня samorost 3 в вайне тормозит

Andrey
07.09.2016
22:15:13
и нет - в окт может

Serg
08.09.2016
08:16:30
Коллеги, подскажите, никто OCFS2 не использует на iscsi или fc?

Roman
08.09.2016
08:17:51

Phil
08.09.2016
08:20:48
лурк начал продавать футболки

Serg
08.09.2016
08:21:37
Я сейчас делаю срез по всем системам виртуализации, кто как shared storage использует. И в основном это либо распределенные системы, либо lvm group. В качестве именно shared disk только vmware (vmfs) либо oracle (ocfs), есть еще gfs2, но в сравнении с ocfs2 намного сложнее и менее производительней :( А запара в том, что oracle только свои ядра поддерживает... И возникает вопрос целесообразности использования ocfs2 под deb и на сколько оно стабильно...

Kirill
08.09.2016
08:50:28

Google

Andrey
08.09.2016
08:52:15

Serg
08.09.2016
08:54:04
Собственно 16.04 нас всем устраивает, но сейчас вопрос - либо мы lvm group для shared disk используем, что потом аукается в импорте, экспорте vm, либо какую-либо фс и тогда все в файлах и у нас все проще

Phil
08.09.2016
09:02:37

Serg
08.09.2016
09:11:52

Phil
08.09.2016
09:12:41

Serg
08.09.2016
09:16:58
Это немного не в ту сторону, это больше user space фс.

Phil
08.09.2016
09:18:14

pl
08.09.2016
09:18:50
https://lists.gnu.org/archive/html/qemu-discuss/2016-06/msg00035.html

Phil
08.09.2016
09:20:08

Serg
08.09.2016
09:21:38
Да, вполне. У нас другая задача, 9P и fuse немного не подходят для этого ))

Andrey
08.09.2016
09:21:55

Andrey
08.09.2016
09:30:47
нам нужен ux-ер и java-программисты
резюме слать мне

Phil
08.09.2016
09:46:02
uxчто?

Andrey
08.09.2016
09:49:04
http://itasystems.ru/
вакансии тут
дддд
старые закончились :)))

Google

Denis
08.09.2016
09:56:38

Aleks
08.09.2016
09:57:11
Нет, они просто съели все дошираки. И после этого они закончились.
Нельзя есть все дошираки.
Нельзя.

Sergey
08.09.2016
09:58:24
хех, юзаю заюзал retroshare... там поживее чем в телеграммчике...
если есть желающие потестить, вэлком

Andrey
08.09.2016
10:01:04
щто это было?

Sergey
08.09.2016
10:03:39
чито именно?
делюсь впечатлениями от штуковины

Karter
08.09.2016
10:11:28

Sergey
08.09.2016
10:12:14
:)

Aleks
08.09.2016
10:21:30
https://ru.wikipedia.org/wiki/RetroShare - кто там ныл по IRC?

Sergey
08.09.2016
10:41:28
это явно лучше чем irc

seeker
08.09.2016
12:44:01
нет ничего лучше ирц!

Aleks
08.09.2016
12:44:42

Sergey
08.09.2016
12:44:56
:)

seeker
08.09.2016
12:45:46
ну надо же было попробовать... у меня даже в мордокниге как-то был аккаунт

Roman
08.09.2016
12:50:36
?

Google

Roman
08.09.2016
12:51:45

Phil
08.09.2016
12:52:34

Serg
08.09.2016
12:52:40
rados
Да, один из вариантов - CEPH.

seeker
08.09.2016
12:53:34
при нормальных каналах и большом количестве нод он даже не очень омерзителен
2016-09-08 15:54:01.484908 mon.0 [INF] pgmap v78075707: 3322 pgs: 3318 active+clean, 4 active+clean+scrubbing+deep; 28816 GB data, 85699 GB used, 57067 GB / 139 TB avail; 35554 kB/s rd, 118 MB/s wr, 6050 op/s

Roman
08.09.2016
12:55:52
Да
virtio ничего не знает про 9p

Admin
ERROR: S client not available

Roman
08.09.2016
12:56:29

seeker
08.09.2016
12:57:36
8+3 ноды 120осд
кеш не используем

Roman
08.09.2016
12:58:15
И как ceph в качестве object storage?

Serg
08.09.2016
13:00:26
Да, я бы тоже с удовольствием послушал ))

seeker
08.09.2016
13:01:56
8x12 SAS15k
3x12 SATA
кеш тупо пихать некуда.
как рбд оно норм. как s3 ... ну у нас не очень большой трафик. но вроде +/- работает.
вот только никто так и не придумал как бы так RGW апнуть с хаммера на джевел что бы все по пошло по ...
так что ргв висят отдельно пока
в предыдущей конторке было 6x4 прям на нодах проксмокса... был сильно грустнее

Serg
08.09.2016
13:10:47
11 нод и 139 Тб внушительно??

seeker
08.09.2016
13:13:32
По результатам экспериментов - 1 вынесение журнала осмысленно только при вынесении ее на очень шустнрый ссд.

Google

seeker
08.09.2016
13:14:28
2 при умирании ссд с журналом все осд что былы на нем делают полный backfill

Roman
08.09.2016
13:14:46
сколько iops?

seeker
08.09.2016
13:15:21
maxdisk iops*2*кол-во дисков

Roman
08.09.2016
13:15:50
ну ок, 400 для sas
количество дисков в osd или вообще суммарно по всем osd?

seeker
08.09.2016
13:16:47
количество дисков в ноде.
ну у меня короче какой-то древний талос был - и он судя по графикам начал захлебываться. ну или конетроллер на нем начал захлебываться

Roman
08.09.2016
13:18:23
ну т.е. при том что современные в худшем случае выдают 30k на запись

seeker
08.09.2016
13:19:10
у меня там в журнал получилось еще *2 почему-то
но разбираться было некогда и безмысленно - в боевых нодах 2ссд воткнуть некуда было

Roman
08.09.2016
13:21:26

seeker
08.09.2016
13:22:20
физически. 12 дырок спереди заняты осд, 2 дырки с зади - системой. пци-е контроллером и сетевкой.
ну и выпадение с ребилдом 12ти осд для такого маленького кластера это писец.
дата не пропадет но слоуреквесты будут
да. размер реплики у нас 3

Roman
08.09.2016
15:10:48
о, bcache - это збс
вообще огонь