Имя: Пароль:
1C
1С v8
Самая большая база данных 1С, кто с такими работал?
0 Kuzen
 
09.08.11
20:04
Интересно кто с какими максимальными объемами баз работал и каково это было.

Интересует от 100 Гб.
1 Armando
 
09.08.11
20:35
Очередной замер писек. Зачем тебе это?
2 Stim213
 
09.08.11
20:37
Сто тыщ террабайт. Куда приходить за призом?
3 poligraf
 
09.08.11
20:37
(0) /me затягиваясь и пуская вверх дым: "Это было великолепно!".

Чего ты о 1С хочешь?
Тут вопрос наличия грамотного админа по SQL, плюс хорошего знания механизмов блокировок, запросов и т.д.
4 acsent
 
09.08.11
20:38
300 гиг было на прошлой работе, 300 юзеров
5 Escander
 
09.08.11
20:40
(0) Чистый объём -не показатель (загрузить 100 тыщ раз в базу "войну и мир" - делов-то!).... реорганизацию давно делали?
6 KRV
 
09.08.11
20:46
На одной, принятой на обслуживании, фирмочке сама база скулевая была 6Г, а лог 170Г - такое пойдет? :))) УТ 10.1 на 2000Скуле, установленном "по 1С-книжке"
7 Маленький Вопросик
 
09.08.11
20:47
(6) ха-ха-ха... не пытались пересоздать дт-шником базу???
8 KRV
 
09.08.11
20:49
Скулем разобрался
9 poligraf
 
09.08.11
20:49
(6) Лог скуля или 1С, который в тексте?
10 KRV
 
09.08.11
20:50
Лог Скуля
11 zak555
 
09.08.11
20:53
109 КБ
12 rs_trade
 
09.08.11
20:55
(0) 350 гигов было. но это она распухла на время. обычный рабочий объем в районе 160 гигов.

100 гиг по меркам скуля не очень большая база.
13 rs_trade
 
09.08.11
20:56
(6) ну это от беспризорности.
14 Маленький Вопросик
 
09.08.11
20:57
(13) +1000
15 KRV
 
09.08.11
21:08
(13) Там еще не такие чудеса были.. :))
16 AlexNew
 
09.08.11
21:13
(0) А что смущает? Напихай картинок, а для рабочей 100 гб, не очень большая.
17 rs_trade
 
09.08.11
21:25
как правило реальные данные процентов 40-50 занимают. остальное индексы. у кого 2008 врубайте сжатие. потом раскажите ))
18 andrewks
 
09.08.11
21:29
(6) охренеть. и как сиё работало?
19 Поручик
 
09.08.11
21:44
(18) Работало. У нас была такая же ситуация. Сама база порядка 10 гектар, лог транзакций - около 230. УТ 10.3 на SQL 2000
20 rs_trade
 
09.08.11
21:45
(18) а в чем проблема? старый лог транзакций на производительность не влияет. просто лежал мертвым грузом на харде и все.
21 Axel2009
 
09.08.11
23:32
(12) смотря скока оперативки.
22 Лефмихалыч
 
09.08.11
23:36
(0) щас у нас вроде (я тут 3 недели только еще, толком не знаю пока чо к чему) 1.5 или 2 аж терабайта центральная база. Усеров 500+
не быстро, но и не сильно медленно, да и это не из за платформы, а из за кривой архитектуры и быдлокода инсайд. И я видел базы на 30Гб и 100 пользюков, которые работали в пару десятков раз медленнее.

С какой целью интересуешься-то? С фалометрической или какие конкретные вопросы есть?
23 Neg
 
09.08.11
23:37
8 терабайт.
24 GROOVY
 
09.08.11
23:41
600 TB. Я работал только с конфой. Про особенности БД ничего сказать не могу.
25 zak555
 
09.08.11
23:44
(24) сколько хардов ?
26 Никола_
Питерский
 
09.08.11
23:52
(23) (24) Вы про 1С говорите ???

GROOVY 600 Gb или же TB ??
27 Alexandr Puzakov
 
09.08.11
23:59
(26) полюбому Гб.
28 Иван Болван
 
10.08.11
01:54
(0) -40 гб мдф
(24) -мастер ки облажался
29 Птица
 
10.08.11
02:00
нет, чтоб самой большой грудью меряться..
30 Длинный Клиент
 
10.08.11
02:26
(29) [Смотрит фотку. Сдается]
31 Злобный Фей
 
10.08.11
02:28
(29) Что мешает? Начинайте! :)
32 МуМу
 
10.08.11
04:16
Объем БД не влияет напрямую на производительность. Я даже сказал бы категоричнее - он вообще на нее не влияет при условии правильной архитектуры.
33 Нуф-Нуф
 
10.08.11
05:38
150гб. упп. и?
тема беседы то какая?
34 rs_trade
 
10.08.11
09:02
(32) к сожалению не все это знают. не давно приходилось отстаивать что 20 млн записей в таблице это не слишком много. нужных записей. человек был против такого объема записей в базе. типа это слишком много. причем это записи за 3 года.
35 Alexion124
 
10.08.11
09:09
(6) средствами скуля сжатие делать надо и в свойствах модель не фул а смалл.
36 R41
 
10.08.11
09:21
(34)20 млн это серьезное количество, которое при неправильном подходе может привезти к тормозам. Но если человек  разбирается в том как работает SQL (в частности использование индексов), то проблем нет.
37 R41
 
10.08.11
09:22
(34)Поэтому в твоем споре наверно нужно было показать что ты разбираешься, что все под контролем... :)
38 ASU_Diamond
 
10.08.11
09:28
(36) ха... УПП, расчет с/с (распределение общепроизводственных и общехозяйственных расходов) за 1 месяц - 3,5 записей в регистр бухгалтерии.
каждый месяц увеличивал базу на 70 гиг
39 ASU_Diamond
 
10.08.11
09:28
(38) * 3.5 млн
40 Fragster
 
гуру
10.08.11
09:29
300 гиг на ДБ2 экспресс (это пц :) )
41 Fragster
 
гуру
10.08.11
09:32
20 гиг файловая (потом пришлось обрезать самую большую таблицу - серийные номера (отслеживание движения оборудования))
42 Fragster
 
гуру
10.08.11
09:33
еще есть 120 гиг скулевая.
43 Fragster
 
гуру
10.08.11
09:34
реструктуризация самой большой таблицы в файловом варианте только через выгрузку 70-90% в файл (с обрезанием), реструктуризация, затем загрузка обратно. ибо она замедляется со временем :(
44 Trance_1C
 
10.08.11
09:36
Есть УПП 370 гб, база работает 5 лет, около 100 польз. ТИИ проходит ровно сейчас крутится на sql2008
45 ptiz
 
10.08.11
09:40
(44) ТИИ в 1С проходит?
И сколько времени это длится?
46 rs_trade
 
10.08.11
09:55
вы sql.ru почитайте. вот там у людей объемы. по нескольку млн записей в день в таблицы грузят.
47 Александр_
Тверь
 
10.08.11
10:02
у нас скромные 140 гигов.
48 popcorn
 
10.08.11
10:06
(0) Дома фильмы на раздачу храню в самописной базе 1С 8.2, больше полутора терабайт. Работает отлично.
49 Defender aka LINN
 
10.08.11
10:11
(46) Мы готовимся то же самое с 1С делать.
50 ice777
 
10.08.11
10:12
(0) как мерил?
51 Speshuric
 
10.08.11
10:17
(32) Неправда. Конечно на мелких объёмах данных размер при правильной архитектуре не сильно влияет. Но для баз 100-500-1000 ТБ, считая размер занятый данными, а не тупо размер файлов, уже можно наткнуться на ограничения производительности.

Примеры проблем производительности на больших БД:
1. Статистика хранится только для 200 значений. Т.е. на больших таблицах MS SQL будет криво сравнивать селективность индексов (Поле1, Поле2, Поле3) и (Поле1, Поле3, Поле2)
2. На запросах, которые приводят к table spool в плане может сильно возрастать нагрузка на tempdb.
3. Запрос для среза последних (особенно нефильтрованного) при относительно небольшом наборе уникальных вариантов (10к-100к) измерений и большом количестве записей внутри изменений имеет тенденцию к плохим планам запросов.
4. На больших таблицах MS SQL откровенно слабо генерит планы для бух. регистров с субконтами.

На более крупных БД, начаная с такого характерного объёма как "максимальный размер обычного жёсткого диска", т.е. сейчас это 2-3 ТБ, есть также много проблем обслуживания, начиная с бэкапов, которые длятся уже неприлично долго и занимают неприлично много (если не юзать сжатие из 2008), также проблемы с обслуживанием индексов, с checkpoint при перезапуске сервера (может быть дольше, чем время жизни на UPS).
52 _
vovanidze_3412341
 
10.08.11
10:29
120 ГБ было на 7.7..как пришел тока на эту фирму...перевел на 8.2 ...сервак немощный был...еле тянул...
53 rs_trade
 
10.08.11
10:35
(51) для оптимизации больших бекапов у скуля есть все необходимые инструменты.
54 Speshuric
 
10.08.11
11:19
(53) Ну, во-первых, немалая часть из них появились только в 2008/2008R2 по сути (сжатие рез. копии, зеркальные и чередующиеся резервные копии и некоторые другие). Во-вторых есть еще много чего, что бы было неплохо сделать: резервные копии баз в состоянии standby или аналогичных, резервное копирование с перестройкой обычных индексов (а не только в full text), шифрование резервных копий, не такое тормозное создание разностных резкопий... В общем, необходимое, конечно, есть (особенно если сравнить с SQL Server 7.0), но его недостаточно для удобной работы.
55 rs_trade
 
10.08.11
11:26
(54) шифрование резервных копий есть если я не ошибаюсь. только не давно читал про это.
56 Speshuric
 
10.08.11
11:30
(55) Пруф на BOL есть? Именно на штатное шифрование и именно резервных копий (не прозрачное шифрование данных, у которого, впрочем, есть свои ограничения).
57 упс
 
10.08.11
11:39
(54)
>> немалая часть из них появились только в 2008/2008R2 по сути (сжатие рез. копии, зеркальные и чередующиеся резервные копии и некоторые другие
собственно, из перечисленного, только сжатие резервных копий и появилось в 2008-м. Хотя, возможно, я не понял что такое чередущиеся резервные копии.

>>не такое тормозное создание разностных резкопий
это вы про диф. копии? А почему оно тормозное? ИМХО, весьма шустро работает.

>> резервное копирование с перестройкой обычных индексов
о да, боюсь даже представить сколько это будет занимать..

>>резервные копии баз в состоянии standby
ммммм.. а зачем? вы ж базу в стандбае изменять не можете - это как бы "не до конца восстановленная" БД. Не удаляйте копии из которых делали базу в стандбае и все..
58 rs_trade
 
10.08.11
12:04
(56) что то не могу в BOL найти. Вечером в книге гляну. Я эту главу по диагонали пока прочитал. Но помню что то там было про резервные копии, безопасность и сертификаты.
59 Kuzen
 
10.08.11
12:15
(58) Нету вроде шифрования. может перепутал с BACKUP CERTIFICATE (http://msdn.microsoft.com/ru-ru/library/ms178578.aspx)
60 Kuzen
 
10.08.11
12:17
(22) А что за конфа? Какое железо, как организовано создание бэкапов?
61 Kuzen
 
10.08.11
12:17
(22) Цель общепознавательная.
62 rs_trade
 
10.08.11
12:18
(59) BACKUP CERTIFICATE это совсем не то.
63 Kuzen
 
10.08.11
12:18
(17) Я включил писал уже что база сжалась раза в 4 :)
64 rs_trade
 
10.08.11
12:24
(63) то что жмет хорошо, это понятно. производительность как?
65 Leksus
 
10.08.11
12:24
400 Гб из них где-то 150 Гб вложенные файлы
~270 активных пользователей
66 Defender aka LINN
 
10.08.11
12:26
(60) Самописка. ХЗ. ХЗ. :)
67 Kuzen
 
10.08.11
12:33
(64) Замеров не делал, но по субъективным ощущениям возросла ~30%, видимо за счет уменьшения дисковых операций, так же бэкапы стали быстрее делаться.
68 Speshuric
 
10.08.11
12:38
(57)
1. Действительно, зеркальные резервные копии появились еще в 2005, но в Enterprise редакции (см. BACKUP .... MIRROR TO ...), и чередующиеся тоже не новинка.
2. Разностные резервные копии делаются достаточно медленно (в мегабайтах в секунду если считать), скорее всего это связано с тем, что полные резервные копии используют блок для IO 1 МБ и активно используют предчтение, а разностные резервные копии 64 кБ (экстент).
3. Зато место на носителе бэкапов можно было бы сэкономить.
4. База в состоянии stand by может быть в результате постоянной докачки доставкой журналов (log shipping). Её "исходные" резервные копии могут быть и за несколько месяцев.
69 rs_trade
 
10.08.11
12:39
просто интересно почитать. вот где базы то реальные

http://www.microsoft.com/industry/publicsector/partnersolutionmarketplace/global/CaseStudyDetail.aspx?casestudyid=4000006654
70 Jaffar
 
10.08.11
12:49
на прошлой работе в самописке было 700Гб.
(48) "Дома фильмы на раздачу храню в самописной базе 1С 8.2, больше полутора терабайт."
а зачем нужна база фильмов? неужели каталогизатор типа movienizer не спасает?
71 упс
 
10.08.11
13:04
(68) 1. Ну так и сжатие бэкапов изначально (в 2008-м) было только в EE. Где-то читал, что в R2 добавлено в Standard только для того, чтобы перетянуть пользователей на "неполноценный" (без собственного номера, включающий в себя не так много отличий от 2008-го) релиз.
2. Про блок для диф бэкапа не знал, спасибо. А вот упреждающее чтение там использовать никак не получится - выдираются ведь только измененные экстенты, по Differential Changed Map. Но в любом случае, у меня время создания диф бэкапа пропорционально времени создания полного бэкапа. Т.е. полный делается за 15 минут, дифференциальный за 1,5-2 - размеры бэкапов так же пропорциональны.
3. Мне кажется это весьма сомнительным плюсом. Место на диске относительно дешево, а вот "окно обслуживания" в этом случае придется увеличивать. Если сейчас я делаю бэкап во время работы пользователей, то в случае с одновременной перестройкой индексов, придется использовать только время когда пользователи не работают. Тем более, если перестраиваться будут все индексы. У нас это займет порядка 4-5 часов - совершенно неприемлимо.
4. Дак вы же бэкапы "основной" базы делаете. Берете последний полный бэкап, последний диф с нее же и добиваете оставшимися бэкапами логов, которые делались лог-шиппингом. Не вижу проблемы, если честно.
72 МуМу
 
11.08.11
11:09
(51) Для 1С это фантастика:)Я предпологал объем максимум в 10 ТБ. При хорошей нормализации данных я вообще не представляю чем можно такой объем заполнить. Хотя знаю что есть более 1000 ТБ базы на MSSQL - разумеется они аналитические. На моей практике в основной массе большие базы на 1С порядка 200 ГБ. (Знаю что есть парочка с объемом приблизительно 2 ТБ.) Для таких БД проблемы производительности не связанны с объемом, могу это утверждать на основании статистики.