Как x собирал домашний сетевой сервер. Операционные системы для NAS-сервера


Еще никогда проблема хранения файлов не стояла так остро, как сегодня.

Появление жестких дисков объемом в 3 и даже 4ТБ, Blu-Ray дисков емкостью от 25 до 50ГБ, облачных хранилищ - не решает проблему. Вокруг нас становится все больше устройств, порождающих тяжеловесный контент вокруг: фото и видео-камеры, смартфоны, HD-телевидение и видео, игровые консоли и т.п. Мы генерируем и потребляем (в основном из интернета) сотни и тысячи гигабайт.

Это приводит к тому, что на компьютере среднестатистического пользователя хранится огромное количество файлов, на сотни гигабайт: фотоархив, коллекция любимых фильмов, игр, программ, рабочие документы и т.д.

Это все нужно не просто хранить, но и уберечь от сбоев и прочих угроз.

Псевдо-решения проблемы

Можно оснастить свой компьютер емким жестким диском. Но в этом случае встает вопрос: как и куда архивировать, скажем, данные с 3-терабайтного диска?!

Можно поставить два диска и использовать их в режиме RAID «зеркало» или просто регулярно выполнять резервное копирование с одного на другой. Это тоже не лучший вариант. Предположим, компьютер атакован вирусами: скорее всего, они заразят данные на обеих дисках.

Можно хранить важные данные на оптических дисках, организовав домашний Blu-Ray архив. Но пользоваться им будет крайне неудобно.

Сетевое хранилище - решение проблемы! Отчасти…

Network attached storage (NAS) - сетевое файловое хранилище. Но можно объяснить еще проще:

Предположим, у вас дома два или три компьютера. Скорее всего, они подключены к локальной сети (проводной или беспроводной) и к интернету. Сетевое хранилище - это специализированный компьютер, который встраивается в вашу домашнюю сеть и подключается к интернету.

В результате этого - NAS может хранить какие-либо Ваши данные, а вы можете получать к нему доступ с любого домашнего ПК или ноутбука. Забегая вперед, стоит сказать, что локальная сеть должна быть достаточно современной для того, чтобы вы могли быстро и без проблем «прокачивать» по ней десятки и сотни гигабайт между сервером и компьютерами. Но об этом - позже.

Где взять NAS?

Способ первый: покупка. Более-менее приличный NAS на 2 или 4 жестких диска можно купить за 500-800 долларов. Такой сервер будет упакован в небольшой корпус и готов к работе, что называется, «из коробки».

Однако, ПЛЮС к этим 500-800 долларов добавляется еще стоимость жестких дисков! Так как обычно NAS продаются без них.

Плюсы: вы получаете готовое устройство и тратите минимум времени.

Минусы такого решения: NAS стоит как настольный компьютер, но при этом обладает несравнимо меньшими возможностями. Фактически это просто сетевой внешний диск за большие деньги. За довольно большие деньги вы получаете ограниченный, невыгодный набор возможностей.

Мое решение: самостоятельная сборка!

Это намного дешевле покупки отдельного NAS, хоть и чуть дольше ведь вы собираете машину самостоятельно). Однако, вы получаете полноценный домашний сервер, который при желании можно использовать во всем спектре его возможностей.

ВНИМАНИЕ! Я настоятельно не рекомендую собирать домашний сервер, используя старый компьютер или старые, отработавшие свое комплектующие. Не забывайте, что файловый сервер - это хранилище ваших данных. Не поскупитесь сделать его максимально надежным, чтобы в один прекрасный день все ваши файлы не «сгорели» вместе с жесткими дисками, например, из-за сбоя в цепи питания системной платы…

Итак, мы решили собрать домашний файловый сервер. Компьютер, жесткие диски которого доступны в домашней локальной сети для использования. Соответственно, нам нужно чтобы такой компьютер был экономичным в плане энергопотребления, тихим, компактным, не выделял много тепла и обладал достаточной производительностью.

Идеальным решением исходя из этого является системная плата со встроенным в нее процессором и пассивным охлаждением, компактных размеров.

Я выбрал системную плату ASUS С-60M1-I . Она была куплена в интернет-магазине dostavka.ru:

В комплекте поставки качественное руководство пользователя, диск с драйверами, наклейка на корпус, 2 кабеля SATA и задняя панель для корпуса:

ASUS, как впрочем и всегда, укомплектовал плату очень щедро. Полные спецификации платы вы можете узнать здесь: http://www.asus.com/Motherboard/C60M1I/#specifications . Я скажу лишь о некоторых важных моментах.

При стоимости всего в 3300 рублей - она обеспечивает 80% всего того, что нам нужно для сервера.

На борту платы находится двухъядерный процессор AMD C-60 со встроенным графическим чипом. Процессор имеет частоту 1 ГГц (автоматически может увеличиваться до 1,3 ГГц). На сегодня он устанавливается в некоторые нетбуки и даже ноутбуки. Процессор класса Intel Atom D2700. Но всем известно, что Atom имеет проблемы с параллельными вычислениями, что часто сводит его производительность на «нет». А вот C-60 - лишен этого недостатка, и в добавок оснащен довольно мощной для этого класса графикой.

В наличии два слота для памяти DDR3-1066 , с возможностью установки до 8 ГБ памяти.

Плата содержит на борту 6 портов SATA 6 Гбит . Что позволяет подключить к системе целых 6 дисков(!), а не только 4, как в обычном NAS для дома.

Что САМОЕ важное - плата построена на базе UEFI , а не привычного нам BIOS. Это значит, что система сможет нормально работать с жесткими дисками более 2,2 ТБ. Она «увидит» весь их объем. Системные платы на BIOS не могут работать с жесткими дисками более 2,2 ГБ без специальных «утилит-костылей». Разумеется, использование такого рода утилит недопустимо, если мы ведем речь о надежности хранения данных и о серверах.

С-60 довольно холодный процессор, поэтому он охлаждается с помощью одного только алюминиевого радиатора. Этого достаточно, чтобы даже в момент полной загрузки температура процессора не повышалась более 50-55 градусов. Что является нормой.

Набор портов вполне стандартный, огорчает только отсутствие нового USB 3.0. А особо хочется ответить наличие полноценного гигабитного сетевого порта:

На эту плату я установил 2 модуля по 2 ГБ DDR3-1333 от Patriot:

Система Windows 7 Ultimate устанавливалась на жесткий диск WD 500GB Green, а для данных я приобрел HDD Hitachi-Toshiba на 3 ТБ:

Все это оборудование у меня питается от БП FSP на 400 Ватт, что, разумеется - с запасом.

Финальным этапом была сборка всего этого оборудования в корпус mini-ATX.

Сразу после сборки я установил на компьютер Windows 7 Ultimate (установка заняла порядка 2 часов, что нормально, учитывая низкое быстродействие процессора).

После всего этого я отключил от компьютера клавиатуру, мышь и монитор. Фактически, остался один системный блок подключенный к локальной сети по кабелю.

Достаточно запомнить локальный IP этого ПК в сети, чтобы подключатся к нему с любой машины через стандартную Windows-утилиту «Подключение к удаленному рабочему столу»:

Я намеренно не стал устанавливать специализированные операционные системы для организации файлового хранилища, типа FreeNAS. Ведь в таком случае, не было бы особого смысла собирать отдельный ПК под эти нужды. Можно было бы просто купить NAS.

А вот отдельный домашний сервер, который можно загрузить работой на ночь и оставить - это интереснее. К тому же, привычным интерфейсом Windows 7 удобно управлять.

Итого общая стоимость домашнего сервера БЕЗ жестких дисков составила 6 000 рублей.

Важное дополнение

При использовании любого сетевого хранилища очень важна пропускная способность сети. Причем, даже обычная 100 Мегабитная кабельная сеть не приводит в восторг, когда вы, скажем, выполняете архивацию со своего компьютера на домашний сервер. Передать 100 ГБ по 100 Мегабитной сети - это уже несколько часов.

Что уж говорить о Wi-Fi. Хорошо, если вы используете Wi-Fi 802.11n - в этом случае скорость сети держится в районе 100 Мегабит. А если стандарт 802.11g, где скорость редко бывает больше 30 Мегабит? Это очень, очень мало.

Идеальный вариант, когда взаимодействие с сервером происходит по кабельной сети Gigabit Ethernet . В этом случае - это действительно быстро.

Но о том, как создать такую сеть быстро и с минимальными затратами - я расскажу в отдельной статье.

Бывает, что любители и ИТ-специалисты создают центры обработки данных в своих домах, размещая оборудование в импровизированных серверных комнатах, гаражах, подвалах или домашних офисах. Таких людей называют серверофилы («server huggers»). Это люди, стремящиеся быть ближе к оборудованию, которое они используют.

Домашние центры обработки данных, или, как их называют, «пещерные ДЦ», играют немаловажную роль в современной жизни и развитии ИТ-технологий. Данные ДЦ, в противовес крупномасштабным дата-центрам, являются первопроходцами в испытании серверного оборудования. Такого рода энтузиасты питают страсть к ИТ и, как правило, одни из первых начинают использовать новые серверные системы, тестируя их в экстремальных условиях.


Причины создания таких центров обработки данных разнообразные. Например: мелкий веб-хостинг, запуск своих уникальных проектов или просто страсть к электронике и ИТ. Какой бы ни была мотивация, такой проект в любом случае требует некоторых адаптаций, включая как доработку питания и сетевых соединений, так и адаптацию и обновление кабельной разводки по всему дому. Предлагаем вам несколько примеров таких проектов.

Облако в подвале

Канадский ИТ-специалист Алан Бодро (Alain Boudreault) имеет в своём арсенале оборудование корпоративного класса от таких производителей, как Dell, HP, Sun, Juniper, IBM и IBM BladeCenter. Стойки с этим оборудованием он разместил в подвале своего дома. Его веб-сайт содержит подробный обзор установки, в том числе и диаграммы всех компонентов . Дата-центр включает в себя облако Open Stack MAAS (Metal as a Service) и несколько систем хранения данных (ISCSI и Fiber Channel).

«Моим первым шагом была установка электроподстанции, позволяющей обеспечить силу тока в 40 ампер при напряжении 240 вольт, т.е. способной справиться при необходимости с нагрузкой 9,6 кВт/час», - рассказывает Алан. Он преподаёт разработку приложений и использует свой ДЦ для тестирования. «Серверы редко запущены все сразу, таким образом средний расход составляет 1-2 кВт в час»,- говорит он. Стоимость электричества в Quebec составляет около 7 центов за кВт. Бодро пишет, что этот тип ДЦ является занятием не для слабонервных.

Центр обработки данных - звезда YouTube

Некоторые владельцы домашних ДЦ размещают видео про них на YouTube. Самым популярным из них является Home Center Data Project , еще один проект в Канаде, разработка которого началась в 2005 году в виде двух компьютеров в шкафу и выросла к 2013 году до более чем 60 серверов. Проект был задокументирован в серии видео, которые набрали более 500 000 просмотров на YouTube. В роликах и на веб-сайте также задокументированы обширные кабельные соединения, охлаждение и процесс усовершенствования сетевой инфраструктуры.

«Данный проект был разработан не для прибыли», - пишет разработчик Этьен Валле (Etienne Vailleux) из Hyperweb Technologies. «Данная установка была собрана в качестве хобби, но через некоторое время она быстро переросла в страсть».

В 2013 году проект мигрировал из одного дома в другой. «Часть фундамента была специально разработана для размещения серверов и кондиционеров»,- рассказал Валле. «В настоящее время проект содержит 15 серверов, емкость соединения которых составляет 60 Мбит/с ».

Удивляем своего провайдера

Иногда люди устанавливают целые хранилища данных. Например, в 2012 году ИТ-специалист, известный как houkouonchi, опубликовал видео своей стойки, которое набрало более 220 000 просмотров на YouTube.

«Установка, на самом деле, производилась не в центре обработки данных. Не многие имеют полноразмерную стойку, способную хранить более 150TB данных»,- писал он. «Стойка крепится через деревянный пол в цементный фундамент дома. Полностью укомплектованная стойка использует всего 1 кВт мощности, но её пропускная способность - это совсем другое дело».

В 2013 году houkouonchi сказал, что с ним связался с Verizon, который был удивлен, увидев пользователя домашнего интернета, генерирующего более 50 терабайт трафика в месяц. Размещение сервера со столь большой генерацией трафика нарушало условия обслуживания для услуги домашнего интернета, и он вынужден был перейти на бизнес-план.

Вот тур по стойке houkouonchi, размещённый в YouTube

Стойки из IKEA

Зачем использовать стандартные стойки для центров обработки данных в Вашем доме, если Вы можете разместить оборудование в стильном столике от IKEA? В одной из домашних реализаций центра обработки данных люди, увлеченные своим хобби, адаптировали шведский приставной стол LACK для комфортного размещения серверов и сетевого оборудования, создав LACKRack. Оказалось, что пространство между ножками составляет 19 дюймов. Такой же является и ширина стандартного слота в специализированных серверных стойках. Импровизированные юниты создавались с помощью уголков, прикрученных шурупами к ножкам стола.

Отсутствие стоек стимулировало появление множества дизайнерских новинок. Франк Деннемен (Frank Dennemen), технологический евангелист PernixData, адаптировал начальную спецификацию LACKRack, чтобы создать переносную 19-дюймовую стойку.

«Мой домашний офис разработан таким образом, чтобы быть всё же офисом, а не центром обработки данных», - пишет Деннемен. «Поэтому я старался разместить 19-дюймовые серверные стойки, не разрушая эстетику домашнего офиса». Разместить такую стойку Вы можете где угодно в доме.

Как должна выглядеть правильная мини-серверная

Итак, Вы - руководитель фирмы и решили организовать серверную в офисе, или же просто энтузиаст, решивший попробовать в жизни всё и построить серверную дома, подвале или гараже. Не столь важно, для чего Вам нужна серверная, если Вы уже решили создать такое чудо, необходимо знать как она должна выглядеть. В идеале серверная должна соответствовать стандарту TIA-569. Список требований к комнате, выделенной под серверную, выглядит приблизительно так:
  • минимальная площадь должна составлять 12 кв.м, а высота потолка - не менее 2.44 м;
  • комната не должна быть отделана легковоспламеняющимися материалами;
  • в комнате должна быть как минимум одна двойная заземлённая розетка, а если строго следовать стандарту, в комнате с площадью 12 кв.м таких розеток должно быть 4;
  • серверная должна размещаться вдали от сильных источников электромагнитного излучения (серверная на расстоянии 2 м от трансформаторной будки - это плохая затея);
  • для освещения в комнате рекомендуется использовать галогеновые лампы, подойдут также и «экономные лампы», которые обеспечат минимальное выделение тепла, хорошее освещение и высокий срок службы;
  • влажность в помещении должна быть на уровне 30-55 % при температуре от 18 до 24 градусов Цельсия.
Требования к самой стойке:
  • ширина стойки должна быть 19 дюймов (482,6 мм);
  • глубина подбирается в зависимости от используемого оборудования: 60, 80 или 90 см;
  • крепежные отверстия располагаются на вертикальных элементах стойки каждые 1.75 дюйма (4.4 см);
  • высота стандартных стоек составляет 6,12, 20, 42 U и т.д.
Оптимальная температура для работы сервера - 20 градусов по Цельсию. Это не значит, что во всей комнате должна быть именно такая температура, она должна быть хотя бы в стойке с серверами. И если Вам не по карману купить серверный шкаф с охлаждением или кондиционер, то Вы можете решить данную проблему с помощью обычных домашних вентиляторов, проявив смекалку и собрав из них стойку, которая будет выполнять ту же функцию, что и охлаждающая дверь в серверном шкафу.

Для минимизации возможных проблем с питанием стоит использовать источник бесперебойного питания. Лучше всего подойдёт ИБП мощностью 5-6 кВА, но если Ваш бюджет ограничен, или Вы не планируете использовать мощное оборудование в больших объёмах, а хотите, к примеру, всего 3 или 4 машины, Вы можете использовать и более слабый ИБП на свой страх и риск. Продавцы-консультанты могут предложить Вам ИБП с различной топологией: Line-Interactive UPS, Passive Standby (Off-Line) UPS и Double-Conversion (On-Line) UPS. Производители утверждают, что наилучшим вариантом для домашних серверов будет Line-Interactive UPS, но это не совсем так. Всё же лучший вариант - это ИБП с топологией On-Line UPS (непрерывного действия), к примеру, APC Smart-UPS RT 5000VA.

Данные советы - это основное, что Вам нужно знать для обустройства серверной и комфортной работы Вашего оборудования.

Хотелось бы добавить, что какой бы заманчивой ни была перспектива размещения серверов у себя дома, стоит помнить и понимать, что будет довольно трудно достичь приемлемого аптайма в домашних условиях. Как пример, приведу пару слов с форума .

Аптайма даже близкого к 5 минутам в год не будет по причине человеческого фактора. Вот, что было в моей практике и приводило к такому низкому аптайму:
  • забыл заплатить за инет;
  • сдох винт в серваке, raid"а не было;
  • забился пылью - надо почистить;
  • сдох вентилятор - надо менять;
  • задели провод;
  • сервак использовался как файлопомойка, закончилось место, потому что записали несколько фильмов;
  • ядро линуха недообновилось, комп не вышел из ребута;
  • провайдер резко сменил настройки dns"ов;
  • мигнул свет;
  • родители решили помыть полы;
  • вывалился из разъема sata-кабель;
  • wi-fi карта, которая раздавала инет, резко зависла и ввела комп в ступор и т.д.

Также необходимо помнить, что:

  • данная затея не из дешевых;
  • Вам будет трудно обеспечить оптимальные условия для работы серверов;
  • в случае пожара и т.п. Вы рискуете не только данными и оборудованием, но и своей жилплощадью;
  • постоянно отслеживать работу серверов возможно только в том случае, если вы постоянно находитесь в пределах быстрой досягаемости Вашей серверной;
  • при длительных поездках Ваш проект будет заморожен, так как оставлять аппаратуру включенной без пересмотра - это большой риск.
Арендовать оборудование в ДЦ куда более целесообразно. Там Ваше оборудование всегда под присмотром. Кроме того, ДЦ строятся исключительно для серверов и максимально оптимизированы для комфортной работы оборудования, Вы избавлены от необходимости покупать дорогостоящее оборудование, а платите за железо только тогда, когда Вам нужно его использовать. Также арендованное оборудование предусматривает наличие рядом специалистов для быстрого решения проблем. И самый главный плюс: Ваше оборудование может находится вне страны Вашего проживания, что в свою очередь может уберечь Вас от визита нежданных гостей.

10 признаков того, что Вы - серверофил

  • Вы предпочитаете большие помещения с кондиционерами и минимумом мягкой мебели, а так же с люминесцентным освещением;
  • постоянный гул и белый шум успокаивают Вас;
  • использование цифрового отпечатка или ручной биометрики для получения доступа в комнаты все еще интересует Вас;
  • Вы не можете пройти мимо грязных или дезорганизованных кабельных соединений, не выражая неодобрения и не качая головой;
  • мигающий зеленый или желтый свет оказывает успокаивающее, почти гипнотическое действие, когда вы смотрите на него;
  • Вам нравится чувство холода от металлических стоек, Вы часто стремитесь коснутся их;
  • Вы думаете, что облако - это то же самое, что и виртуализация, нечто, на что стоит когда-нибудь обратить внимание, но пока нужно решать текущие проблемы пользователей;
  • Вы полагаете, что облачные данные не безопасны, независимо от того, что поставщик говорит Вам;
  • у Вас есть собственные мысли как улучшить работу оборудования посредством прямого воздействия (к примеру замены элементов);
  • Вы питаете страсть к компьютерному оборудованию, всегда пытаетесь его улучшить и найти нестандартные решения для оптимальной работы.
Знаете ли Вы примеры пещерных ДЦ? Возможно, такие умельцы живут в Вашем доме, или Вы сами поставили у себя небольшую стоечку? Поделитесь своим опытом.

Всем привет! Идея собрать свой домашний сервер родилась у меня достаточно давно, но в силу разных причин постоянно откладывалась. Наконец, я решил, что пора действовать.

Материала и описания всего процесса будет достаточно много, поэтому сделаю несколько статей, в каждой из которых я постараюсь подробно описать все шаги, чтобы в дальнейшем с этим смог справится даже новичок. Не пропустите!

Вообщем то, в этом деле я также являюсь новичком, поэтому буду разбираться во всем по ходу дела. Предстоит решить много вопросов, от выбора комплектующих и операционной системы, до решения мелких технических задач.

Что из себя представляет домашний сервер?

По своей сути, это обычный компьютер, выполняющий задачи, для которых использование своего основного компьютера нецелесообразно. Он должен работать и быть доступен по сети 24 часа в сутки 7 дней в неделю, при этом быть холодным, тихим и достаточно экономичным в плане энергопотребления.

Задачи домашнего сервера

  • Хранение и резервное копирование важных файлов;
  • Организация доступа к файлам по локальной сети и через интернет;
  • Организация медиа-сервера для просмотра фильмов;
  • Организация видеонаблюдения.

Как видите, задачи самые разнообразные, а возможностей для их реализации еще больше. И это далеко не полный список задач, которые можно поручить серверу. Все ограничено лишь вашей фантазией и знаниями, а ваши знания ограничены лишь вашим желанием. 😉

На свою идею я планирую потратить около 6000 рублей. Посмотрим, что из этого получится, но, согласитесь, это вполне доступная сумма для столь обширного списка возможностей. Самое главное - мы получаем отличную возможность для подробного изучения сетевых технологий и программ. Как ни крути, а компьютерщик должен всегда идти в ногу со временем…. Будем учиться вместе!

На данный момент у меня имеются: wi-fi роутер для раздачи интернета, компьютер (интернет подключен через wi-fi адаптер) и ноутбук. Теперь в эту сеть будет добавлен домашний сервер.

Схема сети должна выглядеть примерно так:

Выбираем домашний сервер

Поискав на просторах интернета подходящий готовый вариант, я понял, что в столь ограниченном бюджете можно рассчитывать только на самостоятельную сборку. Все готовые платформы либо дороже, либо слишком ограничены по производительности и функционалу.

Например, можно использовать готовые платформы для сборки ПК. Они представляют из себя плату со встроенным процессором, которые требуют лишь установки в них оперативной памяти и жесткого диска. Вполне удачный вариант, если хочется иметь супер компактный ПК в красивой упаковке. На мой взгляд, производительность таких систем при их цене, оставляет желать лучшего.

Да, кстати, одним из хороших вариантов организации домашнего сервера может служить покупка готового NAS (сетевого хранилища). NAS (Network Attached Storage) - это готовые устройства (по сути компьютер) для подключения к сети, содержащие один или несколько жестких дисков. Содержат встроенный веб-интерфейс и огромное количество настроек. В их распоряжении есть встроенные приложения для организации фотогалерей, почтовых серверов, медиа-сервера, torrent-клиенты и т.д. Все это уже готово, как говориться, «из кробки». Нужно лишь подключить питание, зайти на устройство по сети и сделать необходимые настройки. Также из достоинств - тишина и низкое энергопотребление.

NAS - отличный вариант для тех, кому достаточно встроенных возможностей.

Я решил, не использовать готовые решения, а собрать компьютер формата mini-itx. Так мы получим большую производительность, гибкость системы, +10 к навыку «компьютерщик». Естественно, минус в том, что нужно будет все настраивать своими руками. Хотя… не такой уж это и минус.

Выбор комплектующих

В качестве платформы для будущего сервера была выбрана материнская плата GIGABYTE GA-J1800N-D2H формата mini-ITX. Эта плата уже имеет встроенный двухъядерный процессор Intel Celeron J1800. Это не самый производительный процессор, но для домашнего сервера его будет вполне достаточно.

Неоспоримым преимуществом процессора является низкое энергопотребление и низкое тепловыделение, а значит он мало греется, и для его охлаждения достаточно пассивной системы охлаждения. Отсутствие вентиляторов делает этот ПК практически бесшумным.

Плата имеет встроенные разъемы для мыши и клавиатуры, видео-разъемы VGA и HDMI для подключения монитора или телевизора, 4 разъема USB +1 USB 3.0, гигабитный сетевой интерфейс и аудио входы/выходы. Кроме того, на плате имеется разъем PCI-E x1 для подключения плат расширения.

Одним из ключевых моментов выбора стала её стоимость - приблизительно 2300 руб. За эти деньги мы получаем тихую и универсальную плату со встроенным процессором.

Материнская плата имеет разъемы для оперативной памяти формата SO-DIMM с пониженным энергопотреблением, поэтому в качестве модулей ОЗУ я выбрал CRUCIAL CT25664BF1339 DDR3L - 2 Гб.

Решающим фактором стала её цена в 850 рублей.

Корпус для нового ПК также формата Mini-ITX. Выбирал из самых простых вариантов до 2000 руб. Остановился на корпусе FORMULA FW-107D.

В корпусе уже установлен блок питания на 60 Вт, что вполне достаточно для выбранной материнской платы.

В качестве жесткого диска первоначально буду использовать уже имеющийся у меня HDD 2,5″ на 320 Гб от внешнего HDD. Все для экономии бюджета. Если в дальнейшем по каким-либо причинам он меня не устроит, заменю на другой, но для настроек и первых экспериментов его вполне достаточно.

Собственно, это все комплектующие, необходимые для сборки. Можно отправляться в магазин за покупками и приступать к реализации идеи, но об этом я буду рассказывать в следующей части. Сборка домашнего сервера. Часть 2.

Напишите в комментариях, интересно ли вам будет следить за этим экспериментом? Пишите дополнения или задавайте вопросы, а я постараюсь ответить на них. Пока!

Зачем, собственно, нужен сабж? Что он может дать?

Если Вы хотите всего-навсего разместить домашнюю страницу или блог, обмениваться с друзьями файлами по ftp, получить e-mail на своем домене, вероятно,
Вам будет проще воспользоваться услугами виртуального хостинга, в крайнем случае, заказать виртуальный выделенный сервер.

Так же, дома удобнее проводить различные эксперементы, так как сервер рядом, и, если Вы что-то убьете, не нужно ждать ответа от технической поддержки хостера, а можно сразу подцепить монитор, и исправить то, что сломалось.

Сразу оговорюсь, что речь о сервере, который предназначен, в первую очередь, для доступа из внешней сети.
К серверу, который раздает контент/предоставляет web(irc и пр.) сервисы на несколько машин подъезда, предъявляются совсем другие требования:)

Не у всех есть финансовая возможность поставить свой сервер в Дата-Центр, зато, с проникновением широкополосных технологий доступа во всемирную Сеть, появляется возможность использовать сервер под web и другие задачи прямо из дома.
Сейчас это с высокой вероятностью доступно для каждого отдельно взятого жителя для Москвы и Санкт-Петербурга, но я уверена, что не смотря ни на какие кризисы, домашний канал, подходящий по характеристикам, очень скоро появится в каждом крупном Российском городе.

Какой нужен канал?

Прежде всего, он должен быть:

1. Широким, симметричным и безлимитным.
2. Провайдер должен выдавать статические IP
3. Не должно быть никакой фильтрации портов, как входящих, на сервер, так и исходящих, во внешний мир.
4. Желательно, что бы не было никаких VPN.
5. Если провайдер готов поправить Вам DNS-PTR запись, то это сразу снимет ряд проблем с исходящей с Вашего сервера почтой.

Теперь подробнее по каждому пункту.

1.а Симметричность

Большая часть домашних интернет-каналов обладают одной особенностью, которая не имеет почти никакого значения для пользователя, в основном занимающегося серфингом: их ширина (еще, говорят, скорость) различна в разных направлениях. Типовой домашний пользователь больше скачивает из интернета, чем "загружает" что-то на какой-то ресурс.

Например, такие московские провайдеры как Акадо и Стрим готовы дать очень широкую полосу down ("вниз", на закачку) но ширина полосы up ("вверх", на загрузку) даже на самых дорогих тарифных планах незначительно отличается от самых дешевых.

Несиммитричный канал ужасен для домашнего публичного сервера тем, что подавляющая часть трафика сервера будет идти вверх , и какой бы дорогой и крутой не был Ваш интернет-канал, он будет, фактически, простаивать. Ваши десятки мегабит down никто не заметит, зато все обратят внимание на тормоза при загрузке файлов с Вашего сервера.
Для сервера, можно сказать, меняется местами важность down и up.

Поэтому, например, каналы в Дата-Центрах, и тарифы для размещения серверов рассчитаны на то, что трафик up будет больше чем трафик down в несколько раз. В России в большинстве Дата-центров даже берут деньги за нарушения соотношения по трафику (обычно, входящий:исходящий 1:4, и часто есть ограничение на соотношение по зарубежному трафику).

Я ни разу не слышала, что интернет-провайдер может как-то наказать за нарушение соотношения (то есть, за то, что Вы больше будете отдавать трафика, чем скачивать), наоборот, думаю, ситуация будет меняться в нужную для нас сторону.

Очень многие домашние пользователи обмегиваются файлами с помощью p2p сетей , а в этих сетях для того, что бы хорошо качать, нужно иметь высокий рейтинг, который можно получить только раздавая контент. Уже сейчас почти все "продвинутые" пользователи за новым mp3-альбомом любимой группы пойдут, скореe в торренты, чем в магазин.
Провайдеры понимают тенденции и подстраиваются. Хотя, конечно, провайдеров могут ограничивать различные факторы: характеристики своего канала, технологии "последней мили"(у ADSL - операторов просто нет технической возможности сделать канал симметричным), и т.д.

1.б Безлимитность

По поводу безлимитности канала, очевидно, что если трафик будет оплачиваться, неожиданное резкое увеличение трафика может оказаться очень неприятным для Вашего кошелька.
Если Вы предоставляете какой-то публичный сервис, вряд ли у Вас получиться контролировать посетителей Вашего сервиса их трафик, за который Вы будете платить.
Даже если по Вашему тарифному плану , как это бывает обычно на лимитных тарифах, исходящий трафик бесплатен, даже если Вы запретите загружать пользователям сервиса файлы, входящий трафик будет всегда , к каким бы ухищрениям Вы не прибегали. Он будет составлять, примерно, седьмую-пятую часть от исходящего для web-сервера.

1.в Ширина

.
У Вас есть дешевый безлимитный симметричный канал? Отлично! Что? У него ширина 128kb/s? Поверьте, в этом случае Ваш сервис не будет никому нужен.

Всю вашу полосу забьет один пользователь сервиса с широкополосным доступом, который будет очень раздражен тем, что "кортинке медленна грузяццо". Который уйдет, и больше не вернется.
Мне жаль Вас огорчать, но, наверное, не стоит организовывать домашний сервер, если Ваш up всего 128kbs.
Я бы поставила минимальное значение в 512kbs.

Но 20 мегабит от Ethernet-провайдера были бы самым верным решением. В этом случае, посетители вряд ли бы заметили разницу в скорости работы сервиса, размещенного дома, и сервиса, размещенного в Дата-Центре.
В регионах таких каналов пока нет, но в Москве подключают уже и с большей полосой.

Отдельно хотела бы сказать про сетевую связность.
Во всемирной Сети иногда возникают так называемые "черные дыры", в которых пропадает трафик. К сожалению, хостинг-провайдеры, предоставляющий место для сервера в ДЦ, обычно борятся за связность активнее, чем интернет-провайдеры.

Стоит сразу иметь ввиду, что, если Ваш сайт не смогут смотреть посетители с, например, Камчатки, техническая поддержка провайдера может даже не принять Вашу заявку о связности к рассмотрению, так как Вы используете канал не по прямому назначению.

2. Статический IP-адрес

Некоторые провайдеры, например, Стрим, просто не выдают домашним пользователям статический IP-адрес.
Если у сервера постоянно меняется IP-адрес, пользователи Ваших сервисов просто не смогут на них попасть.
Вы можете попробовать выкрутиться с помощью DynDNS сервисов и даже разместить сайт таким примерно образом:

host h.shaggy-cat.ru
h.shaggy-cat.ru is an alias for shaggy-cat.dyndns.org.
shaggy-cat.dyndns.org has address 91.77.252.108

Здесь домен третьего уровня является CNAME записью , ссылающейся на хост бесплатного сервиса динамического DNS.
Ваш сервер время от времени подключается с помощью специальной программы на сервис DynDNS, который обновляет для Вашего домена значение А-записи.

Cервис dyndns.org бесплатно поддерживает только домены третьего уровня, поддомены доменов, принадлежащих сервису.
Если Вы готовы заплатить, сервис может предоставить Вам поддержку Вашего домена.

Когда у меня не было канала со статическим IP, я поступила проще:) Просто создала DNS CNAME запись.

Про настройку DynDNS в Redhat-like системах можно почитать .
Обычно, dyndns умеют ADSL-модемы и домашние дешевые хардварные роутеры.

Однако, поверьте, Вы сможете избежать огромного количества проблем, бессоных ночей, и граблей, на которые Вы наступите, если просто подключите стический IP адрес.
Любым способом: заплатив за него как за опцию тарифного плана, напившись с одмином Вашего провайдера, в конце концов, переспав с ним, если Вы девушка:)))
Все усилия, которые Вы предпримите для получения статического IP, себя окупят.
Мой личный опыт свидетельствует только о постоянных глюках DynDNS сервисов:(

Мне статический IP достался проще: я ушла к другому интернет-провайдеру. Стрим пока оставила как резервный линк, перейдя на самый дешевый тарифный план.

3. Фильтрация портов

Некоторые интернет-провайдеры, устав от жалоб завирусованных клиентов, просто отключают входящие порты для своих клиентов, через которые сетевые черви и злоумышленники могут поломать компьютер их клиента.
Часто в список портов попадают и порты, через которые Windows-системы обычно не троянят. Например, Стрим блокирует входящие порты: 80 (прощай веб-сервер!), 21(прощай ftp!), 25(прощай, почтовый mx-сервер!)

Понятно, что пользователи врядли оценят красоту URL Вашего сайта, если на него придется заходить каким-то таким образом:

http://pupkin.ru:8888

Что касается фильтрации исходящих портов, обычно, применяется фильтрация 25 порта, что бы массовый завирусованный Win-пользователь не спамил.
Это может доставить определенные неудобства, если Вы, например, хотите, что бы пользователи Ваших сервисов получали уведомления по почте.
В этом случае, Вы можете попробовать настроить локальный SMTP-сервер релеить почту через другой SMTP по такой, например, инструкции: тЫц .
Использовать провайдерский SMTP совсем не обязательно, Вы можете использовать свой обычный бесплатный ящик.

4. VPN и *nix системы.

Как много боли, страдания, отчаяния и полного разочарования кроется за этой фразой!!
Настройка VPN для стабильной работы, достаточной для сервера, была и остается огромной проблемой для новичка.
Даже при оптимальной настройке следуют учитывать то, что Ваше VPN-соединение будет падать время от времени, и нужно писать скрипты, которые будут опеределять падение канала, и передергивать соединение.

Даже если Вы собираетесь использовать сервер под Windows, Вас ждут те же самые проблемы со стабильностью канала, если не большие, связанные с фичами устройства сетевой подсистемы
этой операционки (я сама не использовала такой сервер, но один очень хороший человечек рассказывал жуткие вещи)

Есть возможность упростить настройку, используя хардварный роутер. Но стабильности тому же глючному poptop хардварный роутер не добавит ни капли.

В Москве Корбина Телеком переходит на L2TP VPN-соединение, говорят, что оно гораздо стабильнее.

Если сможете, подключайтесь к каналу, использующему авторизацию по MAC-адресу сетевой карты.
В Москве это, например, Су-29 Телеком, Qwerty, Акадо.
Впрочем, VPN не на столько плох, на сколько плох динамический IP-адрес. Если VPN не избежать, имейте ввиду, что poptop, вероятно, самый нестабильный.

5. Фильтрация портов

Если провайдер не фильтрует исходящие порты, то почта, напрямую отправленная с Вашего сервера, с высокой вероятностью попадет в spam-папку ящика назначения.
Это связано с тем, что практически весь спам в современном мире рассылается с затрояненных компьютеров домашних пользователей под управлением Windows. IP-адреса, выдаваемые таким пользователям, обычно имеют характерную DNS PTR-запись вида:

host 91.77.252.108
108.252.77.91.in-addr.arpa domain name pointer ppp91-77-252-108.pppoe.mtu-net.ru.

Достаточно просто пишется регулярное выражение(можете поискать примеры в Google), которое выделяет такие хосты среди "законных" SMTP-релеев.

Если Ваш провайдер исправит для Вашего IP PTR-запись, почта с Вашего сервера перестанет фильтроваться по этому критерию.

7. Железо сервера

Тут я затрудняюсь дать какие-то подробные и профессиональные советы, так как просто-напросто очень плохо разбираюсь в hardware, которое мне никогда не было интересно.

Чем больше ядер у процессора, тем лучше. Вообще, чем он быстрее, тем это правильнее. Только не стоит разгонять систему до космических скоростей, и тюнить сотней куллеров, вам ведь еще и спать ночью рядом с этим монстром придется...
Если Вы используете такие технологии виртуализации как Xen, KVM, VmWare, обратите внимание на процессоры с поддержкой технологий Intel VT или AMD Pacifica

Чем больше ОЗУ, тем лучше. Особенно в случае использования Виртуализации .

Навороченная видео-карта, как и вообще звуковая система Вам не нужны. Лучше брать материнскую плату с интегрированной видео, что бы свободный PCI-слот занять под, например, сетевую карту.

UPS. Очень и очень желателен. Так же, как мне подсказал один хороший человечек, стоит активировать в BIOS опцию включения при подаче питания.

- "Стойка" засуньте сервер куда-нибудь далеко, что бы не мешал гудением, Вы его случайно не залили жидкостью, не уронили, и так далее.
Лучше на антресоль или в кладовку. Только учтите, что: а) пыль это плохо; б) Летом, в связи с глобальным потеплением;) в маленькой, душной конуре он может просто перегреться и выключиться:(
Впрочем, проблемы с перегревом возможны и в Дата-центрах. .masterhost вот чуть не наградили Антипримией Рунета за оригинальную технологию охлаждения серверов сухим льдом:)))

8. Софт

Это самое главное. То, без чего не будет сервера как такового. Можно умудриться организовать плпулярный сервис на динамическом айпи с фильтрацией портов и старом-старом Пентиуме-2, если есть идея, и конкретная программная реализация.
Наоборот, можно вбухать время и деньги, и получить мертво стоящую железку.

Я использую на своем HomeServer промышленную технологию виртуализации OpenVZ. О ней можно почитать и

Использую из-за легкости эксперементов (новый контейнер с почти любым Linux-дистрибутивом создается за две-три секунды), отсуствии потерь на виртуализацию, и по тому, что считаю технологию очень прогрессивной.

Впрочем, OpenVZ выходит за рамки этого поста, надеюсь, когда-нибудь соберусь и расскажу о ней и ее использовании, так же как и сейчас, на пальцах.

Я рекомендую использовать какую-либо технологию виртуализации, так как Вы, возможно, захотите держать на своем сервере множество различных сервисов, каждый со своими требованиями к программной среде(иногда не совместимыми с требованиями другого сервиса, который Вы бы так же хотели использовать), предоставляемым ресурсам, с разным отношением разработчиков к безопасности своего продукта.

Используя виртуализацию на домашнем сервере, Вы получите ту самую консолидацию, и дом, в конце концов, не превратится в филиал дата-центра.
Вам хватит одного, максимум, двух мощных компьюетеров для решения любых задач на виртуальных машинах, размещенных на сервере.

Советую обратить внимание на следующие технологии:

а) Xen
б) KVM
в) OpenVZ
г) _серверные_ варианты VmWare

Подробное описание этих технологий так же выходит за рамки статьи, выскажу только общие соображения.

Наиболее "модным" решением для виртуализации сейчас является VmWare. Популярность обсуловлена простотой настройки, и администрирования.
Однако, VmWare не лишина недостатков. Главный из которых заключается в том, что наиболее мощный вариант VMware ESX Server стоит денег (бесплатный VMware Server смотрится очень тускло рядом Xen или OpenVZ), так же, я бы отметила не самую лучшую поддержку оборудования, и большие потери производительности при виртуализации.
Думаю, VmWare можно назвать попсовым решением, если Вы хотите "все сразу", и согласны мириться с некоторой негибкостью решения, наверное, лучше VmWare для Вас нет ничего.

KVM является, возможно, самой перспективной технологией из всех перечисленных, учитывая то, какое внимание ему уделяет RedHat(тЫц) и динамику самого RedHat . Однако, сейчас технология явно остает по числу фич от своих конкурентов.

Xen Очень интересная и мощная технология. Существует сайт с большим числом русских статей про Xen . Когда я выбирала программную платформу, долго колебалась между Xen и OpenVZ. Выбрала, как уже писала выше, OpenVZ

OpenVZ Главные плюсы в том, что технология, как я уже писала выше, работает практически без потерь производительности, что существуют десятки шаблонов VPS с самым разным ПО и разными дистрибутивами, которые могут быть развернуты за мгновения.
Очень удобно для эксперементов:)
Самый главный минус заключается в том, что виртуализируются только Linux-дистрибутивы

Этот абзац не отражает и доли того, чем для меня стала OpenVZ. Очень-очень надеюсь, что соберусь и напишу статью по использованию этой системы.

Если Вы планируете использовать несколько виртуальных серверов, а внешний IP-адрес всего один(так скорей всего и будет в случае с домашним сервером), Вы можете давать виртуальным машинам IP-адреса из диапазонов, предназначенных для локальных сетей , и пробрасывать на виртуальные машины порты с внешнего IP (Iptables DNAT в Linux).

Если Вы планируете больше одного web-сервера, то проброс портов не поможет. Я выкрутилась с помощью акселерирующего http-реверс-прокси nginx на отдельной VPS.
Этот nginx проксирует http-соединения к одной, либо другой VPS. Может быть, и об этом когда-нибудь расскажу:))

З.Ы. Перепечатка разрешена только с указанием ссылки на оригинал этой заметки.

Удачной настройки домашнего сервера, и... меньше возитесь с компьюетрами, чаще гуляйте, ходите в музей/театр/кино/в гости/ездийте в путешествия!

Свой первый домашний сервер я собрал в 2008 году: Celeron E1400 на mATX платформе ASUS и всё это в прекрасном корпусе Antec NSK 1380. Корпус действительно хорош за исключением двух моментов: 1. Нестандартный формат блока питания (и как следствие возможность поставить только низкопрофильное охлаждение на процессор) 2. Малое число посадочных мест под накопители и плохое их охлаждение (поэтому я никогда не ставил туда больше одного диска - и так было тесно и жарко).

С ролью маршрутизатора эта машина справлялась прекрасно. Но организация на ней файлопомойки уже создавала неудобства: место вечно кончается -> приходится менять диск на новый большего размера (ну не чистить же его в самом деле!) -> для этого надо перенести на новый диск систему -> уж если переносишь, то не обновить ли ее заодно, а то пакеты с новыми часовыми поясами под текущую приходится искать чуть ли не собаками (пламенный привет Федоре) -> … И так каждый раз.

Захотелось собрать новый сервер, который позволил бы организовать RAID или хотя бы просто установить несколько дисков, чтобы решить проблему с местом радикально и надолго. А еще поднять несколько виртуальных машин для производственных нужд. А еще…

Но самый главный аргумент - это, конечно, желание пощупать новые железки! Поэтому я определился с требованиями и отправился в магазин гуглить.

Требования:

  • бесшумность
  • компактность
  • возможность удобной установки/замены дисков и достаточное количество посадочных мест (от 4)
  • универсальность (больше разъемов/интерфейсов, всяких и разных, мало ли что захочется прикрутить)

Форм-фактор Mini-ITX не был обязательным критерием, но логично вытекал из второго пункта. Поэтому я решил для себя, что попытаюсь выжать из него максимум и только в крайнем случае начну смотреть в сторону mATX.

Disclaimer

Выбор железа

1. Корпус

Первым делом я занялся поиском корпуса. Таковых под Mini-ITX сейчас великое множество, однако большинство предназначено для недорогих неттопов.

Подходящие для домашнего сервера/NAS варианты можно пересчитать по пальцам:

Fractal Design Array R2 CFI-A7879
Chenbro ES34069 Chenbro SR30169

и пара других.

Причем большинство из них непросто или невозможно купить в России. В итоге я выбрал Chenbro SR30169. Его главные плюсы: удобная установка четырех 3.5″ дисков (с поддержкой HotSwap), продуманное охлаждение с использованием 120мм вентиляторов, стандартный блок питания (в абсолютном большинстве прочих корпусов используются Flex ATX либо нестандартные форм-факторы), удобство монтажа.

Видео о внутреннем устройстве:

2. Материнская плата

Критерии:
современная платформа с поддержкой процессоров Ivy Bridge, 2 встроенных сетевых карты, PCI-E разъем (для установки WiFi), не меньше четырех разъемов SATA (но в идеале не меньше пяти - 4 в рейд + 1 под систему), miniPCI-E на всякий случай, достаточное количество портов USB (желательно 3.0), несколько видео-интерфейсов (я не знал, к какому именно интерфейсу придется подключаться, поэтому минимум хотелось HDMI и D-Sub)

Intel® Server Board S1200KP Intel® Server Board S1200KPR
ZOTAC Z77ITX-A-E Jetway NF9E-Q77

Первые две довольно специфичны. С одной стороны, они поддерживают процессоры Xeon и память ECC, с другой стороны возможности расширения весьма ограничены: всего четыре USB (и только 2.0), всего четыре SATA, нет встроенного звука, один видеовыход, только один слот расширения. Разумеется для сервера организации эти моменты неактуальны, но для домашнего применения хочется большей гибкости. К тому же, плата с индексом KP не поддерживает 22нм процессоры, а KPR на момент сбора машины (июль-август 2012) не было в продаже.
Также не было в продаже и ZOTAC Z77ITX-A-E, хотя плата конечно очень интересная. Модуль WiFi в комплекте, две гигабитные сетевые карты - красота!
Еще несколько плат готовились на тот момент к выходу, вышли или нет не знаю, поэтому здесь про них подробно не пишу.

На днях очень вовремя вышла юзера track об отказах серверной памяти. Настоятельно рекомендую ознакомиться с ней прежде, чем использовать предложенную мной конфигурацию для критических задач.

В конечном итоге я остановился на плате Jetway NF9E-Q77. Удивительно, сколько всего компании Jetway удалось уместить в плате формата Mini-ITX! Поддержка 3го поколения процессоров Intel (LGA1155), 6 портов SATA (2xSATA3 + 4xSATA2), 2хUSB3.0 + 4xUSB2.0 (+ по паре портов каждого типа разъемами на плате), PCI-E + miniPCI-E, 2 гигабитных сетевых адаптера Intel, 3 видео-выхода (HDMI, DVI-D, D-Sub) не считая LVDS. Также есть два порта RS232, RS422/485 с разъема на плате, GPIO, Watchdog, поддержка iAMT, vPro и т.п.
Тип используемой памяти DDR3 SODIMM.

Найти эту плату в продаже в России мне не удалось, но к счастью она обнаружилась в немецком магазине minipc.de . Доставили курьерской службой. За вычетом VAT и со стоимостью доставки вышло ровно 200$. Цена за такую плату на мой взгляд более чем разумная. Кстати, плата производится по стандартам, подразумевающим в том числе промышленное применение, а значит повышенную живучесть (по информации с сайта jetway, автор статьи гарантий не дает =)).

3. Жесткие диски

Все последние лет 10-15 я пользуюсь только продукцией IBM/Hitachi. Поэтому я выбрал модель с максимальным объемом при адекватной цене (на момент сборки это была HITACHI Deskstar 7K3000 HDS723020BLA642, 2Тб) и приобрел две штуки с мыслью докупить еще две, когда определюсь с софтом (у меня были сомнения в том, что это случится быстро - так оно и вышло). Так как в выбранном корпусе в дополнение к четырем HotSwap дискам штатно могут быть установлены только 2,5” диски, я решил туда поставить диск из ноутбука, который все равно планировал заменить на SSD.
Этой зимой были докуплены два диска HITACHI Deskstar 5K3000 HDS5C3020ALA632.

4. Блок питания

БП я просто выбрал как самый маломощный (а значит дешевый) из приличных и тихих, которые были в наличии ближайшем гипермаркете.
Таковым стал AeroCool VP-450 .
Конечно, в таком компактном корпусе лучше было бы взять БП со съемными кабелями, но стоят они значительно дороже, и встречались отзывы, что в данном корпусе разъемы кабелей могу начать конфликтовать с процессорным охлаждением.

5. Процессор

От процессора мне нужно было больше ядер, меньше тепла и разумная цена. Хотя нет, еще нужен был встроенный видео-чип. Выбрал Intel Core i5 3550 .

6. Охлаждение на процессор
Здесь хотелось получить тишину, хорошее охлаждение и при этом не прогадать с габаритами. Из подходящего в ближайших магазинах оказался Arctic Cooling Alpine 11 Plus .

Ну что ж, железо закуплено, приступим к сборке!

Сборка

Автор застал еще те времена, когда маркировка разъемов/переключателей на материнской плате считалась дурным тоном, инструкции писали для трусов и поэтому в страну медведей не завозили, а развернув процессор не той стороной можно было быстро и очень дорого получить прикольный брелок на свой мобильный связку ключей. Не говоря уже об обряде окропления каждой собранной машины собственной кровью, для чего заботливые китайцы обязательно оставляли кромки кропуса острыми на случай, если сборщик забыл прихватить специальный жертвенный нож или по неопытности вовсе не знает о таковой необходимости. К сожалению, современным производителям в погоне за прибылью плевать на традиции и на заботу о досуге сборщика. Тех, кто надеялся пролить над статьей скупую слезу ностальгии, дальнейший материал лишь разочарует.

Корпус выполнен из стали SGCC толщиной 0.8мм и производит впечатление монолитности, никаких зазоров и люфтов не наблюдается, все кромки аккуратно развальцованы. Боковые стенки зафиксированы винтами с накаткой. Большую часть задней стенки занимает основание для крепления блока питания. Оставшееся место отдано под вентиляционную решетку и панель разъемов материнской платы. Имеется выдвижное ушко, позволяющее закрыть корпус на амбарный замок (правда только с одной стороны, что в данном случае имеет мало пользы) или посадить его на привязь. Есть разъем для замка Kensington.

Внутри пространство корпуса разделено на две части: задняя половина предназначена для материнской платы и блока питания, переднюю же практически целиком занимает корзина жестких дисков и ее охлаждение.

Корзина поддерживает железные RAID-контроллеры и рассчитана на 4 3,5”/2,5” SATA/SAS диска с возможностью горячей замены. Для удобства таковой установка дисков производится с фронтальной стороны корпуса.

Каждый диск закрепляется винтами в лотке, который затем вставляется в корзину. Во включенном состоянии каждый лоток светится синим светом. Может показаться, что на них имеются светодиоды, однако решение гораздо изящней - индикация расположена на задней стенке корзины, а на переднюю панель выведена с помощью оптических волноводов!

Для ограничения доступа к фронтальной панели корпуса имеется хлипкая пластиковая дверца с замком. На мой взгляд она могла бы быть и металлической, но этот нюанс я готов производителю простить =)

Материнская плата вызвала у меня подлинное восхищение! К сожалению, фотографии не позволяют передать ощущение качественно сделанного продукта, которое чувствуешь, когда держишь эту плату в руках. Как производитель смог столько всего уместить в этой крохе, при этом не забыв соблюсти все стандарты на расположение компонентов? Дабы не повторяться я не буду перечислять заново все ее возможности, желающие могут обратиться к первой части статьи или к спецификации на сайте Jetway.

Несмотря на то, что в охлаждении процессора мне пришлось отказаться от любимого формата 120мм и согласиться на компромиссные 92, у меня оставались сомнения, что достаточно габаритный кулер встанет без приключений.

AC Alpine 11 Plus устанавливается на пластиковые планки, предварительно закрепленные на плате. И хотя эти планки встали впритык к окружающим компонентам, единственное, что мне пришлось дополнительно сделать - это снять пластиковый фиксатор с разъема PCI-E x16 и слегка отогнуть хвост разъема.

Для установки блока питания необходимо снять специальную корзину в верхней части корпуса. Затем она крепится к БП, маленький удлинитель подключается в разъем питания, после чего конструкция в сборе устанавливается обратно в корпус. Таким образом производитель избавляет нас от провода питания, торчащего из верхней крышки корпуса.

У БП в наличии целый ворох разъемов, половина которых нам не понадобится.

Все, что мы можем сделать - это по доброй русской традиции убрать их на антресоли. Для разводки кабелей из закромов был извлечен фиксатор на двустороннем скотче.

Теперь можно установить материнскую плату. Охлаждение процессора вошло под БП с солидным запасом в несколько миллиметров. На время установки платы пришлось снять воздуховод дисковой корзины, но делается это элементарно.

На фото с установленным обратно воздуховодом видно, что ребра радиатора процессора оказались расположены аккурат поперек направления движения воздуха из корзины. И для верности отделены от воздуховода модулями памяти. К сожалению, данная модель процессорного охлаждения не позволяет развернуть его на 90 градусов.

Других нюансов во время сборки машины обнаружено не было. В частности, когда позже я решил добавить еще одну планку памяти, я легко смог это сделать без каких-либо проблем. Таким образом, единственный критичный момент в процессе сборки - высота охлаждения процессора и разводка кабелей БП.

Эффективность охлаждения и шум

На данный момент у меня в корзине стоят четыре 2TB диска Hitachi, их температура не превышает 37 градусов (в простое 34). Температура 2,5” системного диска обычно 31-33 градуса. Процессор в простое - 40 градусов.

Шум от системы главным образом состоит из шуршания воздуха. Но для этого пришлось поставить регулятор оборотов на вентилятор корзины. На штатных оборотах тихим его никак не назовешь (хотя производитель в рекламном буклете утверждает обратное). В перспективе планирую его заменить на что-то более бесшумное.

Заключение

Когда я собирал сервер, я еще не знал, какой софт на него поставить и планировал в том числе поднять статьей обсуждение этого вопроса. Несмотря на то, что в итоге (да простят меня почитатели *nix) я остановился на Windows Server 2012, для многих этот вопрос остается открытым, комментарии на эту тему приветствуются.

P.S. Цена системы без жестких дисков получилась в районе 22 килорублей.

UPD: хочу обратить внимание на то, что мне нужно нечто большее чем просто NAS. Эта же машина должна быть и тестовой средой, и средой разработки. Естественно лучше было бы развести эти роли на разные машины, но моя квартира не настолько большая. Именно поэтому выбрано железо, избыточное для обычного NAS и именно поэтому устройства типа Synology не подходят.







2024 © gtavrl.ru.