Проектиран да се провали

26 Март 2014
English: Alan Shepard in capsule aboard Freedo...

English:. Алън Шепърд в капсула на борда на Freedom 7 преди старта-1961 Алън Шепърд става първият американец в космоса на 5 май 1961 стартира на борда му Меркурий-Редстоун 3 ракета на име Freedom 7-в суборбитален полет, продължил 15 минути. (Снимка на кредит: Wikipedia)

Пиша тази малко за жена ми и нетехнически приятели. Както си мислех през тази идея ми хрумна, че това не е особено технически, и това е чудесен начин да се обясни това, което съм прекарал много време ми прави, когато аз съм действително проектиране решения.

Наскоро двамата ми съпруга и моите телефони са разделени по различни начини, тя спадна нейните и тя никога не е било същото, тъй като, мина просто трябваше някои завързан хардуерен проблем и се опитва да го оправи го направи по-лошо. Технологията купуваме обикновено се поставя заедно с най-евтиния хардуер доставчик, с най-ниската цена на суровините технология (не винаги е така, но до голяма степен вярно). Масовото производство намалява разходите, така че няма просото и намаляване на съкращения (множество компоненти, които са там само за да поеме, когато някой не успее).

Като цяло домашния живот, повечето от нас не се притеснява от съкращение, някои от нас може да има повече от един настолен компютър или лаптоп, но повечето от нас ще има само един личен телефон, един голям телевизионен екран, един BlueRay плеър, и т.н. и т.н. Ние купуваме стока и ние приемаме, че тя е стока и склонни към провал. Някои от нас не осъзнават това и се разстрои, когато технологията е неуспешен (може би много от нас не осъзнават това!), Но когато се сетите, че технологията, имате не е непременно най-добрите (най-доброто е скъпо), но най-евтиният, ще разбереш защо е толкова податливи на провал. Ето защо началната технология застрахователната индустрия е толкова силна!

General , , ,

DevOps срещу ИТ Ops

17 март 2014

Прекарах последните няколко месеца следи отблизо дъски за работа, и защото на моя фон уеб програмиране I се сигнализирано за работни места за развитие. Интересното е по-голямата част от ролите развитие изглежда се разпъва като DevOps роли. Първоначално това имам интересуват, както аз ще бъда много се интересуват от това роля DevOps (моите Dev умения са ръждясали, но мога да направя страна Ops доста добре). Но изглежда, че по-голямата част от DevOps роли са просто само за развитие роли с малко управление довереник включени, и управлението на довереник е свързана с код, а не на инфраструктура, свързана.

Ако се вгледате в страната, ИТ Операции на нещата, тези момчета са все по-ангажирани с автоматизирана строи, управление на конфигурацията инфраструктура и концепцията повсеместното неизменна сървър. Проблемът е, че има значително кръстосано в инструментална екипировка за DevOps и IT-Ops. Ако търсите нещо като готвач , Куклен , Ansible или Salt , един от ключовите фактори за решението е, че сте разработчик или човек на инфраструктура. Разработчиците са по-склонни да се разбере GitHub хранилища и работни потоци, докато инфраструктурни момчета ще разберат повече скриптове автоматизирана телосложение. С най-големи доставчици на инфраструктура за виртуализация, идващи в страната, с неща като VMware е Application директор и директор на данни , както и на Microsoft App-Controller , този пазар е бързо се превръща в зает.

Но ключовият въпрос е все още, вие сте разработчик или човек на инфраструктура? Или човек инфраструктура е изграждането на шаблон за прехвърляне към развитие, или разработчик е като предварително изграден шаблон и автоматизиране на техния код над горната част на него. Ами DevOps тогава? В кой момент ще екипа на инфраструктурните операции действително работят в тясно сътрудничество с екипа за развитие? Може би въпросът е по-близо до: В кой момент екипът на инфраструктура ще позволи на екипа за развитие да се доближи до инфраструктурата, както и в кой момент екипът на развитие ще позволи екип на инфраструктурата се доближи до техния код? Все още има твърде много аргументи един или друг начин (кода ви не е оптимизирана за виртуален стек, вашата инфраструктура не е достатъчно динамична за нашия код, и т.н. и т.н.).

Общото , , , ,

Обяснете Snapshots

11-ти март, 2014

Това изглежда да е популярен термин за търсене, така че мисля, че си струва, обхващаща разстояние. Този въпрос се разглежда на стария ми топ пост за Дробни Резервация , но аз ще покрие алтернативите тук също.

snap00259

NetApp снимки, използвани за да бъде доста уникална в бранша, но терминът индустрията за тази технология е по принцип сега Добавяне на-на-Write / Пренасочване-на-Write (нови пише се прилага към "края", или пренасочени към свободни блокове, в зависимост как гледаш на него) и доста търговци го правят по този начин. Сложи много просто, всички нови данни се записва нови (нулира) блокове на диска. Това не означава, че моментното състояние пространство трябва да бъде логически в същото населено място, тъй като данните за производството, но това наистина не трябва да бъде проблем с басейни широк ивици / агрегати / съхранение (изберете предпочитан термин продавач). Когато се вземе моментна снимка, таблица на възела е замразен и копира. Точките на Inode маса до блоковете за данни и тези данни блокове вече са станали фиксирани. Тъй като активните файловата система "Промените" блокове, те всъщност се записва нови места на диск, и така че няма натоварване на обезценката (новите блокове вече са занулени). С други технологии (не NetApp), това също е в основата на автоматизиран tiering, след като данни е "заключен" от една моментна снимка, тя никога няма да бъде над написани така че спокойно може да бъде диференцирана от SSD или дори SAS като прочетено изпълнение е рядко е проблем. NetApp ползване FlashPools да увеличи това и една моментна снимка е изходна точка за данни, за да бъдат диференцирани от FlashPools тъй като тя никога няма да бъде "презаписани".

Уеб търсения , , ,

VMware Ready CPU Time

11-ти март, 2014

Аз съм изненадан, че наскоро това се е върнал, за да ме преследва като проблем, и основен при това.

Така че какъв е проблемът? Ами, дълга история кратко, ако гладувам виртуалния си имоти на процесорни ресурси вие ще получите CPU готови държавни въпроси. Най-общо това е причинено от два въпроси, вие сте прекалено ангажирани си процесорни ресурси (коефициент на консолидация е твърде висока), или вашите виртуални машини са оразмерени твърде голяма (и тяхната натовареност е твърде висока).

VMware Vsphere е много умен с това е CPU виртуализация. С цел да се позволи на няколко виртуални машини имат един и същ CPU пространство, Съдът им графици и навън. Излишно е да се каже, това се случва много бързо и като цяло единственото нещо, което ще забележите, е, че консумират много малко CPU и имат много висок коефициент на консолидация. Проблемът наистина се случва с големи виртуални машини (4 + vCPU е). Vsphere трябва да бъде много по-интелигентен за това, тъй като се нуждаем от всички vCPU да бъде насрочено в същото време, или изкривена леко (част от спокойна съвместно планиране в 5.0 +). Прозорецът на възможностите за планиране на това се стеснява още повече vCPU можете да възлага, така че 4 vCPU машина трябва да се изчака четири логически ядра да бъде достъпна ( хипер-резба ядра се броят като отделни логически ядра), и 8 vCPU машина трябва да се изчака 8. The-богат на Vsphere домакин е, колкото по-дълго на опашка може да има за процесорни ресурси и по-трудно е да планирате всичко vCPU е. Докато машината е в очакване на CPU ресурси, за да бъде на разположение, той е в готов състояние (което означава, че има CPU транзакции за обработка, но не може, тъй като не са налице ресурси). Спокойната съвместно планиране означава, че не винаги е нужно да се изчака всички vCPU да бъде насрочено в същото време на логически физически ядра, но това е основно правило, когато се оразмерява.

General , , , ,

Нови начала

11-ти март, 2014

Първо нов пост в какво, 2-3 години? WAFL.co.uk все още изпълнява чудесно и сега, че съм се премества роли Предполагам, че е време да посети отново старите си пламъци. Моят дом лаборатория се нуждае от повторно изграждане и надграждане и, че трябва да се документира!

Така че аз съм се премества в големия страшен свят на договор за основа на работата, аз започнах първата си роля преди няколко седмици, а досега Всичко върви чудесно. Искам да запазя актуализация на моите подвизи, предизвикателствата реални клиенти са изправени и да споделят някои от моите общи разсъждения. Сайтът ще бъде по-малко NetApp ориентирана, но аз все още имат корените си в склада!

Първата ми роля участват много интересни предизвикателства, но има някои големи технология, налична тук. Силен DevOps отбор (че нужда от помощ за интегриране на бит Ops, не всички?), много предизвикателства Big данни и незабавно да погледнем към създаване на много по-отзивчиви инфраструктура, включително когато облачните услуги пасват инча започнах живота като уеб разработчик, и това е страхотно, като обратно на дотком компания и виждат как предизвикателствата са се развили.

Подобрени от Zemanta

General , , ,

NetApp Дебюти OnCommand Мениджър Изпълнение

03 март, 2014
NetApp миналата седмица пусна OnCommand Изпълнение Мениджър Candidate 1.0 Release 1 (RC1) за всички клиенти и партньори на NetApp. Този нов софтуер осигурява управление на изпълнението, отстраняване на проблеми, както и уведомления за настъпили събития за системи за изпълняване на клъстерни Data ONTAP 8.2 и 8.2.1.

Мениджър Изпълнение 1.0 RC1 се разгръща, не се инсталира, като виртуален уред в рамките на VMware ESX или ESXi. Виртуалният уред е предварително създадени софтуерен пакет, съдържащ една операционна система и софтуер приложения, които са интегрирани, управляват и актуализират в пакет. Този метод за разпространение на софтуер опростява какво щеше да бъде по друг начин сложна инсталация процес.

При разполагане на персонала, Linux 2.6.32-базирана виртуална уреда създава виртуална машина, съдържащ софтуера на потребителя, приложения на трети страни, както и цялата информация конфигурация предварително инсталиран на виртуалната машина. Голяма част от виртуалната мидълуер уред е построен основно с Java и включва няколко компонента с отворен код - най-вече от (но не само) фондация Apache Software, проектът Debian, и Фондацията за свободен софтуер.

Оразмеряване Мениджър производителност се базира на редица фактори: броят на скупчени Data ONTAP клъстери, максимален брой на възли във всеки клъстер, и максимален брой на обемите на всеки възел в клъстер.

За да отговорят на официален статут за поддръжка от NetApp, Мениджър Изпълнение 1.0 RC1 изисква 12GB на (запазено) памет, четири виртуални процесори, и общо 9572 MHz на (запазено) CPU. Това квалифицирано конфигурация отговаря на минималните нива на приемлива производителност и конфигурирането на тези настройки по-малки от посочените не се поддържа. Интересното е, че увеличаване на някой от тези ресурси е позволено - но не се препоръчва - тъй като това предоставя малко допълнителна стойност.

В действителност, според до декември 2013 г. данни AutoSupport от NetApp, повечето клиенти могат да очакват да се разположи една единствена Мениджър Изпълнение виртуална уред; като една инстанция ще бъде подходящ за 95% от всички разработени до момента, скупчени Data ONTAP системи.

Интересно е също да се отбележи, че доста продукти съществуват в портфейла OnCommand които осигуряват мониторинг на изпълнението. Така че, когато един продукт, ще бъдат по-подходящи за сметка на друг?

Нека да започнем с мениджъра на изпълнението; това е най-малкото общо кратно. Тя следи и Повредите дълбоко в струпани система Data ONTAP.

OnCommand Balance осигурява отстраняване на проблеми и оптимизиране на следващото ниво - особено в среда на виртуализация на сървърите. Тя следи Клъстер Data ONTAP, на VMS, и домакини. Той корелира всички данни чрез използване на аналитични резултати и дава насоки.

Накрая, OnCommand Insight е пълноправен съхранение разтвор за големи, сложни, множество производители съхранение във виртуални и физически среди управление на ресурсите. Клиенти на NetApp добавят Insight, ако те имат за съхранение на други производители, като EMC, HP, IBM, HDS, и т.н.

Не се изисква разрешително за разполагане OnCommand Работа Manager 1.0 RC1. За изискваните VMware сървър и браузър версии, се обърнете към оперативна съвместимост Matrix Tool (IMT) страница на сайта за поддръжка на NetApp.

Geek ONTAP ,

NetApp FAS8000 представя

19 Февруари 2014
NetApp обяви днес началото на FAS8000 Series, най-новата си платформа предприятие за обща инфраструктура, с три нови модела: FAS8020, FAS8040 и FAS8060, които заместват FAS/V3220, FAS/V3250 и FAS/V6220, съответно. Тази нова линия, първоначално ще се продава с Data ONTAP 8.2.1 RC2, подкрепящи или 7-Mode или струпани Data ONTAP.

Всички системи са достъпни и в двата самостоятелни и HA конфигурации в рамките на една шаси. Всички самостоятелни конфигурации FAS8000 контролер могат да имат втори контролер (от същия модел), прибавен към шасито, за да се превърне HA.

Новият FAS8000 е квалифицирано с DS2246, DS4246, DS4486, DS4243, DS14mk4 и DS14mk2-AT дискови рафтовете с IOM6, IOM3, ESH4, и AT-FCX шелф модули. Виртуализирани съхранение от различни производители могат също да бъдат добавени към FAS8000 - без специална система V-Series "шлюз" - с нова "FlexArray" функция на софтуера.

NetApp не ще предложи отделна FlexCache модел за серията FAS8000.

Нека да разгледаме техническите подробности на всеки един от тези нови системи за съхранение.


FAS8020
3U форм-фактор FAS8020 The (кодово име: "Buell"), е насочена към средно големи корпоративни клиенти със смесени натоварвания. Всеки процесор Control Module (PCM) включва един сокет, 2.0 GHz Intel E5-2620 "Sandy Bridge-EP" процесор с 6 ядра (12 на HA чифт), на Intel Patsburg-J южен мост, и 24GB на DDR3 физическа памет ( 48GB на HA чифт).

NetApp поддържа единични и двойни конфигурации контролер в едно шаси, но за разлика от предишните системи, I / O Expansion Module (IOXM) конфигурации, които не се поддържат. Увеличеният микс от високо-производителни на борда пристанища и гъвкавостта, предлагана от нови Unified Target 2 Adapter (UTA2) пристанища намалява необходимостта от по-висок брой слот на серията FAS8000.

Както в случая с NetApp NVRAM8 на предишните системи FAS, всеки FAS8020 PCM включва 4GB оперативна NVRAM9 (8GB на HA двойка) с резервна батерия; би трябвало да възникне загуба на мощност, съдържанието на NVRAM се destaged върху NAND Flash памет. След възстановяване на захранването, получената NVLOG след това се преиграва за възстановяване на системата. NVRAM9 е интегрирана на дънната платка и не заема един слот.

The FAS8020 е построен по Gen 3 PCI Express (PCIe) архитектура за вградени устройства (като PCI мостове, Ethernet / Fibre Channel / InfiniBand адаптери и SAS контролери). Нейните слотове поддържат широки връзки до x8 алеи.

Интересното е, че Interconnect HA за FAS8020 сега лостове 40Gb QDR InfiniBand адаптери; Това е съществено ъпгрейд от 10GBASE-KR (мед) или 10GBASE-SR технология (фибри) са открити в рамките на FAS/V3220.

Също нови за FAS8020 е новият унифициран изходен адаптер (UTA) 2; на индустрията за съхранение първо от NetApp. Той поддържа 16 Gb Fibre Channel (FC) или 10Gb Ethernet, предоставяйки бъдещата гъвкавост. И двете пристанища трябва да бъдат настроени на една и съща "личността" и промяна на един UTA порт ще се променят второто пристанище на една и съща личност. The FAS8020 има един-единствен ASIC за борда UTA2 пристанища, и отказоустойчивост през ASICs изисква добавяне на X1143A-R6.

Личността FC на UTA2 ще autorange скорост на връзката от 16/8/4 Gb FC, но не работи в 2 или 1 Gbps. The 10GbE няма да autorange долу скорости 10GbE. Важно е да се отбележи, че UTA2 пристанища, не са подкрепени с по-стари DS14 FC рафтове или ФК лентови устройства. За да се свържете DS14 рафтове или FC лента, използване X1132A-R6 или X2054A-R6.

The FAS8020 може да побере максимум 480 дискове или SSD, 240 (на HA система), с максимален капацитет от 1920 TB. Максималният размер на Flash Cache и Flash Pool (комбиниран) капацитет е до 6TB на HA чифт. Максимален размер на агрегатите на FAS8020 е 150TB и максималния размер на звука е 70TB.

Клъстер Data ONTAP граници възел на FAS8020 са 24 за NAS и 8 за SAN с хомогенен клъстер. Не е изненадващо, платформа-смесване правила с разнородни (смесени) клъстери ограничават FAS8020 с FAS/V3220s, 3250s, 3270s, 6210s и до максимум 8 възли за SAN и NAS както клъстери. Повече модерни системи (като FAS/V6220s, 6240/50s и 6280/90s) са квалифицирани с 24 възли за NAS и 8 възли за SAN с FAS8020 - точно като хомогенни групи. Също така имайте предвид, че FAS8020 работи в рамките на една хетерогенна (смесен) клъстер от FAS/V3210s, FAS/V3240s, или FAS22xx системи е било само се класира за 4 възли за SAN и NAS за четири възли в този момент.


FAS8040/60
6U форм-фактор FAS8040 и FAS8060 (кодово име: "Bimota") са насочени към средни и големи корпоративни клиенти с бизнес критични приложения и клауд инфраструктура.

Всеки FAS8040 Control Processor Module (PCM) включва един сокет, 2.1 GHz Intel E5-2658 "Sandy Bridge-EP" процесор с 8 ядра (16 на HA чифт), на Intel Patsburg-J южен мост, и 32GB на DDR3 физическа памет (64GB на HA чифт).

Всеки FAS8060 PCM включва двойна гнездо, 2.1 GHz Intel E5-2658 "Sandy Bridge-EP" процесори с общо 16 ядра (32 на HA чифт), на Intel Patsburg-J южен мост, и 64GB на DDR3 физическа памет (128GB на HA чифт). Data ONTAP използване на процесора на всеки FAS8060 PCM достига 1560%; това означава, че всички 16 ядра са активно обслужващи натовареност (100% се равнява на едно ядро).

NetApp поддържа единични и двойни конфигурации контролер в едно шаси, но за разлика от предишните системи, I / O Expansion Module (IOXM) конфигурации, които не се поддържат. Увеличеният микс от високо-производителни на борда пристанища и гъвкавостта, предлагана от новите UTA2 пристанища намалява необходимостта от по-висок брой слот на серията FAS8000.

Както в случая с NetApp NVRAM8 на предишните системи FAS, всеки FAS8040 или FAS8060 PCM включва 8GB на NVRAM9 (16GB на HA двойка) с резервна батерия; би трябвало да възникне загуба на мощност, съдържанието на NVRAM се destaged върху NAND Flash памет. След възстановяване на захранването, получената NVLOG след това се преиграва за възстановяване на системата. NVRAM9 е интегрирана на дънната платка и не заема един слот.

The FAS8040/60 е построен по Gen 3 PCI Express (PCIe) архитектура за вградени устройства (като PCI мостове, Ethernet / Fibre Channel / InfiniBand адаптери и SAS контролери). Всички слотове поддържат x8 широки връзки.

Интересното е, че Interconnect HA за FAS8040/60 сега лостове 40Gb QDR InfiniBand адаптери; Това е съществено ъпгрейд от 10GBASE-KR (мед) или 10GBASE-SR технология (фибри) са открити в рамките на FAS/V3250 и скромно подобрение от FAS/V6220 е 20Gb DDR InfiniBand свързване.

Според NetApp, на FAS8040 и FAS8060 следва да използва всички четири бордови пристанища за клъстер Interconnect, за да достигне най-високите резултати за отдалечени работни натоварвания в рамките Data ONTAP 8.2.1. Тази добра практика също така гарантира, внедрявания могат да се възползват от потенциалните увеличение на производителността в бъдещите версии на Data ONTAP.

Също нови за FAS8040 и FAS8060 е новият унифициран изходен адаптер (UTA) 2; на индустрията за съхранение първо от NetApp. Той поддържа 16 Gb Fibre Channel (FC) или 10Gb Ethernet, предоставяйки бъдещата гъвкавост. И двете пристанища трябва да бъдат настроени на една и съща "личността" и промяна на един UTA порт ще се променят второто пристанище на една и съща личност. The FAS8040 и FAS8060 има две UTA2 ASICs и пристанищни двойки са e0e/0e и e0f/0f споделяне на ASIC, докато пристанищни двойки e0g/0g и e0h/0h акции втората ASIC.

Личността FC на UTA2 ще autorange скорост на връзката от 16/8/4 Gb FC, но не работи в 2 или 1 Gbps. The 10GbE няма да autorange долу скорости 10GbE. Важно е да се отбележи, че UTA2 пристанища, не са подкрепени с по-стари DS14 FC рафтове или ФК лентови устройства. За да се свържете DS14 рафтове или FC лента, използване X1132A-R6 или X2054A-R6.

The FAS8040 може да побере максимум 720 дискове или SSD, 240 (на HA система), с максимален капацитет от 2880 TB. Максималният размер на Flash Cache и Flash Pool (комбиниран) капацитет е до 12TB на HA чифт. Максимален размер на агрегатите на FAS8040 е 180TB и максималния размер на звука е 100TB.

The FAS8060 може да побере максимум 1200 дискове или SSD, 240 (на HA система), с максимален капацитет от 4800 TB. Максималният размер на Flash Cache и Flash Pool (комбиниран) капацитет е до 18TB на HA чифт. Максимален размер на агрегатите на FAS8060 е 324TB и максималния размер на звука е 100TB.

Клъстер Data ONTAP граници възел на FAS8040/60 са 24 за NAS и 8 за SAN с хомогенен клъстер. Не е изненадващо, платформа-смесване правила с разнородни (смесени) клъстери ограничават FAS8040/60 с FAS/V3220s, 3250s, 3270s, 6210s и до максимум 8 възли за SAN и NAS както клъстери. Повече модерни системи (като FAS/V6220s, 6240/50s и 6280/90s) са квалифицирани с 24 възли за NAS и 8 възли за SAN с FAS8040/60 - точно като хомогенни групи.


РЕЗЮМЕ
The FAS8000 е достъпна за цитат и поръчка веднага с Data ONTAP 8.2.1 RC2. Превозите се планира да започне март 2014. Започвайки през май 2014 г., FAS8000 системи ще бъдат orderable като Factory конфигурирани клъстери (FCCs).

Geek ONTAP , General

Super Съхранение: Преглед на съхранение на данни на НФЛ A вентилатора

11 Февруари, 2014
Подобно на повечето американци, аз наскоро гледах най-големият, най-смелите, най-студения и събитие в американския футбол: Super Bowl XLVIII с 112 200 000 от най-близките ми "приятели".

Но дори и да не се вълнувам за голямата игра, вие все още може да се интересуват да научат повече за ролята на съхранение на данни за най-гледания телевизионна програма в американската история.

През седмицата, довели до Super Bowl, имах привилегията да помогне звъни на звънеца отваряне на NASDAQ MarketSite в New York City - и това, което един опит ! Аз също имаха възможност да разговарят с директора на НФЛ на информационните технологии, Aaron Amendolia, за да проучи как те се наберат системи за управление на данни NetApp съхранение.

Тя започва с 40 NetApp FAS2200 Серия системи за съхранение, които съхраняват, защитават и служат данни за всички 32 NFL екипи, хиляди кадри, и милиони фенове. Например:

Искате играч статистика по време на игра? All игра играе сурови данни е незабавно на разположение и обслужван от системи за съхранение NetApp.

? Подобно на тези кадри за действие на телевизионни и вестникарски фотографи вземат стотици хиляди снимки и видео оператори заснемат видео с висока резолюция на редовния сезон игри, плейофите, както и Super Bowl - всичко, съхранявана на системи за съхранение NetApp.

Виж някой, който носи значка? NetApp предоставя инфраструктурата, която поддържа credentialing сигурност за всеки от продавачите на хот-дог на комисар NFL.

Научих също, че НФЛ лостове целия протокол стека (и двете SAN и NAS), с над 90% на тяхната инфраструктура течаща виртуални машини на системи за съхранение NetApp.

И все пак, всеки Super Bowl е уникално.

Крайните потребители НФЛ често са разположени в хотели с висока латентност връзки; хардуер се подлага на обикновено не се срещат в рамките на повечето центрове за данни (сода разливи, замърсявания, песъчинки и т.н.), тежки условия. Добрата новина е, че SnapMirror, софтуерът репликация, вградена в Data ONTAP, позволява на НФЛ до срив в случай на проблем.

В действителност, те редовно тестват своите планове за възстановяване след бедствие с (жива) срив и failback.

Разбира се, от вашия любим отбор може да не са стигнали до Super Bowl тази година, но партньорството с NFL и нейните 32 отбора не свършва с Super Bowl. Тя все още е бизнес както обикновено за IT инфраструктурата на НФЛ: актуализиране playbooks, стрийминг на видео и т.н.

Всичко това изисква супер платформа за съхранение, като NetApp: официален доставчик на НФЛ за съхранение на данни.

Geek ONTAP , General

NetApp пресата Flash Accel 1.3.0

30 януари 2014 г.
NetApp днес обяви наличието на Flash Accel 1.3.0, неговата страна на сървъра софтуер, който превръща поддържаните сървърни флаш в кеш за системите за задния ONTAP Data съхранение.

Кохерентност, Persistence
Както и при предишните издания, Flash Accel 1.3.0 се откриват и коригират за съгласуваност на ниво блок - по-скоро, отколкото промиване на цялата кеш памет. Промиване на цялата кеш може да бъде добро, тъй като има никакви проблеми съгласуваност на данните, но ужасно за изпълнение. Flash Accel кеш обезсилване коригира кеш, като същевременно запазят кеша упорит.

В допълнение към интелигентен съгласуваност на данните, Flash Accel също осигурява постоянство през VM / сървър отскачам.

Ползата от двете интелигентен съгласуваност на данните и постоянство е да се гарантира, че и двете кеша оптимизира производителността в своя връх (т.е. когато кешът е топло) и пикова производителност може да продължи толкова дълго, колкото е възможно (чрез поддържане на топло кеш за толкова дълго, колкото е възможно ).


Side бележка: Flash Accel код управлява сървъра кеш, ускоряване на достъпа до данни, които се съхраняват и управляват от Data ONTAP на системата за съхранение. Flash Accel НЕ е Data ONTAP код.

Нещо ново
Flash Accel 1.3.0 добавя следните характеристики и функционалности:

  • Подкрепа за Windows Server голия метал кеширане:
    • Windows 2008 R2, Windows 2012, Windows и 2012 R2
    • FC и ISCSI подкрепа за голия метал
    • Клъстер приложения поддържат (студена кеш на срив)
  • Добавя поддръжка за Windows 2012 и 2012 R2 виртуални машини и Vsphere 5.5 поддръжка
    • Забележка: за използване на Flash Accel с Flash Accel Management Console (FAMC), Vsphere ще бъде добавен 5,5 подкрепа в рамките на седмица от общата наличност на Flash Accel 1.3
  • До 4TB на кеша на сървъра
  • Подкрепа за STEC PCI-E Accelerator
    • Забележка: За VMware среда, Flash Accel 1.3.0 първоначално е достъпна само за използване с FAMC. 1.3.0 подкрепа за използване с NetApp Virtual Storage Console (VSC) ще бъде на разположение, когато VSC 5.0 пресата

Проверете NetApp оперативна съвместимост Matrix Tool (IMT) на рамките на новата "Flash Accel" решение за съхранение в рамките на "Сървър Кеширане Solutions" категорията за най-актуална подкрепени конфигурации.

Като част от тази версия, на изразходването на паметта е намалена. Преди това, Flash Accel изисква 0.006 GB физическа памет на хост за всеки гигабайт памет на устройството и 0.006 GB допълнителна памет на VM за всеки гигабайт кеш пространство разпределени. С версия 1.3.0, вече е възможно да конфигурирате 0.0035 GB физическа памет (на хоста) и 0.0035 GB допълнителна памет (на VM).

Важно е също да се отбележи, че размерът блок по подразбиране кеш във версия 1.3.0 е увеличен от 4 KB до 8 KB.

Flash Accel 1.3.0 може да бъде изтеглен от всеки NetApp FAS или V-Series клиент, без разходи. За да изтеглите Flash Accel, посетете сайта за поддръжка NetApp .

Geek ONTAP , General

Snap Creator Deep Dive

30 декември 2013
NetApp Snap Creator Framework е софтуер за защита на данните, която интегрира NetApp функции с приложения на трети страни, бази данни, hypervisors и операционни системи.

Snap Creator първоначално е бил разработен през октомври 2007 г. от NetApp Professional Services и Rapid Response инженеринг за намаляване (или дори да елиминира) скриптове. В днешно време, Snap Creator е напълно подкрепена разпределение на софтуер от сайта за поддръжка на NetApp.

The Creator Екипът Snap предлага две версии на Snap Creator: версия общност и официално съобщение NetApp. Версията на общността включва най-новите плъгини, подобрения и функции, но не се поддържа от NetApp Support. The NetApp версия е напълно тествана и подкрепен, но не включва най-новите плъгини, функции и подобрения.

Нека да разгледаме архитектурата на наскоро публикувания Snap Creator 4.1 Release Общността през ноември 2013 година.

Snap Creator Сървърна архитектура
The Creator Snap Server, обикновено се инсталира на централизиран сървър. Тя включва Workflow Engine, което е многонишковите, XML задвижване компонент, който изпълнява всички Snap Creator команди.

Както Snap Creator GUI и CLI, както и трети страни решения (като PowerShell кратки команди), подпомогнат API Snap Creator. Например, NetApp Workflow Автоматизация може да се наберат PowerShell кратки команди, за да съобщават на Snap Creator.

За да съхранявате своите конфигурации, Snap Creator включва конфигурационни файлове и профили в своя Repository; това включва глобални конфигурационни файлове и глобални довереник профил на ниво. Ако сте запознати с предишните версии на Snap Creator Server, един от най-новите компоненти е Extended хранилище. Това разширение осигурява място на база данни за всяко работно място, които се внасят информация за работни места, а дори и плъг-ин метаданни.


За упоритост, на Snap Creator база данни съхранява информация за Snap Създател графици и работни места, както и на потребителите и RBAC роли.

Интерфейса за съхранение е от страна на сървъра компонент, който обработва комуникация чрез Data ONTAP APIs да изпълнява операции на системи за съхранение, като например SnapVault, SnapMirror и др Snap Creator включва и Unified Мениджър интерфейс, който комуникира с NetApp OnCommand Unified Мениджър; той действително използва Unified APIs Manager (вместо ONTAP APIs).

Накрая, Snap Creator сървър включва интерфейс агент, който се свързва с агент (който обикновено се инсталира на външни източници на Snap Creator сървър). Нека да преминем към Snap Creator Агента.

Snap Creator Agent Architecture
The Snap Creator Агентът 4.1 наскоро бе пренаписан изцяло в Java да бъде многонишковите за всички операционни системи. Като част от този презапис, криптиране е включен в целия софтуер. Това означава, че предишните версии (до и включително версия 4.0) ще комуникират само през HTTP; има предвид, че с версия 4.1, комуникация възниква само над (криптирана) HTTPS.

Първо, интерфейсът Agent (на сървъра) разговаря с RESTful Interface на Агента. Основният компонент на агента е управителят на Operation / Изпълнение. Той е отговорен за обработката на всички входящи, изходящи и / или завършени искания, докато управителят на изпълнението всъщност завършва тези искания.

За да изпълни няколко задачи, всяка Snap Creator Agent включва Thread Pool; тя се състои от нишки на работниците, които определят броя на дадени операции.

Но какво се случва, ако дадена операция е надвишило стойността таймаут след определено време? Това е, когато Watchdog на Агента може да се задейства от управителя на изпълнението. Това е често ползвана време в режим на изчакване операции.


Преминавайки, има Context Store който съдържа информация, която е необходима за целия живот на работния поток.

The Snap Creator Агентът също така включва Plug-в Factory че instantiates плъгините и комуникира директно с контекста Store.

For Java Plug-ins, it's also important to note that it can directly talk back to the Context Store on the Agent, as well as to the Snap Creator Server -- via token-based storage access. This means that they can execute storage operations without communicating back to the Snap Creator Server. While this is a feature that hasn't been leveraged to date, it is nevertheless available moving forward.

But what happens if the Plug-in Factory instantiates a non-Java plug-in?

In this scenario, it executes the code of the existing Plug-in Integration Engine, which can run the version 4.0 or 3.6 plug-ins as well as supporting custom plug-ins written in Perl, Unix shell scripting, PowerShell, etc.

Обобщение
To recap, we've discussed both the server and agent architecture of Snap Creator 4.1. To learn more about developing plug-ins, visit SnapCreator.com .

Geek ONTAP , General



This site is not affiliated or sponsored in anyway by NetApp or any other company mentioned within.

© 2009-2014 Крис Кранц Всички права запазени
This site is not affiliated or sponsored in anyway by NetApp or any other company mentioned within.