Designed to Fail

26. März 2014
English: Alan Shepard in capsule aboard Freedo...

Englisch:. Alan Shepard in Kapsel an Bord vor dem Start Freedom 7-1961 Alan Shepard als erster Amerikaner im Weltraum am 5. Mai 1961 startete er an Bord seiner Mercury-Redstone 3-Rakete namens Freedom 7-die suborbitalen Flug dauerte 15 Minuten. (Foto: Wikipedia)

Ich schreibe dies ein wenig für meine Frau und nicht-technische Freunde. Als ich durch diese Idee denken, fiel mir ein, dass es nicht besonders technisch, und es ist eine großartige Möglichkeit, zu erklären, was ich viel von meiner Zeit zu tun, wenn ich tatsächlich Entwicklung von Lösungen.

Kürzlich sowohl meine Frau und meine Handys haben auf verschiedene Weise gebrochen, ließ sie ihr und es ist nie die gleiche gewesen, da mir hatte nur etwas zwielichtigen Hardware-Fehler und zu versuchen, es zu beheben machte es noch schlimmer. Die Technologie, die wir kaufen, in der Regel gemeinsam von der billigsten Hardware-Anbieter setzen, mit den niedrigsten Kosten Rohstofftechnologie (nicht immer der Fall, aber weitgehend true). Die Massenproduktion senkt die Kosten, so dass keine Abstriche und die Verringerung der Redundanz (mehrere Komponenten, die gibt es nur zu übernehmen, wenn man scheitert).

Im allgemeinen Leben zu Hause die meisten von uns nicht die Mühe mit Redundanz, einige von uns kann mehr als ein Desktop-PC oder Laptop haben, aber die meisten von uns nur eine persönliche Telefon, ein Großbild-TV, ein Blueray-Player usw. usw. Wir kaufen Ware und wir akzeptieren, dass es ein Rohstoff-und fehleranfällig. Einige von uns wissen das nicht und aufregen, wenn die Technik versagt (vielleicht viele von uns ist dies nicht bewusst!), Aber wenn Sie sich daran erinnern, dass die Technologie, die Sie haben, ist nicht unbedingt die beste (die beste ist teuer), aber das billigste, werden Sie erkennen, warum es so fehleranfällig. Deshalb ist die Haustechnik Versicherungswirtschaft ist so stark!

Allgemeine , , ,

DevOps vs IT-Ops

17. März 2014

Ich habe die letzten Monate damit verbracht, verfolgt aufmerksam die Jobbörsen, und wegen meiner Web-Entwicklung Hintergrund ich für Entwicklungsaufträge gekennzeichnet. Interessanterweise ist die überwiegende Mehrheit der Entwicklung Rollen scheinen als aufgeschlagen werden DevOps Rollen. Anfangs dieser habe mein Interesse, da ich sehr daran interessiert, eine DevOps Rolle (meine dev Fähigkeiten sind rostig, aber ich kann die Seite Ops ziemlich gut zu tun) würde. Aber es scheint die Mehrheit der DevOps Rollen sind einfach nur Entwicklungs Rollen mit ein wenig Konfigurationsmanagement enthalten und die Config-Management ist der Code, nicht in der Infrastruktur.

Wenn man sich die IT Operations Seite der Dinge zu sehen, sind die Jungs immer in automatisierte Builds, Infrastruktur-Konfigurationsmanagement und die allgegenwärtige unveränderliche Server-Konzept eingebunden. Das Problem ist, gibt es signifikante Cross-over in der Werkzeug für DevOps und IT-Ops. Wenn man sich so etwas wie suchen Chef , Puppet , Ansible oder Salz , einer der wichtigsten Entscheidungsfaktoren sind Sie ein Entwickler oder ein Infrastruktur Person. Entwickler sind eher zu verstehen, Github -Repositories und Workflows, während Infrastruktur Jungs werden mehr verstehen Scripting einen automatisierten Build. Mit den großen Infrastrukturvirtualisierung Anbieter kommen, um die Partei mit Dingen wie VMware Application Director und Data Director sowie von Microsoft App-Steuerung , wird dieser Markt schnell zu beschäftigt.

Aber die entscheidende Frage ist immer noch, Sie sind ein Entwickler oder ein Infrastruktur Person? Entweder eine Person Infrastruktur baut eine Vorlage bis zur Übergabe auf Entwicklung, oder ein Entwickler nimmt eine vorgefertigte Schablone und Automatisierung ihrer Code über das oben drauf. Was DevOps dann? An welchem ​​Punkt wird die Infrastruktur Operations-Team tatsächlich eng mit dem Entwicklungsteam? Vielleicht ist die Frage näher: An welchem ​​Punkt wird das Infrastruktur-Team lassen die Entwickler näher an die Infrastruktur und an welchem ​​Punkt wird das Entwicklungsteam ließ die Infrastruktur-Team näher an ihren Code? Es gibt immer noch zu viele Argumente die eine oder andere Art und Weise (der Code nicht für einen virtuellen Stack optimiert, die Infrastruktur ist nicht dynamisch genug für unsere Code, etc. etc.).

Allgemeine , , , ,

Erklären Snapshots

11. März 2014

Dies scheint ein beliebter Suchbegriff, damit ich denke, es lohnt Abdeckung ab. Dies wird auf meinem alten Top-Beitrag über bedeckt Fractional Reservierung , aber ich werde hier auch die Alternativen zu decken.

snap00259

NetApp Snapshots verwendet werden, um in der Branche ziemlich einzigartig, aber die Industrie Begriff für diese Technologie ist nun allgemein anhängen-on-Write / Redirect-on-Write (neue Schreibvorgänge auf das "Ende" angehängt, oder den freien Blöcke umgeleitet, je , wie man es betrachtet) und einige Anbieter tun es auf diese Weise. Einfach ausgedrückt, werden alle neuen Daten auf neue (Null gestellt) Blöcke auf die Festplatte geschrieben. Dies bedeutet, dass Snapshot-Raum hat, logisch in der gleichen Lage wie die Produktionsdaten sein, aber das sollte wirklich kein Problem mit Weit Striping / Aggregate / Speicherpools (Pick bevorzugte Anbieter tige) sein. Wenn eine Momentaufnahme gemacht wird, wird die Inode-Tabelle eingefroren und kopiert. Die Inode-Tabelle verweist auf die Datenblöcke, und diese Datenblöcke nun behoben werden. Da die aktive Dateisystem "Änderungen" Blöcke, diese tatsächlich an neue Standorte auf der Festplatte geschrieben werden, und so gibt es keinen Overhead auf den Schreib (die neuen Blöcke bereits auf Null gesetzt). In anderen Technologien (nicht NetApp) diese bildet auch die Grundlage für automatisierte Tiering, sobald Daten von einem Snapshot "gesperrt", es werde nie überschrieben werden, so kann es sicher aus SSD abgestuft werden oder sogar SAS als die Leseleistung ist selten ein Problem. NetApp Verwendung FlashPools, dies zu verstärken, und eine Momentaufnahme ist ein Auslöser für Daten, die von FlashPools Tiered wie es nie "überschrieben" werden kann.

Web Suchen , , ,

VMware CPU-Zeit bereit

11. März 2014

Ich war überrascht, dass vor kurzem das hat komm zurück zu mir als ein Thema verfolgen, und ein wichtiger noch dazu.

Also, was ist das Problem? Nun, lange Rede kurzer Sinn, wenn Sie Ihre virtuelle Immobilien der CPU-Ressourcen verhungern Sie bereit CPU-State-Probleme zu bekommen. Allgemein wird dies durch zwei Faktoren verursacht, sind Sie verpflichtet, Ihre Über CPU-Ressourcen (Konsolidierung Verhältnis zu hoch ist), oder virtuellen Maschinen sind so bemessen, zu groß (und ihre Arbeitsbelastung ist zu hoch).

VMware vSphere ist sehr klug mit seinen CPU-Virtualisierung. Um zu ermöglichen, mehrere virtuelle Maschinen dieselbe CPU Platz, plant es sie in-und auswendig. Unnötig zu sagen, dass dies geschieht sehr schnell, und im Allgemeinen die einzige Sache, werden Sie feststellen, ist, dass Sie verbrauchen sehr wenig CPU und haben eine sehr hohe Konsolidierungsrate. Das Problem tritt wirklich mit großen VMs (4 + vCPU ist). vSphere muss viel mehr intelligente darüber werden, da alle vCPU die Notwendigkeit, dass zur gleichen Zeit geplant werden, oder etwas (ein Teil des entspannten Co-Scheduling in 5,0 +) verzerrt. Das Fenster der Gelegenheit, diese zu planen schmaler desto vCPU die Sie zuweisen, so ein 4 vCPU Maschine muss für vier logische Kerne warten Verfügung (zu sein Hyper-Threading- Kerne zählen als einzelne logische Kerne) und 8vCPU Maschine muss warten 8. Die belebter eine vSphere-Host ist, desto länger kann es eine Warteschlange für CPU-Ressourcen und desto schwieriger ist es zu planen, alle vCPU ist. Während eine Maschine wartet auf CPU-Ressourcen zur Verfügung stehen, ist es in einer gebrauchsfertigen Zustand (dh es hat CPU-Transaktionen zu verarbeiten, kann aber nicht, da keine Ressourcen verfügbar sind). Die entspannte Co-Scheduling bedeutet, dass es nicht immer für alle vCPU die zur gleichen Zeit auf logische physische Kerne geplant werden abwarten, aber es ist eine Faustregel, bei der Dimensionierung.

Allgemeine , , , ,

Neubeginn

11. März 2014

Ersten neuen Beitrag in dem, was, 2-3 Jahren? WAFL.co.uk immer noch bewundernswert und jetzt, dass ich Rollen bewegt Ich schätze, es ist Zeit, sich nochmals mit meiner alten Flammen. Mein Heim Labor muss eine Re-Build-und Upgrade und dokumentiert bekommen sollte!

Ich habe so große Angst in die Welt der Vertrag auf der Grundlage der Arbeit bewegt, begann ich meine erste Rolle ein paar Wochen her, und so weit es geht super. Ich möchte ein Update auf meiner Heldentaten, die Herausforderungen, echte Kunden konfrontiert sind, und einige meiner generischen Träumereien halten. Die Website wird weniger NetApp centric sein, aber ich habe immer noch meine Wurzeln in der Lagerung!

Meine erste Rolle beteiligt viele interessante Herausforderungen, aber es gibt einige großartige Technologie zur Verfügung hier. Eine starke DevOps -Team (die Notwendigkeit der Integration der Hilfe Ops bit, nicht alle?), viel Big-Data-Herausforderungen, und eine sofortige Projekt auf die Schaffung eines viel entgegen Infrastruktur, einschließlich, wo Cloud-Dienste fit in. schaue ich begann das Leben als Web-Entwickler, und es ist toll, wieder in einer Dotcom-Firma und zu sehen, wie die Herausforderungen haben sich weiterentwickelt.

Erweitert durch Zemanta

Allgemein , , ,

NetApp Debuts On-Command Performance Manager

3. März 2014
NetApp letzte Woche veröffentlicht On-Command Performance Manager 1.0 Release Candidate 1 (RC1) für alle NetApp Kunden und Partner. Diese neue Software bietet Performance-Management, Fehlersuche und Ereignisbenachrichtigung für Systeme mit Data ONTAP Cluster 8.2 und 8.2.1.

Performance Manager 1.0 RC1 bereitgestellt wird, nicht installiert, als virtuelle Appliance in VMware ESX-oder ESXi. Eine virtuelle Appliance ist eine vorgefertigte Software-Bundle, enthält ein Betriebssystem und Software-Anwendungen, die integriert sind, verwaltet und als Paket aktualisiert. Diese Software-Verteilungsverfahren vereinfacht, was eine sonst aufwändige Installation Prozess sein.

Bei der Entfaltung, erstellt das Linux 2.6.32-basierte virtuelle Appliance eine virtuelle Maschine, die den Anwender-Software, Drittanbieter-Anwendungen und alle Konfigurationsinformationen auf dem virtuellen Computer vorinstalliert. Ein Großteil der virtuellen Appliance Middleware wird in erster Linie mit Java aufgebaut und umfasst mehrere Open-Source-Komponenten - vor allem von (aber nicht beschränkt auf) der Apache Software Foundation, das Debian-Projekt und der Free Software Foundation.

Schlichte Performance Manager ist von einer Anzahl von Faktoren: die Anzahl von Daten ONTAP Clustern geclustert, maximale Anzahl von Knoten in jedem Cluster, und die maximale Anzahl von Datenträgern auf einem Knoten in einem Cluster.

Um die offizielle Supportstatus von NetApp treffen, Performance Manager 1.0 RC1 erfordert 12 GB (reserviert)-Speicher, 4 virtuelle CPUs und insgesamt 9572 MHz (reserviert) CPU. Diese zertifizierte Konfiguration erfüllt Mindestanforderungen an eine akzeptable Leistung und Konfiguration dieser Einstellungen kleiner als angegeben, wird nicht unterstützt. Interessanterweise erhöht eine dieser Ressourcen ist - aber nicht empfohlen - da dies bietet nur wenig Mehrwert.

In der Tat, nach Dezember 2013 Daten von NetApp Autosupport, die meisten Kunden sollten erwarten, dass eine einzige Performance Manager Virtual Appliance bereitstellen; als ein Beispiel wird für 95% aller derzeit eingesetzten gruppierten Daten ONTAP Systeme.

Es ist auch interessant zu bemerken, dass nicht wenige Produkte in der On-Command-Portfolio, das Performance-Monitoring liefern existieren. So, als würde man sein Produkt über ein anderes besser geeignet?

Lassen Sie uns mit Performance Manager zu starten; Dies ist der kleinste gemeinsame Nenner. Es überwacht und Fehlerbeseitigung tief in die Data ONTAP Cluster-System.

On-Command Bilanz zur Fehlerbehebung und Optimierung auf der nächsten Ebene - vor allem in einer Server-Virtualisierungsumgebung. Es überwacht Cluster Data ONTAP, die VMs und Hosts. Er korreliert alle Daten mithilfe Performance-Analyse und eine Anleitung.

Schließlich ist OnCommand Insight eine vollständige Speicherressourcenmanagement-Lösung für große, komplexe, herstellerneutrale Speicherung in virtuellen und physischen Umgebungen. NetApp Kunden hinzufügen, Insight, wenn sie anderer Anbieter Lagerung, wie EMC, HP, IBM, HDS, etc. haben

Es ist keine Lizenz erforderlich, um On-Command Performance Manager 1.0 RC1 einsetzen. Für die erforderliche VMware Server und Browser-Versionen verweisen auf die Interoperability Matrix Tool (IMT)-Seite auf dem NetApp-Support-Site.

Geek ONTAP ,

NetApp FAS8000 präsentiert

19. Februar 2014
NetApp hat heute die FAS8000 Serie, die neueste Enterprise-Plattform für gemeinsam genutzte Infrastruktur, um drei neue Modelle: FAS8020, FAS8040, FAS8060 und, die die FAS/V3220, FAS/V3250 und FAS/V6220 bzw. ersetzen. Diese neue Linie wird zunächst versenden mit Data ONTAP 8.2.1 RC2, unterstützt entweder 7-Modus oder gruppierten Daten ONTAP.

Alle Systeme sind entweder im Standalone-und HA-Konfigurationen innerhalb eines einzigen Chassis zur Verfügung. Alle Standalone FAS8000 Controller-Konfigurationen können einen zweiten Controller (das gleiche Modell) hinzugefügt, um das Chassis zu HA zu werden.

Die neue FAS8000 wurde mit dem DS2246 qualifiziert, DS4246, DS4486, DS4243, DS14mk4 und die DS14mk2-AT Plattenböden mit IOM6, IOM3, ESH4 und AT-FCX Regalmodulen. Mit der neuen "Flexarray" Software-Funktion - Virtualisierte Speicher von verschiedenen Anbietern kann auch auf die FAS8000 hinzugefügt werden - ohne dedizierten V-Series "Gateway"-System.

NetApp wird nicht bieten einen separaten Flexcache Modell für die FAS8000 Serie.

Lassen Sie uns die technischen Details eines jeden von diesen neuen Speichersystemen.


FAS8020
Die 3U-Formfaktor FAS8020 (Codename: "Buell") in Richtung Mittelklasse-Enterprise-Kunden mit gemischten Workloads ausgerichtet. Jeder Prozessorsteuerung (PCM) ein Single-Socket-, 2,0-GHz-Intel-E5-2620 "Sandy Bridge-EP"-Prozessor mit sechs Kernen (12 pro HA-Paar), einem Intel-Southbridge Patsburg-J und 24 GB DDR3 physischen Speichers ( 48GB pro HA-Paar).

NetApp unterstützt Single-und Dual-Controller-Konfigurationen in einem Chassis, aber im Gegensatz zu früheren Systemen sind I / O-Erweiterungsmodul (IOXM) Konfigurationen nicht unterstützt. Die erhöhte Mix aus High-Performance-On-Board-Schnittstellen und der Flexibilität durch die neuen Unified-Ziel-Adapter 2 (UTA2) Anschlüsse angeboten verringert die Notwendigkeit für höhere Slot zählt auf die FAS8000 Serie.

Wie bei der NetApp FAS NVRAM8 auf früheren Systemen enthält jede FAS8020 PCM 4 GB NVRAM9 (8 GB pro HA-Paar) mit Batterie-Backup; sollte ein Stromausfall auftreten, werden die NVRAM-Inhalt auf NAND-Flash-Speicher ausgespeichert. Sobald die Stromversorgung wiederhergestellt ist, wird die daraus resultierende NVLOG dann wiedergegeben, um das System wiederherzustellen. NVRAM9 ist auf der Hauptplatine integriert und nimmt nicht einen Slot.

Die FAS8020 ist auf der Gen 3 PCI Express (PCIe)-Architektur für Embedded-Geräte (wie zB PCI-Brücken, Ethernet / Fibre Channel / InfiniBand-Adaptern und SAS-Controller) gebaut. Die Steckplätze unterstützen wide links bis zu x8 Lanes.

Interessant ist, dass die HA-Verbindung für die FAS8020 nutzt jetzt 40Gb QDR InfiniBand-Adapter; Dies ist eine wesentliche Upgrade von der 10GBASE-KR (Kupfer) oder 10GBASE-SR (Faser)-Technologie innerhalb der FAS/V3220 gefunden.

Auch neu in der FAS8020 ist die neue Unified-Ziel-Adapter (UTA) 2; ein Speicherindustrie zunächst von NetApp. Es unterstützt 16-GB-Fibre-Channel (FC) oder 10 Gb-Ethernet, wodurch zukünftige Flexibilität. Beide Ports müssen auf die gleiche "Persönlichkeit" festgelegt werden und die Änderung eines UTA-Port wird den zweiten Port auf der gleichen Persönlichkeit zu verändern. Die FAS8020 hat einen einzigen ASIC für Onboard UTA2 Ports und Fehlertoleranz gegenüber ASICs erfordert Hinzufügen der X1143A-R6.

Der FC Persönlichkeit auf der UTA2 werden Verbindungsgeschwindigkeiten von 16/8/4 Gb FC Autorange, aber nicht bei 2 oder 1 Gbps zu arbeiten. Der 10-GbE nicht unter 10-GbE-Geschwindigkeiten Autorange. Es ist wichtig zu beachten, dass UTA2 Ports nicht mit älteren DS14 FC Regalen oder FC-Bandgeräte unterstützt. Um DS14 Regalen oder FC-Band, Verwendung X1132A-R6 oder X2054A-R6 verbinden.

Die FAS8020 kann bis zu 480 Laufwerke oder 240 SSDs (pro HA-System) zu halten, mit einer maximalen Kapazität von 1.920 TB. Die maximale Menge an Flash Cache und Flash-Pool (kombiniert) beträgt bis zu 6 TB pro HA-Paar. Maximale Aggregatgröße auf einer FAS8020 ist 150 TB und die maximale Volume-Größe ist 70TB.

Clustered Data ONTAP Knoten Grenzen eines FAS8020 sind 24 für die NAS-und SAN-8 mit einem homogenen Cluster. Nicht überraschend, Plattform-Mischungsregeln mit heterogenen (gemischten) Cluster begrenzen die FAS8020 mit FAS/V3220s, 3250s, 3270s und 6210S auf maximal acht Knoten sowohl für SAN-und NAS-Cluster. Wie homogene Cluster - Weitere modernen Systemen (wie die FAS/V6220s, 6240/50s und 6280/90s) werden mit 24 Knoten für NAS-und SAN-Knoten für 8 mit der FAS8020 qualifiziert. Beachten Sie auch, dass die FAS8020 innerhalb einer heterogenen (gemischten) Cluster von FAS/V3210s, FAS/V3240s oder FAS22xx Systeme ausgeführt hat, nur für 4-Knoten für SAN-und NAS-Knoten für 4 zu diesem Zeitpunkt qualifiziert sein.


FAS8040/60
Die 6U-Formfaktor FAS8040 und FAS8060 (Codename: "Bimota") sind auf mittlere bis große Unternehmenskunden mit geschäftskritischen Anwendungen und Cloud-Infrastruktur ausgerichtet.

Jeder Prozessor FAS8040 Steuerung (PCM) ein Single-Socket-, 2,1-GHz-Intel-E5-2658 "Sandy Bridge-EP"-Prozessor mit acht Kernen (16 pro HA-Paar), einem Intel-Southbridge Patsburg-J und 32 GB DDR3 physischen Speicher (64GB pro HA-Paar).

Jeder FAS8060 PCM beinhaltet Dual-Socket, 2.1 GHz Intel E5-2658 "Sandy Bridge-EP"-Prozessoren mit insgesamt 16 Kernen (32 pro HA-Paar), einem Intel Patsburg-J Southbridge, und 64 GB DDR3-Arbeitsspeichers (128 GB pro HA-Paar). Data ONTAP CPU-Auslastung auf jedem FAS8060 PCM erreicht 1.560%; dies bedeutet, dass alle 16 Kerne aktiv Wartung der Arbeitsbelastung (100% entspricht einem Kern).

NetApp unterstützt Single-und Dual-Controller-Konfigurationen in einem Chassis, aber im Gegensatz zu früheren Systemen sind I / O-Erweiterungsmodul (IOXM) Konfigurationen nicht unterstützt. Die erhöhte Mix aus High-Performance-On-Board-Schnittstellen und der Flexibilität, die die neuen UTA2 Ports angeboten verringert die Notwendigkeit für höhere Slot zählt auf die FAS8000 Serie.

Wie bei der NetApp FAS NVRAM8 auf früheren Systemen enthält jede FAS8040 oder FAS8060 PCM 8 GB NVRAM9 (16GB pro HA-Paar) mit Batterie-Backup; sollte ein Stromausfall auftreten, werden die NVRAM-Inhalt auf NAND-Flash-Speicher ausgespeichert. Sobald die Stromversorgung wiederhergestellt ist, wird die daraus resultierende NVLOG dann wiedergegeben, um das System wiederherzustellen. NVRAM9 ist auf der Hauptplatine integriert und nimmt nicht einen Slot.

Die FAS8040/60 basiert auf dem Gen 3 PCI Express (PCIe)-Architektur für Embedded-Geräte (wie zB PCI-Brücken, Ethernet / Fibre Channel / InfiniBand-Adaptern und SAS-Controller) gebaut. Alle Steckplätze unterstützen x8 wide links.

Interessanterweise ist die HA-Interconnect für den FAS8040/60 nutzt jetzt 40Gb QDR InfiniBand-Adapter; Dies ist eine wesentliche Upgrade von der 10GBASE-KR (Kupfer) oder 10GBASE-SR (Faser)-Technologie innerhalb der FAS/V3250 und eine bescheidene Verbesserung von der FAS/V6220 's 20Gb DDR InfiniBand-Verbindung gefunden.

Laut NetApp, sollte die FAS8040 und FAS8060 alle vier On-Board-Anschlüsse für die Cluster-Verbindung verwenden, um Spitzenleistung für Remote-Workloads innerhalb von Data ONTAP 8.2.1 zu erreichen. Diese bewährte Methode gewährleistet auch Implementierungen können die möglichen Leistungssteigerungen in zukünftigen Versionen von Data ONTAP zu nehmen.

Auch neu in der FAS8040 und FAS8060 ist die neue Unified-Ziel-Adapter (UTA) 2; ein Speicherindustrie zunächst von NetApp. Es unterstützt 16-GB-Fibre-Channel (FC) oder 10 Gb-Ethernet, wodurch zukünftige Flexibilität. Beide Ports müssen auf die gleiche "Persönlichkeit" festgelegt werden und die Änderung eines UTA-Port wird den zweiten Port auf der gleichen Persönlichkeit zu verändern. Die FAS8040 und FAS8060 haben zwei UTA2 ASICs und Port-Paare sind e0e/0e e0f/0f und teilen sich ein ASIC, während Port-Paare e0g/0g und e0h/0h die zweite ASIC teilen.

Der FC Persönlichkeit auf der UTA2 werden Verbindungsgeschwindigkeiten von 16/8/4 Gb FC Autorange, aber nicht bei 2 oder 1 Gbps zu arbeiten. Der 10-GbE nicht unter 10-GbE-Geschwindigkeiten Autorange. Es ist wichtig zu beachten, dass UTA2 Ports nicht mit älteren DS14 FC Regalen oder FC-Bandgeräte unterstützt. Um DS14 Regalen oder FC-Band, Verwendung X1132A-R6 oder X2054A-R6 verbinden.

Die FAS8040 kann bis zu 720 Laufwerke oder 240 SSDs (pro HA-System) zu halten, mit einer maximalen Kapazität von 2.880 TB. Die maximale Menge an Flash Cache und Flash-Pool (kombiniert) beträgt bis zu 12 TB pro HA-Paar. Maximale Aggregatgröße auf einer FAS8040 ist 180TB und der maximale Volumengröße ist 100 TB.

Die FAS8060 kann maximal 1.200 Platten oder SSDs 240 (pro HA-System) zu halten, mit einer maximalen Kapazität von 4.800 TB. Die maximale Menge an Flash Cache und Flash-Pool (kombiniert) beträgt bis zu 18 TB pro HA-Paar. Maximale Aggregatgröße auf einer FAS8060 ist 324TB und der maximale Volumengröße ist 100 TB.

Clustered Data ONTAP Knoten Grenzen eines FAS8040/60 sind 24 für NAS-und SAN-8 mit einem homogenen Cluster. Nicht überraschend, Plattform-Mischungsregeln mit heterogenen (gemischten) Cluster begrenzen die FAS8040/60 mit FAS/V3220s, 3250s, 3270s und 6210S auf maximal acht Knoten sowohl für SAN-und NAS-Cluster. Wie homogene Cluster - Weitere modernen Systemen (wie die FAS/V6220s, 6240/50s und 6280/90s) werden mit 24 Knoten für NAS-und SAN-Knoten für 8 mit der FAS8040/60 qualifiziert.


ZUSAMMENFASSUNG
Die FAS8000 ist für Angebots-und Auftrags sofort mit Data ONTAP 8.2.1 RC2. Die Sendungen werden geplant, März 2014 beginnen. Ab Mai 2014 wird die FAS8000 Systeme bestellbar als Werk konfiguriert Cluster (FCC) sein.

Geek ONTAP , Allgemeine

Super-Speicher: ein Fan Ansicht von der NFL Data Storage

11. Februar 2014
Wie die meisten Amerikaner vor kurzem sah ich den größten, kühnsten und kältesten Veranstaltung im American Football: Super Bowl XLVIII mit 112,2 Mio. meiner engsten "Freunde".

Aber auch wenn Sie nicht bekommen, begeistert über das große Spiel, könnte man immer noch daran interessiert, über die Rolle der Datenspeicher für die meistgesehene Fernsehsendung in der amerikanischen Geschichte zu lernen.

In der Woche vor dem Super Bowl, hatte ich das Privileg , um die Eröffnung Glocke klingelt an der NASDAQ Marketsite in New York City - und was für ein Erlebnis ! Ich hatte auch die Gelegenheit, mit Director of Information Technology der NFL, Aaron Amendolia, Chat zu erforschen, wie sie NetApp Storage-Systeme für die Datenverwaltung zu nutzen.

Es beginnt mit NetApp FAS2200 Serie 40 Speichersysteme, zu speichern, zu schützen und zu dienen Daten an alle 32 NFL-Teams, Tausende von Personal, und Millionen von Fans. Zum Beispiel:

Möchten Spieler Statistiken während des Spiels? Alle Spiel Rohdaten sind sofort verfügbar und NetApp Storage-Systemen serviert.

? Wie jene Action-Aufnahmen Fernsehen und Zeitungsfotografen nehmen Hunderttausende von Fotos und Videofilmer erfassen High-Definition-Video von regulären Saison Spiele, die Playoffs und den Super Bowl - alles auf NetApp Storage-Systemen gespeichert.

Sehen, jemand trägt eine Plakette? NetApp stellt die Infrastruktur, die Sicherheit für alle aus credentialing Hot-Dog-Anbieter auf die NFL-Kommissar unterstützt.

Ich habe auch gelernt, dass die NFL nutzt die gesamte Protokollstapel (sowohl SAN-und NAS), mit über 90% ihrer Infrastruktur laufenden virtuellen Maschinen auf NetApp Storage-Systemen.

Dennoch ist jeder Super Bowl einzigartig.

Die NFL Endanwender oft in Hotels mit hoher Latenz befindet; Hardware ist für raue Umgebungen in der Regel nicht in den meisten Rechenzentren (Getränkedose Leckagen, Schmutz, Sand, etc.) unterzogen gefunden. Die gute Nachricht ist, dass SnapMirror, die Replikationssoftware in Data ONTAP gebaut, ermöglicht die NFL, die im Falle eines Problems Failover.

In der Tat, sie regelmäßig ihre Disaster Recovery-Pläne testen mit (live) Failover und Failback.

Sicher, Ihre Lieblings-Team kann es nicht zum Super Bowl in diesem Jahr gemacht haben, aber die Partnerschaft mit der NFL und seine 32 Mannschaften nicht mit dem Super Bowl beenden. Es ist immer noch Business-as-usual für die NFL IT-Infrastruktur: Anpassung des Playbooks, Streaming Video, etc.

All das erfordert eine Super-Storage-Plattform von NetApp wie: die offizielle Datenspeicher-Anbieter der NFL.

Geek ONTAP , Allgemeine

NetApp Flash-Releases 1.3.0 Accel

30. Januar 2014
NetApp kündigte heute die Verfügbarkeit von Flash Accel 1.3.0, seine Server-Side-Software, die unterstützten Server in eine Flash-Cache für die Back-End-Data ONTAP Storage-Systeme macht.

Kohärenz, Hartnäckigkeit
Wie auch in früheren Versionen des Flash Accel 1.3.0 erkennt und korrigiert die Kohärenz auf Blockebene - statt Spülung des gesamten Cache. Spülen des gesamten Cache kann gut sein, da es keine Datenkohärenz Fragen, aber schrecklich für Leistung. Flash-Cache ungültig Accel korrigiert Cache, während die Cache-persistent.

Neben intelligenten Datenkohärenz bietet Flash Accel auch Persistenz über VM / Server neu gestartet.

Der Nutzen von intelligenten Datenkohärenz und Persistenz ist, um sicherzustellen, dass sowohl die Cache-Leistung optimiert an seiner Spitze (dh, wenn der Cache warm) und die Spitzenleistung kann so lange wie möglich (indem die Cache warm für so lange wie möglich ).


Randbemerkung: Flash Accel Code verwaltet Server-Cache beschleunigt den Zugriff auf Daten, die auf dem Speichersystem gespeichert und von Data ONTAP verwaltet. Flash-Accel ist NICHT Data ONTAP-Code.

Was gibt es Neues
Flash-Accel 1.3.0 fügt die folgenden Features und Funktionalitäten:

  • Unterstützung für Windows Server Bare-Metal-Caching:
    • Windows 2008 R2, Windows 2012 und Windows 2012 R2
    • FC-und iSCSI-Unterstützung für Bare-Metal-
    • Unterstützt Cluster-Anwendungen (Kälte-Cache auf Failover)
  • Fügt Unterstützung für Windows 2012 und 2012 R2 VMs und vSphere 5.5-Unterstützung
    • Hinweis: Für die Verwendung von Flash Accel mit Flash Accel Management Console (FAMC), vSphere 5.5-Unterstützung wird innerhalb weniger Wochen nach der allgemeinen Verfügbarkeit von Flash Accel 1.3 hinzugefügt werden
  • Bis zu 4 TB Cache pro Server
  • Unterstützung für PCI-e Stec Accelerator
    • Hinweis: Für die VMware-Umgebung Flash Accel 1.3.0 ist zunächst nur für die Verwendung mit FAMC verfügbar. 1.3.0 Unterstützung für den Einsatz mit NetApp Virtual Storage Console (VSC) wird verfügbar, wenn VSC 5.0 Versionen sein

Überprüfen Sie die NetApp Interoperabilitätsmatrix-Tool (IMT) unter der neuen "Flash-Accel"-Speicherlösung in der Kategorie "Server-Caching-Lösungen" für die aktuellsten unterstützten Konfigurationen.

Als Teil dieser Version wurde der Speicherverbrauch wurde reduziert. Zuvor benötigte Flash-Accel 0.006 GB physischen Speicher auf dem Host für jedes Gigabyte Gerätespeicher und 0.006 GB zusätzlicher Speicher auf der VM für jedes Gigabyte Cache-Speicher zugeordnet. Mit der Version 1.3.0 ist es nun möglich, konfigurieren 0,0035 GB physischen Speicher (auf dem Host) und 0,0035 GB zusätzlichen Speicher (auf der VM).

Es ist auch wichtig zu beachten, dass die Standard-Cache-Blockgröße in der Version 1.3.0 wurde von 4 KB auf 8 KB erhöht.

Flash-Accel 1.3.0 kann von jedem NetApp FAS-oder V-Series Kunden kostenlos heruntergeladen werden. Um herunterladen Flash Accel, besuchen Sie die NetApp Support-Site .

Geek ONTAP , Allgemeine

Snap-Creator Deep Dive

30. Dezember 2013
NetApp Snap-Creator Framework-Datensicherungssoftware, die NetApp-Funktionen mit Drittanbieter-Anwendungen, Datenbanken, Hypervisoren und Betriebssysteme integriert.

Snap-Creator wurde ursprünglich im Oktober 2007 von NetApp Professional Services und Rapid Response Technik entwickelt, um zu reduzieren (oder sogar zu eliminieren) Scripting. Heute ist Snap-Creator eine vollständig unterstützte Software-Verteilung von der NetApp Support-Site zur Verfügung.

Der Snap Creator-Team bietet zwei Versionen von Snap Creator: eine Community-Version und eine offizielle NetApp Release. Die Community-Version enthält die neuesten Plug-ins, Erweiterungen und Funktionen, aber nicht von NetApp-Support unterstützt. Die NetApp Version ist vollständig getestet und unterstützt, aber nicht die neuesten Plug-ins, Features und Verbesserungen gehören.

Lassen Sie uns die Architektur der kürzlich veröffentlichten Snap-Creator 4.1 Gemeinschaft Mitteilung im November 2013.

Snap-Server-Architektur Creator
Der Snap Server Creator wird in der Regel auf einem zentralen Server installiert. Es enthält eine Workflow-Engine, die eine multi-threaded, XML-gesteuerte Komponente, die Snap-Creator-Befehle ausführt, ist.

Sowohl die Snap-Creator GUI und CLI sowie Lösungen von Drittanbietern (wie zB Powershell-Cmdlets), nutzen die Snap-Creator-API. Zum Beispiel kann NetApp Workflow-Automatisierung Powershell-Cmdlets nutzen, um Snap Creator kommunizieren.

Um die Konfigurationen zu speichern, enthält Snap-Creator-Konfigurationsdateien und Profile in seinem Repository; Dazu gehören globale Konfigurationen und Profile-Level globalen configs. Wenn Sie mit früheren Versionen von Snap Creator Server vertraut sind, ist eine der neuen Komponenten der Extended-Repository. Diese Erweiterung bietet eine Datenbank Lage für jeden Job, importierte Informationen zu Jobs und sogar Plug-in-Metadaten.


Für Ausdauer, speichert Snap Creator Datenbank Details über Snap Creator Pläne und Arbeitsplätze sowie RBAC-Benutzer und Rollen.

Die Speicherschnittstelle ist die serverseitige Komponente, die die Kommunikation übernimmt über Data ONTAP-APIs, um Speichersystem Operationen wie SnapVault SnapMirror usw. ausführen Snap-Creator beinhaltet auch die Unified-Manager-Schnittstelle, die auf NetApp Unified-On-Command Manager kommuniziert; es tatsächlich nutzt Unified-Manager-APIs (statt ONTAP APIs).

Schließlich umfasst das Snap-Server-Creator einen Agent-Schnittstelle, die mit dem Agent (die in der Regel auf Servern außerhalb des Snap-Creator Server installiert ist) in Verbindung steht. Kommen wir nun zu dem Snap-Creator-Agenten.

Snap-Creator-Agent Architektur
Der Snap-Agent Creator 4.1 wurde vor kurzem vollständig in Java umgeschrieben, um auf allen Betriebssystemen multi-threaded. Als Teil dieser Neufassung wurde die Verschlüsselung der gesamten Software aktiviert ist. Dies bedeutet, dass frühere Versionen (bis einschließlich Version 4.0) nur über HTTP zu kommunizieren; während mit Version 4.1 erfolgt die Kommunikation nur über (verschlüsselte) HTTPS.

Erstens, die Agent-Interface (auf dem Server) Gespräche mit den Agenten REST-Schnittstelle. Die Hauptkomponente des Agent ist die Bedienung / Execution Manager. Es ist für die Behandlung alle eingehenden, ausgehenden und / oder abgeschlossen Anfragen verantwortlich, während die Execution Manager tatsächlich beendet diese Anfragen.

Um mehrere Aufgaben ausführen, enthält jedes Snap-Creator-Agent einen Thread Pool; es besteht der Worker-Threads, die die Anzahl der gegebenen Operationen zu bestimmen.

Aber was passiert, wenn eine Operation hat ein Zeitlimit überschritten nach einer bestimmten Zeit? Dies ist, wenn die Agent-Watchdog kann durch die Execution Manager ausgelöst werden. Es wird oft während der Stilllegungs Operationen aufgerufen.


Umzug auf, es gibt einen Kontext Store, die Informationen, die über die Laufzeit des Workflows benötigt wird, hält.

Der Snap Creator Agent enthält auch einen Plug-in-Fabrik, die die Plug-Ins instanziiert und kommuniziert direkt mit dem Kontext-Store.

Für Java-Plug-ins, ist es auch wichtig zu beachten, dass es direkt zurück in die Context-Store auf dem Agent zu sprechen, sowie Snap Creator Server - über Token-basierten Speicherzugang. This means that they can execute storage operations without communicating back to the Snap Creator Server. While this is a feature that hasn't been leveraged to date, it is nevertheless available moving forward.

But what happens if the Plug-in Factory instantiates a non-Java plug-in?

In this scenario, it executes the code of the existing Plug-in Integration Engine, which can run the version 4.0 or 3.6 plug-ins as well as supporting custom plug-ins written in Perl, Unix shell scripting, PowerShell, etc.

Zusammenfassung
To recap, we've discussed both the server and agent architecture of Snap Creator 4.1. To learn more about developing plug-ins, visit SnapCreator.com .

Geek ONTAP , General



Diese Website wird nicht von NetApp zusammengeschlossen oder in irgendeiner gesponsert oder in einem anderen Unternehmen erwähnt.

© 2009-2014 Chris Kranz Alle Rechte vorbehalten
Diese Website wird nicht von NetApp zusammengeschlossen oder in irgendeiner gesponsert oder in einem anderen Unternehmen erwähnt.