As the countdown to the EMEA Partner Summit (formerly Partner Bootcamp) is well underway (we begin on February 5), we want to share a few points on what to expect at next month’s event. We are delighted that the event has grown over the last couple of years, not just in the number of attendees, but also in the breadth and depth of content. We have actually had so much interest that we now run separate tracks for technical and for sales aspects.

 

Just to give a flavor of what to expect, here is a small taster:

 

Keynotes

 

We are delighted to have not one, but three keynote speakers for this EMEA Partner Summit, including:

 

  • Christoph Pfister (EVP Product)
  • Kevin Bury (SVP Customer Success & Business Operations)
  • Ludovic Neveu (GVP Sales)

 

 

Certifications

 

The technical track will focus on training for SolarWinds Certified Professional® (SCP) exams, including:

  • Network Performance Monitor (NPM)
  • Server & Application Monitor (SAM)
  • NetFlow Traffic Analyzer (NTA) (beta)

 

As you can tell, our technical training team didn’t just stop at a single exam for NPM. They have worked tirelessly to extend the scope of products, with SAM in the process of being added to the portfolio. And as a bonus for those attending the Summit, there will be access to a new exam for NTA.

 

However, that’s not all. We are also delighted to announce a brand-new SCP track for Orion® Architecture, aimed at our consultants and partners. This SCP certification will focus specifically on deploying large-scale Orion deployments, and will focus on topics such as:

  • Centralized vs. distributed deployments
  • Deploying high availability
  • Scaling topics for Orion modules
  • Integration with other solutions

 

 

Networking
As promised, we have a great line-up of evening activities. Highlights include a private dining experience at an
award-winning barbeque restaurant. We’re bringing the flavours of our Austin HQ to Ireland, with the former head chef at Jamie Oliver’s Barbecoa Smokehouse.

The Mardyke
Images: © 2017
Mardyke Entertainment Complex. All rights reserved.

Delegates who are staying until Friday are invited to join us on a totally unique quest through one of Cork’s oldest prisons, which is now a top visitor attraction.

Cork City Gaol
Images: © 2017
Cork City Goal. All rights reserved.

 

If you are interested in attending and haven’t registered yet, please contact your Channel Account Manager for more details. And if you have already registered, we look forward to seeing you there.

Howzit, Heita, Aweh or Sawubona are just a few ways to say hello in South Africa. I know because I have been researching South African dialects prior to visiting the country. In early February, I will travel there with two of my colleagues from the sales team in the Ireland office.

 

Quite fortunately, one of my traveling partners is from South Africa and has already been telling me about all of the fantastic tourist attractions we’ll have the opportunity to see. Table Mountain is at the top of my list!

 

This is coming at a perfect time. Having braved the Irish winter, I’m looking forward to getting a chance to work on my tan during this trip.

 

But it won’t be all play and no work. Over the last few months, we have seen some really cool new product releases, including Capacity Planning in VMAN, Cisco® ASA support in NPM, and real-time polling in PerfStack. While in South Africa, we’ll give a number of presentations to highlight some of the recent releases.

 

Customers can register to join us at the SolarWinds Tech Preview Day in Cape Town. Just click here.

 

If any readers of this post are from Cape Town, please comment below where I can find the best biltong.

Sascha Giese

Orion Skalierung

Posted by Sascha Giese Employee Dec 20, 2017

Ich frage mich manchmal ob es einen Zusammenhang zwischen dem Wachstum einer Firma und dem Wachstum des IT Teams gibt. Vermutlich nicht so wirklich!

Es ist leicht zu messen, wenn der Helpdesk überfordert ist und wenn der CEO einmal zu lange auf ein Ticket warten muss ist das vielleicht ein Argument um das Staffing zu erhöhen.

Nagut, wenn der CEO zu lange warten muss wird das Staffing vielleicht zuerst um einen Kopf kürzer…

 

Aber im DC oder Infrastruktur-Management? Eine Handvoll mehr Switches, ein neuer Host - das kann doch alles problemlos von denen verwaltet werden die das bisher auch schon gemacht haben. Aber sicher doch!
In einer perfekten Welt ganz bestimmt, aber in einer perfekten Welt würden Dolce & Gabbana die Frühjahrskollektion kostenfrei direkt zu mir ins Haus liefern.

 

Im Idealfall sollte das IT Team natürlich mitwachsen um mit den erhöhten Ansprüchen umgehen zu können.

 

Das gleiche gilt natürlich auch für ein Solarwinds Deployment.

Die meisten von euch setzen Orion in einem ganz normalen Szenario ein – wir nennen es “central deployment”.

 

Die Orion VM kommt irgendwo in ein DC, oder auch ganz einfach den Serverraum und alles was von dort aus erreicht werden kann wird direkt abgefragt.
Das ist simpel und in der Infrastruktur muss nur sichergestellt werden, dass die Kommunikationsmethoden des/der entsprechenden Module zu den jeweiligen Elementen gegeben sind, als Beispiel also UDP 161 für SNMP, vielleicht UDP 2055 für Netflow.
Die darunterliegende Infrastruktur ist für uns transparent und uninteressant, solange eine Verbindung vorhanden ist.

 

Wie in meinem Posting zur Lizensierung erklärt, kann man das beim NPM bis zu etwa 10000 Interfaces einfach so gestalten. Darüber hinaus muss dann ausskaliert werden.

Der erste Schritt ist hier ein zusätzliches Abfragemodul einzusetzen.

 

Ich werfe in diesem Posting mit verschiedenen Begriffen um mich, lasst mich das zuerst einmal erklären inklusive der Abkürzungen die es bei uns gibt:

 

Zusätzlicher Poller --> Additional Polling Engine --> APE
Zusätzlicher Webserver
--> Additional Webserver --> AWS
Übergeordnete Zentralkonsole
--> Enterprise Operating Console --> EOC
Orion Server
--> Anwendungsserver, aber auch primärer Poller (sobald APE involviert sind)
Hochverfügbarkeit
--> High Availability --> HA

 

Zuerst etwas Theorie – zusammen gefasst:
Ein Poller erweitert die Kapazitäten sämtlicher vorhandener Orion Module um die gleiche Menge wie die „unlimitierten“ Versionen, also pro Poller z.B. weitere 10000 Interfaces beim NPM.
Der Installationsprozess erstellt im Prinzip eine Kopie des Orion Servers, daher sollten auch die Resources identisch sein.
Es wird die gleiche Datenbank genutzt! Das ist wichtig beim Planen des Standortes.

Üblicherweise setze ich mir einen Poller in ein entferntes DC und lasse alles, was dort steht, lokal abfragen. Der Poller sendet die Statistiken direkt in die DB.
Wenn die Verbindung einmal abbricht werden die Daten für eine Weile zwischengespeichert und beim Wiederherstellen der Verbindung in die DB abgesetzt.
Im Moment wird dazu noch MSMQ genutzt welches allerdings mittelfristig durch RabbitMQ abgelöst werden wird.

 

Die komplette Theorie inklusive der Kommunikationsports hier:
https://support.solarwinds.com/Success_Center/Network_Performance_Monitor_(NPM)/NPM_Documentation/Scalability_Engine_Guidelines_for_SolarWinds_Orion_Products?CMPSource=THW&CMP=DIRECT

 

Achtung: Oftmals wird hier nur auf die Ports geachtet. Bitte ignoriert die maximale Latenz nicht – die sollte unter 200 ms liegen.

 

Alles klar, jetzt kommt die Praxis!

 

Der Prozess ist seit etwa einem Jahr denkbar einfach.
Zuerst wird eine VM aufgesetzt die im Idealfall, wie oben schon angemerkt, die gleichen Ressourcen hat wie das primäre Orion System.

Von der VM aus gehe ich mittels Browser auf meinen Orion Server und zu Settings --> All Settings --> Polling Engines und dort klicke ich auf diese freundliche Schaltfläche

 

Das Ding führe ich aus und sehe:

 

Dann werde ich gefragt was ich denn eigentlich vorhabe, ausnahmsweise weiss ich das auch und entscheide mich zuerst für die APE:

 

Oh hier kommt eine Zwischenfrage:

 

Hier sei kurz gesagt, dass APEs sowohl beim SRM als auch beim VMAN kostenlos sind, für die anderen Module aber nicht!
Bei mir spielt Geld aber keine Rolle! Nur bei Dolce & Gabbana

 

Der Installer zieht sich die korrekten Dateien nun vom Orion Server und testet:

 

Bei mir passt alles:

Und dann startet die tatsächliche Installation die aussieht wie die eines einzelnen Orion Moduls daher spare ich uns die Zeit und Screenshots.

 

Das habe ich mir so gedacht! Windows ist anderer Meinung:


Ich schiebe die Schuld einfach auf Windows und starte den Vorgang noch einmal. Windows kann sich schließlich auch nicht wehren.

 

Dieses Mal: Prima!

 

Was jetzt folgt kennt ihr auch:

 

Alles bleibt bei den defaults – next next next und irgendwann:

 

Dann öffnet sich ein Browser mit meiner Orion URL – was jetzt?

Zuerst gehe ich wieder zu Settings --> All Settings --> Polling Engines und verifiziere die APE:

Die APE lebt und ist verbunden aber langweilt sich. Das ändere ich nun.

Manage Nodes

 

Suche mir irgendeine Node und klicke auf More Actions / Change Polling Engine

Wähle aus:

Ich kann links nach Polling Engine gruppieren:

Natürlich kann ich das auch im Bulk ändern mit mehreren Nodes gleichzeitig, ebenso geht das direkt in der Datenbank bei NodesData in der Spalte EngineID:

 

Irgendwann nächstes Jahr reden wir mal über die Datenbank. Aber nicht jetzt.

 

Das gleiche Spiel gibt es beim zusätzlichen Webserver.
Zuerst: Warum brauche ich den?
Wir sagen bei 20-25 Benutzern die gleichzeitig auf Orion zugreifen macht es Sinn, AWS einzusetzen um die Last zu verteilen.
Aber!

Ein AWS ist vergleichsweise günstig für einen dreistelligen Listenpreis zu bekommen.
Einige Kunden setzen den auch bei weniger gleichzeitigen Zugriffen ein allein um ein schnelleres Webinterface zu bekommen.

 

Auch dazu etwas Hintergrund:
Auf dem Orion Server hat das Polling höchste Priorität. Alles andere wird hinterhergestellt.
Wenn die Ressourcen knapp werden, muss unter anderem die Web-Performance darunter leiden.

Wenn das GUI outsourced ist, bekomme ich also auch bei kleineren Deployments bessere Performance.

Probiert es einfach einmal aus – der Prozess ist einfach. Tatsächlich genauso wie oben erklärt daher gehe ich nicht erneut durch die Schritte. Passt einfach nur hier auf:

 

 

 

Gut, jetzt gehen wir mal noch einen Schritt weiter.
Wir garantieren offiziell bis zu neun APEs neben dem NPM (oder anderen Modulen), es gibt Deployments da draußen die deutlich höher ausfallen. Sogar in Deutschland
Wenn ein Unternehmen jetzt aber auch darüber hinauswächst? Sagen wir mal 500 000 Interfaces?

Dann arbeiten wir mit individuellen Instanzen.

 

Hier bekommt jede Region ein eigenes Orion zum Spielen. Mit allen notwendigen Modulen und jeweils einer eigenen Datenbank.

Das System hat viele Vorteile, so kann man z.B. unterschiedliche Lizenzgrößen in Europa und den USA nutzen, auch unterschiedliche Module.
Man hat in den jeweiligen Regionen den vollen Zugriff auf sein eigenes Zeugs und es kann mir relativ egal sein, was an anderer Stelle vor sich geht.
Ebenso kann ich so ein Setup auch als Art von active/active sehen und einige extrem kritische Nodes von zwei Standorten aus überwachen, falls mal irgendwo ein Totalausfall ist.
Last but not least – manchmal gibt es schwierige politische Situationen in einer global agierenden Firma und hier kann ein System mit individuellen Instanzen einfach Brennpunkte aus Diskussionen nehmen. Jeder überwacht halt sein eigenes Zeugs!

 

Aber, auch bei getrennten Instanzen möchte ich sicher irgendwie mit der Gesamtsituation unzufrieden die Gesamtsituation im Überblick halten. Wie geht das?

Dazu gibt es die EOC!

 

Vereinfacht gesagt, ist die EOC das virtuelle Gegenstück zu einer Kontrollwand bei der NASA wie ihr das aus vielen Filmen kennt. Ja genau, die gleichen Filme mit als Raumschiffen getarnten Bügeleisen.

Früher hat die EOC auch tatsächlich so ausgesehen, hat aber vor etwa einem halben Jahr ein neues Kleidchen bekommen und sieht jetzt wie ein modernes Orion System aus.

Verschiedene Orion Instanzen sitzen irgendwo und werden zu einer gemeinsamen EOC verbunden, wo dann die Daten bzw Störungen zusammenfließen.

Die Software wird irgendwo auf einer VM abgelegt und benötigt eine eigene Datenbank. Installiert wird es wieder sehr einfach – hier nur ein Bild:

Dann der Config Wizard, den haben wir auch schon des Öfteren gesehen, aber eine Einstellung ist wichtig:

Legt eine neue DB an. Auch wenn es angeboten wird, nutzt nicht die Orion DB.
Nochmal.
Legt eine neue DB an.

 

Das kann gerne in der gleichen Instanz wie ein Orion sein, aber erspart euch den Ärger und mischt es nicht in die gleichen DB.

Nach Installation und Login erscheint dieses Element:

 

 

Ich verbinde mein Orion:

 

Ich kann der Instanz einen netten Namen geben oder vielleicht einen speziellen Benutzer anlegen:

 

Das war es:

 

Viel gibt es hier allerdings nicht zu tun.

Irgendwo läuft etwas nicht wie gewünscht zeigt die EOC es an, ihr klickt drauf und landet dann bei der entsprechenden Orion Instanz.

Weitere Informationen gibt es hier:

https://support.solarwinds.com/Success_Center/Enterprise_Operations_Console_(EOC)

 

Okay, wie so üblich gibt es ein paar Themen auf die ich nicht eingegangen bin!
Bei den APEs gibt es z.B. auch „stackable“ Poller, also „stapelbar“ was nichts anderes heisst, dass ich einen Zusatzpoller auf die gleiche VM wie das Orion selbst werfen kann.
Ganz vorsichtig ausgedrückt ist das suboptimal, da zum einen nicht jedes Modul stacked Poller unterstützt, und ich so zum anderen weder Loadbalancing noch Regionen auseinanderziehen kann.

 

Ein großes Thema auf das ich hier nicht eingegangen bin ist die Ausfallsicherheit/Hochverfügbarkeit. Das allerdings hebe ich mir für einen neuen Blogpost nächstes Jahr auf!

 

Bis dahin wünsche ich euch frohe Weihnachten usw usw.

Ich schreibe dies gerade während eines weiteren Aufenthaltes in unserem Büro in London und Secret Santa hat gerade stattgefunden (auf Deutsch: Wichteln). Man kennt mich hier zu gut:

 

Geekzeugs, Katzen, Essen…toll! Nur kein Dolce & Gabbana, aber das kommt dann sicher, wenn ich wieder zurück in Cork bin!

Bis dahin macht es gut und entspannt euch!

Tach,

 

Bereit für die nächste und letzte Runde mit unserem Patch Manager?

 

Wir hatten bisher über die Installation und die ersten Schritte gesprochen und sind einmal einen einfachen Patchprozess durchgegangen. Was noch fehlt, ist das Erstellen eines eigenen Paketes.

Leider warte ich seit August auf meinen Schokoriegel! Aus reiner Verzweiflung habe ich neulich einen Schnitzelberg gegessen:

 

Ich hatte ja schon erwähnt, dass wir eine Liste von Updates haben die wir permanent aktuell halten damit ihr es einfach habt.
In der Liste sind weit verbreitete Pakete wie Firefox, Chrome usw usw. Damit kommt man schon ziemlich weit aber, machen wir uns nichts vor, es gibt mehr dort draußen.

Damit der Patch Manager flexibel bleibt gibt es natürlich die Möglichkeit eigene Pakete zu erstellen. Rein theoretisch kann ich die Lösung sogar benutzen um komplett neue Software in meiner Infrastruktur auszurollen.

 

Fangen wir an.
Der erst Schritt ist immer der gleiche: Man benötigt frischen Kaffee. Hört auf zu Lesen. Geht zur Kaffeemaschine. Geht nicht über Los.

 

Danach klickt man in der Konsole auf Administration and Reporting --> Software Publishing --> All Packages (oder auf irgendein Packet), dann ganz rechts auf „New Package“ und ein unschuldiges Fenster erscheint:

 

Schreibt jetzt mal irgendetwas bei „Package Title“ hinein und die Unschuld geht verloren:

 

Hier werden jetzt fehlende Informationen angezeigt die aber zur Weiterverarbeitung benötigt werden.
Füllt das aus wie es passt, hier wurde die Unschuld wiederhergestellt:

 

 

Jetzt wird es interessant. Regeln. Wir lieben Regeln, oder nicht?

 

Wozu brauchen wir die? Eigentlich klar; wir wollen vorab sicherstellen, dass das Paket nicht auf die falschen Maschinen trifft um Probleme zu vermeiden.
Es gibt vier verschiedene Startpunkte:

 

Ich bleibe beim obersten und habe dann eine weitere Auswahl:

 

An dieser Stelle sind die drei ganz oben die interessantesten Optionen, um zwischen 32/64 Bit, Sprachen und OS Versionen zu unterscheiden bevor das Paket überhaupt weiterverarbeitet wird.

Ein Beispiel:

 

Okay weiter geht’s.

Beim nächsten Fenster gibt es dann das vermutlich wichtigste Feature – die Scripting Engine.
Liegt versteckt hinter dem kleinen grünen Icon

 

 

Ich kann hier beliebige Schritte vor und nach dem Starten des Paketes ausführen und verketten.

 

Klickt einfach mal ein wenig herum und macht euch mit den Optionen vertraut, hier wieder das populärste Element:

 

Run a program kann vielleicht cmd.exe starten und irgendwas ausführen mit Schaltern hintendran, oder warum nicht gleich PowerShell mit komplexeren Scripts?
Alles geht!

Protipp: Ich kann leere Pakete erstellen und einfach die cmd.exe starten ohne weiteres, kein Update kein nichts, nur um an die Scriptfunktion an dieser Stelle zu kommen. Ähnlich wie beim SCCM.

 

Gut weiter. MEHR REGELN!!!

 

An dieser Stelle wissen wir bereits, dass das Paket nur auf bestimmte Maschinen trifft.
Vielleicht Windows 10, Deutsch, 64 Bit.

Aber wir müssen jetzt aufpassen. Ein Paket, das mit den bisherigen Informationen auf eine der obigen Maschinen trifft, wird ausgerollt.
Wollen wir das in jedem Fall? Bestimmt nicht!

Wir wollen etwas Bestehendes updaten aber nicht auf jeder Maschine neu installieren. Also suchen wir die Bestätigung, dass eine vorherige Version der Software schon da ist.

Dazu gibt es zwei simple Methoden – ein Check der Registrierung nach einem bestimmten Key, oder, falls das nicht geht, eine Datei irgendwo die sicherlich vorhanden sein muss.
Beides kann man anlegen und bei den Dateiregeln sogar ziemlich granular:

 

Danach kommen nur noch ein paar Zusammenfassungen aber nichts Wildes mehr und die Paketierung ist abgeschlossen.

Das wichtigste jetzt ist testen, testen, testen. Ihr wollte sicher kein Java auf den Domain Controllern ausrollen.

 

Nicht vergessen: Wie auch bei den von uns betreuten Paketen muss das Ding noch an den WSUS weitergeliefert werden, also immer rechtsklick und „publish“

Es gibt noch weitere interessante Themen rund um den Patch Manager, wie vielleicht das Reporting oder auch eventuell das Setup in größeren Umgebungen.

 

Aber im Prinzip ist mit den drei Artikeln zum SPM nun alles gesagt, legt einfach mal los und spielt etwas herum.
Wenn es Fragen gibt wisst ihr ja, wie und wo ich zu erreichen bin. Ein Snickers hilft dabei meine Antwortzeit zu minimieren!

Sascha Giese

DPA Erste Schritte

Posted by Sascha Giese Employee Nov 30, 2017

Kaum zu glauben – es ist schon ein Jahr her, dass ich etwas über Datenbanken geschrieben habe:
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/11/30/immer-diese-datenbanken

Vor ein paar Monaten bin ich auf den SAM eingegangen und heute bekommt der DPA seinen grossen Auftritt.

 

DPA misst die Zeit die ein Query innerhalb der Datenbank verbringt und zeigt, wo die meiste Zeit aufgebracht wird. Das funktioniert ohne Agent und ohne Änderungen an der Datenbank.
Die Software ist getrennt von Orion, integriert sich aber gerne in eine bestehende Umgebung.
Fangen wir bei Null an. Wobei, ich schreibe das gerade aus unserem Buero in London und hier ist es furchtbar kalt, fast schon unter Null!

 

Die Installation ist denkbar einfach:

 

Ein paar Mal auf Next und 90 Sekunden später ist die Sache erledigt. Das folgende Fenster erscheint:

 

Also weiter geht es im Browser eurer Wahl.

Zuerst wird das Repository angelegt. Das ist die DB in der DPA sein eigenes Zeugs ablegt.

 

Kompatibel sind die folgenden Systeme:

 

In den meisten Fällen wird eine SQLExpress vollkommen ausreichen. Es gibt nur eine Regel:
Nehmt nicht die DB die ihr überwachen wollt, da sonst die Ergebnisse nicht realistisch sind.

Ich nehme eine kleine DB die auf meinem Orion Server liegt. Nicht wirklich empfehlenswert aber ich bin ja auch nicht produktiv!

 

Ich lasse mit dem SA Konto einen Benutzer anlegen:

 

Das Erstellen des Repository dauert nur wenige Sekunden und wir klicken auf „Register“.

Jetzt wird die DB eingehängt die wir tatsächlich überwachen wollen.

 

Ich entscheide mich für meine SQL

 

Keine Sorge wegen des SA Kontos hier. Das dient nur zum Erstellen des Benutzers im nächsten Schritt:

 

Mehr zu den erforderlichen Berechtigungen beim SQL hier:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/SQL_Server_permissions_for_DPA_monitoring

Und für Oracle:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Oracle_permissions_for_DPA_monitoring

 

Alles erledigt! Ein nahezu leeres Dashboard begrüßt euch, aber Daten kommen nun hinein:

 

Weil ich aber nicht Tage warten möchte wechsle ich auf ein schon bestehendes System:

 

Schaut mal auf das Element rechts. Eigentlich wollen wir ja immer, dass Trends nach oben gehen. Hier nicht!

Es ist Wartezeit und die soll gefälligst sinken. Also schalte ich auf „trending down“

 

Was heisst das jetzt? Nichts Gutes! Die Wartezeit ging leider hoch.

 

Schauen wir einmal warum.

Unten ist meine SQL Instanz und wir sehen schon, dass irgendwo ein Problem mit einem Query vorliegt:

 

Ich klicke auf die Instanz.

Das erste was ich sehe ist die Gesamtwartezeit innerhalb der letzten 30 Tage

 

Ich sehe auch direkt, dass meine Baseline bei etwa 22 Minuten am Tag liegt, irgendetwas muss am 08.11. passiert sein, und die Wartezeit wird hauptsächlich durch ein einziges Query erzeugt.

Ich bin jetzt echt interessiert am 08.11. Was war da los? Eine kurze Googlesuche sagt mit, dass Gordon Ramsey am 08.11. geboren wurde, aber 1966 und nicht 2017. Das kann es also nicht sein.

 

Nagut, dann klicken wir mal auf den Tag.

 

50 Sekunden Wartezeit pro Stunde mit der Ausnahme von den zwei Stunden zwischen 0800-100. Es wird immer unheimlicher. Es kann nur ein SQL-Poltergeist sein.

Ich klicke auf 0800. Nur ein Query hat hier wirklich etwas getan. Wir sehen auch schon anhand der Farbe und der Legende rechts, wofür in etwa die Zeit aufgebraucht wurde

 

Ich bin mal mutig und klicke auf das Query.

 

Wir sehen oben 482 Ausführungen innerhalb der Stunde und es war eine reine lesende Abfrage.

Ich kann dem Query oben einen Namen geben „name SQL“, rechts habe ich zwei Knöpfe für weitere Informationen mit historischen Daten und zusätzlichen Statistiken.

 

In meinem Fall steht hier nicht sehr viel – aber das ist auch klar. Ist ein neues Query verursacht von einem Report, den es vorher noch nicht gab.
Wenn ich nur wüsste, was ich da versucht habe!

 

Was auch immer. Wo wir gerade hier sind, schauen wir einmal nach oben.

 

Ich kann hier vom Query zurück navigieren auf den ganzen Tag.

Dort angekommen kann ich hier die Stunde erneut auswählen:

 

Aber jetzt passt mal auf.

Links ist ein Button für „Timeslice“ und nach Klicken dort kann ich einen granularen Intervall einstellen:

 

Unten sehe ich dann die Stunde unterteilt in 10 Minuten:

 

Klickt mal auf einen Block. Dann wieder auf Intervall:

 

Jetzt kann ich mir das ziemlich genau anschauen. Schade, dass das so versteckt ist!

 

 

Wenn ich aber nicht gezielt nach einem Problem suche, sondern einfach nur mal schauen möchte was mein SQL gerade so macht (und warum er gefühlt eine Million GB Ram braucht), nutze ich die Navigation oben und gehe zurück auf den ganzen Tag:

 

Jetzt klicke ich auf einen der anderen Buttons – wie wäre es mit dem hier:

 

 

Rechts sehe ich gut aufgelöst die Programme/DLL die auf die DB zugreifen:

 

Klickt bei der Gelegenheit klickt einfach mal auf die anderen Knöpfchen. Bei einer Produktivumgebung ist der Punkt DB User meist recht interessant – da sieht man vielleicht sogar, wer wirklich arbeitet

Scrollt mal etwas herunter da sind vier weitere Reiter. Nein, nicht die apokalyptischen. Okay der letzte vielleicht:

 

Klickt wieder etwas herum.
Wenn bei euch, so wie bei mir, gerade keine Deadlocks sind guckt einfach hier nach weiteren Details:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Deadlock_analysis_in_DPA

 

Oben sind noch mehr Knöpfe. Es kann nie genug Knöpfe geben.

 

Wenn man auf Resources klickt gibt es ein paar Standardkennzahlen, die mit dem Umweg SQL über WMI aus der Maschine herausgezogen werden. Die Elemente hier sind selbsterklärend und ich verliere nicht viel Worte. Schaut euch um.

 

Aber nicht zu viel! Es gibt noch mehr zu sehen!

Ziemlich weit oben ist ein Knopf bei mir der bei euch vielleicht noch nicht ist:

 

Beim DPA gibt es ein optionales Paket mit dem Namen „VM Option“, das getrennt lizensiert werden muss. Ich kann mir hier mein vCenter oder meinen ESX direkt einpflegen.

Dazu gehe ich zuerst in die Options und dann „Register…“

 

Es werden readonly Berechtigungen benötigt daher es sollte kein Problem sein, diese von eurem freundlichen VM Admin zu bekommen.
Das vCenter wird scanned und nach einigen Sekunden sollte in der Übersicht der Instanzen rechts ein kleines Icon erscheinen:

 

Wenn ich jetzt also ganz oben auf Virtualization drücke sehe ich zuerst unten in der Übersicht etwas andere Info

 

Spannend wird es jetzt, wenn ich auf die Instanz klicke und alles etwas anders aussieht:

 

Wenn ich auf einen der Pfeile klicke erscheint ein Popup:

 

Ich sehe nun also Events aus der virtuellen Umgebung. Das ist stellenweise mehr als nur nett, weil es mir Dinge erklären kann die ohne diese Informationen so viel Sinn ergeben wie Grünkohl.

Ganz oben der Reiter VM Config:

 

Darunter mehr Knöpfe:

 

Wir sehen mit welchem Host wird es zu tun haben, welche anderen VMs dort sind und wie diese priorisiert sind.
Dazu fällt mir eine Anekdote ein – ich hatte irgendwann mal eine DPA Demonstration mit einem IT Manager der an dieser Stelle sagte „Das sind Informationen die ich meinem DBA niemals geben würde. Danach kündigt der mir noch!“

 

Wir sind fast durch. Folgt ihr mir noch? – Gut!

Ganz oben haben wir noch Buttons:

 

Bisher waren wir auf HOME, klicken wir kurz auf REPORTS

Nach Auswahl der Instanz gibt es ein paar vordefinierte Berichte

 

Unter Report Options kann ich das Ding noch etwas anpassen, unter anderem mit meinen eigenen Statements:

 

 

Das gleiche bei den ALERTS. Hier erlaubt mir „custom“ meine eigenen Statements:

 

Aber ihr seht schon, Berichte und Alarme sind hier eher rudimentär wenn man es mit Orion vergleicht.

Bei den OPTIONS finden wir Grundeinstellungen, können SMTP und AD zufügen sowie andere administrative Aufgaben erledigen.

 

Unter THWACK findet sich wieder etwas Interessantes:

 

Das bringt euch zu benutzerdefinierten Berichten. Diese laufen nicht innerhalb von DPA!
Die Berichte dort werden gegen das Repository gesetzt um spezielle Informationen herauszuziehen. Dazu nutzen wir dann das Management Studio.

 

Jetzt klicken wir auf LOGOUT und verlassen DPA und gehen zu Orion.

Dort unter Settings --> Product specific Settings finden wir Database Performance Analyzer

 

Nach dem Verknüpfen werden automatisch Abhängigkeiten gesucht für den Fall, dass ich Anwendungen überwache die auf meine DB zugreifen.
Das Resultat sieht dann so aus:

 

DPA bringt also seine Informationen in die Orion Plattform. Das ist interessant auf mehreren Ebenen, z.B. im Zusammenspielt mit AppInsight, aber natürlich auch dem Appstack

 

 

Noch recht neu ist die Integration in den Perfstack

 

Das ist schon heiss, oder nicht?
Hier in London ist es immer noch kalt aber das Problem beseitige ich jetzt mit einem Kaffee!

Update: SCM und LA unten eingefügt

 

Ich arbeite ja in so einer komischen Position als Techniker im Vertrieb.
Das Problem mit der Rolle liegt darin, dass du zwei verschiedene Persönlichkeiten haben musst; die eines Vertrieblers (extrovertiert, schnell handeln) und die eines Technikers (introvertiert, überlegt handeln).

Erst meine multiplen Persönlichkeiten erlauben mir also in meinem Job zu funktionieren. Macht mir das mal nach.

 

Eine Frage bei der sich die Interessengebiete von Vertrieb und Technik häufig Überschneiden ist die nach der Lizensierung der Solarwinds-Produkte.

Hierzu muss man natürlich bedenken, dass jedes Produkt anders lizensiert wird weil man zum Beispiel in der Virtualisierung mit anderen Kennzahlen zu tun hat als in einem Netzwerk.

Schauen wir uns einmal die Produkte einzeln an.

 

NPM (Network Performance Monitor)

 

Das Schwierigste zuerst.
Offiziell wird NPM lizensiert nach der höchsten Anzahl von Elementen einer Kategorie.
Elemente wären Ports/Interfaces, Nodes, Volumes. Die höchste Anzahl davon ergibt dann die Lizenz, und es gibt verschiedene Stufen.
Das versteht kein Mensch und keine Katze!

 

Also ein Beispiel:
Wir haben einen Switch, einen Router und einen Server.

Node    Interface             Volume

1             48                           0             --> Switch

1             2                             0             --> Router

1             2                             4             --> Server

 

Macht 3 Nodes, 52 Interfaces, 4 Volumes, also zusammen 59, hier ist der Beweis:

 

Aber nur die höchste Anzahl in einer Kategorie zählt! Das sind in 99% aller Fälle die Interfaces und in diesem Fall 52. Ich kann demnach 51 Geräte und insgesamt 51 Volumes haben – spielt keine Rolle solange die Zahl kleiner ist als 52.
Natürlich kann ich von den 52 Ports noch entscheiden, welche mir wichtig genug zum überwachen sind.

Eventuell noch Bedenken, dass virtuelle Interfaces auch mitgezählt werden, vielleicht ein VLAN, wenn ich es auch monitoren möchte.

NPM ist verfügbar in verschiedenen Größe, von „bis zu 100 Elementen“ bis zu „theoretisch unlimitiert“.

 

Verstanden?
Der hier schon und hat sich wieder hingelegt. Er heisst übrigens Palpatine wie der Imperator in Star Wars.

 

 

NTA (Netflow Traffic Analyzer)

 

NTA ist simpel – es wird immer an die vorhandene NPM Lizenz gekoppelt.
Der technische Grund ist der, dass NPM den Interface-Index liefert den NTA braucht, um Flows zuzuordnen.
In manchen Situationen ist das zugegebenermaßen nicht optimal, vielleicht bei einer riesigen NPM Lizenz aber nur einer Handvoll Flowexportern, aber andererseits ist uns die Menge an generierten Flows vollkommen egal.

Ein einzelnes Abfragemodul kommt spielen mit 50000 flows pro Sekunde klar.
Also, ein NPM 2000 benötigt ein NTA 2000.

 

NCM (Network Configuration Manager)

 

Ebenfalls einfach – jedes Gerät, mit dessen Konfiguration hantiert wird, konsumiert eine Lizenz.
30 Switches --> NCM 30.

 

IPAM (IP Address Manager)

 

Hier reden wir von „managed IP“ die lizensiert werden müssen.
Beim IPAM gibt es vier verschiedene States:

 

Available wird nicht lizensiert, die drei anderen schon.
Rechenbeispiel: Ich habe ein /24 aber nur noch knapp 200 Adressen sind frei, also muss ich nur die 50 lizensieren.
Die Anzahl an DHCP und DNS Servern sind uninteressant.

 

UDT (User Device Tracker)

 

Hier werden einfach alle Switchports in einen Topf geworfen. 10 x 24 sind ungefähr 240! Ich bin mir fast sicher!

 

VNQM (Voip & Network Quality Manager)

 

Okay jetzt müssen wir uns wieder konzentrieren.
VNQM wird über zwei verschiedene Datensätze lizensiert: IP Telefone und IP SLA Quellen.
Telefone sind klar, bei IP SLA sollte man sich mit der Technologie auseinandersetzen – das kann man hier.
Es werden nur die Quellen lizensiert, nicht die Beantworter. Wenn eine distributed operation genutzt wird, können dort unter Umständen mehrere Quellen definiert sein.

Hier gilt wieder die höchste Anzahl einer der beiden Datensätze. VNQM startet mit 5/300, wenn ich also 6 IP SLA Quellen habe, aber nur 200 Telefone, muss ich trotzdem in die höhere Lizenzstufe die bis 25/1500 ausreicht.

 

Der Kollege hier hängt grad irgendwie und muss sich das noch mal durchlesen. Er heisst übrigens Chewbacca wie…ach, den kennt ihr.

 

VMAN (Virtulization Manager)

 

Etwas Einfaches zwischendurch – die Virtualization Manager wird über die Gesamtanzahl der physischen CPU in allen Hosts lizensiert, also wie das vCenter.
Cores spielen keine Rolle.

 

SRM (Storage Resource Monitor)

 

Bei Storage ist es auch einfach, hier wird nach Disks lizensiert. Also alles was von euren Arrays als Disk gesehen wird, ob das jetzt rotiert oder virtuell ist. Hier auch einfach die Gesamtanzahl nehmen.

 

SAM (Server & Application Monitor)

 

Server & Application Monitor funktioniert wie der NPM, mit dem Unterschied, dass wir statt Interfaces jetzt auf „monitored component“ schauen. Die anderen Elemente sind dann wieder die Nodes, und die Volumes.
Aber die Komponenten sind hier normalerweise ausschlaggebend und wären z.B. Dienste, Prozesse, irgendwelche PerfMon-Daten usw.
Beispiel: Die Vorlage um einen DC zu überwachen hat 32 Komponenten, bei einem Apache sind es gerade mal 7.
Bitte behaltet im Hinterkopf, dass die Vorlagen jederzeit angepasst werden können mit der Ausnahme der AppInsights (SQL/Echange/IIS), aber die sind ja ohnehin ein Sonderangebot.

 

SPM (SolarWinds Patch Manager)

 

Der Patch Manager lizensiert sich total langweilig über die Anzahl an Systemen die patched werden. Dabei spielt es keine Rolle ob das Server oder Workstations sind, und auch die Anzahl der eingesetzten Patch Manager Instanzen bzw Rollen ist unerheblich.
Es ist auch gleich ob dahinter ein WSUS oder SCCM steht.

 

WPM (Web Performance Monitor)

 

Okay das ist manchmal eine Herausforderung. Der Web Performance Monitor erlaubt es, Schritte innerhalb des Browsers aufzunehmen um detaillierte Funktionen einer Webanwendung zu testen. Diese Tests können dann von beliebigen Standorten oder auch der Cloud ausgeführt werden.
Lizensiert wird er über das Produkt von Aufnahmen und Standorten, die diese Aufnahmen wiedergeben. Wir nennen die Summe Transaktionen.

 

Beispiel:
Ich habe einen Webshop und einen Exchange mit OWA. Den Webshop teste ich von meiner Zentrale in Deutschland und meiner Zweigstelle in Wien, sowie aus der Cloud.
OWA teste ich nur von meiner Zentrale aus.
Also 4 Transaktionen insgesamt.

 

WHD (Web Help Desk)

 

Die Anzahl an Technikern, die innerhalb von WHD registriert sind, definieren die Lizenz. Also vielleicht: 5 Mitarbeiter in der IT die an Tickets arbeiten, alle 5 werden dann innerhalb von WHD lizensiert.

Langweilig!

 

LEM (Log & Event Manager)

 

Beim Log & Event Manager spielen die eindeutig identifizierten Log-Quellen eine Rolle. Ob von einer IP jetzt verschiedene Logs kommen ist egal, es kann also ein Windows Server gleichzeitig einen Webserver betreiben und die Daten von irgendeinem Endpoint-Security System liefern.
Aber aufgepasst: Es gibt eine Lizenzstufe für Server und Netzwerkkomponenten, und darüber hinaus ein Addon für Workstations welches günstiger ist. Klar, ich habe ja meistens auch ein oder zwei Workstations mehr als Server!

 

DPA (Database Performance Analyzer)

 

Eigentlich ist die Lizensierung ganz einfach…pro DB Instanz, in den meisten Fällen also pro Server. Es kommt recht selten vor, dass ich zwei Instanzen auf der gleichen VM laufen habe, aber in dem Fall müssen dann beide getrennt lizensiert werden.
Aber! Wir unterscheiden hier nach DB System in zwei Kategorien.
Die günstigere ist Cat2 und passt für alle MSFT SQL, MySQL und alle Oracles bis auf EE.
Die Cat1 erlaubt Oracle EE, DB2 und Sybase

 

Cat2 auf dem Bild oben, Cat1 unten ist nicht wirklich eine Cat, aber weiss das nicht.

 

SCM (Server Configuration Monitor)
SCM nimmt die Knoten deren Konfiguration überwacht wird zur Lizensierung. Es ist unerheblich, ob das eine VM, Workstation oder Server ist. Ebenso spielt die Anzahl der überwachten Konfigurationen auf einem Knoten keine Rolle.

 

LA (Log Analyzer)

 

Auch hier ist die Lizensierung sehr einfach: Jede einzelne Gerät das aktiv Logs zu LA sendet, konsumiert eine Lizenz. Das Volumen wird nicht betrachtet. Gut für sehr gesprächige Quellen wie Firewalls oder Hosts!

 

 

 

Ich habe einige Produkte ausgelassen deren Lizensierung aber extrem einfach ist.

Von daher noch ein paar weitere Dinge!

 

Jedes Produkt ist in verschiedenen Stufen erhältlich und bei den meisten gibt es am oberen Ende der Fahnenstange eine Version die üblicherweise auf *LX endet, z.B. NPM SLX, und die wir als theoretisch unlimitiert bezeichnen.
Theoretisch heißt, dass es in der Praxis eine technische Limitierung gibt und die tritt dann ein, wenn das Abfragemodul (Poller) überfordert ist.
Nehmen wir als Beispiel den NPM, dort sagt das System bei etwa 10000 Interfaces und den Standardintervallen „ich kann nicht mehr“. Man kann dann entweder die Intervalle verlängern um dem System mehr Luft zu geben, oder aber ich skaliere nach oben und setze einen weiteren Poller dazu. Diese zusätzlichen Abfragemodule, wir nennen sie APE (Additional Polling Engine), dienen dem erweitern der Kapazität aber können auch genutzt werden um größere, verzweigte Umgebungen klüger zu überwachen.
Ich werde irgendwann mal darüber bloggen, solange schaut einfach hier in die Originaldoku:

Scalability Engine Guidelines for SolarWinds Orion Products - SolarWinds Worldwide, LLC. Help and Support

 

Wenn ich sehen möchte was zur Zeit in Benutzung ist und was noch frei ist, klicke ich innerhalb von Orion auf Settings --> All Settings --> License Details (ganz runterscrollen):

 

Ebenso, unter Settings --> All Settings --> Polling Engines sehe ich wie beschäftigt mein Abfragemodul ist.
Wenn ich mehrere Poller habe tauchen diese auch an exakt dieser Stelle auf:

 

Die hier sind extrem beschäftigt:

 

Macht’s gut!

graeme.brown

Seasonal changes

Posted by graeme.brown Nov 14, 2017

Winter is coming slowly but surely. today was chilly and breezy. Making it perfect for hot chocolate and fuzzy sweaters.

Good morning all from Indiana,

 

*STOP AND READ* - If you aren't a database or data focused professional, the below may be boring!

 

I recently attended my first PASS Summit this past week and got to meet so many special people with all different types of skills and experience. With almost 4000 data professionals and 50+ vendors joining the conference, it was almost overwhelming trying to meet as many people and vendors as a single person possibly could. Its almost surprising to me how nice everyone is and how each data professional is willing to meet you, hear your story and help with any issues you might have. #SQLFamily is truly a thing and if you're lucky enough, you'll be apart of it! I'll need to create my twitter to join the family! Attending the pre-conference sessions is definitely worth its wait in gold! Itzik Ben-Gan and David Klee have such a deep understanding of SQL and VMware its such an amazing experience to learn and hear their point of views.

 

For you thwacksters..........I almost got the chance to play the "SysADMANIA" game, below is a picture of the gameboard, but I didnt get the chance since i went off and played Stratego when a game was going on. The SysADMANIA board game looked really fun, below is a picture of BRAD causing issues

 

 

SysADMANIA

 

All in all, PASS Summit 2017 was an amazing experience and I STRONGLY recommend anyone to attend. I met many other data professional and i hope to keep in touch not only to network, but to learn as much as possible!

 

Please leave any comments if you were there as well! I'td be great to talk to others and learn more!

 

-Alex Trepes

Kennt ihr das noch, C&C: Red Alert? Ich musste das Erscheinungsjahr googlen – 1996.

22 Jahre her, darf man gar nicht drüber nachdenken!

 

Reden wir über aktuelle Alerts

Alarme sind bei der Orion Plattform ein sogenanntes „platform feature“, also unabhängig von den tatsächlich verfügbaren Modulen. Zu finden ganz oben unter Alerts.

Dort dann bitte einmal ganz rechts auf „Manage Alerts“:

Auf einem frisch installierten System wird es ungefähr so aussehen:

Und damit fängt das DRAMA dann auch schon an

 

Jedes Solarwinds Modul bringt etliche Standardalarme, wie z.B. sende mir eine Email wenn ein Knoten nicht mehr antwortet, aber auch wenn irgendwo ein Schwellwert überschritten wurde.

Oder aber ein Switchport plötzlich nicht mehr verbunden ist, was vermutlich vollkommen normal gegen 17:02 am Abend ist wenn ich Accessports im System überwache. Glaubt mir, das hat es alles schon gegeben!

 

Das System sendet also einen ganzen Haufen Emails die im Grunde genommen nicht notwendig sind. Was machen wir also naturgemäss? Wir werden entnervt und beginnen Emails zu ignorieren.

Dann geht plötzlich ein Uplink down. Und wir merken es nicht, weil unser Monitoringsystem mich zugespamt hat.

 

Daher mein erster Vorschlag, und das ist vermutlich die Beste Idee die ihr heute liest:
Schaltet erst einmal alle Alarme aus.

 

Dazu sortieren wir oben nach „Enabled“ und klicken, dass ON oben steht. Alle markieren und „disable“ – erledigt. Ruhe im Haus. Enjoy the Silence ist übrigens von 1990 und damit noch älter als Red Alert.

 

Im Prinzip kann ich jetzt einen beliebigen Alarm anpassen. Passt jedoch bitte auf – bei einem out-of-the-box Alarm würde ich nur an einer Kopie arbeiten und nicht am Original. Dazu gibt es oben den Schalter „Duplicate & edit“.

Aber ich führe einmal durch den Prozess, einen Alarm komplett selbst zu erstellen, also oben auf „add new alert“.

Zuerst brauchen wir einen Namen, und vielleicht auch eine Beschreibung, wenn der Alarm komplexer ist.

Unten sind ein paar Einstellungen:

Die Zeit ist unter Umständen ganz interessant.
Hier wird nichts anderes getan, als alle 60 Sekunden zu überprüfen ob die Bedingung die gleich kommt eingetreten ist.

Zuerst denkt man sicherlich „Oh das möchte ich alle 10 Sekunden haben“ – aber das bringt nicht wirklich viel.

 

Bedenkt bitte, dass jede Überprüfung der Bedingungen CPU Zyklen kostet und ich grundsätzlich defensiv mit Ressourcen umgehen würde.
Dann: Die Daten, auf denen die Bedingung aufgebaut ist werden ja abgerufen. Dieser Vorgang geschieht alle x-Minuten je nachdem, was ihr eingestellt habt. Basis wäre alle 10 Minuten.

 

Macht es jetzt Sinn, alle paar Sekunden nach einer Situationsänderung zu schauen, wenn die zugrunde liegenden Daten eh nur alle 10 Minuten aktualisiert werden?
Bedingt.

 

Letzten Endes ist das ein dynamisches Konstrukt. Ich würde vermutlich Alarme gruppieren und wirklich kritische Dinge zeitnaher laufen lassen, was ein Kompromiss wäre.

Schaut dazu auch bitte in mein Posting zur Echtzeit.

Dazu empfiehlt sich dann auch die Einstellung „severity“

 

Die untere Position dient dem Erstellen von Limitierungen, welche dann in der Kontenverwaltung weiter definiert werden können. Dazu schreibe ich auch irgendwann einmal etwas, aber gerade lasst mich das einfach erklären mit „Mitarbeiter aus Berlin sieht nur Alarme aus Berlin.“.

 

Okay weiter geht’s mit dem nächsten Fenster – der Bedingung.
Was muss passieren, um meinen Alarm zu aktivieren.

Zuerst teilen wir dem System mit, auf was wir alarmieren möchten

 

Man kann hier ziemlich kreativ werden. Vielleicht möchte ich auf ein bestimmtes Exchange-Konto alarmieren – mein CEO ist gefährlich Nahe an der Obergrenze für Dateianhänge und ich möchte es ihm persönlich mitteilen, bevor die Automatik zuschlägt? Oder ich habe plötzlich eine unbekannte MAC Adresse in meinem Netzwerk?

Aber – ich bleibe bei der Node.

Die nächste Position ist der Umfang des Alarmes.

 

 

Gilt das Ding für alle Nodes in meinem Netz? Oder nur bestimmte?

 

Dann die eigentliche Bedingung. Normalerweise nehme ich ein simples Beispiel wie CPU Load:

Aber schaut einmal hier:

 

Ich bekomme nun Zugriff auf alles, was wir vom Element „node“ sammeln.
Unter Umständen ist das eine ziemlich lange Liste

 

Wir sehen rechts in der Vorschau was für ein Wert zurück geliefert wurde. Der Inhalt dieser Spalte gibt nicht immer Sinn – vielleicht haben wir gerade keine Infos zu den Werten – aber es hilft einzuschätzen, ob die Info hilfreich ist oder nicht.

Weil mir gerade die Kreativität abhanden geht nehme ich einmal den administrativen Kontakt:

 

 

Aber das reicht mir nicht. Ich klicke auf das Plus und kann mir andere Bedingungen danebenlegen:

 

 

Ich nehme eine weitere simple Bedingung – dieses Mal meine freundliche CPU:

 

 

Achtet auf die Zeile in Gelb – da versteckt sich ein logischer Operator!

 

Dann noch ein nettes Spielzeug – die Zeit:

Ganz unten dann noch die „advanced options“. Im Grunde genommen erlaubt das weitere, in sich abgeschlossene Bedingungen, die dann gegeneinander laufen:

 

Ein Szenario wäre hier vielleicht:
SQL A (on prem) down, Backup B (on prem) down, Notfall DB bei AWS antwortet auch nicht, in der Vertriebsabteilung klingeln Telefone, es ist noch nicht 17:00, ich habe keinen Urlaub.
Auweia!

Aber das wollen wir hier ja nicht. CPU Load und verantwortlich ist dieser Admin-Typ, das reicht mir. Also klicke ich auf weiter zum nächsten Fenster.

 

Soll sich der Alarm selbst ausschalten? Falls ja, unter welchen Bedingungen?

In den meisten Fällen ist die automatische Einstellung ratsam welche nichts Anderes besagt als „wenn die Bedingung die ich vorhin erstellt habe nicht länger wahr ist“.

Es mag aber auch eine Situation geben, in der ich die manuelle Bestätigung eines Mitarbeiters erwarte, dass alles in Ordnung ist.

Ich klicke auf weiter. Das nächste Fenster ist ganz einfach.

 

 

Gilt der Alarm rund um die Uhr? Unwahrscheinlich.

Ich möchte vielleicht andere Aktionen den Tag über auslösen als Nachts, oder auch meine Schwellwerte sind in der Nacht etwas entspannter als am Tag – oder umgekehrt!

Aber – Faulheit siegt heute und ich bleibe bei „always enabled“ und klicke auf weiter.

Jetzt sehen wir die verfügbaren Aktionen und davon gibt es eine ganze Menge:

 

 

Üblicherweise nehme ich das hier

 

Wenn ich auf meinen blauen Knopf drücke erscheint ein Fenster für weitere Details – hauptsächlich natürlich Empfänger und Inhalt der Email:

 

Vielleicht möchte ich eine Grafik in die Email legen? Bedenkt einfach, dass man sämtliche Charts in Orion in andere Webseiten oder eben Emails exportieren kann.
Oder, für den Fall das eine bestimmte Situation öfter auftritt ist es sinnvoll, Lösungsansätze gleich mit der Email zu senden damit die ausführende Person direkt weiss, was zu tun ist.

Oben im Screenshot sind schon einige Variablen aufgelistet, bei „insert variable“ sieht man eine List der verfügbaren Optionen.


Jetzt reicht mir das aber nicht – ich kann neben der Email direkt noch eine weitere Aktion starten

 

Ich entscheide mich für einen Ton:

 

Und jetzt könnte ich sogar noch eine Eskalationsstufe abbilden:

 

Vielleicht eine SMS?
Das macht ihr, wenn z.B. zuerst eine Email gesendet wurde, kein Mensch reagiert, und ihr dann vielleicht eine andere Email zu einem anderen Empfänger senden möchtet.

Was auch immer! Ich klicke auf weiter.

 

Wir können eine Aktion definieren die beim Zurücksetzen der Bedingung eingeleitet wird.

Noch eine Email? Mehr Spam? Nein Danke. Aber es gibt Situationen wo dies sehr nützlich sein kann.
Vielleicht habe ich ja ein Ticketing System informiert mit einer Email oder einem Syslog. Das System hat ein Ticket eröffnet, eventuell weitere Schritte eingeleitet. Jetzt könnte ich eine weitere Email, Syslog, Trap oder ähnliches Senden um dem System mitzuteilen, dass die Sache erledigt ist.

 

Zum Schluss, in Punkt 7, gibt es eine Zusammenfassung und danach kann ich meinen Alarm aktivieren.

 

So in etwa spielt sich das in den meisten Situation ab – es gibt natürlich noch Themen darüber hinaus wie z.B. dem Erstellen eines Alarms anhand einer ankommenden asynchronen Mitteilung.

Aber ich möchte es heute nicht unnötig verkomplizieren!

Deswegen gibt es jetzt Donuts zur Belohnung:

 

Zu Black Friday habe ich mir den Einstieg in das Philips Hue System gegönnt mit der Bridge, ein paar Leuchtmitteln, Schaltern, Bewegungssensoren und so weiter.
Normale Nutzer stöpseln das alles zusammen und nutzen die App um Szenen zu erstellen. Wir gehen hier einen Schritt weiter.
In meinem Paket war auch eine Hue Go, das ist eine Lampe mit integriertem Akku der angeblich für 3 Stunden hält.
Die ist wie geschaffen für mein Alarmszenario.
Zuerst einmal - wie kommunizieren wir mit Hue?
Die Bridge ist über Rest API steuerbar.
Ich mag die einzelnen vorbereitenden Schritte nicht wiederholen – guckt einfach hier:
https://www.developers.meethue.com/documentation/getting-started
Es wird ein Benutzerkonto auf der Bridge erstellt, wir finden die Lampe, stellen eine Farbe ein – natürlich Rot:https://www.developers.meethue.com/documentation/core-concepts#color_gets_more_complicated
Das Resultat ist eine json Zeile die mit einem put Kommando an die Lampe übergeben wird.
Wie verknüpfe ich das mit Solarwinds?
Leider gibt es von Haus aus noch keine Unterstützung von Rest API in den Alarmaktionen und http get/post reicht mir nicht. Hier kann man upvoten bei Bedarf:
Es gibt jetzt verschiedene Möglichkeiten, so kann ich entweder das SDK nutzen, oder Powershell, oder ganz einfach curl. Tatsächlich wollte ich erst curl nutzen habe dann aber bei meinen Nachforschungen das hier entdeckt:
Zu bequem!
Ich installiere das PS Module wie in der Anleitung beschrieben und folge den ersten Schritten.
Mein Resultat ist zuerst eine red.ps1 – die Details ergeben Sinn wenn ihr die Anleitung oben gelesen habt - ich definiere meine Bridge mit 10.0.0.21 und die Hue Go mit dem Namen "Mobile" sowie mein Konto:
Import-Module-NamePoSHue
$Bridge=[HueBridge]::New('10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light=[HueLight]::New('Mobile','10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light.SwitchHueLight("On")
$Light.SetHueLight(150,0,150)
Jetzt brauchen wir einen beliebigen Alarm – ich erstelle mir hier einen der mich warnt wenn meine Internetverbindung zu Hause nicht mehr da ist.
Ich habe www.google.com als externe Node angelegt und pinge alle 10 Sekunden dorthin und nehme das als Indikator, also Node gleich down.
In Schritt 5 nutze ich „externes Program“ als Aktion für eine Kommandozeile.
Okay super. Aber das ist nur die halbe Miete. Wenn sich das Internet jetzt zufällig wieder verfügbar macht wollen wir das auch wissen.
Also brauche ich auch eine Reset-Aktion im Alarm: Die Lampe soll Grün leuchten. 
Syntax:
Import-Module-NamePoSHue
$Bridge=[HueBridge]::New('10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light=[HueLight]::New('Mobile','10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light.SwitchHueLight("On")
$Light.SetHueLight(150,25500,150)
Das ist copypasta und ich habe lediglich Rot (0) gegen Grün (25500) eingetauscht.
Jetzt simulieren war mal den Ernstfall. Oh huch und den Staub…habe ich per Photoshop hinein editiert für mehr Realismus!
Und warte…ALARM!
Kabel wieder rein…
Grossartig. Warum jetzt also diese Hue Go Lampe und nicht irgendwas das an der Wand hängt?
Das Ding ist portabel und du kannst es mit dir rumschleppen während du einen Kaffee trinken gehst.
Aber viel besser:
Du stellst es einem Kollegen auf den Schreibtisch während du den Kaffee trinkst und sagst einfach "Du bist dran"!
Ich glaube genau dafür wurde das Ding erfunden.

 

 

Jetzt möchte ich aber auch eine SMS erhalten. Dazu gibt es verschiedene Optionen, eine kommt hier!

 

Auf einer Messe in Paris habe ich Mitarbeiter von SMSEagle™ kennengelernt die mir mitgeteilt haben, dass deren System schon mit der Orion Plattform verbunden und getestet wurde.

Das hat mich neugierig gemacht und man hat mir freundlicherweise ein Testkonto zur Verfügung gestellt.

 

SMSEagle ist im Prinzip ein Stück Hardware welches über ein Webinterface bedient wird. Strom drauf, LAN Kabel links, SIM Karte rechts rein und fertig.

 

 

Bei der Integration in unser Alarmsystem ist dann natürlich http-get die bequemste Lösung und ich muss mich nicht gross mit irgendwelchen API beschäftigen, tatsächlich muss ich nur die Syntax kennen.

Also!

Mein Alarm – Position 5 – Action!

 

Die SMSEagle Syntax ist echt einfach, URL, Name, Password, Telefonnummer und Inhalt:

http://url-of-smseagle/index.php/http_api/send_sms?login=name&pass=passwort&to=00491234567&message=die+welt+geht+unter

 

Bei mir also:

 

 

Ich teste:

 

Ein paar Sekunden später habe ich die SMS auf meinem Telefon, auch international.

Stressfrei und einfach!

 

Habt ihr auch ein paar Ideen zu Alarmen?

Storage Settings

While creating the partitions we must specify either of the below storage settings.
a) ROLAP (Related OLAP): In this case data and aggregations store under relational sources.
b) MOLAP (Multidimensional OLAP): Here data and aggregations store under multidimensional sources.
c) HOLAP (Hybrid OLAP): Here the data stores under relational sources and aggregations store under multidimensional sources.
       

Standard Partition Storage Settings:

Proactive Caching

The feature helps the cube in a sink with the relational data sources.
–> It takes the latency time, schedule time and event table to capture the changes from relational data sources cube databases.
As noted, with MOLAP and HOLAP storage modes, SSAS caches data (MOLAP storage mode only) and aggregations (both MOLAP and HOLAP) on the server.
When you take a data “snapshot” by processing a cube, the data becomes outdated until you process the cube again. The amount of OLAP data latency that is acceptable will depend on your business requirements.
In some cases, your end users might require up-to-date or even real-time Information.
will depend on your business requirements.
In some cases, your end users might require up-to-date or even real-time Information.
A New feature of SSAS 2005, PROACTIVE CACHING, can help you solve data Latency Problems

TIPS FOR EXAMS

Proactive caching is especially useful when the relational database is transaction oriented and data changes at random
when data changes are predictable
Step 1:

  • Such as when you use an extract, transform, and load (etl) proces to load data
  • Consider processing the cube explicitly. When the data source is transaction oriented and you want minimum latency, consider conficuring the cube to process automatically by using proactive caching

HOW PROACTIVE CACHING WORKS

When you enable PROACTIVE CACHING, the server can listen for data change notifications and can update dimensions and measures dynamically in an “AUTOPILOT” mode.

STEADY STATE: In steady mode, no changes are happening to the relational data.

Step 1: Client applications submit multi-dimension expressions(MDX) queries to the cube, pls check in diagram before page.
Step 2: The cube satisfies the Queries from a MOLAP cache. The server listens for a data change notification event, which could be one of the following three types
SQL SERVER: This option uses the Microsoft server trace events that the relational engine raises when data is changed (SQL Server 2000 and later)
CLIENT INITIATED: In this case, a client application notifies SSAS when it changes data by sending a Notify table change XML
For Analysis (XMLA) command
SCHEDULED POLLING: Ninth this option, the server periodically polls the required tables for changes.
UNSTEADY STATE
STEP 4: At some point, a data change occurs in the data source as shown in figure
STEP 5: This change triggers a notification event to SSAS server.
STEP 6: The server starts two stopwatches. The silence Interval stopwatch measures the time elapsed between two consecutive data change events. This will reduce the number of false starts for building the new cache until the database is quiet again.

FOR EXAMPLE

If data changes are occurring in batches, you do not want to start rebuilding the cache with each data change event.
Instead, you can optimize proactive caching by defining a silence interval that allows a predefined amount of time for the batch changes to complete.
After data in the relational database is changed, the server knows that the MOLAP  cache is out of date and starts building a new version of the cache
STEP 6: The latency stopwatch specifies the maximum latency period of the MOLAP cache,  the administrator can also predefine the maximum latency period. During the latency period, queries are still answered by the old MOLAP cache.
When the latency period is exceeded, the server discards the old cache. While the new version of the MOLAP cache is being built, the server satisfies client queries from the ROLAP database
Step7: When the new MOLAP cache is ready, the server activates it and redirects client queries to it.
PROACTIVE CACHING enters a steady state again until the next data change event takes place.

The eagle-eyed among us may have noticed that the “What We’re Working On” post for Network Performance Monitor (NPM) included this little nugget:

  • ARM Linux® Agent - Linux Agent for ARM-based devices such as Raspberry Pi®

 

Well, we’re delighted to announce that with the release of NPM 12.2, you can now monitor ARM-based devices with NPM.

 

Orion Agent on a Raspberry Pi

 

What exactly are ARM-based devices?

 

ARM (Advanced RISC Machine) processors are a family of RISC-based processors, which are designed and licensed for manufacturing by ARM Holdings.

 

I won’t get too bogged down in the differences between RISC (Reduced Instruction Set Computer) vs. CISC (Complex Instruction Set Computer) processors. At a very basic level, one processor type has a smaller and simpler set of instructions than the other. (This becomes quite a philosophical debate, which is why I won’t get into it, but a lot of RISC implementations are now more complex than a lot of CISC processors!)

 

While both types of computer architectures are common (RISC ISAs include MIPS, PowerPC®, and SPARC®, while CISC can cover the x-86 and 8080 implementations, as well as Motorola® 6800 & 68000), what I really want to focus in on is practical implementations of ARM devices.

 

The Internet of Things and Raspberry Pi

 

ARM processors are now almost ubiquitous in not only consumer electronics (vendors ranging from Apple®, Google®, Samsung®, and Sony® have all utilized ARM processors in their various smartphones, tablets, and gaming consoles), but can also be deployed in anything from sensors and cash machines, to coffee pots and children’s toys.

 

But from an IT professional’s perspective (or someone whose background includes computer engineering and cloud computing, as well as working with various industrial technologies in manufacturing), the main implementation of interest to me is Raspberry Pi.

 

If you have made it this far, I’ll assume you at least know of the single-chip computer that is available for only a few euros/dollars/your currency of choice. You may also know that it was originally (and still is excellent for) teaching kids about computers, as well as various hobbyist-type uses (such as converting an old radio into a Spotify®-playing boom box, remote-controlling the office coffee pot, or even just a Tweeting implementation for Pi Day )

 

However, I see many other different use cases for a Raspberry Pi, which I like to categorize into three areas:

 

Network Services

  • Something like a lightweight Postfix mail server
  • Apache®®web servers
  • DNS/DHCP servers
  • Or even a Docker®
  • Some customers use Raspberry Pi as a cheap way to have an always-on NOC display of your SolarWinds® Orion® dashboard
  • Next on my personal list is an “On Air” sign
  • By combining with a device like an Arduino, you can easily control various servos, allowing not only displays, but for physical actions to be taken

Output

Sensors

However, since I’ve worked in manufacturing, I see some of the largest gains in retrofitting a Raspberry Pi to industrial equipment, to cheaply and easily create an Internet of Things (IoT) deployment of various sensors. Again, by combining with Arduinos, your networked Raspberry Pi can connect to various sensors, including:

  • Temperature
  • Humidity
  • PIR Motion
  • And motion detectors and accelerometers

 

(Just to name a few.)

 

Of course, if you do have Raspberry Pi devices dotted around you network, you will of course want to monitor them, which is where the new ARM agent comes in.

 

How do I deploy the ARM agent?

 

The good news is that the same approaches for deploying the standard Linux agent will also work for the ARM agent. 

We have a number of videos that cover different ways to deploy the agent, but personally, I like to just “Download Agent Software.” Then, for the “Linux Agent,” “Manually Install by Downloading Files.”

 

Manage Agents option in Orion

 

Download Agent Software

You can select the “Raspbian Jessie 8.x” distro (in my lab I’m running Raspbian 9 (stretch), and it works fine), and generate and copy the script, before simply pasting into your SSH® session.

 

Download Agent Software

And that’s it! Within a few minutes, your Raspberry Pi should be registered as an Orion node.

 

What if I have the Server & Application Monitor (SAM) deployed, can I monitor applications on my Raspberry Pi?

 

The short answer is that the SAM team is working hard on the next release, and that will include the ARM agent. However, there’s good news for customers who own SAM, along with other products running the latest version of the SolarWinds Orion Core (2017.3): you can actually utilize the new ARM agent.

 

So, for example, if you have SAM 6.4 running on a server that also includes the latest version of NPM (12.2), then the underlying core version will also have been updated. This means that you can now assign SAM templates to the ARM agents, as opposed to monitoring those devices with just SNMP. (You could also substitute out NPM 12.2 for other products that include agents running on the 2017.3 core version, such as Virtualization Manager (VMAN) 8.0 or the VOIP & Network Quality Manager (VNQM) 4.4.1).

 

What can I monitor from SAM?

 

The same component monitor types that run on the standard Linux agent will also run on the ARM agent:

  • Process Monitor
  • Linux/UNIX® Script Monitor
  • Nagios® Script Monitor
  • JMX Monitor
  • SNMP Monitor
  • ODBC User Experience Monitor
  • Oracle User Experience Monitor
  • TCP Port Monitor
  • Tomcat Server Monitor

 

So, templates like the Linux Memory, CPU, and disk templates that ship with SAM will work out of the box. You can even deploy Docker on your Raspberry Pi, spin up a Dockerized verion of Netflix Chaos Monkey and monitor the whole lot from SAM!

 

And that’s it. With a few simple steps, you can be up and running with the new ARM agent, bringing the same monitoring power to your ARM devices as your other enterprise platforms.

 

We would love to hear about your Raspberry Pi use cases for the Orion agent. Please share in the comments below!

Hallo zusammen,

 

Ich bin im Stress. Dieser Herbst hat es in sich. Aber mal langsam und von vorne.

 

Anfang September war ich im Frankfurter Stadion auf der Hausmesse eines unserer Distributoren.

Ich glaube ich hatte schon einmal erwähnt, dass ich aus dem Ruhrgebiet komme. Da ist die Chance sehr hoch Fan von einem von zwei bekannten Fußball Teams zu sein. Spielt keine Rolle von welchem, Frankfurt ist definitiv... naja schwarz-rot ist nicht mein Ding

Es war ganz nett sich einmal mit ein paar Unternehmen zu unterhalten die ich sonst nur in der "all nodes" Liste von Kunden in Deutschland sehe. Lancom hat mir eine virtuelle Version deren Routers versprochen, mein Plan ist, das Ding einmal in Betrieb zu nehmen und ein paar Poller in thwack zu setzen. Ebenso Datacore.

 

Auf dem Rückweg hatte mein Flieger nach Amsterdam zwei Stunden Verspätung und ich habe den Anschluss nach Cork verpasst. Ein Hoch auf KLM die mich auf deren Kosten in einem 5 Sterne Hotel untergebracht haben. Ich bin am Samstagmorgen zu Hause angekommen, Sonntagmorgen ging es dann nach Barcelona auf die VMworld!

Hier ein Bild vom Stand am Tag bevor es los ging. Links, noch verpackt, sind 1000 T-Shirts:

 

vmworld booth

 

Ich war dort zum ersten Mal und bin quasi von Restaurant zu Restaurant gestolpert. Das gibt schon tolle Sachen dort:

 

steak

 

Am letzten Tag der Messe, mit zwei Tagen Verspätung, haben wir endlich die neuen Versionen von NPM, VMan (lustig: meine Autokorrektur macht daraus Vanessa), NTA und NCM released aber wir konnten sie trotzdem nicht zeigen weil unsere Onlinedemo ein Problem hatte. So ein Pech!

 

Kurz zusammen gefasst ist jetzt neu:

Voller ASA Support in NPM NTA NCM, es werden automatisch Tunnel überwacht, wir verstehen Multicontexts und können Regeln einlesen sowie die Firmware flashen.

Ebenso hat die Orion Plattform neue Spielzeuge bekommen und unterstützt jetzt HA in getrennten Standorten, sowie eine neue EOC Version. Diese beiden Themen werde ich bei Gelegenheit mal genauer beschreiben.

 

Hier Links zu den einzelnen Posts mit weiteren Information:

https://thwack.solarwinds.com/community/solarwinds-community/product-blog/blog/2017/09/26/network-configuration-manager-77-is-now-generally-available

https://thwack.solarwinds.com/community/solarwinds-community/product-blog/blog/2017/09/25/virtualization-manager-80-is-now-generally-available#start=25

https://thwack.solarwinds.com/community/solarwinds-community/product-blog/blog/2017/09/19/npm-122-now-generally-available#start=25

https://thwack.solarwinds.com/community/solarwinds-community/product-blog/blog/2017/09/15/what-is-the-enterprise-operations-console-eoc-how-does-it-work-20

 

OK, dann komme ich also zurück nach Cork und was passiert - ich werde krank.

Es zwickt in der Nase und ich befürchte das schlimmste: die Männergrippe!

Die Überlebenschancen sind gegen Null.

Der Doktor sagt "it is just a chest infection" aber ich glaube ihm kein Wort. Und überhaupt, übersetzt das mal "Brustinfektion"? Alter Falter, da liege ich also im Sterben und mir fällt ein, dass in der Folgewoche Urlaub ansteht.

Also unternehme ich die größten Anstrengungen wieder gesund zu werden und bewege mich vom Bett maximal zur Couch. Hat auch halbwegs geklappt!

 

Dann Urlaub.

Zuerst nach Parma.

Richtig, da kommt Parmesan her, und Prosciutto di Parma, und angeblich wurden auch Tortellini hier erfunden.

Ich kann definitiv bestätigen, dass Parmesan hier ein großes Ding ist:

 

parmesan

 

Der Kaffee ist allerdings eher eine kleine Angelegenheit:

 

Dann ging es nach Milan. Die Stadt macht depressiv.

Du läufst an Schaufenstern vorbei und weißt, dass die Kleidung darin etwa ein Monatsgehalt kostet.

Am Abend sitzen wir mit Freunden meiner Partnerin zusammen und ich verstehe kein Wort. Nein das ist nicht richtig, wenn die über Essen reden verstehe ich zumindest den Inhalt des Gesprächs!

Also nutze ich die Zeit und fange an diesen Post zu schreiben.

Morgen geht es nach Sizilien. Sonne. Sonne. Sonne.

Weniger als 24 Stunden nach meiner Rückkehr werde ich wieder im Flieger sitzen um mit Solarwinds an einem Nato Event teilzunehmen. In Belgien!

Das Event heisst NIAS, aber mein interner Spitzname dafür lautet Waffen und Waffeln.

Irgendwelche Tipps für Brüssel?

 

Die Woche danach, Ende Oktober, bin ich in London.

Fish'n'chips incoming!

 

Und dann? Dann bin ich tatsächlich ein paar Tage zu Hause.

 

Aber nicht lang. 10. November steht Berlin an. Details hier.

 

Was machen wir da? Solarwinds kommt mit einigen Produktmanagern, u.A. vom Server and Application Monitor, und einem unserer Headgeeks, Patrick Hubbard. Wir stellen die Neuigkeiten vor, erklären Situationen wo und wie unsere Software sinnvoll eingesetzt werden kann und stehen für sämtliche Fragen zur Verfügung.

Das Ganze ist vollkommen kostenlos! Oh und es gibt Essen

Wenn ihr in der Gegend seid kommt einfach mal vorbei. Das ist wirklich eine gute Gelegenheit.

 

Und dann, wenn das alles vorüber ist, setze ich mich mit einem netten Glas Rotwein auf meinen Balkon.

Ach Moment dann ist es schon kalt draussen. Wird also vermutlich eher ein Glas Jameson!

 

Gute Nacht!

 

Were going to VMworld Barcelona from September 11th - 14th. Come visit us at booth number B524 and learn how SolarWinds® is making it easier to manage your systems and applications.

See how SolarWinds continues to improve our best-in-class hybrid IT management solutions built on the Orion® Platform. From managing and optimizing your VMware® environment to application and storage monitoring, SolarWinds has you covered.



COME LEARN ABOUT:

 

Performance Tuning and Monitoring for Virtualized Database Servers - Thomas LaRock & David Klee


Date: Wednesday September 13

 

Time: 12.30pm - 1.30pm

 

Where: VMworld Fira Barcelona Gran Via



Description: Come see Thomas LaRock share his experience in virtualizing data Platforms. You will learn how to validate your VMware environment and manage the performance properly. Scalability concerns will be addressed through discussions on scaling database VMs upwards and outwards as you work with the DBAs to manage the data lifecycle. Key talking points will help you learn how to perfect database virtualization from a technical, an organizational, and people level.

 

 

Join SolarWinds Head Geek Kong Yang for his VMworld Wrap-up Webinar

 

 

Kong Yang

 

SolarWinds Head Geek™

 

Date: Thursday September 14

 

Time: GMT (UTC+1): 2:00pm to 2:45pm
          CET (UTC+2): 3:00pm to 3:45pm

 

Where: WebEx - Register Here

 

Description: Join SolarWinds Head Geeks, Kong Yang and Thomas LaRock, and VMAN Product Manager Chris Paap, as they discuss hot topics from VMworld 2017 in Barcelona - premier thought leadership and education event for cloud infrastructure and digital workspace technology professionals. They will cover:

 

    • Hot topics and trends
    • Report from the show
    • Feedback from the event
    • Top questions
    • How could SolarWinds help

 

 

Customers don't forget to bring your e-mail invite to pick up your backpack from our stand, we can’t wait to see you!

One of the many reasons that modules based on the  SolarWinds® Orion® Platform like Server & Application Monitor (SAM), Network Performance Monitor (NPM), and Network Configuration Manager (NCM) are so popular is because customers are able to see value straight out of the box. However, the power of the Orion Platform can easily be taken to the next level by customizing aspects such as reports, alerts, and views. And the cherry on top is that you can also create custom templates for what you manage and monitor! In these posts, we will look at how by not re-inventing the wheel and importing customizations created by other THWACK® members, you can quickly and easily expand your SolarWinds deployment with these best practices.

 

TL;DR:

 

Overall, the approach is fairly straightforward: on THWACK, our customers (and SolarWinds staff) can share content they have created so that others can re-use it. If you need to poll custom metrics or use existing polled data, it's always worth checking THWACK to see if there is a pre-existing poller that meets your needs rather than building one from scratch.

 

Later, we will look at how this content can be created, but once it's in THWACK, it's generally straightforward to either load the customizations either directly in Orion itself, or indirectly by downloading from THWACK and then importing them into Orion. This approach can be very useful if your Orion server is not connected to the internet.

 

 

Pollers within NPM

 

 

First, we will look at how to use pollers for NPM. Essentially, they are two types: you have pollers created via the Device Studio and Universal Device Pollers (UnDPs). Device studio pollers cover technologies such vendor name, CPU, and memory, should devices not support standard polling OIDs, whereas UnDPs tend to be used for more "metric" types.

 

With Device Studio pollers, you can:

  • Poll devices that do not support any of the OIDs polled for by SolarWinds pollers
  • Poll devices that return incorrect data when polled by SolarWinds pollers
  • Override polled values to display custom static values

 

Device studio pollers can be both created and imported in the Orion console itself, and we'll see that these are fairly typical use cases. (More information on the use case is covered over in the online documentation).

The easiest way to find what's already built is to open the device studio ("Settings->"Manage Pollers") in Orion, and then select "Thwack Community Pollers".

From here you can simply select the Poller you wish to use, and then "Assign" to node. On the next screen, you can then scan the nodes for matching OIDs, and you can then enable as needed.

 

Import from Thwack Directly into Orion

 

 

The indirect approach has a few more steps. You would navigate to THWACK from an internet-connected machine, download the template you need, and then re-import to the Orion Platform.

 

Firstly, navigate to THWACK (if you are reading this, you are already there!) and browse to "Product Forums --> Network Performance Monitor." Then select "Content Exchange.”

 

Thwack Forum

 

From here, you can then navigate to the "Device Pollers" category and ensure the "Documents" filter is applied. From here, it's just a matter of selecting the poller you require and then clicking on "Download."

 

Download Content from Thwack

 

Once you download the file, you can then import it to the Orion Platform in the Device Studio, except instead of selecting the "THWACK Community Pollers," use the Local Poller Library.

 

UnDPs work slightly differently, in that they are still managed via a Win32 application on the Orion server itself, but you can still utilize the import function to benefit from UnDP templates on THWACK. The approach is virtually the same as for the device studio pollers, except instead of selecting the "device pollers" category, you select the "Universal Device Pollers" category. As before, just download the template, copy to the Orion server, and then import.

Universal Device Poller (UnDP)

<insert UnDP screenshot>

 

Stay Tuned

 

In the next posts, we will look at application templates within SAM and device templates within NCM.

Hello Folks,

 

Got a Requirement today to generate a report on CPU, Disk and Memory Usage, Usually this report is used by the Infrastructure teams to access current usage and forecast capacity

 

Hence I spend some time on Research,

 

Found a Helpful Article, Custom Report: Hourly average CPU and memory usage - SolarWinds Worldwide, LLC. Help and Support

 

  1. Click Settings > Manage reports.
  2. Click Create new Report:
    • Select Custom Table and click Select and Continue.
    • Set the Data Selection as follows, and click Add to layout:
      • For Selection method use - Specific Objects
      • Select the nodes for the report.
  3. To setup the Custom table, click Add Column. Add the following:
    • Node Name
    • Average CPU Load
    • Average Memory Used
  4. Set Timestamp to hourly.
  5. Set Sort and Group Results By to - Node.
  6. Set From option to Last 24 hours.
  7. Finish the report wizard.

 

The Steps mentioned above give you a perfect report on CPU and Memory Usage, I choose to aggregate it for last 24 hours and the sample is shown  below:

 

This was good now, i wanted to get the Disk report,

 

Hence found a helpful thread, which lists down the SQL query to get the disk report ( Logical Disk)

 

SELECT

   N.NodeID AS 'Node ID'

  ,N.Caption AS 'Server Name'

  ,I.IPAddress as 'IP Addresses'

  ,V.Caption AS 'Volume Name'

  ,V.VolumeDescription AS 'Volume Description'

  ,V.VolumeType AS 'Volume Type'

  ,V.VolumeTypeID AS 'Volume Type ID'

  ,ROUND(V.VolumeSize/1073741824,0) AS 'SIZE /GB'

  ,ROUND(V.VolumePercentUsed,0) AS 'Percent Used'

  ,ROUND(V.VolumeSpaceUsed/1073741824,0) AS 'USED /GB' --VolumeSpaceUsed is calculated in Bytes (/ by 1073741824 to get GB)

  ,ROUND(V.VolumeSpaceAvailable/1073741824,0) AS 'FREE /GB' --VolumeSpaceAvailable is calculated in Bytes (/ by 1073741824 to get GB)

  ,CASE

  WHEN V.VolumePercentUsed >= 95 THEN 'WARNING Less than 5% Free'

  ELSE ' '

  END AS 'Warning'

 

FROM dbo.Nodes AS N

  INNER JOIN dbo.NodeIPAddresses AS I

  ON N.NodeID = I.NodeID

  INNER JOIN dbo.Volumes AS V

  ON N.NodeID = V.NodeID

 

 

WHERE

  V.VolumeTypeID = (4)

 

 

Order BY

  N.Caption ASC

 

Output Sample :

This two reports were really helpful, but then the requirement was to show the data in one single report, i tried hands on another Advanced Reporting option

 

So using the Advance Report Editor,

Selection Method was Specific Object (Static Selection ) Choose Windows as a group

Now while Specifying columns, Average CPU Load, Disk Usage, Memory Usage got the error below

 

 

I believe, this may be achievable using the Advanced SQL Query Editor, however not sure of the Implications this may cause and the data might be fetched from different buckets and might cause performance issues.

SolarWinds uses cookies on its websites to make your online experience easier and better. By using our website, you consent to our use of cookies. For more information on cookies, see our cookie policy.