1 2 3 Previous Next

THWACK EMEA

34 Posts authored by: Sascha Giese Employee

 

Do you guys know that Tom is speaking during a breakout session?
Have a look here to learn how to bypass typical pitfalls in DB virtualization.
We should play a game. Whoever puts the best pic of him talking on Twitter gets…uh…a pair of socks maybe?

 

Speaking of pictures, I found a few from last year in Barcelona. This was our home for a few days:

 

I suggest checking Twitter for updates on how it will look next Monday!

 

Also, we discovered an interesting place for dinner.
Have a look at the nameplate to see whose table we were sitting at:

 

We didn’t meet them yet. Which is one of the reasons we go to Barcelona again, and again!

The other reason, obviously, is you guys! Come and see us!

It’s that time of the year again.

Normal people start thinking about Christmas presents, robots are asking for an oil change, but we at SolarWinds are busy planning our next Partner Summit here in Ireland.

 

While we are still in the process of finalizing the agenda—hey, even an oil change takes time—I have some facts to share with you.

Unfortunately, the dinner menu is not yet available, so I will come back to that later!

What do we know?

For starters, the date and location:
Monday, February 4, 2019, to Friday the 8th in Cork, Ireland.

Three keynote speakers agreed to drop by:

 

  • - Denny LeCompte (SVP, Product Marketing)
  • - Kevin Bury (SVP, Customer Success & Business Operations)
  • - Ludovic Neveu (GVP, Sales)

 

I am sure you are familiar with “never change a running system,” so we stick to the things that worked out very well in the past and split the whole agenda between a commercial and a technical track.

The commercial track will provide insights into what’s new at SolarWinds since the last February.
Let me copy some information from our press releases:

 

By the time we meet, we will have more news for you to make sure that you’re up to date on our latest releases, and how they can help your customers.

 

The technical track will continue diving into the different paths of SolarWinds certifications and we will be offering various classrooms and breakout sessions.

Remember in early 2018, when I was providing a technical session for the NTA beta exam with NTA beta materials?
Good news: You will be able to sit the official exam as it left beta. But we might have a new beta track available just in case you are feeling adventurous.

 

As we believe in “work hard, play hard” or, in this case, “study hard, play hard,” our famous evening entertainment will return, and I will make sure that appropriate food is being served for us.

For those of you who are following me on Twitter: No, I won’t cook for you, sorry!

 

Still, almost four months to go so stay tuned for updates as I get them. In the meantime, have a look at previous summits, summarized by my colleague Michael:

2017

2018

 

BRB!

Tach Zusammen,

 

SolarWinds® wird vom 09.-11. Oktober auf der IT-SA in Nürnberg vertreten sein, und zwar mehr als nur einmal!

Unsere Hauptpräsenz wird bei unserem Distributor Ramge Software in Halle 9 an Stand 140 sein.
Stand 140 ist der „hub“ für die anwesenden SolarWinds Mitarbeiter und es wird immer jemand verfügbar sein.

 

Weitere Distributionspartner auf der Messe sind Sysob IT-Distribution, in Halle 9, Stand 446, sowie ALSO Deutschland ebenfalls in Halle 9 an Stand 516.

Ebenso ist unser Partner I.Tresor in Halle 10.1, Stand 309 vertreten.

 

Vielleicht sieht man uns sogar noch an einem anderen Stand!

 

Warum sollte man vorbeischauen? Es gibt so viel Neues zu sehen!

Wir bringen die neuesten Updates für die Orion® Plattform mit inklusive dem Server Configuration Monitor (SCM) und natürlich den neuen Karten, ebenso zeigt unser MSP-Team die NetPath Integration in n-central sowie SolarWinds Backup.

Selbstverständlich bringen wir auch unsere berühmten Pins und Sticker mit!

 

Kommt einfach mal vorbei!

Mit dem Altern ist das ja so eine Sache.

Häufig überlege ich mit meiner Partnerin was man denn am Wochenende kochen könnte und sobald mir eine großartige Idee einfällt sagt sie „das hatten wir doch schon letztes Wochenende“.

 

Ach, richtig, vollkommen vergessen!

Trotzdem mag ich kein Log darüber führen was ich zuletzt gekocht habe. Wozu auch wenn man doch daran erinnert wird

 

In der IT haben wir ständig ähnliche Situationen:
Was habe ich denn neulich noch an diesem Server…das .Net Update, ach, richtig, vollkommen vergessen!
Was ist, wenn ich mich jetzt nicht mehr erinnere? Meine Partnerin kann mir hier nicht helfen, also benötige ich eine andere Lösung.

 

Jetzt kommt der SolarWinds® Server Configuration Monitor (SCM) ins Spiel!

Innerhalb von wenigen Monaten ist SCM jetzt schon das zweite neue Modul für die Orion® Plattform. Orion war bisher in der Lage, Konfigurations-Änderungen bei Netzwerkgeräten festzustellen.
Ihr habt uns das Feedback gegeben, dass da mehr gehen muss, und jetzt geht da auch mehr!

SCM bringt Konfigurationen von Servern und Anwendungen in die Plattform, damit sich bei Problemen mit der Performance oder Verfügbarkeit eventuelle Änderungen als Ursache entweder bestätigen oder ausschließen lassen, ohne externe Produkte zu konsultieren.
Vielleicht hatte ich ja tatsächlich etwas installiert! Oder viel schlimmer: Jemand anders!

 

SCM nutzt den schon bekannten Orion Agent um eine Inventarisierung von Hard- und Software durchzuführen sowie auf Veränderungen bei speziellen Anwendungen zu überwachen. Sollte eine Änderung festgestellt worden sein, kann natürlich ein Alarm ausgelöst werden.

Typische Situationen neben dem Nachverfolgen von Konfigurationsänderungen könnten aber auch Dinge wie das Downsizing bei VM-Ressourcen sein, oder vielleicht Registrierungsänderungen die von Malware verursacht worden sind.
Ebenso sollte man nicht vergessen, dass die Lösung zwar Server Configuration Monitor heisst, aber nichts kann euch hindern damit auch Desktops zu überprüfen um eventuelle nicht autorisierte Installationen von Endbenutzern auf deren Maschinen zu finden.


Also, SCM überwacht Dateien, Ordner und die Registrierung.

 

Eine kurze Tour gefälligst?
Klicken wir einmal den nagelneuen Reiter hier:

 

Ich besitze die unangenehme Eigenschaft bei neuen Spielzeugen direkt in die Einstellungen zu gehen („Oh was macht denn dieser Knopf?“) also klicke ich oben rechts auf die Settings

 

Was haben wir da jetzt:

 

Rechts stellen wir lediglich ein wie lange die Daten vorgehalten werden und das könnt ihr solange einstellen bis euch der Storage-Admin auf das Dach steigt.
In der Mitte wird angezeigt, welche Maschinen welche Profile zugewiesen haben:

 

Oben wäre dann eine Methode, um Profile zuzuweisen:

 

Aber was sind denn jetzt diese Profile?

Profile sind Vorlagen die der Überwachung von spezifischen Veränderungen dienen. Bei einer frischen Installation von SCM sind drei Profile direkt verfügbar: Die Inventarisierung von Hardware, Software sowie dem IIS.
Wir arbeiten bereits an weiteren Profilen wie z.B. Active Directory®, Exchange™ und anderen.

Natürlich könnt ihr auch eure eigenen Profile erstellen! Klickt auf „Add“ und gebt dem Ding einen Namen:

 

Dann noch einmal auf “Add” zum Erstellen der tatsächlichen Bedingung – dies können natürlich auch mehrere sein:

 

Okay das Profil ist drin. Wählt es aus und klickt „Assign to“

 

Nutzt eure Kreativität und verändert die Datei. Das Resultat wird direkt angezeigt:

 

Einen Mausklick weiter sieht man auch die Details:

 

Das war einfach. Jetzt mal etwas spannender!
Ich erstelle ein Profil mit dem Namen „Firewall Policy“ und füge ein neues Element hinzu aber diesmal „Registry“ und nicht Datei:

 

 

Hier wird ein kompletter Key überwacht. Je nach Anwendungsfall kann man in der Hierarchie nach oben wandern aber ich schlage vor es so spezifisch wie möglich zu gestalten, damit es bei Änderungen nicht zu unübersichtlich wird.
Behaltet eine der goldenen Regeln des Monitorings im Kopf:
Wenn etwas passiert wollt ihr keine Zeit damit verschwenden festzustellen, was denn passiert ist!

Okay die Regel habe ich gerade erfunden aber sie klingt gut, oder?

 

Ebenso kann man komplette Ordner überwachen. Das kann sehr interessant sein, daher schnell ein Beispiel.
Beachtet die Wildcards für alle Unterordner und alle Dateien, ebenso habe ich den Download deaktiviert:

 

Aufgepasst: Im Beispiel oben muss das Konto korrekt angegeben werden.
Aus offensichtlichen Gründen wird die Variable %userprofile% keine Resultate anzeigen! Ihr könnt aber %windir% oder andere Variablen nutzen, solange diese nicht an einen Benutzer gebunden sind.

 

Eine weitere Option wären ganz simple Binärdateien. Diese können zwar nicht eingelesen werden aber zumindest wird anhand der Checksumme eine Änderung erkannt.
Das heisst, ich muss mich korrigieren: SCM kann Binärdateien einlesen, nur wir Menschen können damit nichts anfangen.

Die Standard-Profile sind übrigens direkt beim Sonar verfügbar und können zugewiesen werden wie AppInsight:

 

Ich gehe davon aus, dass wir im Laufe der Zeit mehr Profile in thwack haben werden die importiert werden können. Ja, das war ein Wink mit dem Zaunpfahl!

 

Ein weiteres nettes Feature ist das Erstellen von Baselines, also Snapshots von gewünschten Konfigurationen. Das geht ganz einfach per Mausklick ganz rechts:

 

Und aus grau wird grün!

 

Selbstverständlich werden Features der Plattform unterstützt, so gibt es z.B. neue Alarme:

 

Hier ist ein neuer Auslöser für eure eigenen Alarme:

 

Sowie neue Berichte:

 

Und im PerfStack! Wie sagt meine Mutter immer „Niemals den PerfStack vergessen!“

 

Noch ein paar Stichpunkte zur Skalierung:

Wir haben SCM erfolgreich mit bis zu 1000 Agents pro Poller getestet und jeder Agent kommt mit 150 Änderungen pro Sekunde klar bei einem Maximum von insgesamt einer Million Änderungen pro Stunde für eine Orion Instanz.

Falls ihr noch nicht mit dem Orion Agent gearbeitet habt keine Sorge, der Overhead des Agents an CPU, Memory und Bandbreite ist sehr gering.

 

Wie oben schon erwähnt arbeiten wir bereits an den nächsten Features, darunter auch die Anzeige wer eine Änderung durchgeführt hat womit SCM dann für Audit & Compliance nutzbar ist, und schliesslich auch dem Support für Linux.
Schaut einfach hier hin um den jeweils aktuellen Stand zu erfahren:

https://thwack.solarwinds.com/docs/DOC-203089

 

Genug für eine schnelle Vorstellung, jetzt seid ihr dran mit dem Testen. Ich habe dringendere Dinge zu erledigen. Es ist Freitag. Ich muss in die Küche.

Die Vorspeise – Rucola, Prosciutto, Parmesan und Balsamico. Gebt dem Schinken etwas Zeit um auf Zimmertemperatur zu kommen für diese Kombination:

Wenn euch die Kombination von Balsamico und Rucola zu bitter ist empfehle ich etwas Honig.

 

Und schliesslich „Duchesse Di Parma“, Hühnchen mit Prosciutto in Sahnesauce mit etwas Käse.

 

Keine Pasta dieses Mal!!

Viel Spass mit SCM.

Sascha Giese

IPAM und UDT

Posted by Sascha Giese Employee Aug 2, 2018

Tach Zusammen!

 

Heute bin ich ein Beispiel für Effizienz und schreibe über zwei Module für die Orion® Plattform gleichzeitig – IP Address Manager (IPAM) und User Device Tracker (UDT).
Glücklicherweise sprechen beide Produkte die gleiche Zielgruppe an und harmonisieren perfekt miteinander!

 

Also, was machen die Dinger?

Fangen wir mit IPAM an. Das spricht man übrigens tatsächlich „eipäm“ aus!

Nutzt ihr noch Tabellen zur Verwaltung von Subnetzen? Das ist ungefähr so fortschrittlich wie dieses Gebäude hier:

 

 

Mit SolarWinds® IPAM kann man den kompletten Adressraum zentral verwalten und noch einiges mehr. Aber mal von Anfang an!

 

Nach dem Installieren gehen wir sofort in die Subnetz-Verwaltung.

Die erste Frage ist: Wie bekomme ich meine Daten dort hinein?

Es gibt drei verschiedene Möglichkeiten. Die komfortabelste ist das automatische Erkennen mit „Discover Subnets“:

 

Ich gebe dem System dazu ein Gateway – optimal: Coreswitch/Corerouter - und es wird versucht über SNMP Daten abzufragen. Dazu werden die folgenden OIDs ausgelesen um die Subnetze zu identifizieren:

   

NAME

OID

IpForwarding

  1. 1.3.6.1.2.1.4.1

IpRouteDest

  1. 1.3.6.1.2.1.4.21.1.1

IpRouteMask

  1. 1.3.6.1.2.1.4.21.1.11.

IpCidrRouteDest

  1. 1.3.6.1.2.1.4.24.4.1.1.

IpCidrRouteMask

  1. 1.3.6.1.2.1.4.24.4.1.2

ipRouteType

  1. 1.3.6.1.2.1.4.21.1.8

NexthopAddress

  1. 1.3.6.1.2.1.4.21.1.7

 

Tatsächlich entspricht das exakt RFC1213.

Leider trifft man sporadisch auf Hardware Hersteller die die Standards recht kreativ auslegen und in dem Falle wird die automatische Erkennung leider nicht funktionieren können.

Anstatt zur nächst gelegenen Glaskugel zu greifen nutzen wir dann einfach die zweite Funktion vom Screenshot oben, den Import.
Dazu kann man innerhalb von IPAM zuerst eine Vorlage herunterladen:

 

 

Diese befülle ich dann mittels Magie in Form von Copy&Paste von meinen alten Tabellen und importiere das fertige Element in das System.

 

Die dritte Methode ist das manuelle Einpflegen von Subnetzen. Dazu klickt bitte ganz links auf „Add“:

 

Natürlich legt man nicht dutzende von Subnetzen per Hand an aber die Funktion ist sinnvoll um Planspiele zu betreiben um, zum Beispiel, zukünftige Adressräume zu modellieren.

Nachdem wir nun die Subnetze gesammelt haben, empfiehlt es sich etwaige DHCP und/oder DNS Server anzulegen. Als Beispiel hier DHCP - dazu wechseln wir:

 

Jetzt kommt es eventuell zu einer Überraschung. Wir klicken auf „Add New/Hinzufügen“:

 

Ganz oben steht eine Warnung:

 

Die Maschine muss also schon innerhalb des Systems sein. Wenn noch nichts verfügbar ist wird entweder Sonar bemüht oder ich nehme die Maschine schnell manuell auf.
Bei mir sind die Maschinen schon vorhanden und ich wähle die entsprechende VM aus:

 

Und darunter kommen die Berechtigungen. Hier kommt es häufig zu Fragen – was genau wird benötigt?

Details gibt es hier:

https://support.solarwinds.com/Success_Center/IP_Address_Manager_(IPAM)/IPAM_Documentation/IPAM_Administrator_Guide/050_DHCP_management/050_Adding_DHCP_Servers_to_IPAM

https://support.solarwinds.com/Success_Center/IP_Address_Manager_(IPAM)/IPAM_Documentation/IPAM_Administrator_Guide/060_DNS_management

 

Ich kann nun einstellen wie oft die Scopes bzw Zonen synchronisiert werden:

 

Selbstverständlich kann man auch Scopes anlegen/ändern (Scope-Optionen wie z.B. das Gateway) oder DNS Zonen erstellen und manipulieren:

 

Um hier weiter zu kommen gehen wir also davon aus, dass wir sowohl DHCP als auch DNS im System haben und Daten eingelesen worden sind, und klicken wieder auf die Subnetz-Verwaltung.

In meiner kleinen Laborumgebung habe ich nur zwei Subnetze:

 

Wenn ich eines auswähle und auf Edit klicke stehen mir einige Eigenschaften zur Verfügung. Interessant sind dort sicherlich die Einstellungen der DNS Zone:

 

Einmal dort hinterlegt, ist IPAM klar wer für den Bereich verantwortlich ist und kommuniziert mit dem DNS Server.

Dann noch ein paar Kleinigkeiten:

 

Wenn die Automatik aus ist, habe ich eine passive Tabelle. Das ist sinnvoll zum Planen oder der reinen Übersicht halber, falls ein Subnetz nicht von IPAM aus erreichbar ist (DMZ).

Die Einstellung „Update but not erase“ nutze ich, wenn ich per Hand Attribute gesetzt habe.

Scan-Intervall ist klar, und die Auswahl der Polling Engine kann dann interessant werden, wenn ich mehrere Poller und doppelte Subnetze habe.

Klicke ich tatsächlich in ein Subnetz habe ich eine Tabellen-Ansicht und plötzlich gibt es viel zu sehen:

 

Zuerst einmal ganz links in violett (mein Kunstlehrer sagte immer „violett ist nicht lila“), gelb und grün – das ist der Status der IP und der ist ziemlich wichtig!

Wir erkennen dadurch nicht nur, was es mit der IP auf sich hat, sondern nutzen diese Information auch zur Lizensierung. Reserviert, in Benutzung und Transient werden lizensiert, verfügbare IP jedoch nicht.

Oben sehen wir die Spaltenbeschreibungen die im Prinzip selbsterklärend sind. Wir nutzen hier verschiedene Protokolle um euch möglichst viele Informationen zu den Adressen liefern zu können.

Man kann die Spalten übrigens auch verstecken bzw weitere dazu legen:

 

Die nächsten Spalten zeigen die MAC Adresse an sowie den Hersteller:

 

Die Herstellerinformationen werden bei Updates von IPAM mit eingepflegt. Wenn dort etwas als „unknown“ angezeigt wird wie bei mir, könntet ihr es als Feature Request einreichen damit wir es für euch in das Produkt hinzufügen können.

 

Die ich ja heute, wie schon bemerkt, so richtig effizient bin, habe ich für meine unbekannten Nodes einen FR angelegt.

https://thwack.solarwinds.com/ideas/10107

Falls ihr heute noch keine gute Tat erledigt habt könnt ihr dem Vorschlag gerne eine Stimme geben

 

In den weiteren Spalten wird überprüft ob ein DHCP Scope im System deckungsgleich mit dem Subnetz ist und falls ja, zeigen wir Reservierungen und ClientName an. Ebenso natürlich den Hostnamen über einen nslookup.

Protipp: Die Namensauflösung findet vom SolarWinds Server aus statt. Wenn kein Name angezeigt wird, bitte dort mit dem Troubleshooting starten und nicht von eurer Workstation aus.

 

Weiter hinten werden drei SNMP OIDs abgefragt:

 

Klicken wir einmal auf eine IP und editieren!

Interessant hier der Status und der Typ:

 

Bei „Scanning“ bedeutet off = der DHCP Status ist egal und wird nicht mehr abgefragt.

Wenn wir zurück auf die Startseite von IPAM gehen sehen wir einige sinnvolle Grafiken und Tabellen. Die meisten davon sind selbsterklärend aber guckt einmal kurz hier:

 

Was genau sehen wir hier? Es gibt unterschiedliche Verknüpfungen in der Vorwärts und Rückwärts Zone des DNS Servers.

Üblicherweise ist die FWD Zone immer aktuell und der Eintrag in BWD veraltet. Wir können es dann von hier korrigieren.

Und das hier ist wirklich klasse:

 

Wir sehen links eine IP und rechts zwei Maschinen mit der MAC Adresse, die gerne diese IP hätten. Ich weiss also jetzt schon, wer in meinem Netz einen Konflikt verursacht.

Aber! Guckt mal auf die Info in den blauen Spalten.
Dort wird angezeigt, dass beide oberen Maschinen auf dem gleichen 3850 sitzen, die linke in Port 20 im zweiten Stackmitglied, die rechte auch in Port 20 aber im dritten Switch.

Wo kommt das jetzt her?
Das, meine Freunde, kommt aus dem User Device Tracker (UDT)!

 

UDT ist ganz klassisches Switch Port Mapping und zeigt mir an, wer an welchem Port eingestöpselt ist.
Die Ports selbst werden durch die Sonar Suche der Orion Plattform gefunden und können weiter manuell geändert werden:

 

 

Dazu werden OIDs von den Switchen ausgelesen – und zwar eine ganze Menge.

Guckt bitte einmal hier:

https://support.solarwinds.com/Success_Center/User_Device_Tracker_(UDT)/Knowledgebase_Articles/MIB_tables_required_by_User_Device_Tracker_for_Layer_2_information

Für die komplette Übersicht bitte das Bild abspeichern und dann zoomen.

 

In den Standardeinstellungen werden die Daten alle 30 Minuten abgefragt sowohl für L2 als auch L3, sofern Multilayer verfügbar ist.

Typische Einsatzszenarien für den UDT sind natürlich ganz klassisch das Auffinden irgendeines Endpunktes oder Benutzers. Mein Lieblingsbeispiel ist „Karl-Heinz aus der Personalabteilung hat wieder ein Ticket geschrieben. Wo finde ich den?“

Dazu konsultiere ich oben rechts die Suche:

 

Vielleicht möchte ich aber auch einfach nur wissen, wer sich in meinem Netzwerk herumtreibt.
Dazu gibt es ein praktisches Element direkt auf der Zusammenfassung:

 

Aber Moment einmal – jetzt, wo wir diese Infos haben können wir gleich noch mehr damit anstellen!
Es gibt zwei verschiedene Listen innerhalb vom UDT: Eine „watch list“ und eine „white list“:

 

Falls ich das benutzen möchte, muss ich zuerst eine „white list“ definieren. Das Standard-Verhalten färbt erst einmal alles in weiss auch wenn es nicht wie ein Kühlschrank aussieht:

 

Wenn ich mir eine neue Regel erstellen möchte gibt es links einige Optionen:

 

Custom ist sicherlich die interessanteste davon, da auch Wildcards erlaubt sind:

 

Komplexe, verschachtelte Regeln sind allerdings nicht möglich. Hierzu sollte eine NAC Lösung in Betracht gezogen werden.

Nehmen wir einmal an wir haben eine simple Regel erstellt, die alle Knoten eines bestimmten Herstellers über die MAC Adresse erkennt. Was passiert jetzt, wenn ein neuer Hersteller auftaucht?

Dann würden wir den Knoten in dieser Tabelle sehen:

 

Rechts kann ich entscheiden was jetzt geschehen soll. Wenn ich das Ding kenne, klicke ich „safe device“ und es wird eine neue Regel nur für den Knoten erstellt.

 

Aber was ist, wenn jetzt irgendetwas verdächtig erscheint, ohne dass ihr euch sicher seid warum wie zum Bespiel hier:

 

In dem Fall klicke ich auf „watch“ und lasse es mir auf die andere Liste setzen:

 

Nun wird mir das Ding nachverfolgt:

 

Auch beim UDT gibt es direkt verfügbare Alarme:

 

Sowie Berichte, natürlich!

 

Zwei weitere Funktionen habe ich bisher unterschlagen! Hier die erste:

 

Der UDT kann auf Wunsch mit dem Domain Controller verbunden werden um die Event-IDs 4768 und 4769 auszulesen, die beim Authentifizieren geschrieben werden.

Dadurch lassen sich Benutzerlogins identifizieren und ich kann nicht nur nach Maschinen oder Adressen, sondern auch nach Benutzern suchen.

Diese Funktion ermöglicht aber auch im Zusammenspiel mit SolarWinds Netflow Traffic Analyzer (NTA), nicht nur den Computer, sondern auch den aktiven Benutzer zu finden der eine bestimmte Adresse angesteuert hat. Das ist schon ziemlich detailliert!

 

Aufgepasst: Der Einsatz dieser Funktion befindet sich in einer „Grauzone“ und sollte vorab mit dem Betriebsrat diskutiert werden.

 

Eines noch! Erinnert euch noch an die Geschichte mit den doppelten IPs:

 

Wenn man an dieser Stelle auf einen Port klickt kommt man zu der folgenden Seite:

 

Shutdown nutzt SNMP-RW um tatsächlich den Port herunterzufahren.

 

Wäre es jetzt nicht auch toll, wenn man die Informationen verknüpfen kann für Szenarien wie:
Unbekannte MAC im Netz --> Sperre mir den Port automatisch?

Folgt mir bitte unauffällig:

https://thwack.solarwinds.com/ideas/2328

 

Okay, wir sind im Schnelldurchlauf mit IPAM und UDT fertig.
Beide Module sind wirklich einfach zu verstehen und zu benutzen. Keine Geheimnisse.
Wenn es zu Herausforderungen kommt, ist es meistens auf mangelnde Kompatibilität der Hardware zurückzuführen.

Falls ihr einen solchen Fall habt, tretet einfach direkt mit uns in Kontakt und wir schauen uns das einmal an.

 

Bis dann macht’s gut, und ihr wisst ja, dass nach SolarWinds mein Lieblingsthema das Dinieren ist oder? Daher hier ein sommerliches Foto:

 

Salat mit angebratenem Lachs, Feta und einem Dressing auf Zitronen-Honig-Senf Basis. Der Ouzo ist mit Absicht nicht im Bild.

Tach Zusammen!

 

Dieses Posting ist ein Inhaltsverzeichnis meiner deutschsprachigen Themen hier in thwack.
Ich versuche das Ding hier immer aktuell zu halten.

 

Falls euch irgendein Thema interessiert – Vorschläge sind immer willkommen.

 

Die Evergreens zuerst

Wie installiert man ein SolarWinds Orion® Modul
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/12/28/wie-jetztinstallieren

Network Discovery – Erkennungsvorgang
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/02/14/sonar-oder-wie-bekomme-ich-mein-zeug-in-solarwinds-hinein

Lizensierung
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/11/22/lizensierung-h%C3%B6here-mathematik-mit-katzen

 

Produkt-spezifische Informationen

Network Configuration Manager (NCM) Teil 1
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/03/22/ncm-auf-die-schnelle

Network Configuration Manager (NCM) Teil 2
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/03/30/ncm-auf-die-l%C3%A4nge

Server & Application Monitor
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/06/06/es-ist-ja-nicht-immer-das-netzwerk-es-gibt-auch-anwendungen

Patch Manager (SPM) Teil 1
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/07/24/einfach-mal-patchen-teil-1

Patch Manager (SPM) Teil 2
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/08/04/einfach-mal-patchen-teil-2

Patch Manager (SPM) Teil 3
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/12/13/einfach-mal-patchen-teil-3

Log & Event Manager
https://thwack.solarwinds.com/groups/thwack-emea/blog/2018/02/27/log-event-manager-ich-weiss-was-du-letzte-woche-getan-hast

Virtualization Manager
https://thwack.solarwinds.com/groups/thwack-emea/blog/2018/03/29/virtualization-manager-die-achte

Database Performance Analyzer – erste Schritte
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/11/30/dpa-erste-schritte

Log Manager für Orion
https://thwack.solarwinds.com/groups/thwack-emea/blog/2018/06/06/log-manager-f%C3%BCr-orion

IPAM und UDT

IPAM und UDT

Sever Configuration Monitor

SolarWinds Server Configuration Monitor

 

Monitoring - Basics

Datenbanken-Überwachung
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/11/30/immer-diese-datenbanken

Echtzeit Monitoring
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/08/25/echtzeit-monitoring

SolarWinds Orion Agents
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/03/10/agents

 

Fortgeschrittene Themen

Orion Alarmierung
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/11/07/red-alert-alarm-%C3%BCberall

Orion Skalierung
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/12/20/orion-skalierung

Orion High Availability
https://thwack.solarwinds.com/groups/thwack-emea/blog/2018/01/25/high-availability

Orion Migration
https://thwack.solarwinds.com/groups/thwack-emea/blog/2018/04/27/orion-migration

Vyos
https://thwack.solarwinds.com/groups/thwack-emea/blog/2017/04/24/vyos

Tach Zusammen,

 

Das Leben ist voller Herausforderungen.

 

Manche davon sind existentiell wie z.B. die Frage „was koche ich am Samstag“, manche basieren auf variablen Konstrukten wie „welchen Wein trinke ich dazu“.

Manche sind schwierig. Ich meine wirklich schwierig:

 

Aber manche Herausforderungen werden ganz einfach mit den richtigen Werkzeugen.

Erinnert ihr euch noch an Diskussionen zum Echtzeit-Monitoring und asynchrone Benachrichtigungen über Syslog und Traps?

 

Mit eurer Hilfe haben wir ein paar Herausforderungen beim Verwalten von Protokoll-Logs identifiziert:

  • Fehlende Integration zum normalen Monitoring

Ich habe ständig Logs die eintreffen und auf der anderen Seite ein Gerät welches ich über SNMP beobachte. Ich muss die Daten verbinden können sonst bringt mir das gar nichts.

 

  • Steigende Anzahl an Log-Quellen

Eine Infrastruktur wächst im Laufe der Zeit und damit steigt naturgemäß die Anzahl an Elementen die zu überwachen sind

 

  • Steigende Anzahl an Logs

Manche dieser Quellen senden eine große Menge an Daten. Nicht jede Quelle erlaubt das Selektieren bestimmter Meldungen vor dem Versenden

 

  • Speicherort der Logs

Wo lege ich die Logs ab, wie lange behalte ich sie? Ich kann vorab kaum einschätzen welche Ressourcen benötigt werden.

 

  • Visualisierung der Logs

Das ist ein großer Punkt! Syslog und Trap sind Textzeilen die unter Umständen nur schwer zu deuten sind. Ich muss das in den Griff bekommen und will nicht extra ein Studium anfangen. Ich muss verstehen was passiert. Jetzt.

 

Dank eurem Feedback haben wir den Bedarf erkannt und uns entschieden: Ja, wie hören euch und das bekommen wir hin!

 

In den letzten Monaten waren unsere Entwicklungsteams ziemlich beschäftigt und haben schliesslich ein komplett neues (und unserer Meinung nach beeindruckendes) Produkt geliefert um eure Probleme mit Logs zu beseitigen.

Ich freue mich also euch eine Vorschau geben zu können auf…


<trommelwirbel>

Log Manager für Orion

</trommelwirbel>

 

Was genau ist das Ding jetzt, und warum sollte mich das interessieren?

 

Zuerst einmal haben wir es mit einem neuen Modul für die Orion® Plattform zu tun das entweder für sich selbst läuft oder im Verbund mit anderen Modulen.

Besonders sinnvoll natürlich mit SolarWinds® Network Performance Monitor (NPM)!

 

Aber Moment, sagt ihr jetzt, Log Verwaltung…das macht ihr doch schon…

 

Richtig! SolarWinds hat schon einige Produkte für das Sammeln von Logs und jetzt kommt noch eins um die Ecke!

Man kann schon fast sagen wir sind Logging-Experten!

 

Kiwi Syslog®, Log & Event Manager (LEM), Papertrail™, Loggly® – und jetzt „LM“.
Wo sind die Unterschiede?

 

Schauen wir einmal – Papertrail und Loggly sind SaaS Produkte und zielen primär auf DevOps.

LEM ist eine SIEM Lösung die komplexe Regeln erlaubt, automatisierte Aktionen steuern kann und dient den Aspekten Sicherheit und Konformität.

Kiwi® hat tatsächlich eine ähnliche Zielgruppe wie LM, aber wenn Kiwi der Einstieg in die zentrale Log-Verwaltung ist, ist LM der nächste Schritt in Richtung Korrelation, Visualisierung und natürlich der Integration in die Orion Plattform mit all den Vorteilen.

 

Genug geredet, lasst uns das Ding einmal anschauen!

 

Nach der normalen Installation gibt es einen neuen Reiter im Menü, fantastisch!

 

 

Damit wir Daten bekommen klickt bitte auf ein Gerät das Logs sendet und auf „Edit Node/Knoten bearbeiten“ und scrollt ein wenig herunter:

 

 

Nach dem Eintreffen der ersten Logs finden wir einen neuen Button in der Management-Box:

 

Ich wähle aber den Einstieg über Dashboards --> Logs --> Log Viewer.
Wenn wir drauf klicken sieht es erstmal ein wenig aus wie der Performance Analyzer innerhalb der Plattform:

 

 

Oben haben wir die eingegangenen Logs der letzten 10 Minuten. Ich klicke auf die 10 Minuten und sehe:

 

Nett, wie beim PerfStack!
Natürlich kann ich in der Zeitachse oben auch mit der Maus dynamisch einen Zeitraum auswählen.

 

Links finde ich einen Filter:

 

Im Moment ist nichts ausgewählt also sehen wir alle Nachrichten und diese natürlich in der Mitte.
Ganz unten die Anzahl an Events die im ausgewählten Zeitraum eingetroffen sind:



Klicken wir mal auf irgendeine Nachricht und sehen ein neues Element ganz rechts:

 

 

Ein paar Dinge sollten ins Auge fallen – wir sehen direkt das aktive Filtering welches Elemente als Login und in Grün klassifiziert:

 

Das funktioniert durch Regeln. Die finden wir rechts oben:

 

Aufgepasst. Links kann man zwischen vordefinierten und eigenen Regeln wählen:

 

Basteln wir uns einmal eine Regel?

Klickt auf „my custom…“ und dann auf „Create new rule“ um den Assistenten zu starten:

 

Ich habe verschiedene Bedingungen zur Auswahl – schaut euch das bei einem Livesystem einmal in Ruhe an, hier nur ein Beispiel:

 

 

 

Der nächste Schritt:

 

 

Zur Auswahl stehen uns schon ein paar Aktionen:

 

 

Taggen wir einmal!

 

Wir sehen eine Vorauswahl die um unsere eigenen Tags ergänzt werden kann:

 

Das Verändern oder Löschen von bestehenden Tags ist im Moment noch nicht über die Benutzeroberfläche möglich, kann aber über die Datenbank erledigt werden.

 

Alternativ können wir als Aktion auch Executables und Scripts ausführen und ein paar Variablen als Schalter übergeben:

 

 

Gehen wir noch einmal auf die Übersicht zurück. Rechts oben neben den Regeln ist noch ein Knopf:

 

Jetzt werden die Events in Echtzeit angezeigt wenn sie hereinkommen und die Zeitachse oben ist dynamisch.

 

Es gibt auch eine Such-Box:

 

Wonach Suchen…im Grunde genommen kann ich nach allen Dingen suchen die in Logs auftauchen wie vielleicht IP Adressen, Zeit/Datum oder beliebigen Inhalten. Ich bin gerade so unkreativ und suche nur nach dem Port:

 

Die Suche funktioniert sowohl mit historischen- wie auch mit Echtzeit-Daten als adhoc Filter, und auch Geräteübergreifend. Das ist ziemlich praktisch. Trotzdem kommen mir jetzt Selbstzweifel. Schreibt man Geräteübergreifend oder geräteübergreifend? Was auch immer!

 

Natürlich haben wir auch eine neue Position bei den Einstellungen:

 

 

Dort finden wir folgendes:

 

Die beiden „Show“ Positionen sind Berichte. Das macht mich neugierig.



Es gibt auch ein paar neue DB-Einträge für eigene Berichte:

 

 

Aber Moment – da kommt noch was!

 

 

Hier ist noch einmal ein Screenshot von der alten Liste von Syslogs innerhalb der Plattform. Keine Filter, keine Intelligenz, nur ein paar Zeilen Text!

 

 

Das hat sich nun geringfügig geändert

 

 

Das sollte reichen für eine Vorschau zum neuen Produkt. Nagut, noch eine Sache.

 

LM benötigt seine eigene Datenbank basierend auf 2016SP1 oder neuer.
Deswegen gibt es beim Installationsprozess auch eine neue Abfrage:

 

Wichtig: Wir empfehlen die SQL Volltext-Suche zu aktivieren.

 

 

Jetzt aber!
Bleibt nur noch die Frage, was am Samstag zu kochen.
Mein Vorschlag:
Pasta mit Salsiccia, Pistazien-Pesto und viel Parmesan.

Dazu passt hervorragend ein Glas Primitivo!

 

 

Macht’s gut!

Sascha Giese

Orion Migration

Posted by Sascha Giese Employee Apr 27, 2018

Tach Zusammen!

 

Migration ist so ein tolles Wort. Es kommt mit einem eigenen Wiki-Eintrag:
https://de.wikipedia.org/wiki/Migration

Wir lernen also Migration heisst eigentlich nur Umzug auf Lateinisch aber selbstverständlich klingt das viel interessanter!
Tatsächlich gibt es ja nur einen interessanten Umzug:
https://de.wikipedia.org/wiki/Karnevalsumzug

Zumindest gibt es da Prinzen!

 

 

Besonders uninteressant finde ich die „die Wanderung von Schadstoffen im Grundwasserleiter“…wie gut, dass für uns lediglich die System-Migration wichtig ist.
Leider hat es diese Art der Migration noch nicht in das deutsche Wiki geschafft:
https://en.wikipedia.org/wiki/System_migration

Also ein Umzug jenseits von Köln und Düsseldorf!

 

Innerhalb der Orion® Plattform bekommen wir es eigentlich nur mit zwei Arten der Migration zu tun – die der Datenbank und/oder des Anwendungsservers.

Mehr generelle Info hier:
https://support.solarwinds.com/Success_Center/Network_Performance_Monitor_(NPM)/Migration_Guide

 

In meinem Beispiel möchte ich die DB von 2014 auf 2016 umziehen!
Der Hauptgrund dafür befindet sich…*trommelwirbel*…hier:
https://thwack.solarwinds.com/docs/DOC-176988#start=25

Tatsächlich ist das ein Szenario dem man sogar schon direkt nach Abschluss einer Evaluierung begegnen kann, wenn man vielleicht von der Express Version auf eine volle DB wechseln möchte ohne Daten zu verlieren.

 

Meine Situation:

1 VM mit den Anwendungen

1 VM mit der aktuellen Datenbank auf Version 2014SP2

1 VM mit der neuen Datenbank auf Version 2016SP1

Die offizielle Dokumentation in English befindet sich hier:
https://support.solarwinds.com/Success_Center/Orion_Platform/Migrate_the_SolarWinds_Orion_SQL_database_to_a_new_server

 

Da mein System läuft, muss ich es erst anhalten.
Dadurch entsteht natürlich ein Loch im Monitoring was ich aber ignorieren kann – ihr solltet das planen!

Ich gehe zu meiner VM und starte den Kollegen hier:

 

Okay jetzt stellt bitte sicher, dass ihr entweder
a) ausserhalb der Geschäftszeiten im Buero sitzt
-oder-
b) schon einen neuen Arbeitsvertrag irgendwo anders unterschrieben habt

 

Wenn a oder b zutreffen, klickt auf „Shutdown Everything“.
Keine Sorge, mit „everything“ ist nur SolarWinds gemeint und nicht der Rest der Welt!

Nach ein paar Sekunden ist alles Rot:

 

Tipp: Vergewissert euch, dass überall „stopped“ und nicht „stopping“ steht.

Dann auf zum nächsten Schritt. Kaffee? Noch nicht!

 

Wir müssen die DB Dateien verschieben.

Öffnet SQL Management Studio und findet die DB:

 

 

Rechtsklick darauf, Tasks und Backup

 

Merkt euch den Standardpfad oder ändert ihn und klickt auf OK

 

Schnappt euch die Datei und schiebt sie auf ein Netzwerkshare oder gleich direkt in das Dateisystem auf die neue Maschine.

Im SQL Management Studio ebenfalls wechseln:

 

Database --> Restore

Ich habe die .bak auf C: liegen:

 

Alles gut:

 

 

Jetzt müssen wir dem System noch mitteilen, dass die DB umgezogen ist. Migriert meine ich natürlich, migriert!

Also gehen wir auf den Anwendungsserver und starten den Configuration Wizard und wählen die Database aus:

 

Jetzt aber aufgepasst!

Hier kommt der aktuelle Zustand:

 

 

So soll es aussehen nach dem Einpflegen der neuen Daten – wir brauchen temporär ein Konto mit mehr Berechtigungen um einen neuen Benutzer anlegen zu können:

 

Die DB wurde gefunden! Ein Meilenstein!

Nun schnell noch das Konto erstellen:

 

Jetzt ist es Zeit für einen Kaffee. Viel Kaffee:

 

 

Wir haben unseren Job gemacht und müssen warten:

 

Und schliesslich:

 

Die Webseite startet:

 

Und ein kurzer Test zeigt, dass per „add default“ der neue SQL angesprochen wird:

 

Das war es! Jetzt kann die alte DB weg.

Es gibt dazu übrigens auch ein tolles Wort mit Wiki-Eintrag: Decommissioning.
https://en.wikipedia.org/wiki/Decommissioning

In Deutsch ganz einfach: Stilllegung. Mit drei L.

 

Und um das Thema auch noch kurz anzusprechen – wenn ich jetzt auch den Anwendungsserver migrieren möchte, vielleicht um von einem 2008 auf ein 2016 zu kommen folge ich in etwa diesen Schritten:

Ich installiere erst die Orion Plattform mit meinen Modulen auf der neuen VM – ganz einfach als Evaluierungsversion ohne vorherige Eingabe von Lizenzschlüsseln.
Durch den Configuration Wizard lasse ich mir irgendwo temporär eine DB anlegen die ich aber nie benutze.

Sobald das neue System steht, deaktiviere ich die Lizenzen auf dem alten System mittels License Manager. Diese stehen mir dann auf dem neuen System wieder zur Verfügung.
Sobald die Plattform wieder lizensiert ist, nutze ich den Configuration Wizard noch einmal und verweise auf die schon bestehende, echte, SQL hin.

 

Es gibt ein paar Stolperfallen – so werden z.B. Berichte die irgendwann mal mit der alten Win32 Anwendung erstellt worden sind nicht automatisch gesichert und wenn die neue VM eine andere IP oder gar einen anderen Hostnamen hat muss dies per Hand in der DB angepasst werden.

Aber das will ich heute ja alles gar nicht machen.

Meine Datenbankmigration ist geglückt, ich werde das Wort Migration auf der nächsten Party benutzen um schrecklich intellektuell zu erscheinen, und ausserdem scheint gerade die Sonne!

 

BRB, muss meine Sonnenbrille suchen!

Tach Zusammen,

 

Gute Neuigkeiten:
Wir starten eine Deutschland-Tournee!

 

 

Die meiste Zeit über sitzen wir in unseren Bueros und suchen nach weiterem Optimierungspotential für unsere Software. Und trinken Kaffee, na klar!

Im April und Mai aber steigen wir in ein Flugzeug und kommen zu ein paar Terminen nach Deutschland.

 

Am 24.April sind wir zu Gast bei unseren Partner Ramgesoft der uns eine nette Location in München gesichert hat. Es gibt ein paar „fliegende Überraschungen“  

Details und Anmeldung hier:

http://ramgesoft.eu/index.php/de/component/seminarman/courses/72-hybrid-it-monitoring-mit-solarwinds?Itemid=1420&mod=1

 

Am Folgetag, dem 25.04., hat uns unser Partner heureka nach Stuttgart eingeladen.
Dort werden wir uns im Fernsehturm treffen und danach von einem Fernsehkoch verköstigt!
Mehr Informationen hier:
https://www.heureka.com/solarwinds_partner_event_2018

 

Weiter geht es dann im Mai.

Am 15.05. sind wir in Düsseldorf, nicht zu weit weg von meiner Heimat!
Dort findet man uns hier:
https://www.budenfreunde.de/

 

Einen Flug weiter, einen Tag später sind wir in Berlin:
https://www.sohohouseberlin.com/de/private-event

 

Von da aus mit dem Zug nach Hamburg, wo wir am 17.05. „auftreten“:
https://www.gastwerk.com/hotel-hamburg/tagungshotel/

 

Aber was machen wir den jetzt eigentlich an den Terminen?

Nun, ihr könnt euch sicher vorstellen was ich mache im Land von Schnitzel und Currywurst!

 

Aber ganz nebenbei haben wir einige Vorträge im Programm, bringen Neuigkeiten mit, stellenweise werden wir von Kunden hören wie ein Rollout von unseren Lösungen das Leben erleichtert hat – das ist auch für mich spannend da mein Verantwortungsbereich üblicherweise beim Planen eines Deployments aufhört.

Wir werden ein oder zwei Laptops im Gepäck haben um Abseits der Vorträge ein paar Dinge zeigen zu können für jeden der an gezielten Informationen interessiert ist.

Selbstverständlich wird zwischendurch auch Zeit für ein kleines Gespräch sein!

 

Zum Anmelden für die Termine im Mai bitte hierhin:

https://www.silicon.de/event/solarwinds-roadshow-2018/

Natürlich ist die Teilnahme an sämtlichen Terminen vollkommen kostenlos!

 

Ich bleibe noch eine Woche länger in Deutschland. Ab dem 22.05. sind wir in Berlin auf diesem Event:

http://www.nitec.nato.int/

Wer in diesem Bereich tätig ist und auf der Messe erscheint kann gerne einmal vorbeikommen. Man munkelt wir haben ein paar Goodies zu vergeben!

Zwischen Hamburg und Berlin bin ich das Wochenende über in Leipzig – ausnahmsweise aber nicht für die Firma unterwegs. Ich war noch nie dort! Falls jemand ein paar Restaurant-Empfehlungen für mich hat, immer her damit!

 

Bis dahin – ich hoffe wir sehen uns!

 

Tach Zusammen!

 

Vor gefühlten hundert Jahren habe ich unseren Virtualization Manager (VMan) vorgestellt. Seitdem hat sich einiges geändert.

Nein, ich rede nicht von der Erfindung des Mobiltelefons was schon ungefähr 250 Jahre her sein muss, wenn ich auf den Stapel Rechnungen schaue.

Tatsächlich gab es bei unserem VMan eine Metamorphose im wahrsten Sinne des Wortes.

Kurz zur Erinnerung:
VMan war ursprünglich eine virtuelle Appliance und sah so aus:

Nach und nach wurden Features von der Appliance in die Orion® Plattform geschoben und das ganze Ding wurde im Laufe von Jahren mehr und mehr integriert.

- Im September 2017 haben wir Version 8.0 veröffentlicht mit der Option auswählen zu können, ob das Polling von der Appliance oder vom Orion Server durchgeführt werden soll.

- Im Dezember mit Version 8.1 wurde mit Capacity Planning das letzte exklusive Feature von der Appliance zu Orion migriert, was die Appliance dadurch nicht nur optional, sondern obsolet gemacht hat.

- Im März 2018 schliesslich Version 8.2 mit einem verbesserten Wizard um virtuelle Infrastruktur zu Orion hinzuzufügen.

 

Die Installation des VMans ist jetzt wie bei jedem anderen Orion Produkt und demnach etwa so simpel wie eine Tasse Kaffee herzustellen:

 

Okay nach der Installation bzw dem Trinken dieses Kaffeepuddings müssen wir Zeug in Orion hineinbekommen. Dazu gibt es verschiedene Methoden, z.B. in den Settings um direkt einmal den neuen Wizard auszuprobieren:

Ich bin so aufgeregt, weil der auch für mich neu ist!

Ich kann auswählen:

 

Ich bin vor ein paar Monaten umgestiegen auf Hyper-V™ und gehe einen Schritt weiter:

 

 

Ich bekomme eine ganze Menge Zeugs angezeigt:

 

 

Und füge einfach alles hinzu:

 

Im Prinzip muss man jetzt warten bis genug Daten gesammelt haben.
Aber ich habe hier etwas geschummelt und die Daten sind alle da.

 

Also legen wir los. Ein guter Startpunkt ist immer die Zusammenfassung:

 

Die Daten links habt ihr vielleicht auch schon einmal vom NPM oder SAM allein gesehen:

 

Andere Dinge kommen jetzt neu dazu wie zum Beispiel diese wirklich hervorragende Nachricht:

 

Wer meine Posts verfolgt weiss, dass das jetzt üblicherweise ein Grund wäre um entweder eine Tasse Kaffee zu trinken, einen Wein zu öffnen oder ein Schnitzel zu essen.

Auf der Suche nach irgendwas bin ich hier im Büro in die Küche gegangen und sehe das hier:

 

Ich werde euch nicht mitteilen, für was ich mich entschieden habe.

 

Also weiter.
Ich klicke auf einen Host und sehe wieder bekannte Datensätze:

 

Aber guckt mal links dort sind jetzt zwei neue Reiter dazu gekommen, Storage und Virtualization Summary:

 

 

Storage gibt mir Latenz und IOPS für sowohl die Datastores als auch die VMs:

 

Aufgepasst: Bei Hyper-V gibt es leider keine VM Latenz:
https://support.solarwinds.com/Success_Center/Virtualization_Manager_(VMAN)/Hyper-V_virtual_machine_latency_shows_as_zero

 

Ich klicke auf eine VM, diesmal wähle ich den Reiter Virtualization Summary und plötzlich wird es richtig interessant.

Links stehen mir Aktionen zur Verfügung:

 

Ihr könnt ruhig ein bisschen Herumklicken – es kommt immer noch eine Sicherheitsabfrage bevor tatsächlich was passiert.

Rechts, unter den Tachos, ist ein Element das ihr lieben lernen werdet:

 

Es werden vergleichende Werte für die VM und den Host angezeigt. Prima, um einmal über den Tellerrand hinaus schauen zu können.

Übrigens ist das eine gute Stelle um einmal in unseren Performance Analyser zu schauen falls ihr den noch nicht kennt. Klickt einfach mal oben auf den Link.

 

Aber ich mag euch noch ein paar richtig nette Dinge beim VMan zeigen.

Wählt bitte einmal „sprawl“ aus.

 

Hier nutzen wir die gesammelten Daten und vergleichen Auslastung mit zugewiesenen Ressourcen.

Bei mir liegt gerade eine frische VM herum – der Plan ist, meine Orion DB bald von 2014 auf 2016 zu migrieren – die hat natürlich Memory zugewiesen der gerade nicht in Benutzung ist:

 

Auf der gleichen Seite werden weitere VMs angezeigt die nichts tun außer zu existieren.
Was macht man mit solchen?

 

Ich nenne das Holzhammeradministration.

 

Ein weiteres Feature ist das Planen von zukünftigen Änderungen in der Virtualisierung. Klickt auf Capacity Planning.

Ich kann hier verschiedene Spiele betreiben:

 

Hier werden ebenfalls die gesammelten Daten genutzt um diese exakt berechnen zu können, wie viele VMs ich noch platzieren kann und welche Resources als erstes knapp wird.
Da unter Umständen mehrere Wochen von Daten benötigt werden hier ein Auszug aus einem fertigen Bericht:

 

 

Das dritte besondere Feature sind die Empfehlungen/Recommendations.

Zuerst etwas Offensichtliches:

 

Schauen wir uns die einmal genauer an:

 

Vertrauen wir dem System? Eigentlich schon, aber lasst uns das einmal überprüfen.
Ein Mausklick gibt etwas mehr Details:

 

Ich schaue mir die Orion VM genauer an. Ich habe verschiedene Möglichkeiten.

 

Oder:

 

Oben auf Edit kann ich natürlich den Zeitraum anpassen

 

Dazu sind diese Elemente/Widgets zwar nicht gedacht, aber um einmal kurz etwas anzuschauen:

 

Weil ich grad dabei bin öffne ich noch den „Average CPU Utilization – This week“ Report der mitgeliefert wird:

 

Nach all diesen Informationen beschliesse ich den VMan Empfehlungen zu vertrauen und nie wieder in Frage zu stellen!

 

Ich könnte jetzt also diese Aktionen durchführen lassen:

 

 

Das mache ich nun aber nicht…weil…

 

 

Auf einem anderen System habe ich eine weniger offensichtliche Empfehlung gefunden:

 

Das ist etwas das uns eigentlich gerade nicht stört. Es läuft ja alles wunderbar.
Aber was ist wenn ein Ernstfall eintritt? Dann mag mir das durchaus Kopfschmerzen bereiten.
Daher hier der Vorschlag:


Zusammen gefasst bietet VMan eine schönes Paket zum Überwachen der virtuellen Infrastruktur und geht über normales Monitoring hinaus mit Features wie Capacity Planning.

Die Lizensierung ist einfach anhand aller physischen CPUs in den Hosts.
Das heisst, dass ich auf Performancedaten sämtlicher VMs bekomme ohne diese lizensieren zu müssen.

Wenn ihr auf eine VM klickt wird unter Umständen jedoch so etwas erscheinen:

 

Das besagt einfach, dass VMan die VM im Griff hat, aber ich jetzt gerade noch keine Anwendungen darauf überwachen könnte. Dazu muss ich die VM aktiv überwachen und mir stehen die Daten in SAM und weiteren Modulen zur Verfügung.

Das wiederum wird allerdings Lizenzen bei den jeweiligen Produkten konsumieren.
Für weitere Informationen zu diesem Thema verweise ich auf meinen Lizensierung-Blogpost. Schon alleine wegen der Katzen!

 

Da fällt mir ein…ich war neulich in Edinburgh und dort gibt es tatsächlich ein „Katzen-Cafe“.
Man kann dorthin gehen, Kaffee trinken, Kuchen essen…und überall sind Katzen!! Fantastisch!

 

 

Bis demnächst!

Tach Zusammen,

 

Neulich habe ich einmal meine thwack Punkte investiert. Guckt hier:

Ich habe eine gute Idee, was man damit machen kann!
Aber vor dem Vergnügen erst ein bisschen Arbeit.

 

Bisher habe ich über einige Orion Module referiert sowie den „teil-integrierten“ Patch Manager. Um Langeweile vorzubeugen heute einmal etwas Anderes – unsere SIEM Lösung Log & Event Manager, kurz LEM.
LEM sitzt hinter euren AV-Lösungen, Firewalls, DLP Software etc und zeigt die Daten zentral und übergreifend an. Ich kann also mit LEM nachvollziehen, wer wo durch mein Netzwerk wandert und was angefasst oder auch nur angesehen hat.

 

LEM wird nicht irgendwo hin installiert, sondern kommt als virtuelle Appliance basierend auf Linux. Je nach Geschmacksrichtung Hyper-V oder Vmware wird das Ding direkt auf den Host importiert.

Nachdem Importieren nehme ich zuerst ein paar der Ressourcen von der Kiste runter und gebe hier nur 4 Gigs und 2 vCPUs. Das reicht für ein kleines System im Test oder bei mir im Labor. Ich bin geizig.

Wenn ihr die VM startet und dann auf die Konsole geht, kommt nach wenigen Sekunden ein Screen wie dieser hier:

Das ist keine Hommage an den BSOD!
Wir sehen direkt die IP Adresse und könnten per Browser loslegen, aber zuerst geht mal unten auf die Timezone und stellt es bei korrekt ein also bei euch vermutlich Europe/Berlin.

 

Dann aber mal direkt in den Browser eures Vertrauens und ab dafür!
Das erste was man vermutlich sieht ist, dass es mit dem Vertrauen dann doch nicht so weit geht:

Ignorieren! Der Login ist admin/password als Standard:

Nach dem Ändern das Passworts sieht man ein paar Buttons ganz oben:

Und vermutlich das Ops Center unten was aber bei euch noch leer sein wird.

Bevor wir irgendwas machen empfehle ich zuerst, die Appliance auf den aktuellen Stand zu bringen.
Zum Zeitpunkt an dem ich diesen Artikel schreibe ist Hotfix 7 das neueste Release:
https://downloads.solarwinds.com/solarwinds/Release/HotFix/SolarWinds-LEM-v6.3.1-Hotfix7.zip

Im Archiv sind die Schritte zum Updaten – in a nutshell: Auf ein Netzwerkshare entpacken, dann in die LEM VM-Konsole und über Appliance den HF einspielen. Dann von dort aus Neustarten.

 

Dann die Connectors. Wenn die Appliance Internetzugriff hat klickt einfach Manage/Appliance


Dann rechts oben auf Update Now.

Wenn die Appliance kein Internet hat:
http://downloads.solarwinds.com/solarwinds/Release/LEM/SolarWinds-LEM-Connectors.zip

Der Updateprozess ist ähnlich wie beim HF – Details sind im Archiv.

 

Was ist ein Connector überhaupt?
Ich vergleiche das immer gerne mit einem Babelfisch! Kennt ihr das noch? Wenn nicht, attestiere ich euch eine böse Kulturlücke!

 

LEM kommt mit einer sehr langen Liste an Connectoren für die verschiedenste Hard- und Software die es gibt.
Eine aktuelle Übersicht findet sich immer hier:
https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/lem-connector-list

 

Wenn für eine Logquelle ein Connector vorhanden ist heisst das, dass die gelieferten Daten verstanden werden können.
Diese werden dann normalisiert und stehen für weitere Korrelation zur Verfügung.

 

Die Liste wird etwa einmal pro Monat aktualisiert. Den Prozess habt ihr ja jetzt schon kennen gelernt.
Als Daumenregel; alles was bekannt, populär und überall in Benutzung ist sollte sich schon in der Liste finden. Vielleicht nicht zwingend in den aktuellsten Versionen, aber ein Hersteller X stellt beim Sprung von Version 12 auf 13 eher selten etwas am Logging um.

 

Was aber, wenn dem jetzt doch so ist? Oder – bei euch läuft irgendwas, was noch nicht in der Liste ist?
In dem Fall ist es Teil des Wartungsvertrages, dass wir versuchen einen Connector für euch herzustellen.
Auch dafür haben wir einen Prozess:
https://support.solarwinds.com/Success_Center/Log_Event_Manager_(LEM)/Submit_a_request_to_SolarWinds_for_a_new_LEM_connector

Mir fällt gerade auf das die Anzahl an Prozessen hier bei Solarwinds exponentiell gestiegen ist seitdem ich hier bin. Aber glaubt mir ich bin unschuldig! Zumindest hierbei!

 

Lassen wir die Connectoren erst einmal Connectoren sein und machen weiter. Wir kommen später noch einmal zu diesem Thema.

 

Wir brauchen jetzt Daten. Und Details.

Grundsätzlich gibt es zwei Methoden:
a) Netzwerkhardware kommuniziert über Syslogs
b) Betriebssysteme (und Anwendungen) kommunizieren über einen Agent

 

Im Falle von Networkgear ist das für uns hier gerade einfach: Wir brauchen innerhalb von LEM nichts einstellen weil das alles in der Hardware erledigt wird.
In meinem Labor zu Hause habe ich zwei Syslog-Quellen, mein NAS (QNAP) :

 

… sowie meinen Network-Controller (UBNT), der Daten von Firewall, Switch und AP liefert:

Bei anderen Devices erledige ich das natürlich über die CLI.
Wenn ich Syslogs aktiviert habe tauchen die Nodes üblicherweise von alleine auf:

Falls dort auch nach einem längeren Zeitraum nichts steht ist die beste Idee oben hier zu klicken:

Die interne Datenbank wird dann noch einmal durchforstet und etwaige neuen Geräte aufgelistet.
Wenn auch dann nichts auftaucht…wird es kompliziert. Aber nicht in diesem Posting.

 

Bei Servern/Workstations wird ein Agent benötigt, um an Daten zu kommen.
Der Agent sorgt zum einen dafür, das auch andere Events ausserhalb des Windows Eventlogs gesammelt werden können, aber er komprimiert und verschlüsselt die Daten auch vor dem Senden.
Bei Manage/Nodes habe ich diesen Knopf hier:

Dort dann Agent anklicken und ich finde die Downloads:

Für einen Test nimmt man einfach den lokalen Installer. Ich lasse Ihn einmal auf meiner Workstation laufen und es gibt eine wichtige Info zum Ausfüllen:

Und eine weniger wichtige

Das war es auch schon:

Der Agent verbindet ziemlich schnell – CTRL ist neu hinzugefügt:

Wenn ihr meinen Schritten gefolgt seid, habt ihr jetzt einen LEM up2date sowie mindestens zwei Logquellen im System.
Geben wir der Appliance nun etwas Zeit zum Sammeln von Daten und gehen ein paar Kekse essen.

 

Oder vielleicht…Deutscher Käsekuchen! Der einzige seiner Art hier in Irland, weil von mir erschaffen:

Lecker! Aber okay nun noch ein paar Basics.
Klickt bitte oben ins Ops Center und geht zu dem orangenen Ding hier:

Beim ersten Punkt stelle ich meinen Mailserver ein:

Sowie einen AD Connector:

Man könnte jetzt im Ops Center etwas aufräumen und die „getting started“ Box ebenso wie „what’s new“, „thwack“ usw entfernen – wie ihr mögt.

 

Mittlerweile sollten Daten da sein!
Schaut mal oben wieder in die Leiste und klickt auf MONITOR.

 

Monitor zeigt Echtzeit-Informationen. Schaut mal nach links unter Filters – dort sind verschiedene Gruppen mit einzelnen Kategorien aufgelistet.
Unter IT Operations finde ich bei Service Events schon etwas von meiner CTRL Maschine:

 

Ich verschiebe einmal eine Datei auf meinem NAS:

Wenn der AD Connector da ist, sieht man direkt auch die wirklich wichtigen Dinge wie fehlgeschlagene Logins, verschobene Benutzer usw ohne weitere manuelle Anpassung.

 

Bei ausgewähltem Filter kann ich oben auf das Zahnrad und Edit klicken:

Wir sehen dann wie sich dieser Filter tatsächlich zusammensetzt und könnten in manchen Situationen ein finetuning betreiben mittels drag&drop von links nach rechts:

Aber so weit will ich jetzt nicht gehen.

 

Stattdessen zeige ich euch noch schnell wo man historische Informationen finden kann.
Klickt oben auf Explore/ndepth

 

Hier schauen wir zuerst auf diese Spalte hier:

Wir sehen rechts den Zeitraum der beliebig umgestellt werden kann, ansonsten wird hier gerade nichts gefiltert.
Darunter sehen wir, dass in den letzten 10 Minuten 587 Events herein gekommen sind:

 

Ich wähle links aus, was mich gerade interessiert, sagen wir mal UserLogons, und doppelklicke:

 

Jetzt guckt noch einmal nach oben in die Leiste:

 

Der Logon wurde hinzugefügt aber ich muss noch auf den blauen Pfeil drücken um die Auswahl zu aktivieren:

 

Logons sind so ein klassisches Szenario. Üblicherweise sind fehlgeschlagene Logons interessanter aber ich habe gerade keine bei mir.
Der nächste Schritt zum Filtern ist entweder in Richtung der Benutzerkonten oder der Maschinen auf denen der Logon stattgefunden hat. Beides können wir, ich nehme zuerst einen Benutzer:

 

Den blauen Pfeil nicht vergessen:

Mein Admin hat auf drei Maschinen einen Logon-Event generiert:

 

Ich frage mich gerade, welche meiner Schatten-Existenzen hier in meinem Netzwerk herumgeistert. Ich sollte vielleicht weniger Trinken.

 

Ich kann jetzt weiter heruntergehen auf eine Maschine, kann aber auch mit den Events weiter arbeiten die mir angezeigt werden.
Guckt mal ganz nach unten:

Das sind verschiedene Visualisierungen. Klickt mal ein wenig herum, die zweite von links ist ganz nett. Wir machen aber in der zweiten Position von rechts weiter.

Alle Events mit Details werden angezeigt:


Ich kann das auch exportieren bei Bedarf:

Ganz oben kann ich die Suche auch speichern für spätere Benutzung:

Okay ein Thema zeige ich euch noch. Der LEM ist nicht nur ein Werkzeug zur Anzeigen von Daten sondern erlaubt auch Aktionen zu automatisieren.
Klickt auf Build/Rules

Und schaut einmal in die untere Hälfte. Dort finden wir einige Hundert Beispiele an vordefinierten Regeln. Guckt sie euch an. JEDE EINZELNE!

Oder nutzt links oben die Suchbox und hackt „logon failure“ ein, dann schaut unten nach dem hier

Klickt auf das Zahnrad und Clone

Zwei Dinge passieren gleichzeitig – nicht erschrecken! Zum einen wird eine Kopie der Regel nach oben befördert, zum anderen öffnet sich ein neuer Spielplatz

Ganz oben sehen wir ein Element das wir schon bei den Filtern kennen gelernt haben.
Darunter in violett die Zeit in der wir Schwellwerte einstellen können.

In Gelb (oder ist das orange? Schmutzig-weiss?) sehen wir Aktionen.

Wir sehen auch Actions ganz unten links, klickt da mal drauf!

 

Die verschiedensten Aktionen stehen uns zur Verfügung von einer simplen Email, über das Verschieben von Benutzern in AD Gruppen bis zum Herunterfahren einer Maschine.

 

Hier in thwack haben wir in der Content Exchange auch viele weitere Beispiele für Regeln, Filter und sogar Reporte:

https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/content?filterID=contentstatus%5Bpublished%5D~objecttype~objecttype%5Bdocument%5D

Schaut mal rein!

 

Ich aber habe jetzt etwas Anderes vor:

Aperol, Prosecco und Orange – auch Spritz genannt.

Prost & bis dann!

Sascha Giese

High Availability

Posted by Sascha Giese Employee Jan 25, 2018

Tach Zusammen!

 

Um das Thema Skalierung abzuschließen stelle ich jetzt einmal das Sahnehäubchen vor – Orion Hochverfügbarkeit.

Es war einmal…bis Ende 2016 hinein gab es ein schreckliches Produkt bei uns. Ja, ich gebe zu, es war schrecklich: Die Failover Engine, oder auch FOE.
Hat jemand von euch einmal damit gearbeitet? Seid ihr immer noch Mitglied in der Selbsthilfegruppe?
Okay das ist Vergangenheit.
Letztes Jahr wurde FOE durch Orion HA Version 1 abgelöst und seit ein paar Monaten ist Version 2 verfügbar.


Orion HA erstellt im Prinzip eine Kopie des primären Orion Servers und funktioniert durch active/passive, liegt also solange im Hintergrund bis etwas passiert. Der Installationsprozess ist einfach, die notwendigen Anpassungen an die Infrastruktur gering.

Version 1 hatte leider eine Beschränkung: Beide Maschinen mussten im gleichen Subnetz sein.

Bei kleineren Umgebungen ist das kein Thema, aber bei mehreren Standorten muss man hier unter Umständen mit Technologien wie OTV tricksen um das VLAN zu strecken und Datenzentren verbinden.
Die Kommunikation beider Maschinen wird in dem Fall über eine virtuelle IP gelöst.

In Version 2 kam dann richtiges Desaster Recovery und erlaubt den Einsatz über Subnetze hinaus. Die Kommunikation läuft nun über einen virtuellen Hostnamen anstatt einer IP.

Soweit die Zusammenfassung und hier die komplette Dokumentation:

http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_what_is_high_availability.htm

 

Aber ich führe euch einmal durch den Prozess!

 

Zum Verständnis:
Auf meinem Host sitzt sowohl der Orion Server (ORION) und die Datenbank (MSSQL) in einem 10.0.0.0/24 das auch nach draussen geht. Ich habe mir ein 10.0.1.0/24 erstellt das aber nur auf dem Host in einem eigenen vswitch existiert. Dazwischen sitzt eine freundliche VYOS Instanz welche die beiden Subnetze routed.
Im zweiten Subnetz habe ich eine VM ORIONHA erstellt und bisher nur in die Domain aufgenommen.

Zuerst teste ich die Namensauflösung. Es sind drei Tests notwendig; IP, FQDN, Shortname:

Das Ganze muss natürlich auf beiden Maschinen funktionieren!

Bevor ihr loslegt schlage ich vor alle Module auf den aktuellsten Stand zu bringen um Zeit zu sparen.

Öffnet auf der HA Box einen Browser, logged in Orion ein und geht zu Settings à Product… und wählt High Availablahblah:

 

Das sieht noch nackt aus und ich klicke auf Set Up:

 

Viel Auswahl gibt es hier nicht:

 

Ich evaluiere:

Dann lade ich den Installer herunter:

 

Der Installer startet, haltet euch fest…einen Installationsprozess. Und den kennen wir schon.

Ich schlage vor, das Fenster unten zum letzten Test für die DNS Auflösung zu nutzen und nur den einfachen Hostnamen einzugeben:

 

Anstatt APE/AWS wie beim letzten Mal wählen wir nun HA:

 

Oh was ist das da ganz oben?
Es gibt HA für den primären Poller, was ich gerade vorhabe, aber auch HA für zusätzliche Poller.
Das ist bei mir ausgegraut weil keine mehr vorhanden. Also weiter und der richtige Installer startet.

Nur ein Screenshot hier weil wir den schon des Öfteren gesehen haben.

 

Danach startet der Configuration Wizard. Den haben wir auch schon ungefähr so oft gesehen wie James Bond Goldfinger.

Sobald alles durchgelaufen ist wird automatisch die Seite High Availability Deployment Summary aufgerufen und wir sollten beide Maschinen sehen:

 

 

Und jetzt wird es endlich interessant. Wir brauchen einen Namen für den Pool sowie den virtuellen Host – ORIONPOOL in meinem Beispiel:

 

 

Jetzt wird der virtuelle Hostname angelegt:

 

Wir bekommen eine Zusammenfassung und klicken auf das blaue Knöpfchen:

Das war es! Naja fast.

In einer Produktivumgebung kommt jetzt natürlich noch ein Schritt der leider etwas Zeitraubend sein kann:

 

Ich würde an dieser Stelle NCM empfehlen um den Syslog Receiver/Netflow umzuändern.
Mir ist das furchtbar egal, ich ignoriere die Meldung und freue mich über das hier:

 

Ein kurzer Test:

 

Klasse:

 

Wer meinen Blog verfolgt weiss, dass ich stark abhängig bin – von Kaffee. Von daher ist jetzt Zeit für eine weitere Tasse da wir gerade einen Milestone erreicht haben.

Im DNS sieht es übrigens so aus:

 

Perfekt!

Kurz etwas für diejenigen von euch die wie ich unter OCD leiden:

- Ich nehme die ORIONHA Maschine als Node ins Monitoring

  Wenn ich das Orion SAM Template auf der HA Maschine nutze sehe ich „Probleme“:

 

- Ignorieren soweit möglich…schaltet Alarme hierfür aus.

JETZT KOMMT DER ERNSTFALL!


Hat jemand von euch einen Kollegen namens Ernst? Passt gut auf ihn auf.

Ich gehe zu meiner Orion Maschine und klaue das Netzwerk:


 

Teste die alte URL:

 

Mein Beileid:

Aber unter dem virtuellen Hostnamen:

 

Alles gut:

 

Cross-check! Die Dienste laufen nun wie erwartet auf der HA Maschine:

 

Und der Pool sagt „mir geht’s nicht gut, aber irgendwie geht’s trotzdem weiter“ – das sage ich übrigens auch wenn ich zum Mittagessen beim goldenen M war:

War das kompliziert?
Es waren ein paar Schritte sicherlich, aber wir haben gerade die Ausfallsicherheit für unser Orion innerhalb von wenigen Minuten realisiert. Das ist schon eine interessante Sache.

 

Ein paar Dinge noch hinterhergeworfen:

Windowsupdates sollten hier ähnlich behandelt werden wir ihr es bei einem Cluster erledigt, also schön nacheinander.

Orion Updates muss man planen. Wenn auf der primären Maschine Updates eingespielt worden sind, deaktiviert dies den Pool! Hier die Schritte:
http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_upgrade_pool_members.htm

 

Es gibt HA für den Anwendungsserver, HA für die Polling Engines sowie HA für zusätzliche Webserver (wobei das vermutlich zu vernachlässigen ist).
Wir kümmern uns nicht um HA für die Datenbank – das ist eure Angelegenheit – nutzt AlwaysOn oder was auch immer am besten passt:
https://logicalread.com/sql-server-availability-technology/

 

Viel Spass mit dem Herumspielen!

Sascha Giese

Orion Skalierung

Posted by Sascha Giese Employee Dec 20, 2017

Ich frage mich manchmal ob es einen Zusammenhang zwischen dem Wachstum einer Firma und dem Wachstum des IT Teams gibt. Vermutlich nicht so wirklich!

Es ist leicht zu messen, wenn der Helpdesk überfordert ist und wenn der CEO einmal zu lange auf ein Ticket warten muss ist das vielleicht ein Argument um das Staffing zu erhöhen.

Nagut, wenn der CEO zu lange warten muss wird das Staffing vielleicht zuerst um einen Kopf kürzer…

 

Aber im DC oder Infrastruktur-Management? Eine Handvoll mehr Switches, ein neuer Host - das kann doch alles problemlos von denen verwaltet werden die das bisher auch schon gemacht haben. Aber sicher doch!
In einer perfekten Welt ganz bestimmt, aber in einer perfekten Welt würden Dolce & Gabbana die Frühjahrskollektion kostenfrei direkt zu mir ins Haus liefern.

 

Im Idealfall sollte das IT Team natürlich mitwachsen um mit den erhöhten Ansprüchen umgehen zu können.

 

Das gleiche gilt natürlich auch für ein Solarwinds Deployment.

Die meisten von euch setzen Orion in einem ganz normalen Szenario ein – wir nennen es “central deployment”.

 

Die Orion VM kommt irgendwo in ein DC, oder auch ganz einfach den Serverraum und alles was von dort aus erreicht werden kann wird direkt abgefragt.
Das ist simpel und in der Infrastruktur muss nur sichergestellt werden, dass die Kommunikationsmethoden des/der entsprechenden Module zu den jeweiligen Elementen gegeben sind, als Beispiel also UDP 161 für SNMP, vielleicht UDP 2055 für Netflow.
Die darunterliegende Infrastruktur ist für uns transparent und uninteressant, solange eine Verbindung vorhanden ist.

 

Wie in meinem Posting zur Lizensierung erklärt, kann man das beim NPM bis zu etwa 10000 Interfaces einfach so gestalten. Darüber hinaus muss dann ausskaliert werden.

Der erste Schritt ist hier ein zusätzliches Abfragemodul einzusetzen.

 

Ich werfe in diesem Posting mit verschiedenen Begriffen um mich, lasst mich das zuerst einmal erklären inklusive der Abkürzungen die es bei uns gibt:

 

Zusätzlicher Poller --> Additional Polling Engine --> APE
Zusätzlicher Webserver
--> Additional Webserver --> AWS
Übergeordnete Zentralkonsole
--> Enterprise Operating Console --> EOC
Orion Server
--> Anwendungsserver, aber auch primärer Poller (sobald APE involviert sind)
Hochverfügbarkeit
--> High Availability --> HA

 

Zuerst etwas Theorie – zusammen gefasst:
Ein Poller erweitert die Kapazitäten sämtlicher vorhandener Orion Module um die gleiche Menge wie die „unlimitierten“ Versionen, also pro Poller z.B. weitere 10000 Interfaces beim NPM.
Der Installationsprozess erstellt im Prinzip eine Kopie des Orion Servers, daher sollten auch die Resources identisch sein.
Es wird die gleiche Datenbank genutzt! Das ist wichtig beim Planen des Standortes.

Üblicherweise setze ich mir einen Poller in ein entferntes DC und lasse alles, was dort steht, lokal abfragen. Der Poller sendet die Statistiken direkt in die DB.
Wenn die Verbindung einmal abbricht werden die Daten für eine Weile zwischengespeichert und beim Wiederherstellen der Verbindung in die DB abgesetzt.
Im Moment wird dazu noch MSMQ genutzt welches allerdings mittelfristig durch RabbitMQ abgelöst werden wird.

 

Die komplette Theorie inklusive der Kommunikationsports hier:
https://support.solarwinds.com/Success_Center/Network_Performance_Monitor_(NPM)/NPM_Documentation/Scalability_Engine_Guidelines_for_SolarWinds_Orion_Products?CMPSource=THW&CMP=DIRECT

 

Achtung: Oftmals wird hier nur auf die Ports geachtet. Bitte ignoriert die maximale Latenz nicht – die sollte unter 200 ms liegen.

 

Alles klar, jetzt kommt die Praxis!

 

Der Prozess ist seit etwa einem Jahr denkbar einfach.
Zuerst wird eine VM aufgesetzt die im Idealfall, wie oben schon angemerkt, die gleichen Ressourcen hat wie das primäre Orion System.

Von der VM aus gehe ich mittels Browser auf meinen Orion Server und zu Settings --> All Settings --> Polling Engines und dort klicke ich auf diese freundliche Schaltfläche

 

Das Ding führe ich aus und sehe:

 

Dann werde ich gefragt was ich denn eigentlich vorhabe, ausnahmsweise weiss ich das auch und entscheide mich zuerst für die APE:

 

Oh hier kommt eine Zwischenfrage:

 

Hier sei kurz gesagt, dass APEs sowohl beim SRM als auch beim VMAN kostenlos sind, für die anderen Module aber nicht!
Bei mir spielt Geld aber keine Rolle! Nur bei Dolce & Gabbana

 

Der Installer zieht sich die korrekten Dateien nun vom Orion Server und testet:

 

Bei mir passt alles:

Und dann startet die tatsächliche Installation die aussieht wie die eines einzelnen Orion Moduls daher spare ich uns die Zeit und Screenshots.

 

Das habe ich mir so gedacht! Windows ist anderer Meinung:


Ich schiebe die Schuld einfach auf Windows und starte den Vorgang noch einmal. Windows kann sich schließlich auch nicht wehren.

 

Dieses Mal: Prima!

 

Was jetzt folgt kennt ihr auch:

 

Alles bleibt bei den defaults – next next next und irgendwann:

 

Dann öffnet sich ein Browser mit meiner Orion URL – was jetzt?

Zuerst gehe ich wieder zu Settings --> All Settings --> Polling Engines und verifiziere die APE:

Die APE lebt und ist verbunden aber langweilt sich. Das ändere ich nun.

Manage Nodes

 

Suche mir irgendeine Node und klicke auf More Actions / Change Polling Engine

Wähle aus:

Ich kann links nach Polling Engine gruppieren:

Natürlich kann ich das auch im Bulk ändern mit mehreren Nodes gleichzeitig, ebenso geht das direkt in der Datenbank bei NodesData in der Spalte EngineID:

 

Irgendwann nächstes Jahr reden wir mal über die Datenbank. Aber nicht jetzt.

 

Das gleiche Spiel gibt es beim zusätzlichen Webserver.
Zuerst: Warum brauche ich den?
Wir sagen bei 20-25 Benutzern die gleichzeitig auf Orion zugreifen macht es Sinn, AWS einzusetzen um die Last zu verteilen.
Aber!

Ein AWS ist vergleichsweise günstig für einen dreistelligen Listenpreis zu bekommen.
Einige Kunden setzen den auch bei weniger gleichzeitigen Zugriffen ein allein um ein schnelleres Webinterface zu bekommen.

 

Auch dazu etwas Hintergrund:
Auf dem Orion Server hat das Polling höchste Priorität. Alles andere wird hinterhergestellt.
Wenn die Ressourcen knapp werden, muss unter anderem die Web-Performance darunter leiden.

Wenn das GUI outsourced ist, bekomme ich also auch bei kleineren Deployments bessere Performance.

Probiert es einfach einmal aus – der Prozess ist einfach. Tatsächlich genauso wie oben erklärt daher gehe ich nicht erneut durch die Schritte. Passt einfach nur hier auf:

 

 

 

Gut, jetzt gehen wir mal noch einen Schritt weiter.
Wir garantieren offiziell bis zu neun APEs neben dem NPM (oder anderen Modulen), es gibt Deployments da draußen die deutlich höher ausfallen. Sogar in Deutschland
Wenn ein Unternehmen jetzt aber auch darüber hinauswächst? Sagen wir mal 500 000 Interfaces?

Dann arbeiten wir mit individuellen Instanzen.

 

Hier bekommt jede Region ein eigenes Orion zum Spielen. Mit allen notwendigen Modulen und jeweils einer eigenen Datenbank.

Das System hat viele Vorteile, so kann man z.B. unterschiedliche Lizenzgrößen in Europa und den USA nutzen, auch unterschiedliche Module.
Man hat in den jeweiligen Regionen den vollen Zugriff auf sein eigenes Zeugs und es kann mir relativ egal sein, was an anderer Stelle vor sich geht.
Ebenso kann ich so ein Setup auch als Art von active/active sehen und einige extrem kritische Nodes von zwei Standorten aus überwachen, falls mal irgendwo ein Totalausfall ist.
Last but not least – manchmal gibt es schwierige politische Situationen in einer global agierenden Firma und hier kann ein System mit individuellen Instanzen einfach Brennpunkte aus Diskussionen nehmen. Jeder überwacht halt sein eigenes Zeugs!

 

Aber, auch bei getrennten Instanzen möchte ich sicher irgendwie mit der Gesamtsituation unzufrieden die Gesamtsituation im Überblick halten. Wie geht das?

Dazu gibt es die EOC!

 

Vereinfacht gesagt, ist die EOC das virtuelle Gegenstück zu einer Kontrollwand bei der NASA wie ihr das aus vielen Filmen kennt. Ja genau, die gleichen Filme mit als Raumschiffen getarnten Bügeleisen.

Früher hat die EOC auch tatsächlich so ausgesehen, hat aber vor etwa einem halben Jahr ein neues Kleidchen bekommen und sieht jetzt wie ein modernes Orion System aus.

Verschiedene Orion Instanzen sitzen irgendwo und werden zu einer gemeinsamen EOC verbunden, wo dann die Daten bzw Störungen zusammenfließen.

Die Software wird irgendwo auf einer VM abgelegt und benötigt eine eigene Datenbank. Installiert wird es wieder sehr einfach – hier nur ein Bild:

Dann der Config Wizard, den haben wir auch schon des Öfteren gesehen, aber eine Einstellung ist wichtig:

Legt eine neue DB an. Auch wenn es angeboten wird, nutzt nicht die Orion DB.
Nochmal.
Legt eine neue DB an.

 

Das kann gerne in der gleichen Instanz wie ein Orion sein, aber erspart euch den Ärger und mischt es nicht in die gleichen DB.

Nach Installation und Login erscheint dieses Element:

 

 

Ich verbinde mein Orion:

 

Ich kann der Instanz einen netten Namen geben oder vielleicht einen speziellen Benutzer anlegen:

 

Das war es:

 

Viel gibt es hier allerdings nicht zu tun.

Irgendwo läuft etwas nicht wie gewünscht zeigt die EOC es an, ihr klickt drauf und landet dann bei der entsprechenden Orion Instanz.

Weitere Informationen gibt es hier:

https://support.solarwinds.com/Success_Center/Enterprise_Operations_Console_(EOC)

 

Okay, wie so üblich gibt es ein paar Themen auf die ich nicht eingegangen bin!
Bei den APEs gibt es z.B. auch „stackable“ Poller, also „stapelbar“ was nichts anderes heisst, dass ich einen Zusatzpoller auf die gleiche VM wie das Orion selbst werfen kann.
Ganz vorsichtig ausgedrückt ist das suboptimal, da zum einen nicht jedes Modul stacked Poller unterstützt, und ich so zum anderen weder Loadbalancing noch Regionen auseinanderziehen kann.

 

Ein großes Thema auf das ich hier nicht eingegangen bin ist die Ausfallsicherheit/Hochverfügbarkeit. Das allerdings hebe ich mir für einen neuen Blogpost nächstes Jahr auf!

 

Bis dahin wünsche ich euch frohe Weihnachten usw usw.

Ich schreibe dies gerade während eines weiteren Aufenthaltes in unserem Büro in London und Secret Santa hat gerade stattgefunden (auf Deutsch: Wichteln). Man kennt mich hier zu gut:

 

Geekzeugs, Katzen, Essen…toll! Nur kein Dolce & Gabbana, aber das kommt dann sicher, wenn ich wieder zurück in Cork bin!

Bis dahin macht es gut und entspannt euch!

Tach,

 

Bereit für die nächste und letzte Runde mit unserem Patch Manager?

 

Wir hatten bisher über die Installation und die ersten Schritte gesprochen und sind einmal einen einfachen Patchprozess durchgegangen. Was noch fehlt, ist das Erstellen eines eigenen Paketes.

Leider warte ich seit August auf meinen Schokoriegel! Aus reiner Verzweiflung habe ich neulich einen Schnitzelberg gegessen:

 

Ich hatte ja schon erwähnt, dass wir eine Liste von Updates haben die wir permanent aktuell halten damit ihr es einfach habt.
In der Liste sind weit verbreitete Pakete wie Firefox, Chrome usw usw. Damit kommt man schon ziemlich weit aber, machen wir uns nichts vor, es gibt mehr dort draußen.

Damit der Patch Manager flexibel bleibt gibt es natürlich die Möglichkeit eigene Pakete zu erstellen. Rein theoretisch kann ich die Lösung sogar benutzen um komplett neue Software in meiner Infrastruktur auszurollen.

 

Fangen wir an.
Der erst Schritt ist immer der gleiche: Man benötigt frischen Kaffee. Hört auf zu Lesen. Geht zur Kaffeemaschine. Geht nicht über Los.

 

Danach klickt man in der Konsole auf Administration and Reporting --> Software Publishing --> All Packages (oder auf irgendein Packet), dann ganz rechts auf „New Package“ und ein unschuldiges Fenster erscheint:

 

Schreibt jetzt mal irgendetwas bei „Package Title“ hinein und die Unschuld geht verloren:

 

Hier werden jetzt fehlende Informationen angezeigt die aber zur Weiterverarbeitung benötigt werden.
Füllt das aus wie es passt, hier wurde die Unschuld wiederhergestellt:

 

 

Jetzt wird es interessant. Regeln. Wir lieben Regeln, oder nicht?

 

Wozu brauchen wir die? Eigentlich klar; wir wollen vorab sicherstellen, dass das Paket nicht auf die falschen Maschinen trifft um Probleme zu vermeiden.
Es gibt vier verschiedene Startpunkte:

 

Ich bleibe beim obersten und habe dann eine weitere Auswahl:

 

An dieser Stelle sind die drei ganz oben die interessantesten Optionen, um zwischen 32/64 Bit, Sprachen und OS Versionen zu unterscheiden bevor das Paket überhaupt weiterverarbeitet wird.

Ein Beispiel:

 

Okay weiter geht’s.

Beim nächsten Fenster gibt es dann das vermutlich wichtigste Feature – die Scripting Engine.
Liegt versteckt hinter dem kleinen grünen Icon

 

 

Ich kann hier beliebige Schritte vor und nach dem Starten des Paketes ausführen und verketten.

 

Klickt einfach mal ein wenig herum und macht euch mit den Optionen vertraut, hier wieder das populärste Element:

 

Run a program kann vielleicht cmd.exe starten und irgendwas ausführen mit Schaltern hintendran, oder warum nicht gleich PowerShell mit komplexeren Scripts?
Alles geht!

Protipp: Ich kann leere Pakete erstellen und einfach die cmd.exe starten ohne weiteres, kein Update kein nichts, nur um an die Scriptfunktion an dieser Stelle zu kommen. Ähnlich wie beim SCCM.

 

Gut weiter. MEHR REGELN!!!

 

An dieser Stelle wissen wir bereits, dass das Paket nur auf bestimmte Maschinen trifft.
Vielleicht Windows 10, Deutsch, 64 Bit.

Aber wir müssen jetzt aufpassen. Ein Paket, das mit den bisherigen Informationen auf eine der obigen Maschinen trifft, wird ausgerollt.
Wollen wir das in jedem Fall? Bestimmt nicht!

Wir wollen etwas Bestehendes updaten aber nicht auf jeder Maschine neu installieren. Also suchen wir die Bestätigung, dass eine vorherige Version der Software schon da ist.

Dazu gibt es zwei simple Methoden – ein Check der Registrierung nach einem bestimmten Key, oder, falls das nicht geht, eine Datei irgendwo die sicherlich vorhanden sein muss.
Beides kann man anlegen und bei den Dateiregeln sogar ziemlich granular:

 

Danach kommen nur noch ein paar Zusammenfassungen aber nichts Wildes mehr und die Paketierung ist abgeschlossen.

Das wichtigste jetzt ist testen, testen, testen. Ihr wollte sicher kein Java auf den Domain Controllern ausrollen.

 

Nicht vergessen: Wie auch bei den von uns betreuten Paketen muss das Ding noch an den WSUS weitergeliefert werden, also immer rechtsklick und „publish“

Es gibt noch weitere interessante Themen rund um den Patch Manager, wie vielleicht das Reporting oder auch eventuell das Setup in größeren Umgebungen.

 

Aber im Prinzip ist mit den drei Artikeln zum SPM nun alles gesagt, legt einfach mal los und spielt etwas herum.
Wenn es Fragen gibt wisst ihr ja, wie und wo ich zu erreichen bin. Ein Snickers hilft dabei meine Antwortzeit zu minimieren!

Sascha Giese

DPA Erste Schritte

Posted by Sascha Giese Employee Nov 30, 2017

Kaum zu glauben – es ist schon ein Jahr her, dass ich etwas über Datenbanken geschrieben habe:
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/11/30/immer-diese-datenbanken

Vor ein paar Monaten bin ich auf den SAM eingegangen und heute bekommt der DPA seinen grossen Auftritt.

 

DPA misst die Zeit die ein Query innerhalb der Datenbank verbringt und zeigt, wo die meiste Zeit aufgebracht wird. Das funktioniert ohne Agent und ohne Änderungen an der Datenbank.
Die Software ist getrennt von Orion, integriert sich aber gerne in eine bestehende Umgebung.
Fangen wir bei Null an. Wobei, ich schreibe das gerade aus unserem Buero in London und hier ist es furchtbar kalt, fast schon unter Null!

 

Die Installation ist denkbar einfach:

 

Ein paar Mal auf Next und 90 Sekunden später ist die Sache erledigt. Das folgende Fenster erscheint:

 

Also weiter geht es im Browser eurer Wahl.

Zuerst wird das Repository angelegt. Das ist die DB in der DPA sein eigenes Zeugs ablegt.

 

Kompatibel sind die folgenden Systeme:

 

In den meisten Fällen wird eine SQLExpress vollkommen ausreichen. Es gibt nur eine Regel:
Nehmt nicht die DB die ihr überwachen wollt, da sonst die Ergebnisse nicht realistisch sind.

Ich nehme eine kleine DB die auf meinem Orion Server liegt. Nicht wirklich empfehlenswert aber ich bin ja auch nicht produktiv!

 

Ich lasse mit dem SA Konto einen Benutzer anlegen:

 

Das Erstellen des Repository dauert nur wenige Sekunden und wir klicken auf „Register“.

Jetzt wird die DB eingehängt die wir tatsächlich überwachen wollen.

 

Ich entscheide mich für meine SQL

 

Keine Sorge wegen des SA Kontos hier. Das dient nur zum Erstellen des Benutzers im nächsten Schritt:

 

Mehr zu den erforderlichen Berechtigungen beim SQL hier:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/SQL_Server_permissions_for_DPA_monitoring

Und für Oracle:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Oracle_permissions_for_DPA_monitoring

 

Alles erledigt! Ein nahezu leeres Dashboard begrüßt euch, aber Daten kommen nun hinein:

 

Weil ich aber nicht Tage warten möchte wechsle ich auf ein schon bestehendes System:

 

Schaut mal auf das Element rechts. Eigentlich wollen wir ja immer, dass Trends nach oben gehen. Hier nicht!

Es ist Wartezeit und die soll gefälligst sinken. Also schalte ich auf „trending down“

 

Was heisst das jetzt? Nichts Gutes! Die Wartezeit ging leider hoch.

 

Schauen wir einmal warum.

Unten ist meine SQL Instanz und wir sehen schon, dass irgendwo ein Problem mit einem Query vorliegt:

 

Ich klicke auf die Instanz.

Das erste was ich sehe ist die Gesamtwartezeit innerhalb der letzten 30 Tage

 

Ich sehe auch direkt, dass meine Baseline bei etwa 22 Minuten am Tag liegt, irgendetwas muss am 08.11. passiert sein, und die Wartezeit wird hauptsächlich durch ein einziges Query erzeugt.

Ich bin jetzt echt interessiert am 08.11. Was war da los? Eine kurze Googlesuche sagt mit, dass Gordon Ramsey am 08.11. geboren wurde, aber 1966 und nicht 2017. Das kann es also nicht sein.

 

Nagut, dann klicken wir mal auf den Tag.

 

50 Sekunden Wartezeit pro Stunde mit der Ausnahme von den zwei Stunden zwischen 0800-100. Es wird immer unheimlicher. Es kann nur ein SQL-Poltergeist sein.

Ich klicke auf 0800. Nur ein Query hat hier wirklich etwas getan. Wir sehen auch schon anhand der Farbe und der Legende rechts, wofür in etwa die Zeit aufgebraucht wurde

 

Ich bin mal mutig und klicke auf das Query.

 

Wir sehen oben 482 Ausführungen innerhalb der Stunde und es war eine reine lesende Abfrage.

Ich kann dem Query oben einen Namen geben „name SQL“, rechts habe ich zwei Knöpfe für weitere Informationen mit historischen Daten und zusätzlichen Statistiken.

 

In meinem Fall steht hier nicht sehr viel – aber das ist auch klar. Ist ein neues Query verursacht von einem Report, den es vorher noch nicht gab.
Wenn ich nur wüsste, was ich da versucht habe!

 

Was auch immer. Wo wir gerade hier sind, schauen wir einmal nach oben.

 

Ich kann hier vom Query zurück navigieren auf den ganzen Tag.

Dort angekommen kann ich hier die Stunde erneut auswählen:

 

Aber jetzt passt mal auf.

Links ist ein Button für „Timeslice“ und nach Klicken dort kann ich einen granularen Intervall einstellen:

 

Unten sehe ich dann die Stunde unterteilt in 10 Minuten:

 

Klickt mal auf einen Block. Dann wieder auf Intervall:

 

Jetzt kann ich mir das ziemlich genau anschauen. Schade, dass das so versteckt ist!

 

 

Wenn ich aber nicht gezielt nach einem Problem suche, sondern einfach nur mal schauen möchte was mein SQL gerade so macht (und warum er gefühlt eine Million GB Ram braucht), nutze ich die Navigation oben und gehe zurück auf den ganzen Tag:

 

Jetzt klicke ich auf einen der anderen Buttons – wie wäre es mit dem hier:

 

 

Rechts sehe ich gut aufgelöst die Programme/DLL die auf die DB zugreifen:

 

Klickt bei der Gelegenheit klickt einfach mal auf die anderen Knöpfchen. Bei einer Produktivumgebung ist der Punkt DB User meist recht interessant – da sieht man vielleicht sogar, wer wirklich arbeitet

Scrollt mal etwas herunter da sind vier weitere Reiter. Nein, nicht die apokalyptischen. Okay der letzte vielleicht:

 

Klickt wieder etwas herum.
Wenn bei euch, so wie bei mir, gerade keine Deadlocks sind guckt einfach hier nach weiteren Details:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Deadlock_analysis_in_DPA

 

Oben sind noch mehr Knöpfe. Es kann nie genug Knöpfe geben.

 

Wenn man auf Resources klickt gibt es ein paar Standardkennzahlen, die mit dem Umweg SQL über WMI aus der Maschine herausgezogen werden. Die Elemente hier sind selbsterklärend und ich verliere nicht viel Worte. Schaut euch um.

 

Aber nicht zu viel! Es gibt noch mehr zu sehen!

Ziemlich weit oben ist ein Knopf bei mir der bei euch vielleicht noch nicht ist:

 

Beim DPA gibt es ein optionales Paket mit dem Namen „VM Option“, das getrennt lizensiert werden muss. Ich kann mir hier mein vCenter oder meinen ESX direkt einpflegen.

Dazu gehe ich zuerst in die Options und dann „Register…“

 

Es werden readonly Berechtigungen benötigt daher es sollte kein Problem sein, diese von eurem freundlichen VM Admin zu bekommen.
Das vCenter wird scanned und nach einigen Sekunden sollte in der Übersicht der Instanzen rechts ein kleines Icon erscheinen:

 

Wenn ich jetzt also ganz oben auf Virtualization drücke sehe ich zuerst unten in der Übersicht etwas andere Info

 

Spannend wird es jetzt, wenn ich auf die Instanz klicke und alles etwas anders aussieht:

 

Wenn ich auf einen der Pfeile klicke erscheint ein Popup:

 

Ich sehe nun also Events aus der virtuellen Umgebung. Das ist stellenweise mehr als nur nett, weil es mir Dinge erklären kann die ohne diese Informationen so viel Sinn ergeben wie Grünkohl.

Ganz oben der Reiter VM Config:

 

Darunter mehr Knöpfe:

 

Wir sehen mit welchem Host wird es zu tun haben, welche anderen VMs dort sind und wie diese priorisiert sind.
Dazu fällt mir eine Anekdote ein – ich hatte irgendwann mal eine DPA Demonstration mit einem IT Manager der an dieser Stelle sagte „Das sind Informationen die ich meinem DBA niemals geben würde. Danach kündigt der mir noch!“

 

Wir sind fast durch. Folgt ihr mir noch? – Gut!

Ganz oben haben wir noch Buttons:

 

Bisher waren wir auf HOME, klicken wir kurz auf REPORTS

Nach Auswahl der Instanz gibt es ein paar vordefinierte Berichte

 

Unter Report Options kann ich das Ding noch etwas anpassen, unter anderem mit meinen eigenen Statements:

 

 

Das gleiche bei den ALERTS. Hier erlaubt mir „custom“ meine eigenen Statements:

 

Aber ihr seht schon, Berichte und Alarme sind hier eher rudimentär wenn man es mit Orion vergleicht.

Bei den OPTIONS finden wir Grundeinstellungen, können SMTP und AD zufügen sowie andere administrative Aufgaben erledigen.

 

Unter THWACK findet sich wieder etwas Interessantes:

 

Das bringt euch zu benutzerdefinierten Berichten. Diese laufen nicht innerhalb von DPA!
Die Berichte dort werden gegen das Repository gesetzt um spezielle Informationen herauszuziehen. Dazu nutzen wir dann das Management Studio.

 

Jetzt klicken wir auf LOGOUT und verlassen DPA und gehen zu Orion.

Dort unter Settings --> Product specific Settings finden wir Database Performance Analyzer

 

Nach dem Verknüpfen werden automatisch Abhängigkeiten gesucht für den Fall, dass ich Anwendungen überwache die auf meine DB zugreifen.
Das Resultat sieht dann so aus:

 

DPA bringt also seine Informationen in die Orion Plattform. Das ist interessant auf mehreren Ebenen, z.B. im Zusammenspielt mit AppInsight, aber natürlich auch dem Appstack

 

 

Noch recht neu ist die Integration in den Perfstack

 

Das ist schon heiss, oder nicht?
Hier in London ist es immer noch kalt aber das Problem beseitige ich jetzt mit einem Kaffee!

SolarWinds uses cookies on its websites to make your online experience easier and better. By using our website, you consent to our use of cookies. For more information on cookies, see our cookie policy.