Tach Zusammen,

 

Neulich habe ich einmal meine thwack Punkte investiert. Guckt hier:

Ich habe eine gute Idee, was man damit machen kann!
Aber vor dem Vergnügen erst ein bisschen Arbeit.

 

Bisher habe ich über einige Orion Module referiert sowie den „teil-integrierten“ Patch Manager. Um Langeweile vorzubeugen heute einmal etwas Anderes – unsere SIEM Lösung Log & Event Manager, kurz LEM.
LEM sitzt hinter euren AV-Lösungen, Firewalls, DLP Software etc und zeigt die Daten zentral und übergreifend an. Ich kann also mit LEM nachvollziehen, wer wo durch mein Netzwerk wandert und was angefasst oder auch nur angesehen hat.

 

LEM wird nicht irgendwo hin installiert, sondern kommt als virtuelle Appliance basierend auf Linux. Je nach Geschmacksrichtung Hyper-V oder Vmware wird das Ding direkt auf den Host importiert.

Nachdem Importieren nehme ich zuerst ein paar der Ressourcen von der Kiste runter und gebe hier nur 4 Gigs und 2 vCPUs. Das reicht für ein kleines System im Test oder bei mir im Labor. Ich bin geizig.

Wenn ihr die VM startet und dann auf die Konsole geht, kommt nach wenigen Sekunden ein Screen wie dieser hier:

Das ist keine Hommage an den BSOD!
Wir sehen direkt die IP Adresse und könnten per Browser loslegen, aber zuerst geht mal unten auf die Timezone und stellt es bei korrekt ein also bei euch vermutlich Europe/Berlin.

 

Dann aber mal direkt in den Browser eures Vertrauens und ab dafür!
Das erste was man vermutlich sieht ist, dass es mit dem Vertrauen dann doch nicht so weit geht:

Ignorieren! Der Login ist admin/password als Standard:

Nach dem Ändern das Passworts sieht man ein paar Buttons ganz oben:

Und vermutlich das Ops Center unten was aber bei euch noch leer sein wird.

Bevor wir irgendwas machen empfehle ich zuerst, die Appliance auf den aktuellen Stand zu bringen.
Zum Zeitpunkt an dem ich diesen Artikel schreibe ist Hotfix 7 das neueste Release:
https://downloads.solarwinds.com/solarwinds/Release/HotFix/SolarWinds-LEM-v6.3.1-Hotfix7.zip

Im Archiv sind die Schritte zum Updaten – in a nutshell: Auf ein Netzwerkshare entpacken, dann in die LEM VM-Konsole und über Appliance den HF einspielen. Dann von dort aus Neustarten.

 

Dann die Connectors. Wenn die Appliance Internetzugriff hat klickt einfach Manage/Appliance


Dann rechts oben auf Update Now.

Wenn die Appliance kein Internet hat:
http://downloads.solarwinds.com/solarwinds/Release/LEM/SolarWinds-LEM-Connectors.zip

Der Updateprozess ist ähnlich wie beim HF – Details sind im Archiv.

 

Was ist ein Connector überhaupt?
Ich vergleiche das immer gerne mit einem Babelfisch! Kennt ihr das noch? Wenn nicht, attestiere ich euch eine böse Kulturlücke!

 

LEM kommt mit einer sehr langen Liste an Connectoren für die verschiedenste Hard- und Software die es gibt.
Eine aktuelle Übersicht findet sich immer hier:
https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/lem-connector-list

 

Wenn für eine Logquelle ein Connector vorhanden ist heisst das, dass die gelieferten Daten verstanden werden können.
Diese werden dann normalisiert und stehen für weitere Korrelation zur Verfügung.

 

Die Liste wird etwa einmal pro Monat aktualisiert. Den Prozess habt ihr ja jetzt schon kennen gelernt.
Als Daumenregel; alles was bekannt, populär und überall in Benutzung ist sollte sich schon in der Liste finden. Vielleicht nicht zwingend in den aktuellsten Versionen, aber ein Hersteller X stellt beim Sprung von Version 12 auf 13 eher selten etwas am Logging um.

 

Was aber, wenn dem jetzt doch so ist? Oder – bei euch läuft irgendwas, was noch nicht in der Liste ist?
In dem Fall ist es Teil des Wartungsvertrages, dass wir versuchen einen Connector für euch herzustellen.
Auch dafür haben wir einen Prozess:
https://support.solarwinds.com/Success_Center/Log_Event_Manager_(LEM)/Submit_a_request_to_SolarWinds_for_a_new_LEM_connector

Mir fällt gerade auf das die Anzahl an Prozessen hier bei Solarwinds exponentiell gestiegen ist seitdem ich hier bin. Aber glaubt mir ich bin unschuldig! Zumindest hierbei!

 

Lassen wir die Connectoren erst einmal Connectoren sein und machen weiter. Wir kommen später noch einmal zu diesem Thema.

 

Wir brauchen jetzt Daten. Und Details.

Grundsätzlich gibt es zwei Methoden:
a) Netzwerkhardware kommuniziert über Syslogs
b) Betriebssysteme (und Anwendungen) kommunizieren über einen Agent

 

Im Falle von Networkgear ist das für uns hier gerade einfach: Wir brauchen innerhalb von LEM nichts einstellen weil das alles in der Hardware erledigt wird.
In meinem Labor zu Hause habe ich zwei Syslog-Quellen, mein NAS (QNAP) :

 

… sowie meinen Network-Controller (UBNT), der Daten von Firewall, Switch und AP liefert:

Bei anderen Devices erledige ich das natürlich über die CLI.
Wenn ich Syslogs aktiviert habe tauchen die Nodes üblicherweise von alleine auf:

Falls dort auch nach einem längeren Zeitraum nichts steht ist die beste Idee oben hier zu klicken:

Die interne Datenbank wird dann noch einmal durchforstet und etwaige neuen Geräte aufgelistet.
Wenn auch dann nichts auftaucht…wird es kompliziert. Aber nicht in diesem Posting.

 

Bei Servern/Workstations wird ein Agent benötigt, um an Daten zu kommen.
Der Agent sorgt zum einen dafür, das auch andere Events ausserhalb des Windows Eventlogs gesammelt werden können, aber er komprimiert und verschlüsselt die Daten auch vor dem Senden.
Bei Manage/Nodes habe ich diesen Knopf hier:

Dort dann Agent anklicken und ich finde die Downloads:

Für einen Test nimmt man einfach den lokalen Installer. Ich lasse Ihn einmal auf meiner Workstation laufen und es gibt eine wichtige Info zum Ausfüllen:

Und eine weniger wichtige

Das war es auch schon:

Der Agent verbindet ziemlich schnell – CTRL ist neu hinzugefügt:

Wenn ihr meinen Schritten gefolgt seid, habt ihr jetzt einen LEM up2date sowie mindestens zwei Logquellen im System.
Geben wir der Appliance nun etwas Zeit zum Sammeln von Daten und gehen ein paar Kekse essen.

 

Oder vielleicht…Deutscher Käsekuchen! Der einzige seiner Art hier in Irland, weil von mir erschaffen:

Lecker! Aber okay nun noch ein paar Basics.
Klickt bitte oben ins Ops Center und geht zu dem orangenen Ding hier:

Beim ersten Punkt stelle ich meinen Mailserver ein:

Sowie einen AD Connector:

Man könnte jetzt im Ops Center etwas aufräumen und die „getting started“ Box ebenso wie „what’s new“, „thwack“ usw entfernen – wie ihr mögt.

 

Mittlerweile sollten Daten da sein!
Schaut mal oben wieder in die Leiste und klickt auf MONITOR.

 

Monitor zeigt Echtzeit-Informationen. Schaut mal nach links unter Filters – dort sind verschiedene Gruppen mit einzelnen Kategorien aufgelistet.
Unter IT Operations finde ich bei Service Events schon etwas von meiner CTRL Maschine:

 

Ich verschiebe einmal eine Datei auf meinem NAS:

Wenn der AD Connector da ist, sieht man direkt auch die wirklich wichtigen Dinge wie fehlgeschlagene Logins, verschobene Benutzer usw ohne weitere manuelle Anpassung.

 

Bei ausgewähltem Filter kann ich oben auf das Zahnrad und Edit klicken:

Wir sehen dann wie sich dieser Filter tatsächlich zusammensetzt und könnten in manchen Situationen ein finetuning betreiben mittels drag&drop von links nach rechts:

Aber so weit will ich jetzt nicht gehen.

 

Stattdessen zeige ich euch noch schnell wo man historische Informationen finden kann.
Klickt oben auf Explore/ndepth

 

Hier schauen wir zuerst auf diese Spalte hier:

Wir sehen rechts den Zeitraum der beliebig umgestellt werden kann, ansonsten wird hier gerade nichts gefiltert.
Darunter sehen wir, dass in den letzten 10 Minuten 587 Events herein gekommen sind:

 

Ich wähle links aus, was mich gerade interessiert, sagen wir mal UserLogons, und doppelklicke:

 

Jetzt guckt noch einmal nach oben in die Leiste:

 

Der Logon wurde hinzugefügt aber ich muss noch auf den blauen Pfeil drücken um die Auswahl zu aktivieren:

 

Logons sind so ein klassisches Szenario. Üblicherweise sind fehlgeschlagene Logons interessanter aber ich habe gerade keine bei mir.
Der nächste Schritt zum Filtern ist entweder in Richtung der Benutzerkonten oder der Maschinen auf denen der Logon stattgefunden hat. Beides können wir, ich nehme zuerst einen Benutzer:

 

Den blauen Pfeil nicht vergessen:

Mein Admin hat auf drei Maschinen einen Logon-Event generiert:

 

Ich frage mich gerade, welche meiner Schatten-Existenzen hier in meinem Netzwerk herumgeistert. Ich sollte vielleicht weniger Trinken.

 

Ich kann jetzt weiter heruntergehen auf eine Maschine, kann aber auch mit den Events weiter arbeiten die mir angezeigt werden.
Guckt mal ganz nach unten:

Das sind verschiedene Visualisierungen. Klickt mal ein wenig herum, die zweite von links ist ganz nett. Wir machen aber in der zweiten Position von rechts weiter.

Alle Events mit Details werden angezeigt:


Ich kann das auch exportieren bei Bedarf:

Ganz oben kann ich die Suche auch speichern für spätere Benutzung:

Okay ein Thema zeige ich euch noch. Der LEM ist nicht nur ein Werkzeug zur Anzeigen von Daten sondern erlaubt auch Aktionen zu automatisieren.
Klickt auf Build/Rules

Und schaut einmal in die untere Hälfte. Dort finden wir einige Hundert Beispiele an vordefinierten Regeln. Guckt sie euch an. JEDE EINZELNE!

Oder nutzt links oben die Suchbox und hackt „logon failure“ ein, dann schaut unten nach dem hier

Klickt auf das Zahnrad und Clone

Zwei Dinge passieren gleichzeitig – nicht erschrecken! Zum einen wird eine Kopie der Regel nach oben befördert, zum anderen öffnet sich ein neuer Spielplatz

Ganz oben sehen wir ein Element das wir schon bei den Filtern kennen gelernt haben.
Darunter in violett die Zeit in der wir Schwellwerte einstellen können.

In Gelb (oder ist das orange? Schmutzig-weiss?) sehen wir Aktionen.

Wir sehen auch Actions ganz unten links, klickt da mal drauf!

 

Die verschiedensten Aktionen stehen uns zur Verfügung von einer simplen Email, über das Verschieben von Benutzern in AD Gruppen bis zum Herunterfahren einer Maschine.

 

Hier in thwack haben wir in der Content Exchange auch viele weitere Beispiele für Regeln, Filter und sogar Reporte:

https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/content?filterID=contentstatus%5Bpublished%5D~objecttype~objecttype%5Bdocument%5D

Schaut mal rein!

 

Ich aber habe jetzt etwas Anderes vor:

Aperol, Prosecco und Orange – auch Spritz genannt.

Prost & bis dann!

It governance is a framework that ensures your organisation's IT infrastructure supports and enables the achievement of the organizations strategies and objectives.

 

As I get ready to dig deep into Governance for my organization, I wanted to share with you all some of the information that I am taking into consideration.   I am not re-creating the wheel, although it does feel like ground zero!  I am starting with a checklist so that I don't bite off more than I can chew!  I have gathered some baseline information to take into consideration.  I am also interested in what other items you all might consider adding to the list, perhaps even another category!

 

Governance should mitigate risk and improve organization performance, allowing for growth!

 

The following 6 items are the focus for my project, and I am certainly open to additional considerations on how to best create and deploy governance!

 

Data Volume

     How much data do we have?

     Where does our data come from?

     How much new data do we generate each year?

     What kind of data do we have?

 

Current Records Management Systems

     How do we currently handle our data?

     What is our current records management policy?

     Where do we store our data?

     Where do we store our current backups of data?

     How long are we storing our data?

     How are we handling our physical records?

     What groups are currently involved in the data management process?

     Have we identified all parties who need to be involved in the decision making process to make changes to current data management process?

     Do we have policies in place regarding use of personal devices and data storage

     Do we have policies in place regarding backing up devices regularly either to company owned devices or network locations.

     Do we segregate out legal hold data?

     How do we identify legal hold data?

     How can we recall the data we need to respond in a litigation or inquiry?

     Do we have a process in place for departing custodians under legal hold?

 

Managing Data

     Who controls our data?

     Who needs our data?

     What organizational data management policies are already in place?

     How much data storage do we have?  How much will we need going forward?

     What types of data sources do we have?

     What data can we delete?

     Do we have a Mobile Device Management Software in place?

     How quickly can we aggregate and organize our data?

     Do we need to classify our data?

     Can you access remote data without the device?

 

Mitigating Risk and Creating Cost Savings

     Can we navigate through our data easily?

     What are our current personally identifiable information or other sensitive data policies?

     Will our new data management policies address regulatory requirements?

     How much money are we spending on managing out data?

     How much time are we speeding on managing our data?

     How often do we need to revisit our data management tools?

     What protections do we have to prevent data loss?

     Have we established an archiving system for transient data?

 

Change Management

     How quickly can we implement change to our data management process?

     Who will we leverage internally and externally to help in changing our data management process?

     Gave we involved all necessary stakeholders that could be affected by changes in data management policies?

     How will this affect our current compliance policies?

     Will we be able to maintain an independent process and if so who will oversee it?

 

Best Practices

     Do we have the governance structure to implement effective data classification?

     How flexible will our data management have to be?

     How will we handle new types of data,  separating employees?

     How well do our technology solutions support enforcement of leading practices an policies?

MSBI stands for Microsoft Business Intelligence. This powerful suite is composed of tools which helps in providing best solutions for Business Intelligence and Data Mining Queries. This tool uses Visual studio along with SQL server. It empower users to gain access to accurate and up-to-date information for better decision making in an organization. It offers different tools for different processes which are required in Business Intelligence (BI) solutions.

MSBI is divided into 3 categories:-

  1. SSIS – SQL Server Integration Services – Integration tool.
  2. SSAS – SQL Server Analytical Services -Analysis tool.
  3. SSRS – SQL Server Reporting Services – Reporting tool.

MSBI Tools

Microsoft provides some tools to transform your business data into information. We can use these tools with the interface of Visual Studio.

With the release of SQL Server 2012, Business Intelligence Development Studio (BIDS) was renamed to SQL Server Data Tools (SSDT).

SQL Server Data Tools(SSDT)

The following provides a brief description of BI Tools:

 

BI Tools
MSBI is composed of tools which helps in providing best solutions for Business Intelligence and Data Mining Queries.

These are the three tools we are using for ETL, Analysis and reporting in MSBI.
MSBI - SSIS SSAS and SSRS

SQL Server Integration Service (SSIS)

SSIS is the ETL tool from Microsoft.

Integration Services is a platform for building high-performance data integration and workflow solutions, including extraction, transformation and loading (ETL) operations for data warehousing.

We can process the data from various locations and various formats (source locations) and save the data into a centralized repository as a Data Warehouse/Data Mart (destination).

It includes graphical tools and wizards for building and debugging packages.

This tool is used for the integration like duping the data from one database to another like from Oracle to SQL Server or from Excel to Sql Server etc.

This tool is also used for bulk transactions in the database like inserting lac’s of records at once.

SQL Server Analysis Service (SSAS)

This is the process of converting two dimensional (rows and columns/OLTP) data into multi-dimensional data model (OLTP). This will help you to analyze the large volume of data.

This tool is used to analyse the performance of the sql server in terms of load balancing, heavy data, transaction etc. So it is more or less related to administration of the SQL Server using this tool.

This is very powerful tool and through this we can analyse the data inserting in to the database like how many transactions happens in a second etc

 

This might be a solution for long awaiting Query for those who don’t want alerts during non-business hrs.

 

Solar winds reads time as Text(Numbers), it starts from 00 < 01 < 02..<..09 < 1,10,11,1..<..2,21,22…etc…

Ex: 11:00 is greater than 10:00 but lesser than 9:00 but greater than 09:00 but all our servers will be Timed like 09:00.

If I want to monitor 10:00 PM to 11:00 PM…place that like greater 10:00 and less than 11:01 and contains PM.

 

For Example if I don’t want alert between 11 PM to 11AM for node down in particular locations.

  1. Create a Custom Property say 11 pm to 11 am
  2. Add all the required sites into the custom property(say sites in same time zone and business hrs)
  3. Use macros\insert variable in drop down and select Time in that with AND condition along node down.
  4. And do like in the screenshot below.

Sascha Giese

High Availability

Posted by Sascha Giese Employee Jan 25, 2018

Tach Zusammen!

 

Um das Thema Skalierung abzuschließen stelle ich jetzt einmal das Sahnehäubchen vor – Orion Hochverfügbarkeit.

Es war einmal…bis Ende 2016 hinein gab es ein schreckliches Produkt bei uns. Ja, ich gebe zu, es war schrecklich: Die Failover Engine, oder auch FOE.
Hat jemand von euch einmal damit gearbeitet? Seid ihr immer noch Mitglied in der Selbsthilfegruppe?
Okay das ist Vergangenheit.
Letztes Jahr wurde FOE durch Orion HA Version 1 abgelöst und seit ein paar Monaten ist Version 2 verfügbar.


Orion HA erstellt im Prinzip eine Kopie des primären Orion Servers und funktioniert durch active/passive, liegt also solange im Hintergrund bis etwas passiert. Der Installationsprozess ist einfach, die notwendigen Anpassungen an die Infrastruktur gering.

Version 1 hatte leider eine Beschränkung: Beide Maschinen mussten im gleichen Subnetz sein.

Bei kleineren Umgebungen ist das kein Thema, aber bei mehreren Standorten muss man hier unter Umständen mit Technologien wie OTV tricksen um das VLAN zu strecken und Datenzentren verbinden.
Die Kommunikation beider Maschinen wird in dem Fall über eine virtuelle IP gelöst.

In Version 2 kam dann richtiges Desaster Recovery und erlaubt den Einsatz über Subnetze hinaus. Die Kommunikation läuft nun über einen virtuellen Hostnamen anstatt einer IP.

Soweit die Zusammenfassung und hier die komplette Dokumentation:

http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_what_is_high_availability.htm

 

Aber ich führe euch einmal durch den Prozess!

 

Zum Verständnis:
Auf meinem Host sitzt sowohl der Orion Server (ORION) und die Datenbank (MSSQL) in einem 10.0.0.0/24 das auch nach draussen geht. Ich habe mir ein 10.0.1.0/24 erstellt das aber nur auf dem Host in einem eigenen vswitch existiert. Dazwischen sitzt eine freundliche VYOS Instanz welche die beiden Subnetze routed.
Im zweiten Subnetz habe ich eine VM ORIONHA erstellt und bisher nur in die Domain aufgenommen.

Zuerst teste ich die Namensauflösung. Es sind drei Tests notwendig; IP, FQDN, Shortname:

Das Ganze muss natürlich auf beiden Maschinen funktionieren!

Bevor ihr loslegt schlage ich vor alle Module auf den aktuellsten Stand zu bringen um Zeit zu sparen.

Öffnet auf der HA Box einen Browser, logged in Orion ein und geht zu Settings à Product… und wählt High Availablahblah:

 

Das sieht noch nackt aus und ich klicke auf Set Up:

 

Viel Auswahl gibt es hier nicht:

 

Ich evaluiere:

Dann lade ich den Installer herunter:

 

Der Installer startet, haltet euch fest…einen Installationsprozess. Und den kennen wir schon.

Ich schlage vor, das Fenster unten zum letzten Test für die DNS Auflösung zu nutzen und nur den einfachen Hostnamen einzugeben:

 

Anstatt APE/AWS wie beim letzten Mal wählen wir nun HA:

 

Oh was ist das da ganz oben?
Es gibt HA für den primären Poller, was ich gerade vorhabe, aber auch HA für zusätzliche Poller.
Das ist bei mir ausgegraut weil keine mehr vorhanden. Also weiter und der richtige Installer startet.

Nur ein Screenshot hier weil wir den schon des Öfteren gesehen haben.

 

Danach startet der Configuration Wizard. Den haben wir auch schon ungefähr so oft gesehen wie James Bond Goldfinger.

Sobald alles durchgelaufen ist wird automatisch die Seite High Availability Deployment Summary aufgerufen und wir sollten beide Maschinen sehen:

 

 

Und jetzt wird es endlich interessant. Wir brauchen einen Namen für den Pool sowie den virtuellen Host – ORIONPOOL in meinem Beispiel:

 

 

Jetzt wird der virtuelle Hostname angelegt:

 

Wir bekommen eine Zusammenfassung und klicken auf das blaue Knöpfchen:

Das war es! Naja fast.

In einer Produktivumgebung kommt jetzt natürlich noch ein Schritt der leider etwas Zeitraubend sein kann:

 

Ich würde an dieser Stelle NCM empfehlen um den Syslog Receiver/Netflow umzuändern.
Mir ist das furchtbar egal, ich ignoriere die Meldung und freue mich über das hier:

 

Ein kurzer Test:

 

Klasse:

 

Wer meinen Blog verfolgt weiss, dass ich stark abhängig bin – von Kaffee. Von daher ist jetzt Zeit für eine weitere Tasse da wir gerade einen Milestone erreicht haben.

Im DNS sieht es übrigens so aus:

 

Perfekt!

Kurz etwas für diejenigen von euch die wie ich unter OCD leiden:

- Ich nehme die ORIONHA Maschine als Node ins Monitoring

  Wenn ich das Orion SAM Template auf der HA Maschine nutze sehe ich „Probleme“:

 

- Ignorieren soweit möglich…schaltet Alarme hierfür aus.

JETZT KOMMT DER ERNSTFALL!


Hat jemand von euch einen Kollegen namens Ernst? Passt gut auf ihn auf.

Ich gehe zu meiner Orion Maschine und klaue das Netzwerk:


 

Teste die alte URL:

 

Mein Beileid:

Aber unter dem virtuellen Hostnamen:

 

Alles gut:

 

Cross-check! Die Dienste laufen nun wie erwartet auf der HA Maschine:

 

Und der Pool sagt „mir geht’s nicht gut, aber irgendwie geht’s trotzdem weiter“ – das sage ich übrigens auch wenn ich zum Mittagessen beim goldenen M war:

War das kompliziert?
Es waren ein paar Schritte sicherlich, aber wir haben gerade die Ausfallsicherheit für unser Orion innerhalb von wenigen Minuten realisiert. Das ist schon eine interessante Sache.

 

Ein paar Dinge noch hinterhergeworfen:

Windowsupdates sollten hier ähnlich behandelt werden wir ihr es bei einem Cluster erledigt, also schön nacheinander.

Orion Updates muss man planen. Wenn auf der primären Maschine Updates eingespielt worden sind, deaktiviert dies den Pool! Hier die Schritte:
http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_upgrade_pool_members.htm

 

Es gibt HA für den Anwendungsserver, HA für die Polling Engines sowie HA für zusätzliche Webserver (wobei das vermutlich zu vernachlässigen ist).
Wir kümmern uns nicht um HA für die Datenbank – das ist eure Angelegenheit – nutzt AlwaysOn oder was auch immer am besten passt:
https://logicalread.com/sql-server-availability-technology/

 

Viel Spass mit dem Herumspielen!

As the countdown to the EMEA Partner Summit (formerly Partner Bootcamp) is well underway (we begin on February 5), we want to share a few points on what to expect at next month’s event. We are delighted that the event has grown over the last couple of years, not just in the number of attendees, but also in the breadth and depth of content. We have actually had so much interest that we now run separate tracks for technical and for sales aspects.

 

Just to give a flavor of what to expect, here is a small taster:

 

Keynotes

 

We are delighted to have not one, but three keynote speakers for this EMEA Partner Summit, including:

 

  • Christoph Pfister (EVP Product)
  • Kevin Bury (SVP Customer Success & Business Operations)
  • Ludovic Neveu (GVP Sales)

 

 

Certifications

 

The technical track will focus on training for SolarWinds Certified Professional® (SCP) exams, including:

  • Network Performance Monitor (NPM)
  • Server & Application Monitor (SAM)
  • NetFlow Traffic Analyzer (NTA) (beta)

 

As you can tell, our technical training team didn’t just stop at a single exam for NPM. They have worked tirelessly to extend the scope of products, with SAM in the process of being added to the portfolio. And as a bonus for those attending the Summit, there will be access to a new exam for NTA.

 

However, that’s not all. We are also delighted to announce a brand-new SCP track for Orion® Architecture, aimed at our consultants and partners. This SCP certification will focus specifically on deploying large-scale Orion deployments, and will focus on topics such as:

  • Centralized vs. distributed deployments
  • Deploying high availability
  • Scaling topics for Orion modules
  • Integration with other solutions

 

 

Networking
As promised, we have a great line-up of evening activities. Highlights include a private dining experience at an
award-winning barbeque restaurant. We’re bringing the flavours of our Austin HQ to Ireland, with the former head chef at Jamie Oliver’s Barbecoa Smokehouse.

The Mardyke
Images: © 2017
Mardyke Entertainment Complex. All rights reserved.

Delegates who are staying until Friday are invited to join us on a totally unique quest through one of Cork’s oldest prisons, which is now a top visitor attraction.

Cork City Gaol
Images: © 2017
Cork City Goal. All rights reserved.

 

If you are interested in attending and haven’t registered yet, please contact your Channel Account Manager for more details. And if you have already registered, we look forward to seeing you there.

Howzit, Heita, Aweh or Sawubona are just a few ways to say hello in South Africa. I know because I have been researching South African dialects prior to visiting the country. In early February, I will travel there with two of my colleagues from the sales team in the Ireland office.

 

Quite fortunately, one of my traveling partners is from South Africa and has already been telling me about all of the fantastic tourist attractions we’ll have the opportunity to see. Table Mountain is at the top of my list!

 

This is coming at a perfect time. Having braved the Irish winter, I’m looking forward to getting a chance to work on my tan during this trip.

 

But it won’t be all play and no work. Over the last few months, we have seen some really cool new product releases, including Capacity Planning in VMAN, Cisco® ASA support in NPM, and real-time polling in PerfStack. While in South Africa, we’ll give a number of presentations to highlight some of the recent releases.

 

Customers can register to join us at the SolarWinds Tech Preview Day in Cape Town. Just click here.

 

If any readers of this post are from Cape Town, please comment below where I can find the best biltong.

Sascha Giese

Orion Skalierung

Posted by Sascha Giese Employee Dec 20, 2017

Ich frage mich manchmal ob es einen Zusammenhang zwischen dem Wachstum einer Firma und dem Wachstum des IT Teams gibt. Vermutlich nicht so wirklich!

Es ist leicht zu messen, wenn der Helpdesk überfordert ist und wenn der CEO einmal zu lange auf ein Ticket warten muss ist das vielleicht ein Argument um das Staffing zu erhöhen.

Nagut, wenn der CEO zu lange warten muss wird das Staffing vielleicht zuerst um einen Kopf kürzer…

 

Aber im DC oder Infrastruktur-Management? Eine Handvoll mehr Switches, ein neuer Host - das kann doch alles problemlos von denen verwaltet werden die das bisher auch schon gemacht haben. Aber sicher doch!
In einer perfekten Welt ganz bestimmt, aber in einer perfekten Welt würden Dolce & Gabbana die Frühjahrskollektion kostenfrei direkt zu mir ins Haus liefern.

 

Im Idealfall sollte das IT Team natürlich mitwachsen um mit den erhöhten Ansprüchen umgehen zu können.

 

Das gleiche gilt natürlich auch für ein Solarwinds Deployment.

Die meisten von euch setzen Orion in einem ganz normalen Szenario ein – wir nennen es “central deployment”.

 

Die Orion VM kommt irgendwo in ein DC, oder auch ganz einfach den Serverraum und alles was von dort aus erreicht werden kann wird direkt abgefragt.
Das ist simpel und in der Infrastruktur muss nur sichergestellt werden, dass die Kommunikationsmethoden des/der entsprechenden Module zu den jeweiligen Elementen gegeben sind, als Beispiel also UDP 161 für SNMP, vielleicht UDP 2055 für Netflow.
Die darunterliegende Infrastruktur ist für uns transparent und uninteressant, solange eine Verbindung vorhanden ist.

 

Wie in meinem Posting zur Lizensierung erklärt, kann man das beim NPM bis zu etwa 10000 Interfaces einfach so gestalten. Darüber hinaus muss dann ausskaliert werden.

Der erste Schritt ist hier ein zusätzliches Abfragemodul einzusetzen.

 

Ich werfe in diesem Posting mit verschiedenen Begriffen um mich, lasst mich das zuerst einmal erklären inklusive der Abkürzungen die es bei uns gibt:

 

Zusätzlicher Poller --> Additional Polling Engine --> APE
Zusätzlicher Webserver
--> Additional Webserver --> AWS
Übergeordnete Zentralkonsole
--> Enterprise Operating Console --> EOC
Orion Server
--> Anwendungsserver, aber auch primärer Poller (sobald APE involviert sind)
Hochverfügbarkeit
--> High Availability --> HA

 

Zuerst etwas Theorie – zusammen gefasst:
Ein Poller erweitert die Kapazitäten sämtlicher vorhandener Orion Module um die gleiche Menge wie die „unlimitierten“ Versionen, also pro Poller z.B. weitere 10000 Interfaces beim NPM.
Der Installationsprozess erstellt im Prinzip eine Kopie des Orion Servers, daher sollten auch die Resources identisch sein.
Es wird die gleiche Datenbank genutzt! Das ist wichtig beim Planen des Standortes.

Üblicherweise setze ich mir einen Poller in ein entferntes DC und lasse alles, was dort steht, lokal abfragen. Der Poller sendet die Statistiken direkt in die DB.
Wenn die Verbindung einmal abbricht werden die Daten für eine Weile zwischengespeichert und beim Wiederherstellen der Verbindung in die DB abgesetzt.
Im Moment wird dazu noch MSMQ genutzt welches allerdings mittelfristig durch RabbitMQ abgelöst werden wird.

 

Die komplette Theorie inklusive der Kommunikationsports hier:
https://support.solarwinds.com/Success_Center/Network_Performance_Monitor_(NPM)/NPM_Documentation/Scalability_Engine_Guidelines_for_SolarWinds_Orion_Products?CMPSource=THW&CMP=DIRECT

 

Achtung: Oftmals wird hier nur auf die Ports geachtet. Bitte ignoriert die maximale Latenz nicht – die sollte unter 200 ms liegen.

 

Alles klar, jetzt kommt die Praxis!

 

Der Prozess ist seit etwa einem Jahr denkbar einfach.
Zuerst wird eine VM aufgesetzt die im Idealfall, wie oben schon angemerkt, die gleichen Ressourcen hat wie das primäre Orion System.

Von der VM aus gehe ich mittels Browser auf meinen Orion Server und zu Settings --> All Settings --> Polling Engines und dort klicke ich auf diese freundliche Schaltfläche

 

Das Ding führe ich aus und sehe:

 

Dann werde ich gefragt was ich denn eigentlich vorhabe, ausnahmsweise weiss ich das auch und entscheide mich zuerst für die APE:

 

Oh hier kommt eine Zwischenfrage:

 

Hier sei kurz gesagt, dass APEs sowohl beim SRM als auch beim VMAN kostenlos sind, für die anderen Module aber nicht!
Bei mir spielt Geld aber keine Rolle! Nur bei Dolce & Gabbana

 

Der Installer zieht sich die korrekten Dateien nun vom Orion Server und testet:

 

Bei mir passt alles:

Und dann startet die tatsächliche Installation die aussieht wie die eines einzelnen Orion Moduls daher spare ich uns die Zeit und Screenshots.

 

Das habe ich mir so gedacht! Windows ist anderer Meinung:


Ich schiebe die Schuld einfach auf Windows und starte den Vorgang noch einmal. Windows kann sich schließlich auch nicht wehren.

 

Dieses Mal: Prima!

 

Was jetzt folgt kennt ihr auch:

 

Alles bleibt bei den defaults – next next next und irgendwann:

 

Dann öffnet sich ein Browser mit meiner Orion URL – was jetzt?

Zuerst gehe ich wieder zu Settings --> All Settings --> Polling Engines und verifiziere die APE:

Die APE lebt und ist verbunden aber langweilt sich. Das ändere ich nun.

Manage Nodes

 

Suche mir irgendeine Node und klicke auf More Actions / Change Polling Engine

Wähle aus:

Ich kann links nach Polling Engine gruppieren:

Natürlich kann ich das auch im Bulk ändern mit mehreren Nodes gleichzeitig, ebenso geht das direkt in der Datenbank bei NodesData in der Spalte EngineID:

 

Irgendwann nächstes Jahr reden wir mal über die Datenbank. Aber nicht jetzt.

 

Das gleiche Spiel gibt es beim zusätzlichen Webserver.
Zuerst: Warum brauche ich den?
Wir sagen bei 20-25 Benutzern die gleichzeitig auf Orion zugreifen macht es Sinn, AWS einzusetzen um die Last zu verteilen.
Aber!

Ein AWS ist vergleichsweise günstig für einen dreistelligen Listenpreis zu bekommen.
Einige Kunden setzen den auch bei weniger gleichzeitigen Zugriffen ein allein um ein schnelleres Webinterface zu bekommen.

 

Auch dazu etwas Hintergrund:
Auf dem Orion Server hat das Polling höchste Priorität. Alles andere wird hinterhergestellt.
Wenn die Ressourcen knapp werden, muss unter anderem die Web-Performance darunter leiden.

Wenn das GUI outsourced ist, bekomme ich also auch bei kleineren Deployments bessere Performance.

Probiert es einfach einmal aus – der Prozess ist einfach. Tatsächlich genauso wie oben erklärt daher gehe ich nicht erneut durch die Schritte. Passt einfach nur hier auf:

 

 

 

Gut, jetzt gehen wir mal noch einen Schritt weiter.
Wir garantieren offiziell bis zu neun APEs neben dem NPM (oder anderen Modulen), es gibt Deployments da draußen die deutlich höher ausfallen. Sogar in Deutschland
Wenn ein Unternehmen jetzt aber auch darüber hinauswächst? Sagen wir mal 500 000 Interfaces?

Dann arbeiten wir mit individuellen Instanzen.

 

Hier bekommt jede Region ein eigenes Orion zum Spielen. Mit allen notwendigen Modulen und jeweils einer eigenen Datenbank.

Das System hat viele Vorteile, so kann man z.B. unterschiedliche Lizenzgrößen in Europa und den USA nutzen, auch unterschiedliche Module.
Man hat in den jeweiligen Regionen den vollen Zugriff auf sein eigenes Zeugs und es kann mir relativ egal sein, was an anderer Stelle vor sich geht.
Ebenso kann ich so ein Setup auch als Art von active/active sehen und einige extrem kritische Nodes von zwei Standorten aus überwachen, falls mal irgendwo ein Totalausfall ist.
Last but not least – manchmal gibt es schwierige politische Situationen in einer global agierenden Firma und hier kann ein System mit individuellen Instanzen einfach Brennpunkte aus Diskussionen nehmen. Jeder überwacht halt sein eigenes Zeugs!

 

Aber, auch bei getrennten Instanzen möchte ich sicher irgendwie mit der Gesamtsituation unzufrieden die Gesamtsituation im Überblick halten. Wie geht das?

Dazu gibt es die EOC!

 

Vereinfacht gesagt, ist die EOC das virtuelle Gegenstück zu einer Kontrollwand bei der NASA wie ihr das aus vielen Filmen kennt. Ja genau, die gleichen Filme mit als Raumschiffen getarnten Bügeleisen.

Früher hat die EOC auch tatsächlich so ausgesehen, hat aber vor etwa einem halben Jahr ein neues Kleidchen bekommen und sieht jetzt wie ein modernes Orion System aus.

Verschiedene Orion Instanzen sitzen irgendwo und werden zu einer gemeinsamen EOC verbunden, wo dann die Daten bzw Störungen zusammenfließen.

Die Software wird irgendwo auf einer VM abgelegt und benötigt eine eigene Datenbank. Installiert wird es wieder sehr einfach – hier nur ein Bild:

Dann der Config Wizard, den haben wir auch schon des Öfteren gesehen, aber eine Einstellung ist wichtig:

Legt eine neue DB an. Auch wenn es angeboten wird, nutzt nicht die Orion DB.
Nochmal.
Legt eine neue DB an.

 

Das kann gerne in der gleichen Instanz wie ein Orion sein, aber erspart euch den Ärger und mischt es nicht in die gleichen DB.

Nach Installation und Login erscheint dieses Element:

 

 

Ich verbinde mein Orion:

 

Ich kann der Instanz einen netten Namen geben oder vielleicht einen speziellen Benutzer anlegen:

 

Das war es:

 

Viel gibt es hier allerdings nicht zu tun.

Irgendwo läuft etwas nicht wie gewünscht zeigt die EOC es an, ihr klickt drauf und landet dann bei der entsprechenden Orion Instanz.

Weitere Informationen gibt es hier:

https://support.solarwinds.com/Success_Center/Enterprise_Operations_Console_(EOC)

 

Okay, wie so üblich gibt es ein paar Themen auf die ich nicht eingegangen bin!
Bei den APEs gibt es z.B. auch „stackable“ Poller, also „stapelbar“ was nichts anderes heisst, dass ich einen Zusatzpoller auf die gleiche VM wie das Orion selbst werfen kann.
Ganz vorsichtig ausgedrückt ist das suboptimal, da zum einen nicht jedes Modul stacked Poller unterstützt, und ich so zum anderen weder Loadbalancing noch Regionen auseinanderziehen kann.

 

Ein großes Thema auf das ich hier nicht eingegangen bin ist die Ausfallsicherheit/Hochverfügbarkeit. Das allerdings hebe ich mir für einen neuen Blogpost nächstes Jahr auf!

 

Bis dahin wünsche ich euch frohe Weihnachten usw usw.

Ich schreibe dies gerade während eines weiteren Aufenthaltes in unserem Büro in London und Secret Santa hat gerade stattgefunden (auf Deutsch: Wichteln). Man kennt mich hier zu gut:

 

Geekzeugs, Katzen, Essen…toll! Nur kein Dolce & Gabbana, aber das kommt dann sicher, wenn ich wieder zurück in Cork bin!

Bis dahin macht es gut und entspannt euch!

Tach,

 

Bereit für die nächste und letzte Runde mit unserem Patch Manager?

 

Wir hatten bisher über die Installation und die ersten Schritte gesprochen und sind einmal einen einfachen Patchprozess durchgegangen. Was noch fehlt, ist das Erstellen eines eigenen Paketes.

Leider warte ich seit August auf meinen Schokoriegel! Aus reiner Verzweiflung habe ich neulich einen Schnitzelberg gegessen:

 

Ich hatte ja schon erwähnt, dass wir eine Liste von Updates haben die wir permanent aktuell halten damit ihr es einfach habt.
In der Liste sind weit verbreitete Pakete wie Firefox, Chrome usw usw. Damit kommt man schon ziemlich weit aber, machen wir uns nichts vor, es gibt mehr dort draußen.

Damit der Patch Manager flexibel bleibt gibt es natürlich die Möglichkeit eigene Pakete zu erstellen. Rein theoretisch kann ich die Lösung sogar benutzen um komplett neue Software in meiner Infrastruktur auszurollen.

 

Fangen wir an.
Der erst Schritt ist immer der gleiche: Man benötigt frischen Kaffee. Hört auf zu Lesen. Geht zur Kaffeemaschine. Geht nicht über Los.

 

Danach klickt man in der Konsole auf Administration and Reporting --> Software Publishing --> All Packages (oder auf irgendein Packet), dann ganz rechts auf „New Package“ und ein unschuldiges Fenster erscheint:

 

Schreibt jetzt mal irgendetwas bei „Package Title“ hinein und die Unschuld geht verloren:

 

Hier werden jetzt fehlende Informationen angezeigt die aber zur Weiterverarbeitung benötigt werden.
Füllt das aus wie es passt, hier wurde die Unschuld wiederhergestellt:

 

 

Jetzt wird es interessant. Regeln. Wir lieben Regeln, oder nicht?

 

Wozu brauchen wir die? Eigentlich klar; wir wollen vorab sicherstellen, dass das Paket nicht auf die falschen Maschinen trifft um Probleme zu vermeiden.
Es gibt vier verschiedene Startpunkte:

 

Ich bleibe beim obersten und habe dann eine weitere Auswahl:

 

An dieser Stelle sind die drei ganz oben die interessantesten Optionen, um zwischen 32/64 Bit, Sprachen und OS Versionen zu unterscheiden bevor das Paket überhaupt weiterverarbeitet wird.

Ein Beispiel:

 

Okay weiter geht’s.

Beim nächsten Fenster gibt es dann das vermutlich wichtigste Feature – die Scripting Engine.
Liegt versteckt hinter dem kleinen grünen Icon

 

 

Ich kann hier beliebige Schritte vor und nach dem Starten des Paketes ausführen und verketten.

 

Klickt einfach mal ein wenig herum und macht euch mit den Optionen vertraut, hier wieder das populärste Element:

 

Run a program kann vielleicht cmd.exe starten und irgendwas ausführen mit Schaltern hintendran, oder warum nicht gleich PowerShell mit komplexeren Scripts?
Alles geht!

Protipp: Ich kann leere Pakete erstellen und einfach die cmd.exe starten ohne weiteres, kein Update kein nichts, nur um an die Scriptfunktion an dieser Stelle zu kommen. Ähnlich wie beim SCCM.

 

Gut weiter. MEHR REGELN!!!

 

An dieser Stelle wissen wir bereits, dass das Paket nur auf bestimmte Maschinen trifft.
Vielleicht Windows 10, Deutsch, 64 Bit.

Aber wir müssen jetzt aufpassen. Ein Paket, das mit den bisherigen Informationen auf eine der obigen Maschinen trifft, wird ausgerollt.
Wollen wir das in jedem Fall? Bestimmt nicht!

Wir wollen etwas Bestehendes updaten aber nicht auf jeder Maschine neu installieren. Also suchen wir die Bestätigung, dass eine vorherige Version der Software schon da ist.

Dazu gibt es zwei simple Methoden – ein Check der Registrierung nach einem bestimmten Key, oder, falls das nicht geht, eine Datei irgendwo die sicherlich vorhanden sein muss.
Beides kann man anlegen und bei den Dateiregeln sogar ziemlich granular:

 

Danach kommen nur noch ein paar Zusammenfassungen aber nichts Wildes mehr und die Paketierung ist abgeschlossen.

Das wichtigste jetzt ist testen, testen, testen. Ihr wollte sicher kein Java auf den Domain Controllern ausrollen.

 

Nicht vergessen: Wie auch bei den von uns betreuten Paketen muss das Ding noch an den WSUS weitergeliefert werden, also immer rechtsklick und „publish“

Es gibt noch weitere interessante Themen rund um den Patch Manager, wie vielleicht das Reporting oder auch eventuell das Setup in größeren Umgebungen.

 

Aber im Prinzip ist mit den drei Artikeln zum SPM nun alles gesagt, legt einfach mal los und spielt etwas herum.
Wenn es Fragen gibt wisst ihr ja, wie und wo ich zu erreichen bin. Ein Snickers hilft dabei meine Antwortzeit zu minimieren!

Sascha Giese

DPA Erste Schritte

Posted by Sascha Giese Employee Nov 30, 2017

Kaum zu glauben – es ist schon ein Jahr her, dass ich etwas über Datenbanken geschrieben habe:
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/11/30/immer-diese-datenbanken

Vor ein paar Monaten bin ich auf den SAM eingegangen und heute bekommt der DPA seinen grossen Auftritt.

 

DPA misst die Zeit die ein Query innerhalb der Datenbank verbringt und zeigt, wo die meiste Zeit aufgebracht wird. Das funktioniert ohne Agent und ohne Änderungen an der Datenbank.
Die Software ist getrennt von Orion, integriert sich aber gerne in eine bestehende Umgebung.
Fangen wir bei Null an. Wobei, ich schreibe das gerade aus unserem Buero in London und hier ist es furchtbar kalt, fast schon unter Null!

 

Die Installation ist denkbar einfach:

 

Ein paar Mal auf Next und 90 Sekunden später ist die Sache erledigt. Das folgende Fenster erscheint:

 

Also weiter geht es im Browser eurer Wahl.

Zuerst wird das Repository angelegt. Das ist die DB in der DPA sein eigenes Zeugs ablegt.

 

Kompatibel sind die folgenden Systeme:

 

In den meisten Fällen wird eine SQLExpress vollkommen ausreichen. Es gibt nur eine Regel:
Nehmt nicht die DB die ihr überwachen wollt, da sonst die Ergebnisse nicht realistisch sind.

Ich nehme eine kleine DB die auf meinem Orion Server liegt. Nicht wirklich empfehlenswert aber ich bin ja auch nicht produktiv!

 

Ich lasse mit dem SA Konto einen Benutzer anlegen:

 

Das Erstellen des Repository dauert nur wenige Sekunden und wir klicken auf „Register“.

Jetzt wird die DB eingehängt die wir tatsächlich überwachen wollen.

 

Ich entscheide mich für meine SQL

 

Keine Sorge wegen des SA Kontos hier. Das dient nur zum Erstellen des Benutzers im nächsten Schritt:

 

Mehr zu den erforderlichen Berechtigungen beim SQL hier:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/SQL_Server_permissions_for_DPA_monitoring

Und für Oracle:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Oracle_permissions_for_DPA_monitoring

 

Alles erledigt! Ein nahezu leeres Dashboard begrüßt euch, aber Daten kommen nun hinein:

 

Weil ich aber nicht Tage warten möchte wechsle ich auf ein schon bestehendes System:

 

Schaut mal auf das Element rechts. Eigentlich wollen wir ja immer, dass Trends nach oben gehen. Hier nicht!

Es ist Wartezeit und die soll gefälligst sinken. Also schalte ich auf „trending down“

 

Was heisst das jetzt? Nichts Gutes! Die Wartezeit ging leider hoch.

 

Schauen wir einmal warum.

Unten ist meine SQL Instanz und wir sehen schon, dass irgendwo ein Problem mit einem Query vorliegt:

 

Ich klicke auf die Instanz.

Das erste was ich sehe ist die Gesamtwartezeit innerhalb der letzten 30 Tage

 

Ich sehe auch direkt, dass meine Baseline bei etwa 22 Minuten am Tag liegt, irgendetwas muss am 08.11. passiert sein, und die Wartezeit wird hauptsächlich durch ein einziges Query erzeugt.

Ich bin jetzt echt interessiert am 08.11. Was war da los? Eine kurze Googlesuche sagt mit, dass Gordon Ramsey am 08.11. geboren wurde, aber 1966 und nicht 2017. Das kann es also nicht sein.

 

Nagut, dann klicken wir mal auf den Tag.

 

50 Sekunden Wartezeit pro Stunde mit der Ausnahme von den zwei Stunden zwischen 0800-100. Es wird immer unheimlicher. Es kann nur ein SQL-Poltergeist sein.

Ich klicke auf 0800. Nur ein Query hat hier wirklich etwas getan. Wir sehen auch schon anhand der Farbe und der Legende rechts, wofür in etwa die Zeit aufgebraucht wurde

 

Ich bin mal mutig und klicke auf das Query.

 

Wir sehen oben 482 Ausführungen innerhalb der Stunde und es war eine reine lesende Abfrage.

Ich kann dem Query oben einen Namen geben „name SQL“, rechts habe ich zwei Knöpfe für weitere Informationen mit historischen Daten und zusätzlichen Statistiken.

 

In meinem Fall steht hier nicht sehr viel – aber das ist auch klar. Ist ein neues Query verursacht von einem Report, den es vorher noch nicht gab.
Wenn ich nur wüsste, was ich da versucht habe!

 

Was auch immer. Wo wir gerade hier sind, schauen wir einmal nach oben.

 

Ich kann hier vom Query zurück navigieren auf den ganzen Tag.

Dort angekommen kann ich hier die Stunde erneut auswählen:

 

Aber jetzt passt mal auf.

Links ist ein Button für „Timeslice“ und nach Klicken dort kann ich einen granularen Intervall einstellen:

 

Unten sehe ich dann die Stunde unterteilt in 10 Minuten:

 

Klickt mal auf einen Block. Dann wieder auf Intervall:

 

Jetzt kann ich mir das ziemlich genau anschauen. Schade, dass das so versteckt ist!

 

 

Wenn ich aber nicht gezielt nach einem Problem suche, sondern einfach nur mal schauen möchte was mein SQL gerade so macht (und warum er gefühlt eine Million GB Ram braucht), nutze ich die Navigation oben und gehe zurück auf den ganzen Tag:

 

Jetzt klicke ich auf einen der anderen Buttons – wie wäre es mit dem hier:

 

 

Rechts sehe ich gut aufgelöst die Programme/DLL die auf die DB zugreifen:

 

Klickt bei der Gelegenheit klickt einfach mal auf die anderen Knöpfchen. Bei einer Produktivumgebung ist der Punkt DB User meist recht interessant – da sieht man vielleicht sogar, wer wirklich arbeitet

Scrollt mal etwas herunter da sind vier weitere Reiter. Nein, nicht die apokalyptischen. Okay der letzte vielleicht:

 

Klickt wieder etwas herum.
Wenn bei euch, so wie bei mir, gerade keine Deadlocks sind guckt einfach hier nach weiteren Details:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Deadlock_analysis_in_DPA

 

Oben sind noch mehr Knöpfe. Es kann nie genug Knöpfe geben.

 

Wenn man auf Resources klickt gibt es ein paar Standardkennzahlen, die mit dem Umweg SQL über WMI aus der Maschine herausgezogen werden. Die Elemente hier sind selbsterklärend und ich verliere nicht viel Worte. Schaut euch um.

 

Aber nicht zu viel! Es gibt noch mehr zu sehen!

Ziemlich weit oben ist ein Knopf bei mir der bei euch vielleicht noch nicht ist:

 

Beim DPA gibt es ein optionales Paket mit dem Namen „VM Option“, das getrennt lizensiert werden muss. Ich kann mir hier mein vCenter oder meinen ESX direkt einpflegen.

Dazu gehe ich zuerst in die Options und dann „Register…“

 

Es werden readonly Berechtigungen benötigt daher es sollte kein Problem sein, diese von eurem freundlichen VM Admin zu bekommen.
Das vCenter wird scanned und nach einigen Sekunden sollte in der Übersicht der Instanzen rechts ein kleines Icon erscheinen:

 

Wenn ich jetzt also ganz oben auf Virtualization drücke sehe ich zuerst unten in der Übersicht etwas andere Info

 

Spannend wird es jetzt, wenn ich auf die Instanz klicke und alles etwas anders aussieht:

 

Wenn ich auf einen der Pfeile klicke erscheint ein Popup:

 

Ich sehe nun also Events aus der virtuellen Umgebung. Das ist stellenweise mehr als nur nett, weil es mir Dinge erklären kann die ohne diese Informationen so viel Sinn ergeben wie Grünkohl.

Ganz oben der Reiter VM Config:

 

Darunter mehr Knöpfe:

 

Wir sehen mit welchem Host wird es zu tun haben, welche anderen VMs dort sind und wie diese priorisiert sind.
Dazu fällt mir eine Anekdote ein – ich hatte irgendwann mal eine DPA Demonstration mit einem IT Manager der an dieser Stelle sagte „Das sind Informationen die ich meinem DBA niemals geben würde. Danach kündigt der mir noch!“

 

Wir sind fast durch. Folgt ihr mir noch? – Gut!

Ganz oben haben wir noch Buttons:

 

Bisher waren wir auf HOME, klicken wir kurz auf REPORTS

Nach Auswahl der Instanz gibt es ein paar vordefinierte Berichte

 

Unter Report Options kann ich das Ding noch etwas anpassen, unter anderem mit meinen eigenen Statements:

 

 

Das gleiche bei den ALERTS. Hier erlaubt mir „custom“ meine eigenen Statements:

 

Aber ihr seht schon, Berichte und Alarme sind hier eher rudimentär wenn man es mit Orion vergleicht.

Bei den OPTIONS finden wir Grundeinstellungen, können SMTP und AD zufügen sowie andere administrative Aufgaben erledigen.

 

Unter THWACK findet sich wieder etwas Interessantes:

 

Das bringt euch zu benutzerdefinierten Berichten. Diese laufen nicht innerhalb von DPA!
Die Berichte dort werden gegen das Repository gesetzt um spezielle Informationen herauszuziehen. Dazu nutzen wir dann das Management Studio.

 

Jetzt klicken wir auf LOGOUT und verlassen DPA und gehen zu Orion.

Dort unter Settings --> Product specific Settings finden wir Database Performance Analyzer

 

Nach dem Verknüpfen werden automatisch Abhängigkeiten gesucht für den Fall, dass ich Anwendungen überwache die auf meine DB zugreifen.
Das Resultat sieht dann so aus:

 

DPA bringt also seine Informationen in die Orion Plattform. Das ist interessant auf mehreren Ebenen, z.B. im Zusammenspielt mit AppInsight, aber natürlich auch dem Appstack

 

 

Noch recht neu ist die Integration in den Perfstack

 

Das ist schon heiss, oder nicht?
Hier in London ist es immer noch kalt aber das Problem beseitige ich jetzt mit einem Kaffee!

Update: SCM und LA unten eingefügt, SAM Lizenzwechsel

 

Ich arbeite ja in so einer komischen Position als Techniker im Vertrieb.
Das Problem mit der Rolle liegt darin, dass du zwei verschiedene Persönlichkeiten haben musst; die eines Vertrieblers (extrovertiert, schnell handeln) und die eines Technikers (introvertiert, überlegt handeln).

Erst meine multiplen Persönlichkeiten erlauben mir also in meinem Job zu funktionieren. Macht mir das mal nach.

 

Eine Frage bei der sich die Interessengebiete von Vertrieb und Technik häufig Überschneiden ist die nach der Lizensierung der Solarwinds-Produkte.

Hierzu muss man natürlich bedenken, dass jedes Produkt anders lizensiert wird weil man zum Beispiel in der Virtualisierung mit anderen Kennzahlen zu tun hat als in einem Netzwerk.

Schauen wir uns einmal die Produkte einzeln an.

 

NPM (Network Performance Monitor)

 

Das Schwierigste zuerst.
Offiziell wird NPM lizensiert nach der höchsten Anzahl von Elementen einer Kategorie.
Elemente wären Ports/Interfaces, Nodes, Volumes. Die höchste Anzahl davon ergibt dann die Lizenz, und es gibt verschiedene Stufen.
Das versteht kein Mensch und keine Katze!

 

Also ein Beispiel:
Wir haben einen Switch, einen Router und einen Server.

Node    Interface             Volume

1             48                           0             --> Switch

1             2                             0             --> Router

1             2                             4             --> Server

 

Macht 3 Nodes, 52 Interfaces, 4 Volumes, also zusammen 59, hier ist der Beweis:

 

Aber nur die höchste Anzahl in einer Kategorie zählt! Das sind in 99% aller Fälle die Interfaces und in diesem Fall 52. Ich kann demnach 51 Geräte und insgesamt 51 Volumes haben – spielt keine Rolle solange die Zahl kleiner ist als 52.
Natürlich kann ich von den 52 Ports noch entscheiden, welche mir wichtig genug zum überwachen sind.

Eventuell noch Bedenken, dass virtuelle Interfaces auch mitgezählt werden, vielleicht ein VLAN, wenn ich es auch monitoren möchte.

NPM ist verfügbar in verschiedenen Größe, von „bis zu 100 Elementen“ bis zu „theoretisch unlimitiert“.

 

Verstanden?
Der hier schon und hat sich wieder hingelegt. Er heisst übrigens Palpatine wie der Imperator in Star Wars.

 

 

NTA (Netflow Traffic Analyzer)

 

NTA ist simpel – es wird immer an die vorhandene NPM Lizenz gekoppelt.
Der technische Grund ist der, dass NPM den Interface-Index liefert den NTA braucht, um Flows zuzuordnen.
In manchen Situationen ist das zugegebenermaßen nicht optimal, vielleicht bei einer riesigen NPM Lizenz aber nur einer Handvoll Flowexportern, aber andererseits ist uns die Menge an generierten Flows vollkommen egal.

Ein einzelnes Abfragemodul kommt spielen mit 50000 flows pro Sekunde klar.
Also, ein NPM 2000 benötigt ein NTA 2000.

 

NCM (Network Configuration Manager)

 

Ebenfalls einfach – jedes Gerät, mit dessen Konfiguration hantiert wird, konsumiert eine Lizenz.
30 Switches --> NCM 30.

 

IPAM (IP Address Manager)

 

Hier reden wir von „managed IP“ die lizensiert werden müssen.
Beim IPAM gibt es vier verschiedene States:

 

Available wird nicht lizensiert, die drei anderen schon.
Rechenbeispiel: Ich habe ein /24 aber nur noch knapp 200 Adressen sind frei, also muss ich nur die 50 lizensieren.
Die Anzahl an DHCP und DNS Servern sind uninteressant.

 

UDT (User Device Tracker)

 

Hier werden einfach alle Switchports in einen Topf geworfen. 10 x 24 sind ungefähr 240! Ich bin mir fast sicher!

 

VNQM (Voip & Network Quality Manager)

 

Okay jetzt müssen wir uns wieder konzentrieren.
VNQM wird über zwei verschiedene Datensätze lizensiert: IP Telefone und IP SLA Quellen.
Telefone sind klar, bei IP SLA sollte man sich mit der Technologie auseinandersetzen – das kann man hier.
Es werden nur die Quellen lizensiert, nicht die Beantworter. Wenn eine distributed operation genutzt wird, können dort unter Umständen mehrere Quellen definiert sein.

Hier gilt wieder die höchste Anzahl einer der beiden Datensätze. VNQM startet mit 5/300, wenn ich also 6 IP SLA Quellen habe, aber nur 200 Telefone, muss ich trotzdem in die höhere Lizenzstufe die bis 25/1500 ausreicht.

 

Der Kollege hier hängt grad irgendwie und muss sich das noch mal durchlesen. Er heisst übrigens Chewbacca wie…ach, den kennt ihr.

 

VMAN (Virtulization Manager)

 

Etwas Einfaches zwischendurch – die Virtualization Manager wird über die Gesamtanzahl der physischen CPU in allen Hosts lizensiert, also wie das vCenter.
Cores spielen keine Rolle.

 

SRM (Storage Resource Monitor)

 

Bei Storage ist es auch einfach, hier wird nach Disks lizensiert. Also alles was von euren Arrays als Disk gesehen wird, ob das jetzt rotiert oder virtuell ist. Hier auch einfach die Gesamtanzahl nehmen.

 

SAM (Server & Application Monitor)

 

Seit Juli 2019 wird SAM bei allen neuen Lizenzen per Knoten lizensiert, es ist vollkommen unabhängig was genau auf der Maschine überwacht wird, oder wieviele Volumes im System sind.

 

 

SPM (SolarWinds Patch Manager)

 

Der Patch Manager lizensiert sich total langweilig über die Anzahl an Systemen die patched werden. Dabei spielt es keine Rolle ob das Server oder Workstations sind, und auch die Anzahl der eingesetzten Patch Manager Instanzen bzw Rollen ist unerheblich.
Es ist auch gleich ob dahinter ein WSUS oder SCCM steht.

 

WPM (Web Performance Monitor)

 

Okay das ist manchmal eine Herausforderung. Der Web Performance Monitor erlaubt es, Schritte innerhalb des Browsers aufzunehmen um detaillierte Funktionen einer Webanwendung zu testen. Diese Tests können dann von beliebigen Standorten oder auch der Cloud ausgeführt werden.
Lizensiert wird er über das Produkt von Aufnahmen und Standorten, die diese Aufnahmen wiedergeben. Wir nennen die Summe Transaktionen.

 

Beispiel:
Ich habe einen Webshop und einen Exchange mit OWA. Den Webshop teste ich von meiner Zentrale in Deutschland und meiner Zweigstelle in Wien, sowie aus der Cloud.
OWA teste ich nur von meiner Zentrale aus.
Also 4 Transaktionen insgesamt.

 

WHD (Web Help Desk)

 

Die Anzahl an Technikern, die innerhalb von WHD registriert sind, definieren die Lizenz. Also vielleicht: 5 Mitarbeiter in der IT die an Tickets arbeiten, alle 5 werden dann innerhalb von WHD lizensiert.

Langweilig!

 

LEM (Log & Event Manager)

 

Beim Log & Event Manager spielen die eindeutig identifizierten Log-Quellen eine Rolle. Ob von einer IP jetzt verschiedene Logs kommen ist egal, es kann also ein Windows Server gleichzeitig einen Webserver betreiben und die Daten von irgendeinem Endpoint-Security System liefern.
Aber aufgepasst: Es gibt eine Lizenzstufe für Server und Netzwerkkomponenten, und darüber hinaus ein Addon für Workstations welches günstiger ist. Klar, ich habe ja meistens auch ein oder zwei Workstations mehr als Server!

 

DPA (Database Performance Analyzer)

 

Eigentlich ist die Lizensierung ganz einfach…pro DB Instanz, in den meisten Fällen also pro Server. Es kommt recht selten vor, dass ich zwei Instanzen auf der gleichen VM laufen habe, aber in dem Fall müssen dann beide getrennt lizensiert werden.
Aber! Wir unterscheiden hier nach DB System in zwei Kategorien.
Die günstigere ist Cat2 und passt für alle MSFT SQL, MySQL und alle Oracles bis auf EE.
Die Cat1 erlaubt Oracle EE, DB2 und Sybase

 

Cat2 auf dem Bild oben, Cat1 unten ist nicht wirklich eine Cat, aber weiss das nicht.

 

SCM (Server Configuration Monitor)
SCM nimmt die Knoten deren Konfiguration überwacht wird zur Lizensierung. Es ist unerheblich, ob das eine VM, Workstation oder Server ist. Ebenso spielt die Anzahl der überwachten Konfigurationen auf einem Knoten keine Rolle.

 

LA (Log Analyzer)

 

Auch hier ist die Lizensierung sehr einfach: Jede einzelne Gerät das aktiv Logs zu LA sendet, konsumiert eine Lizenz. Das Volumen wird nicht betrachtet. Gut für sehr gesprächige Quellen wie Firewalls oder Hosts!

 

 

 

Ich habe einige Produkte ausgelassen deren Lizensierung aber extrem einfach ist.

Von daher noch ein paar weitere Dinge!

 

Jedes Produkt ist in verschiedenen Stufen erhältlich und bei den meisten gibt es am oberen Ende der Fahnenstange eine Version die üblicherweise auf *LX endet, z.B. NPM SLX, und die wir als theoretisch unlimitiert bezeichnen.
Theoretisch heißt, dass es in der Praxis eine technische Limitierung gibt und die tritt dann ein, wenn das Abfragemodul (Poller) überfordert ist.
Nehmen wir als Beispiel den NPM, dort sagt das System bei etwa 10000 Interfaces und den Standardintervallen „ich kann nicht mehr“. Man kann dann entweder die Intervalle verlängern um dem System mehr Luft zu geben, oder aber ich skaliere nach oben und setze einen weiteren Poller dazu. Diese zusätzlichen Abfragemodule, wir nennen sie APE (Additional Polling Engine), dienen dem erweitern der Kapazität aber können auch genutzt werden um größere, verzweigte Umgebungen klüger zu überwachen.
Ich werde irgendwann mal darüber bloggen, solange schaut einfach hier in die Originaldoku:

Scalability Engine Guidelines for SolarWinds Orion Products - SolarWinds Worldwide, LLC. Help and Support

 

Wenn ich sehen möchte was zur Zeit in Benutzung ist und was noch frei ist, klicke ich innerhalb von Orion auf Settings --> All Settings --> License Details (ganz runterscrollen):

 

Ebenso, unter Settings --> All Settings --> Polling Engines sehe ich wie beschäftigt mein Abfragemodul ist.
Wenn ich mehrere Poller habe tauchen diese auch an exakt dieser Stelle auf:

 

Die hier sind extrem beschäftigt:

 

Macht’s gut!

graeme.brown

Seasonal changes

Posted by graeme.brown Nov 14, 2017

Winter is coming slowly but surely. today was chilly and breezy. Making it perfect for hot chocolate and fuzzy sweaters.

Good morning all from Indiana,

 

*STOP AND READ* - If you aren't a database or data focused professional, the below may be boring!

 

I recently attended my first PASS Summit this past week and got to meet so many special people with all different types of skills and experience. With almost 4000 data professionals and 50+ vendors joining the conference, it was almost overwhelming trying to meet as many people and vendors as a single person possibly could. Its almost surprising to me how nice everyone is and how each data professional is willing to meet you, hear your story and help with any issues you might have. #SQLFamily is truly a thing and if you're lucky enough, you'll be apart of it! I'll need to create my twitter to join the family! Attending the pre-conference sessions is definitely worth its wait in gold! Itzik Ben-Gan and David Klee have such a deep understanding of SQL and VMware its such an amazing experience to learn and hear their point of views.

 

For you thwacksters..........I almost got the chance to play the "SysADMANIA" game, below is a picture of the gameboard, but I didnt get the chance since i went off and played Stratego when a game was going on. The SysADMANIA board game looked really fun, below is a picture of BRAD causing issues

 

 

SysADMANIA

 

All in all, PASS Summit 2017 was an amazing experience and I STRONGLY recommend anyone to attend. I met many other data professional and i hope to keep in touch not only to network, but to learn as much as possible!

 

Please leave any comments if you were there as well! I'td be great to talk to others and learn more!

 

-Alex Trepes

Kennt ihr das noch, C&C: Red Alert? Ich musste das Erscheinungsjahr googlen – 1996.

22 Jahre her, darf man gar nicht drüber nachdenken!

 

Reden wir über aktuelle Alerts

Alarme sind bei der Orion Plattform ein sogenanntes „platform feature“, also unabhängig von den tatsächlich verfügbaren Modulen. Zu finden ganz oben unter Alerts.

Dort dann bitte einmal ganz rechts auf „Manage Alerts“:

Auf einem frisch installierten System wird es ungefähr so aussehen:

Und damit fängt das DRAMA dann auch schon an

 

Jedes Solarwinds Modul bringt etliche Standardalarme, wie z.B. sende mir eine Email wenn ein Knoten nicht mehr antwortet, aber auch wenn irgendwo ein Schwellwert überschritten wurde.

Oder aber ein Switchport plötzlich nicht mehr verbunden ist, was vermutlich vollkommen normal gegen 17:02 am Abend ist wenn ich Accessports im System überwache. Glaubt mir, das hat es alles schon gegeben!

 

Das System sendet also einen ganzen Haufen Emails die im Grunde genommen nicht notwendig sind. Was machen wir also naturgemäss? Wir werden entnervt und beginnen Emails zu ignorieren.

Dann geht plötzlich ein Uplink down. Und wir merken es nicht, weil unser Monitoringsystem mich zugespamt hat.

 

Daher mein erster Vorschlag, und das ist vermutlich die Beste Idee die ihr heute liest:
Schaltet erst einmal alle Alarme aus.

 

Dazu sortieren wir oben nach „Enabled“ und klicken, dass ON oben steht. Alle markieren und „disable“ – erledigt. Ruhe im Haus. Enjoy the Silence ist übrigens von 1990 und damit noch älter als Red Alert.

 

Im Prinzip kann ich jetzt einen beliebigen Alarm anpassen. Passt jedoch bitte auf – bei einem out-of-the-box Alarm würde ich nur an einer Kopie arbeiten und nicht am Original. Dazu gibt es oben den Schalter „Duplicate & edit“.

Aber ich führe einmal durch den Prozess, einen Alarm komplett selbst zu erstellen, also oben auf „add new alert“.

Zuerst brauchen wir einen Namen, und vielleicht auch eine Beschreibung, wenn der Alarm komplexer ist.

Unten sind ein paar Einstellungen:

Die Zeit ist unter Umständen ganz interessant.
Hier wird nichts anderes getan, als alle 60 Sekunden zu überprüfen ob die Bedingung die gleich kommt eingetreten ist.

Zuerst denkt man sicherlich „Oh das möchte ich alle 10 Sekunden haben“ – aber das bringt nicht wirklich viel.

 

Bedenkt bitte, dass jede Überprüfung der Bedingungen CPU Zyklen kostet und ich grundsätzlich defensiv mit Ressourcen umgehen würde.
Dann: Die Daten, auf denen die Bedingung aufgebaut ist werden ja abgerufen. Dieser Vorgang geschieht alle x-Minuten je nachdem, was ihr eingestellt habt. Basis wäre alle 10 Minuten.

 

Macht es jetzt Sinn, alle paar Sekunden nach einer Situationsänderung zu schauen, wenn die zugrunde liegenden Daten eh nur alle 10 Minuten aktualisiert werden?
Bedingt.

 

Letzten Endes ist das ein dynamisches Konstrukt. Ich würde vermutlich Alarme gruppieren und wirklich kritische Dinge zeitnaher laufen lassen, was ein Kompromiss wäre.

Schaut dazu auch bitte in mein Posting zur Echtzeit.

Dazu empfiehlt sich dann auch die Einstellung „severity“

 

Die untere Position dient dem Erstellen von Limitierungen, welche dann in der Kontenverwaltung weiter definiert werden können. Dazu schreibe ich auch irgendwann einmal etwas, aber gerade lasst mich das einfach erklären mit „Mitarbeiter aus Berlin sieht nur Alarme aus Berlin.“.

 

Okay weiter geht’s mit dem nächsten Fenster – der Bedingung.
Was muss passieren, um meinen Alarm zu aktivieren.

Zuerst teilen wir dem System mit, auf was wir alarmieren möchten

 

Man kann hier ziemlich kreativ werden. Vielleicht möchte ich auf ein bestimmtes Exchange-Konto alarmieren – mein CEO ist gefährlich Nahe an der Obergrenze für Dateianhänge und ich möchte es ihm persönlich mitteilen, bevor die Automatik zuschlägt? Oder ich habe plötzlich eine unbekannte MAC Adresse in meinem Netzwerk?

Aber – ich bleibe bei der Node.

Die nächste Position ist der Umfang des Alarmes.

 

 

Gilt das Ding für alle Nodes in meinem Netz? Oder nur bestimmte?

 

Dann die eigentliche Bedingung. Normalerweise nehme ich ein simples Beispiel wie CPU Load:

Aber schaut einmal hier:

 

Ich bekomme nun Zugriff auf alles, was wir vom Element „node“ sammeln.
Unter Umständen ist das eine ziemlich lange Liste

 

Wir sehen rechts in der Vorschau was für ein Wert zurück geliefert wurde. Der Inhalt dieser Spalte gibt nicht immer Sinn – vielleicht haben wir gerade keine Infos zu den Werten – aber es hilft einzuschätzen, ob die Info hilfreich ist oder nicht.

Weil mir gerade die Kreativität abhanden geht nehme ich einmal den administrativen Kontakt:

 

 

Aber das reicht mir nicht. Ich klicke auf das Plus und kann mir andere Bedingungen danebenlegen:

 

 

Ich nehme eine weitere simple Bedingung – dieses Mal meine freundliche CPU:

 

 

Achtet auf die Zeile in Gelb – da versteckt sich ein logischer Operator!

 

Dann noch ein nettes Spielzeug – die Zeit:

Ganz unten dann noch die „advanced options“. Im Grunde genommen erlaubt das weitere, in sich abgeschlossene Bedingungen, die dann gegeneinander laufen:

 

Ein Szenario wäre hier vielleicht:
SQL A (on prem) down, Backup B (on prem) down, Notfall DB bei AWS antwortet auch nicht, in der Vertriebsabteilung klingeln Telefone, es ist noch nicht 17:00, ich habe keinen Urlaub.
Auweia!

Aber das wollen wir hier ja nicht. CPU Load und verantwortlich ist dieser Admin-Typ, das reicht mir. Also klicke ich auf weiter zum nächsten Fenster.

 

Soll sich der Alarm selbst ausschalten? Falls ja, unter welchen Bedingungen?

In den meisten Fällen ist die automatische Einstellung ratsam welche nichts Anderes besagt als „wenn die Bedingung die ich vorhin erstellt habe nicht länger wahr ist“.

Es mag aber auch eine Situation geben, in der ich die manuelle Bestätigung eines Mitarbeiters erwarte, dass alles in Ordnung ist.

Ich klicke auf weiter. Das nächste Fenster ist ganz einfach.

 

 

Gilt der Alarm rund um die Uhr? Unwahrscheinlich.

Ich möchte vielleicht andere Aktionen den Tag über auslösen als Nachts, oder auch meine Schwellwerte sind in der Nacht etwas entspannter als am Tag – oder umgekehrt!

Aber – Faulheit siegt heute und ich bleibe bei „always enabled“ und klicke auf weiter.

Jetzt sehen wir die verfügbaren Aktionen und davon gibt es eine ganze Menge:

 

 

Üblicherweise nehme ich das hier

 

Wenn ich auf meinen blauen Knopf drücke erscheint ein Fenster für weitere Details – hauptsächlich natürlich Empfänger und Inhalt der Email:

 

Vielleicht möchte ich eine Grafik in die Email legen? Bedenkt einfach, dass man sämtliche Charts in Orion in andere Webseiten oder eben Emails exportieren kann.
Oder, für den Fall das eine bestimmte Situation öfter auftritt ist es sinnvoll, Lösungsansätze gleich mit der Email zu senden damit die ausführende Person direkt weiss, was zu tun ist.

Oben im Screenshot sind schon einige Variablen aufgelistet, bei „insert variable“ sieht man eine List der verfügbaren Optionen.


Jetzt reicht mir das aber nicht – ich kann neben der Email direkt noch eine weitere Aktion starten

 

Ich entscheide mich für einen Ton:

 

Und jetzt könnte ich sogar noch eine Eskalationsstufe abbilden:

 

Vielleicht eine SMS?
Das macht ihr, wenn z.B. zuerst eine Email gesendet wurde, kein Mensch reagiert, und ihr dann vielleicht eine andere Email zu einem anderen Empfänger senden möchtet.

Was auch immer! Ich klicke auf weiter.

 

Wir können eine Aktion definieren die beim Zurücksetzen der Bedingung eingeleitet wird.

Noch eine Email? Mehr Spam? Nein Danke. Aber es gibt Situationen wo dies sehr nützlich sein kann.
Vielleicht habe ich ja ein Ticketing System informiert mit einer Email oder einem Syslog. Das System hat ein Ticket eröffnet, eventuell weitere Schritte eingeleitet. Jetzt könnte ich eine weitere Email, Syslog, Trap oder ähnliches Senden um dem System mitzuteilen, dass die Sache erledigt ist.

 

Zum Schluss, in Punkt 7, gibt es eine Zusammenfassung und danach kann ich meinen Alarm aktivieren.

 

So in etwa spielt sich das in den meisten Situation ab – es gibt natürlich noch Themen darüber hinaus wie z.B. dem Erstellen eines Alarms anhand einer ankommenden asynchronen Mitteilung.

Aber ich möchte es heute nicht unnötig verkomplizieren!

Deswegen gibt es jetzt Donuts zur Belohnung:

 

Zu Black Friday habe ich mir den Einstieg in das Philips Hue System gegönnt mit der Bridge, ein paar Leuchtmitteln, Schaltern, Bewegungssensoren und so weiter.
Normale Nutzer stöpseln das alles zusammen und nutzen die App um Szenen zu erstellen. Wir gehen hier einen Schritt weiter.
In meinem Paket war auch eine Hue Go, das ist eine Lampe mit integriertem Akku der angeblich für 3 Stunden hält.
Die ist wie geschaffen für mein Alarmszenario.
Zuerst einmal - wie kommunizieren wir mit Hue?
Die Bridge ist über Rest API steuerbar.
Ich mag die einzelnen vorbereitenden Schritte nicht wiederholen – guckt einfach hier:
https://www.developers.meethue.com/documentation/getting-started
Es wird ein Benutzerkonto auf der Bridge erstellt, wir finden die Lampe, stellen eine Farbe ein – natürlich Rot:https://www.developers.meethue.com/documentation/core-concepts#color_gets_more_complicated
Das Resultat ist eine json Zeile die mit einem put Kommando an die Lampe übergeben wird.
Wie verknüpfe ich das mit Solarwinds?
Leider gibt es von Haus aus noch keine Unterstützung von Rest API in den Alarmaktionen und http get/post reicht mir nicht. Hier kann man upvoten bei Bedarf:
Es gibt jetzt verschiedene Möglichkeiten, so kann ich entweder das SDK nutzen, oder Powershell, oder ganz einfach curl. Tatsächlich wollte ich erst curl nutzen habe dann aber bei meinen Nachforschungen das hier entdeckt:
Zu bequem!
Ich installiere das PS Module wie in der Anleitung beschrieben und folge den ersten Schritten.
Mein Resultat ist zuerst eine red.ps1 – die Details ergeben Sinn wenn ihr die Anleitung oben gelesen habt - ich definiere meine Bridge mit 10.0.0.21 und die Hue Go mit dem Namen "Mobile" sowie mein Konto:
Import-Module-NamePoSHue
$Bridge=[HueBridge]::New('10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light=[HueLight]::New('Mobile','10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light.SwitchHueLight("On")
$Light.SetHueLight(150,0,150)
Jetzt brauchen wir einen beliebigen Alarm – ich erstelle mir hier einen der mich warnt wenn meine Internetverbindung zu Hause nicht mehr da ist.
Ich habe www.google.com als externe Node angelegt und pinge alle 10 Sekunden dorthin und nehme das als Indikator, also Node gleich down.
In Schritt 5 nutze ich „externes Program“ als Aktion für eine Kommandozeile.
Okay super. Aber das ist nur die halbe Miete. Wenn sich das Internet jetzt zufällig wieder verfügbar macht wollen wir das auch wissen.
Also brauche ich auch eine Reset-Aktion im Alarm: Die Lampe soll Grün leuchten. 
Syntax:
Import-Module-NamePoSHue
$Bridge=[HueBridge]::New('10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light=[HueLight]::New('Mobile','10.0.0.21','aUcswswfnZhqzTQNX2h92mfqsm-7F7IvEf9lAZty')
$Light.SwitchHueLight("On")
$Light.SetHueLight(150,25500,150)
Das ist copypasta und ich habe lediglich Rot (0) gegen Grün (25500) eingetauscht.
Jetzt simulieren war mal den Ernstfall. Oh huch und den Staub…habe ich per Photoshop hinein editiert für mehr Realismus!
Und warte…ALARM!
Kabel wieder rein…
Grossartig. Warum jetzt also diese Hue Go Lampe und nicht irgendwas das an der Wand hängt?
Das Ding ist portabel und du kannst es mit dir rumschleppen während du einen Kaffee trinken gehst.
Aber viel besser:
Du stellst es einem Kollegen auf den Schreibtisch während du den Kaffee trinkst und sagst einfach "Du bist dran"!
Ich glaube genau dafür wurde das Ding erfunden.

 

 

Jetzt möchte ich aber auch eine SMS erhalten. Dazu gibt es verschiedene Optionen, eine kommt hier!

 

Auf einer Messe in Paris habe ich Mitarbeiter von SMSEagle™ kennengelernt die mir mitgeteilt haben, dass deren System schon mit der Orion Plattform verbunden und getestet wurde.

Das hat mich neugierig gemacht und man hat mir freundlicherweise ein Testkonto zur Verfügung gestellt.

 

SMSEagle ist im Prinzip ein Stück Hardware welches über ein Webinterface bedient wird. Strom drauf, LAN Kabel links, SIM Karte rechts rein und fertig.

 

 

Bei der Integration in unser Alarmsystem ist dann natürlich http-get die bequemste Lösung und ich muss mich nicht gross mit irgendwelchen API beschäftigen, tatsächlich muss ich nur die Syntax kennen.

Also!

Mein Alarm – Position 5 – Action!

 

Die SMSEagle Syntax ist echt einfach, URL, Name, Password, Telefonnummer und Inhalt:

http://url-of-smseagle/index.php/http_api/send_sms?login=name&pass=passwort&to=00491234567&message=die+welt+geht+unter

 

Bei mir also:

 

 

Ich teste:

 

Ein paar Sekunden später habe ich die SMS auf meinem Telefon, auch international.

Stressfrei und einfach!

 

Habt ihr auch ein paar Ideen zu Alarmen?

Storage Settings

While creating the partitions we must specify either of the below storage settings.
a) ROLAP (Related OLAP): In this case data and aggregations store under relational sources.
b) MOLAP (Multidimensional OLAP): Here data and aggregations store under multidimensional sources.
c) HOLAP (Hybrid OLAP): Here the data stores under relational sources and aggregations store under multidimensional sources.
       

Standard Partition Storage Settings:

Proactive Caching

The feature helps the cube in a sink with the relational data sources.
–> It takes the latency time, schedule time and event table to capture the changes from relational data sources cube databases.
As noted, with MOLAP and HOLAP storage modes, SSAS caches data (MOLAP storage mode only) and aggregations (both MOLAP and HOLAP) on the server.
When you take a data “snapshot” by processing a cube, the data becomes outdated until you process the cube again. The amount of OLAP data latency that is acceptable will depend on your business requirements.
In some cases, your end users might require up-to-date or even real-time Information.
will depend on your business requirements.
In some cases, your end users might require up-to-date or even real-time Information.
A New feature of SSAS 2005, PROACTIVE CACHING, can help you solve data Latency Problems

TIPS FOR EXAMS

Proactive caching is especially useful when the relational database is transaction oriented and data changes at random
when data changes are predictable
Step 1:

  • Such as when you use an extract, transform, and load (etl) proces to load data
  • Consider processing the cube explicitly. When the data source is transaction oriented and you want minimum latency, consider conficuring the cube to process automatically by using proactive caching

HOW PROACTIVE CACHING WORKS

When you enable PROACTIVE CACHING, the server can listen for data change notifications and can update dimensions and measures dynamically in an “AUTOPILOT” mode.

STEADY STATE: In steady mode, no changes are happening to the relational data.

Step 1: Client applications submit multi-dimension expressions(MDX) queries to the cube, pls check in diagram before page.
Step 2: The cube satisfies the Queries from a MOLAP cache. The server listens for a data change notification event, which could be one of the following three types
SQL SERVER: This option uses the Microsoft server trace events that the relational engine raises when data is changed (SQL Server 2000 and later)
CLIENT INITIATED: In this case, a client application notifies SSAS when it changes data by sending a Notify table change XML
For Analysis (XMLA) command
SCHEDULED POLLING: Ninth this option, the server periodically polls the required tables for changes.
UNSTEADY STATE
STEP 4: At some point, a data change occurs in the data source as shown in figure
STEP 5: This change triggers a notification event to SSAS server.
STEP 6: The server starts two stopwatches. The silence Interval stopwatch measures the time elapsed between two consecutive data change events. This will reduce the number of false starts for building the new cache until the database is quiet again.

FOR EXAMPLE

If data changes are occurring in batches, you do not want to start rebuilding the cache with each data change event.
Instead, you can optimize proactive caching by defining a silence interval that allows a predefined amount of time for the batch changes to complete.
After data in the relational database is changed, the server knows that the MOLAP  cache is out of date and starts building a new version of the cache
STEP 6: The latency stopwatch specifies the maximum latency period of the MOLAP cache,  the administrator can also predefine the maximum latency period. During the latency period, queries are still answered by the old MOLAP cache.
When the latency period is exceeded, the server discards the old cache. While the new version of the MOLAP cache is being built, the server satisfies client queries from the ROLAP database
Step7: When the new MOLAP cache is ready, the server activates it and redirects client queries to it.
PROACTIVE CACHING enters a steady state again until the next data change event takes place.

SolarWinds uses cookies on its websites to make your online experience easier and better. By using our website, you consent to our use of cookies. For more information on cookies, see our cookie policy.