Tach Zusammen!

 

Vor gefühlten hundert Jahren habe ich unseren Virtualization Manager (VMan) vorgestellt. Seitdem hat sich einiges geändert.

Nein, ich rede nicht von der Erfindung des Mobiltelefons was schon ungefähr 250 Jahre her sein muss, wenn ich auf den Stapel Rechnungen schaue.

Tatsächlich gab es bei unserem VMan eine Metamorphose im wahrsten Sinne des Wortes.

Kurz zur Erinnerung:
VMan war ursprünglich eine virtuelle Appliance und sah so aus:

Nach und nach wurden Features von der Appliance in die Orion® Plattform geschoben und das ganze Ding wurde im Laufe von Jahren mehr und mehr integriert.

- Im September 2017 haben wir Version 8.0 veröffentlicht mit der Option auswählen zu können, ob das Polling von der Appliance oder vom Orion Server durchgeführt werden soll.

- Im Dezember mit Version 8.1 wurde mit Capacity Planning das letzte exklusive Feature von der Appliance zu Orion migriert, was die Appliance dadurch nicht nur optional, sondern obsolet gemacht hat.

- Im März 2018 schliesslich Version 8.2 mit einem verbesserten Wizard um virtuelle Infrastruktur zu Orion hinzuzufügen.

 

Die Installation des VMans ist jetzt wie bei jedem anderen Orion Produkt und demnach etwa so simpel wie eine Tasse Kaffee herzustellen:

 

Okay nach der Installation bzw dem Trinken dieses Kaffeepuddings müssen wir Zeug in Orion hineinbekommen. Dazu gibt es verschiedene Methoden, z.B. in den Settings um direkt einmal den neuen Wizard auszuprobieren:

Ich bin so aufgeregt, weil der auch für mich neu ist!

Ich kann auswählen:

 

Ich bin vor ein paar Monaten umgestiegen auf Hyper-V™ und gehe einen Schritt weiter:

 

 

Ich bekomme eine ganze Menge Zeugs angezeigt:

 

 

Und füge einfach alles hinzu:

 

Im Prinzip muss man jetzt warten bis genug Daten gesammelt haben.
Aber ich habe hier etwas geschummelt und die Daten sind alle da.

 

Also legen wir los. Ein guter Startpunkt ist immer die Zusammenfassung:

 

Die Daten links habt ihr vielleicht auch schon einmal vom NPM oder SAM allein gesehen:

 

Andere Dinge kommen jetzt neu dazu wie zum Beispiel diese wirklich hervorragende Nachricht:

 

Wer meine Posts verfolgt weiss, dass das jetzt üblicherweise ein Grund wäre um entweder eine Tasse Kaffee zu trinken, einen Wein zu öffnen oder ein Schnitzel zu essen.

Auf der Suche nach irgendwas bin ich hier im Büro in die Küche gegangen und sehe das hier:

 

Ich werde euch nicht mitteilen, für was ich mich entschieden habe.

 

Also weiter.
Ich klicke auf einen Host und sehe wieder bekannte Datensätze:

 

Aber guckt mal links dort sind jetzt zwei neue Reiter dazu gekommen, Storage und Virtualization Summary:

 

 

Storage gibt mir Latenz und IOPS für sowohl die Datastores als auch die VMs:

 

Aufgepasst: Bei Hyper-V gibt es leider keine VM Latenz:
https://support.solarwinds.com/Success_Center/Virtualization_Manager_(VMAN)/Hyper-V_virtual_machine_latency_shows_as_zero

 

Ich klicke auf eine VM, diesmal wähle ich den Reiter Virtualization Summary und plötzlich wird es richtig interessant.

Links stehen mir Aktionen zur Verfügung:

 

Ihr könnt ruhig ein bisschen Herumklicken – es kommt immer noch eine Sicherheitsabfrage bevor tatsächlich was passiert.

Rechts, unter den Tachos, ist ein Element das ihr lieben lernen werdet:

 

Es werden vergleichende Werte für die VM und den Host angezeigt. Prima, um einmal über den Tellerrand hinaus schauen zu können.

Übrigens ist das eine gute Stelle um einmal in unseren Performance Analyser zu schauen falls ihr den noch nicht kennt. Klickt einfach mal oben auf den Link.

 

Aber ich mag euch noch ein paar richtig nette Dinge beim VMan zeigen.

Wählt bitte einmal „sprawl“ aus.

 

Hier nutzen wir die gesammelten Daten und vergleichen Auslastung mit zugewiesenen Ressourcen.

Bei mir liegt gerade eine frische VM herum – der Plan ist, meine Orion DB bald von 2014 auf 2016 zu migrieren – die hat natürlich Memory zugewiesen der gerade nicht in Benutzung ist:

 

Auf der gleichen Seite werden weitere VMs angezeigt die nichts tun außer zu existieren.
Was macht man mit solchen?

 

Ich nenne das Holzhammeradministration.

 

Ein weiteres Feature ist das Planen von zukünftigen Änderungen in der Virtualisierung. Klickt auf Capacity Planning.

Ich kann hier verschiedene Spiele betreiben:

 

Hier werden ebenfalls die gesammelten Daten genutzt um diese exakt berechnen zu können, wie viele VMs ich noch platzieren kann und welche Resources als erstes knapp wird.
Da unter Umständen mehrere Wochen von Daten benötigt werden hier ein Auszug aus einem fertigen Bericht:

 

 

Das dritte besondere Feature sind die Empfehlungen/Recommendations.

Zuerst etwas Offensichtliches:

 

Schauen wir uns die einmal genauer an:

 

Vertrauen wir dem System? Eigentlich schon, aber lasst uns das einmal überprüfen.
Ein Mausklick gibt etwas mehr Details:

 

Ich schaue mir die Orion VM genauer an. Ich habe verschiedene Möglichkeiten.

 

Oder:

 

Oben auf Edit kann ich natürlich den Zeitraum anpassen

 

Dazu sind diese Elemente/Widgets zwar nicht gedacht, aber um einmal kurz etwas anzuschauen:

 

Weil ich grad dabei bin öffne ich noch den „Average CPU Utilization – This week“ Report der mitgeliefert wird:

 

Nach all diesen Informationen beschliesse ich den VMan Empfehlungen zu vertrauen und nie wieder in Frage zu stellen!

 

Ich könnte jetzt also diese Aktionen durchführen lassen:

 

 

Das mache ich nun aber nicht…weil…

 

 

Auf einem anderen System habe ich eine weniger offensichtliche Empfehlung gefunden:

 

Das ist etwas das uns eigentlich gerade nicht stört. Es läuft ja alles wunderbar.
Aber was ist wenn ein Ernstfall eintritt? Dann mag mir das durchaus Kopfschmerzen bereiten.
Daher hier der Vorschlag:


Zusammen gefasst bietet VMan eine schönes Paket zum Überwachen der virtuellen Infrastruktur und geht über normales Monitoring hinaus mit Features wie Capacity Planning.

Die Lizensierung ist einfach anhand aller physischen CPUs in den Hosts.
Das heisst, dass ich auf Performancedaten sämtlicher VMs bekomme ohne diese lizensieren zu müssen.

Wenn ihr auf eine VM klickt wird unter Umständen jedoch so etwas erscheinen:

 

Das besagt einfach, dass VMan die VM im Griff hat, aber ich jetzt gerade noch keine Anwendungen darauf überwachen könnte. Dazu muss ich die VM aktiv überwachen und mir stehen die Daten in SAM und weiteren Modulen zur Verfügung.

Das wiederum wird allerdings Lizenzen bei den jeweiligen Produkten konsumieren.
Für weitere Informationen zu diesem Thema verweise ich auf meinen Lizensierung-Blogpost. Schon alleine wegen der Katzen!

 

Da fällt mir ein…ich war neulich in Edinburgh und dort gibt es tatsächlich ein „Katzen-Cafe“.
Man kann dorthin gehen, Kaffee trinken, Kuchen essen…und überall sind Katzen!! Fantastisch!

 

 

Bis demnächst!

Building your First Advanced Dashboard

 

Creating dashboards with tableau is an interactive process, there isn’t a  “one best method”. Starting with a basic concept, discoveries made along the way lead to design refinements. Feedback from your target audience provides the foundation for additional enhancements. With traditional BI tools, this is a time-consuming process. Tableau’s drop and drag ease of using facilities resulted in the rapid evolution of designs and also started encouraging discovery.

 

Introducing the dashboard worksheet

 

After creating multiple, complementary worksheets, you can combine them into an integrated view if the data is using the dashboard worksheet. Figure 8.8 shows an empty dashboard workspace.

The top-left half of the dashboard shelf displays all of the worksheets contained in the workbook. The bottom half of the same space provides access to another object controls for adding text, images, blank space, or live web pages in the dashboard workspace. The worksheets and other design objects are placed into the “drop sheets here” area. The bottom left dashboard area contains controls for specifying the size of the dashboard and  a check box for adding a dashboard title.          

 

You are going to step through the creation of a dashboard using the access database file that ships with tableau called coffee chain. You will create the dashboard by employing the best practices, recommended earlier in the post.

 

The example dashboard is suitable for a weekly or monthly recurring reports. The specifications have been defined and are demanding. The example utilizes a variety of visualizations, dashboard objects and actions. It will include a main dashboard and a secondary dashboard that will be linked together via filter actions.

 

                                                      Figure 8.8: Tableau’s dashboard worksheet

Read through the rest of the post first to get an overview of the process. Then, step through each section and build the dashboard by yourself. When completed, your dashboard should look like figure 8.9

                                               Figure 8.9: Completed coffee chain dashboard example

The dashboard follows the 4-pane layout recommended earlier in the best practices section of this post, but it is actually a 5-panel design with the small select year cross-tab acting as a filter via a filter action. The main dashboard in figure 8.9 includes a variety of worksheet panes, an image object with a logo, text objects, dynamic title elements, and a text object containing an active web link. The example, employs a cascading design that links the main dashboard to a secondary dashboard via a filter action. The secondary dashboard contains more granular data in a crosstab and an embedded webpage that is filtered by hovering your mouse over the crosstab. This example is designed to use many of tableau’s advanced  dashboard features  included in tableau desktop version 8. The major steps required to complete this example are:

  1. Download the post “bringing it all together with dashboards” dashboard exercise workbook from the book’s companion website. Refer to Appendix C: inter works book website” for additional details.
  2. Define the dashboard size and position the dashboard objects in the dashboard workspace.
  3. Enhance title elements, refine axis headers, and place image and text objects into the primary dashboard.
  4. Create a secondary dashboard with a detailed crosstab, webpage object and navigation pane.
  5. Add filter, highlight and URL actions to the dashboards.
  6. Finish the dashboard by enhancing the tooltips and testing all filtering and navigation. Add a read me dashboard to explain how the dashboard is intended to be used to data sources and for any calculations created that may not be obvious to the audience.

Defining the dashboard size

One of the first things you should consider when assembling  worksheets in a dashboard is the available space that your audience has to view the dashboard. Will it be viewed on an old overhead projector with limited resolution and brightness? Or, will the audience consumes the dashboard on a personal computer or a tablet computer? For this exercise, assume that the majority of people will be viewing the dashboard on laptop computers. A small number of people will view it on desktop computers.
The easiest way to start a dashboard is to click the new dashboard tab. Figure 8.8 shown earlier in the post highlights the new dashboard tab at the bottom of the workspace.

                                         Figure 8.10: Dashboard design shelves

Position the worksheet objects in the dashboard workspace

Placing worksheets into the dashboard workspace can be done by double-clicking on the worksheet objects at the top of the dashboard shelf. Tableau will automatically  place them into the view. Alternatively, drag the worksheet object into the view  and place it in the exact position you desire. Tableau provides a light gray shading as you drag objects into the workspace indicating the space, that it will occupy when you release your mouse button.
Unless custom titles were added in the worksheets, the titles that are displayed in the dashboard for each worksheet reflect the worksheet tab names. A variety of dashboards objects can be accessed and placed into the dashboard workspace using the dashboard and layout objects displayed in figure 8.10
Dashboard area 1 includes worksheet objects, objects for controlling the orientation of the group of objects horizontally and vertically, objects for adding text, images, live web pages, or blank space. By default, tableau uses tile to place objects in their own panes. Selecting the floating option makes objects float over other  objects which are already in the workspace. As you add worksheet objects to the dashboard, a small blue circle with a check mark will appear next to its icon.

Layout area 2 includes objects that have been added to the dashboard as well as layout options. Dashboard area3 at the bottom allows you to define the sizing of the entire dashboard and the individual objects included in the workspace. Before any worksheets are added into the workspace, define the dashboard size to accommodate the worst-case  scenario in which the dashboard will be viewed-(800×600) pixels. The option laptop in the menu provides this exact size.
To view more options, click on the size shelf as shown in figure 8.11 so that additional ways size can be controlled.

  • Automatic – expands the dashboard to fill the available screen space
  • Exactly – allows you to lock the dashboard’s width and height
  • Range – enables the designer to define minimum and maximum limits.

                                             Figure 8.11:Dashboard layout, size definition

The exact mode allows you to set the worst-case parameters for space. After completing your design, you may want to change the size mode to the range and define specific limits so that the dashboard can expand to fill.

Automatic mode expands or contracts the dashboard to fill the available screen resolution of each computer viewing the dashboard. If any of your audience has a high resolution graphics card, the dashboard might look out of place. The range option allows you to define specific maximum limits so that dashboards designed for compact spaces don’t look too sparse on large monitors. If someone is using a very low resolution monitor to view the dashboard, minimum limits can be set for the dashboard pixel height and width. Once the dashboard size has been defined you are now ready to add individual worksheet  objects to the dashboard. Figure 8.10 displayed earlier shows six different worksheet  objects that are available to add to the dashboard. There are two ways to add objects into the dashboard. Double-clicking on a worksheet object causes tableau to place that object into the workspace automatically. To control the placement of an individual object more precisely, drag the object into the view. As long as your left mouse button is depressed, tableau will preview the area that the object occupies by shading it in gray.

Double-clicking on each worksheet object in the order in which they appear in the dashboard (excluding the market crosstab which will be used in a separate dashboard) will result in the worksheets being  displayed in the dashboard shown in figure 8.12

                                 Figure 8.12: Initial layout of the coffee chain dashboard

Each worksheet has been added into the dashboard and the placement of the each individual views can be improved. Reposition the spark line, object by clicking inside the spark line object pane to activate it; and then use the handle at the top and center of the object, by dragging it into the lower-right area of the workspace. Then, reposition the select year crosstab into the upper-right area above the color legend. When these steps are completed the dashboard pane should look like as one in figure 8.13.

                                          Figure 8.13: Repositioned worksheet objects

Add a title to your dashboard by selecting the show title option in the bottom left of your dashboard shelves. The default title will be the name of the dashboard worksheet that was created by the tableau. Edit the title text by double-clicking on the default name and type in main dashboard-sales analysis. Edit the title font to Arial, 12-point and select a light gray color. Make sure that the title is left-justified. After adding the title it should appear as you see in figure 8.14

                                          Figure 8.14: Dashboard with title object added

Using layout containers to position objects

Layout containers allow you to group objects horizontally or vertically within the dashboard workspace.

Use a horizontal layout container for the dashboard title

In figure 8.15 the “interworks” logo is aligned horizontally to the right of the dashboard title.

                          Figure 8.15: Title and logo in a horizontal layout container

The title and logo alignment in figure 8.15 was achieved using these steps:

  1. Drag a horizontal layout container to the top of the dashboard.
  2. Drag the title object into the horizontal container.
  3. Adjust the height of the horizontal layout container.
  4. Place an image object into the right side of the layout container.
  5. Position the title and image within the layout container.

Add a horizontal layout container to the dashboard by dragging the horizontal object from the dashboard shelf in the area above the title bar as you see in figure 8.16

                                            Figure 8.16: Adding a horizontal layout container

Before you let go of the object be sure that the gray area highlights the full width of the dashboard at the top. This will ensure that the title object occupies the entire width at the top of the dashboard. After releasing the mouse button, don’t worry if the vertical space occupied by the layout container is very large-you can reposition it by dragging up from the bottom edge of the layout container. Then drag the title object into the horizontal layout container.
Now that the title is placed inside the horizontal layout container you can drag an image object into the layout container in the dashboard as you see in figure 8.17.

                         Figure 8.17: Place an image object in the layout container

Now it’s time to assign a specific image to the image object. Use any image file you prefer for the logo. The example shown uses the “interworks” logo.

                                        Figure 8.18: Fit and center the logo

Reposition the title and image objects within the layout container by clicking in the title object space. Then, point the mouse at the right edge of the title object until your pointer changes to a horizontal pointer. Drag the edge to the right to align the logo with the left edge of the vertical space occupied by the year filter cross-tab object. Your logo should now be positioned directly over the right side vertical space over the legends.

Make the title bar narrower by pointing at its bottom edge and  dragging up. The logo probably isn’t centered within the image object. To fit and center the logo on the image object, click on the object to access the drop-down arrow and expose the objects menu as you see in figure 8.18

Select fit the image and center image. Your logo should now be resized to fit in the space.

To complete the title area, add the URL associated with the logo to the image pane. Set the website address by clicking on the image pane to activate the menu, pick the set URL option and type in the website address. Now when the logo is clicked and web access is available, a browser session will open and the website will be displayed.

Now that the dashboard title is complete, turn your attention to the area on the right side of the dashboard containing the year filter crosstab along with the color shape and size legends.

Click For More Details: How to build your first advanced dashboard in tableau

Hello,

 

HPE / Aruba is big and we need Solarwinds to keep up with the market place.

 

In particular, HPE Aruba are on a big integration drive with lots of changes with advance features to the edge so we Solarwinds to support the customer like we support your software.

 

Can we get a comment from a Product Manager on this on plans to fully support this full product line once and for all.

 

Thanks

Ken

Tach Zusammen,

 

Neulich habe ich einmal meine thwack Punkte investiert. Guckt hier:

Ich habe eine gute Idee, was man damit machen kann!
Aber vor dem Vergnügen erst ein bisschen Arbeit.

 

Bisher habe ich über einige Orion Module referiert sowie den „teil-integrierten“ Patch Manager. Um Langeweile vorzubeugen heute einmal etwas Anderes – unsere SIEM Lösung Log & Event Manager, kurz LEM.
LEM sitzt hinter euren AV-Lösungen, Firewalls, DLP Software etc und zeigt die Daten zentral und übergreifend an. Ich kann also mit LEM nachvollziehen, wer wo durch mein Netzwerk wandert und was angefasst oder auch nur angesehen hat.

 

LEM wird nicht irgendwo hin installiert, sondern kommt als virtuelle Appliance basierend auf Linux. Je nach Geschmacksrichtung Hyper-V oder Vmware wird das Ding direkt auf den Host importiert.

Nachdem Importieren nehme ich zuerst ein paar der Ressourcen von der Kiste runter und gebe hier nur 4 Gigs und 2 vCPUs. Das reicht für ein kleines System im Test oder bei mir im Labor. Ich bin geizig.

Wenn ihr die VM startet und dann auf die Konsole geht, kommt nach wenigen Sekunden ein Screen wie dieser hier:

Das ist keine Hommage an den BSOD!
Wir sehen direkt die IP Adresse und könnten per Browser loslegen, aber zuerst geht mal unten auf die Timezone und stellt es bei korrekt ein also bei euch vermutlich Europe/Berlin.

 

Dann aber mal direkt in den Browser eures Vertrauens und ab dafür!
Das erste was man vermutlich sieht ist, dass es mit dem Vertrauen dann doch nicht so weit geht:

Ignorieren! Der Login ist admin/password als Standard:

Nach dem Ändern das Passworts sieht man ein paar Buttons ganz oben:

Und vermutlich das Ops Center unten was aber bei euch noch leer sein wird.

Bevor wir irgendwas machen empfehle ich zuerst, die Appliance auf den aktuellen Stand zu bringen.
Zum Zeitpunkt an dem ich diesen Artikel schreibe ist Hotfix 7 das neueste Release:
https://downloads.solarwinds.com/solarwinds/Release/HotFix/SolarWinds-LEM-v6.3.1-Hotfix7.zip

Im Archiv sind die Schritte zum Updaten – in a nutshell: Auf ein Netzwerkshare entpacken, dann in die LEM VM-Konsole und über Appliance den HF einspielen. Dann von dort aus Neustarten.

 

Dann die Connectors. Wenn die Appliance Internetzugriff hat klickt einfach Manage/Appliance


Dann rechts oben auf Update Now.

Wenn die Appliance kein Internet hat:
http://downloads.solarwinds.com/solarwinds/Release/LEM/SolarWinds-LEM-Connectors.zip

Der Updateprozess ist ähnlich wie beim HF – Details sind im Archiv.

 

Was ist ein Connector überhaupt?
Ich vergleiche das immer gerne mit einem Babelfisch! Kennt ihr das noch? Wenn nicht, attestiere ich euch eine böse Kulturlücke!

 

LEM kommt mit einer sehr langen Liste an Connectoren für die verschiedenste Hard- und Software die es gibt.
Eine aktuelle Übersicht findet sich immer hier:
https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/lem-connector-list

 

Wenn für eine Logquelle ein Connector vorhanden ist heisst das, dass die gelieferten Daten verstanden werden können.
Diese werden dann normalisiert und stehen für weitere Korrelation zur Verfügung.

 

Die Liste wird etwa einmal pro Monat aktualisiert. Den Prozess habt ihr ja jetzt schon kennen gelernt.
Als Daumenregel; alles was bekannt, populär und überall in Benutzung ist sollte sich schon in der Liste finden. Vielleicht nicht zwingend in den aktuellsten Versionen, aber ein Hersteller X stellt beim Sprung von Version 12 auf 13 eher selten etwas am Logging um.

 

Was aber, wenn dem jetzt doch so ist? Oder – bei euch läuft irgendwas, was noch nicht in der Liste ist?
In dem Fall ist es Teil des Wartungsvertrages, dass wir versuchen einen Connector für euch herzustellen.
Auch dafür haben wir einen Prozess:
https://support.solarwinds.com/Success_Center/Log_Event_Manager_(LEM)/Submit_a_request_to_SolarWinds_for_a_new_LEM_connector

Mir fällt gerade auf das die Anzahl an Prozessen hier bei Solarwinds exponentiell gestiegen ist seitdem ich hier bin. Aber glaubt mir ich bin unschuldig! Zumindest hierbei!

 

Lassen wir die Connectoren erst einmal Connectoren sein und machen weiter. Wir kommen später noch einmal zu diesem Thema.

 

Wir brauchen jetzt Daten. Und Details.

Grundsätzlich gibt es zwei Methoden:
a) Netzwerkhardware kommuniziert über Syslogs
b) Betriebssysteme (und Anwendungen) kommunizieren über einen Agent

 

Im Falle von Networkgear ist das für uns hier gerade einfach: Wir brauchen innerhalb von LEM nichts einstellen weil das alles in der Hardware erledigt wird.
In meinem Labor zu Hause habe ich zwei Syslog-Quellen, mein NAS (QNAP) :

 

… sowie meinen Network-Controller (UBNT), der Daten von Firewall, Switch und AP liefert:

Bei anderen Devices erledige ich das natürlich über die CLI.
Wenn ich Syslogs aktiviert habe tauchen die Nodes üblicherweise von alleine auf:

Falls dort auch nach einem längeren Zeitraum nichts steht ist die beste Idee oben hier zu klicken:

Die interne Datenbank wird dann noch einmal durchforstet und etwaige neuen Geräte aufgelistet.
Wenn auch dann nichts auftaucht…wird es kompliziert. Aber nicht in diesem Posting.

 

Bei Servern/Workstations wird ein Agent benötigt, um an Daten zu kommen.
Der Agent sorgt zum einen dafür, das auch andere Events ausserhalb des Windows Eventlogs gesammelt werden können, aber er komprimiert und verschlüsselt die Daten auch vor dem Senden.
Bei Manage/Nodes habe ich diesen Knopf hier:

Dort dann Agent anklicken und ich finde die Downloads:

Für einen Test nimmt man einfach den lokalen Installer. Ich lasse Ihn einmal auf meiner Workstation laufen und es gibt eine wichtige Info zum Ausfüllen:

Und eine weniger wichtige

Das war es auch schon:

Der Agent verbindet ziemlich schnell – CTRL ist neu hinzugefügt:

Wenn ihr meinen Schritten gefolgt seid, habt ihr jetzt einen LEM up2date sowie mindestens zwei Logquellen im System.
Geben wir der Appliance nun etwas Zeit zum Sammeln von Daten und gehen ein paar Kekse essen.

 

Oder vielleicht…Deutscher Käsekuchen! Der einzige seiner Art hier in Irland, weil von mir erschaffen:

Lecker! Aber okay nun noch ein paar Basics.
Klickt bitte oben ins Ops Center und geht zu dem orangenen Ding hier:

Beim ersten Punkt stelle ich meinen Mailserver ein:

Sowie einen AD Connector:

Man könnte jetzt im Ops Center etwas aufräumen und die „getting started“ Box ebenso wie „what’s new“, „thwack“ usw entfernen – wie ihr mögt.

 

Mittlerweile sollten Daten da sein!
Schaut mal oben wieder in die Leiste und klickt auf MONITOR.

 

Monitor zeigt Echtzeit-Informationen. Schaut mal nach links unter Filters – dort sind verschiedene Gruppen mit einzelnen Kategorien aufgelistet.
Unter IT Operations finde ich bei Service Events schon etwas von meiner CTRL Maschine:

 

Ich verschiebe einmal eine Datei auf meinem NAS:

Wenn der AD Connector da ist, sieht man direkt auch die wirklich wichtigen Dinge wie fehlgeschlagene Logins, verschobene Benutzer usw ohne weitere manuelle Anpassung.

 

Bei ausgewähltem Filter kann ich oben auf das Zahnrad und Edit klicken:

Wir sehen dann wie sich dieser Filter tatsächlich zusammensetzt und könnten in manchen Situationen ein finetuning betreiben mittels drag&drop von links nach rechts:

Aber so weit will ich jetzt nicht gehen.

 

Stattdessen zeige ich euch noch schnell wo man historische Informationen finden kann.
Klickt oben auf Explore/ndepth

 

Hier schauen wir zuerst auf diese Spalte hier:

Wir sehen rechts den Zeitraum der beliebig umgestellt werden kann, ansonsten wird hier gerade nichts gefiltert.
Darunter sehen wir, dass in den letzten 10 Minuten 587 Events herein gekommen sind:

 

Ich wähle links aus, was mich gerade interessiert, sagen wir mal UserLogons, und doppelklicke:

 

Jetzt guckt noch einmal nach oben in die Leiste:

 

Der Logon wurde hinzugefügt aber ich muss noch auf den blauen Pfeil drücken um die Auswahl zu aktivieren:

 

Logons sind so ein klassisches Szenario. Üblicherweise sind fehlgeschlagene Logons interessanter aber ich habe gerade keine bei mir.
Der nächste Schritt zum Filtern ist entweder in Richtung der Benutzerkonten oder der Maschinen auf denen der Logon stattgefunden hat. Beides können wir, ich nehme zuerst einen Benutzer:

 

Den blauen Pfeil nicht vergessen:

Mein Admin hat auf drei Maschinen einen Logon-Event generiert:

 

Ich frage mich gerade, welche meiner Schatten-Existenzen hier in meinem Netzwerk herumgeistert. Ich sollte vielleicht weniger Trinken.

 

Ich kann jetzt weiter heruntergehen auf eine Maschine, kann aber auch mit den Events weiter arbeiten die mir angezeigt werden.
Guckt mal ganz nach unten:

Das sind verschiedene Visualisierungen. Klickt mal ein wenig herum, die zweite von links ist ganz nett. Wir machen aber in der zweiten Position von rechts weiter.

Alle Events mit Details werden angezeigt:


Ich kann das auch exportieren bei Bedarf:

Ganz oben kann ich die Suche auch speichern für spätere Benutzung:

Okay ein Thema zeige ich euch noch. Der LEM ist nicht nur ein Werkzeug zur Anzeigen von Daten sondern erlaubt auch Aktionen zu automatisieren.
Klickt auf Build/Rules

Und schaut einmal in die untere Hälfte. Dort finden wir einige Hundert Beispiele an vordefinierten Regeln. Guckt sie euch an. JEDE EINZELNE!

Oder nutzt links oben die Suchbox und hackt „logon failure“ ein, dann schaut unten nach dem hier

Klickt auf das Zahnrad und Clone

Zwei Dinge passieren gleichzeitig – nicht erschrecken! Zum einen wird eine Kopie der Regel nach oben befördert, zum anderen öffnet sich ein neuer Spielplatz

Ganz oben sehen wir ein Element das wir schon bei den Filtern kennen gelernt haben.
Darunter in violett die Zeit in der wir Schwellwerte einstellen können.

In Gelb (oder ist das orange? Schmutzig-weiss?) sehen wir Aktionen.

Wir sehen auch Actions ganz unten links, klickt da mal drauf!

 

Die verschiedensten Aktionen stehen uns zur Verfügung von einer simplen Email, über das Verschieben von Benutzern in AD Gruppen bis zum Herunterfahren einer Maschine.

 

Hier in thwack haben wir in der Content Exchange auch viele weitere Beispiele für Regeln, Filter und sogar Reporte:

https://thwack.solarwinds.com/community/log-and-event_tht/log-and-event-manager/content?filterID=contentstatus%5Bpublished%5D~objecttype~objecttype%5Bdocument%5D

Schaut mal rein!

 

Ich aber habe jetzt etwas Anderes vor:

Aperol, Prosecco und Orange – auch Spritz genannt.

Prost & bis dann!

It governance is a framework that ensures your organisation's IT infrastructure supports and enables the achievement of the organizations strategies and objectives.

 

As I get ready to dig deep into Governance for my organization, I wanted to share with you all some of the information that I am taking into consideration.   I am not re-creating the wheel, although it does feel like ground zero!  I am starting with a checklist so that I don't bite off more than I can chew!  I have gathered some baseline information to take into consideration.  I am also interested in what other items you all might consider adding to the list, perhaps even another category!

 

Governance should mitigate risk and improve organization performance, allowing for growth!

 

The following 6 items are the focus for my project, and I am certainly open to additional considerations on how to best create and deploy governance!

 

Data Volume

     How much data do we have?

     Where does our data come from?

     How much new data do we generate each year?

     What kind of data do we have?

 

Current Records Management Systems

     How do we currently handle our data?

     What is our current records management policy?

     Where do we store our data?

     Where do we store our current backups of data?

     How long are we storing our data?

     How are we handling our physical records?

     What groups are currently involved in the data management process?

     Have we identified all parties who need to be involved in the decision making process to make changes to current data management process?

     Do we have policies in place regarding use of personal devices and data storage

     Do we have policies in place regarding backing up devices regularly either to company owned devices or network locations.

     Do we segregate out legal hold data?

     How do we identify legal hold data?

     How can we recall the data we need to respond in a litigation or inquiry?

     Do we have a process in place for departing custodians under legal hold?

 

Managing Data

     Who controls our data?

     Who needs our data?

     What organizational data management policies are already in place?

     How much data storage do we have?  How much will we need going forward?

     What types of data sources do we have?

     What data can we delete?

     Do we have a Mobile Device Management Software in place?

     How quickly can we aggregate and organize our data?

     Do we need to classify our data?

     Can you access remote data without the device?

 

Mitigating Risk and Creating Cost Savings

     Can we navigate through our data easily?

     What are our current personally identifiable information or other sensitive data policies?

     Will our new data management policies address regulatory requirements?

     How much money are we spending on managing out data?

     How much time are we speeding on managing our data?

     How often do we need to revisit our data management tools?

     What protections do we have to prevent data loss?

     Have we established an archiving system for transient data?

 

Change Management

     How quickly can we implement change to our data management process?

     Who will we leverage internally and externally to help in changing our data management process?

     Gave we involved all necessary stakeholders that could be affected by changes in data management policies?

     How will this affect our current compliance policies?

     Will we be able to maintain an independent process and if so who will oversee it?

 

Best Practices

     Do we have the governance structure to implement effective data classification?

     How flexible will our data management have to be?

     How will we handle new types of data,  separating employees?

     How well do our technology solutions support enforcement of leading practices an policies?

MSBI stands for Microsoft Business Intelligence. This powerful suite is composed of tools which helps in providing best solutions for Business Intelligence and Data Mining Queries. This tool uses Visual studio along with SQL server. It empower users to gain access to accurate and up-to-date information for better decision making in an organization. It offers different tools for different processes which are required in Business Intelligence (BI) solutions.

MSBI is divided into 3 categories:-

  1. SSIS – SQL Server Integration Services – Integration tool.
  2. SSAS – SQL Server Analytical Services -Analysis tool.
  3. SSRS – SQL Server Reporting Services – Reporting tool.

MSBI Tools

Microsoft provides some tools to transform your business data into information. We can use these tools with the interface of Visual Studio.

With the release of SQL Server 2012, Business Intelligence Development Studio (BIDS) was renamed to SQL Server Data Tools (SSDT).

SQL Server Data Tools(SSDT)

The following provides a brief description of BI Tools:

 

BI Tools
MSBI is composed of tools which helps in providing best solutions for Business Intelligence and Data Mining Queries.

These are the three tools we are using for ETL, Analysis and reporting in MSBI.
MSBI - SSIS SSAS and SSRS

SQL Server Integration Service (SSIS)

SSIS is the ETL tool from Microsoft.

Integration Services is a platform for building high-performance data integration and workflow solutions, including extraction, transformation and loading (ETL) operations for data warehousing.

We can process the data from various locations and various formats (source locations) and save the data into a centralized repository as a Data Warehouse/Data Mart (destination).

It includes graphical tools and wizards for building and debugging packages.

This tool is used for the integration like duping the data from one database to another like from Oracle to SQL Server or from Excel to Sql Server etc.

This tool is also used for bulk transactions in the database like inserting lac’s of records at once.

SQL Server Analysis Service (SSAS)

This is the process of converting two dimensional (rows and columns/OLTP) data into multi-dimensional data model (OLTP). This will help you to analyze the large volume of data.

This tool is used to analyse the performance of the sql server in terms of load balancing, heavy data, transaction etc. So it is more or less related to administration of the SQL Server using this tool.

This is very powerful tool and through this we can analyse the data inserting in to the database like how many transactions happens in a second etc

 

This might be a solution for long awaiting Query for those who don’t want alerts during non-business hrs.

 

Solar winds reads time as Text(Numbers), it starts from 00 < 01 < 02..<..09 < 1,10,11,1..<..2,21,22…etc…

Ex: 11:00 is greater than 10:00 but lesser than 9:00 but greater than 09:00 but all our servers will be Timed like 09:00.

If I want to monitor 10:00 PM to 11:00 PM…place that like greater 10:00 and less than 11:01 and contains PM.

 

For Example if I don’t want alert between 11 PM to 11AM for node down in particular locations.

  1. Create a Custom Property say 11 pm to 11 am
  2. Add all the required sites into the custom property(say sites in same time zone and business hrs)
  3. Use macros\insert variable in drop down and select Time in that with AND condition along node down.
  4. And do like in the screenshot below.

Sascha Giese

High Availability

Posted by Sascha Giese Employee Jan 25, 2018

Tach Zusammen!

 

Um das Thema Skalierung abzuschließen stelle ich jetzt einmal das Sahnehäubchen vor – Orion Hochverfügbarkeit.

Es war einmal…bis Ende 2016 hinein gab es ein schreckliches Produkt bei uns. Ja, ich gebe zu, es war schrecklich: Die Failover Engine, oder auch FOE.
Hat jemand von euch einmal damit gearbeitet? Seid ihr immer noch Mitglied in der Selbsthilfegruppe?
Okay das ist Vergangenheit.
Letztes Jahr wurde FOE durch Orion HA Version 1 abgelöst und seit ein paar Monaten ist Version 2 verfügbar.


Orion HA erstellt im Prinzip eine Kopie des primären Orion Servers und funktioniert durch active/passive, liegt also solange im Hintergrund bis etwas passiert. Der Installationsprozess ist einfach, die notwendigen Anpassungen an die Infrastruktur gering.

Version 1 hatte leider eine Beschränkung: Beide Maschinen mussten im gleichen Subnetz sein.

Bei kleineren Umgebungen ist das kein Thema, aber bei mehreren Standorten muss man hier unter Umständen mit Technologien wie OTV tricksen um das VLAN zu strecken und Datenzentren verbinden.
Die Kommunikation beider Maschinen wird in dem Fall über eine virtuelle IP gelöst.

In Version 2 kam dann richtiges Desaster Recovery und erlaubt den Einsatz über Subnetze hinaus. Die Kommunikation läuft nun über einen virtuellen Hostnamen anstatt einer IP.

Soweit die Zusammenfassung und hier die komplette Dokumentation:

http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_what_is_high_availability.htm

 

Aber ich führe euch einmal durch den Prozess!

 

Zum Verständnis:
Auf meinem Host sitzt sowohl der Orion Server (ORION) und die Datenbank (MSSQL) in einem 10.0.0.0/24 das auch nach draussen geht. Ich habe mir ein 10.0.1.0/24 erstellt das aber nur auf dem Host in einem eigenen vswitch existiert. Dazwischen sitzt eine freundliche VYOS Instanz welche die beiden Subnetze routed.
Im zweiten Subnetz habe ich eine VM ORIONHA erstellt und bisher nur in die Domain aufgenommen.

Zuerst teste ich die Namensauflösung. Es sind drei Tests notwendig; IP, FQDN, Shortname:

Das Ganze muss natürlich auf beiden Maschinen funktionieren!

Bevor ihr loslegt schlage ich vor alle Module auf den aktuellsten Stand zu bringen um Zeit zu sparen.

Öffnet auf der HA Box einen Browser, logged in Orion ein und geht zu Settings à Product… und wählt High Availablahblah:

 

Das sieht noch nackt aus und ich klicke auf Set Up:

 

Viel Auswahl gibt es hier nicht:

 

Ich evaluiere:

Dann lade ich den Installer herunter:

 

Der Installer startet, haltet euch fest…einen Installationsprozess. Und den kennen wir schon.

Ich schlage vor, das Fenster unten zum letzten Test für die DNS Auflösung zu nutzen und nur den einfachen Hostnamen einzugeben:

 

Anstatt APE/AWS wie beim letzten Mal wählen wir nun HA:

 

Oh was ist das da ganz oben?
Es gibt HA für den primären Poller, was ich gerade vorhabe, aber auch HA für zusätzliche Poller.
Das ist bei mir ausgegraut weil keine mehr vorhanden. Also weiter und der richtige Installer startet.

Nur ein Screenshot hier weil wir den schon des Öfteren gesehen haben.

 

Danach startet der Configuration Wizard. Den haben wir auch schon ungefähr so oft gesehen wie James Bond Goldfinger.

Sobald alles durchgelaufen ist wird automatisch die Seite High Availability Deployment Summary aufgerufen und wir sollten beide Maschinen sehen:

 

 

Und jetzt wird es endlich interessant. Wir brauchen einen Namen für den Pool sowie den virtuellen Host – ORIONPOOL in meinem Beispiel:

 

 

Jetzt wird der virtuelle Hostname angelegt:

 

Wir bekommen eine Zusammenfassung und klicken auf das blaue Knöpfchen:

Das war es! Naja fast.

In einer Produktivumgebung kommt jetzt natürlich noch ein Schritt der leider etwas Zeitraubend sein kann:

 

Ich würde an dieser Stelle NCM empfehlen um den Syslog Receiver/Netflow umzuändern.
Mir ist das furchtbar egal, ich ignoriere die Meldung und freue mich über das hier:

 

Ein kurzer Test:

 

Klasse:

 

Wer meinen Blog verfolgt weiss, dass ich stark abhängig bin – von Kaffee. Von daher ist jetzt Zeit für eine weitere Tasse da wir gerade einen Milestone erreicht haben.

Im DNS sieht es übrigens so aus:

 

Perfekt!

Kurz etwas für diejenigen von euch die wie ich unter OCD leiden:

- Ich nehme die ORIONHA Maschine als Node ins Monitoring

  Wenn ich das Orion SAM Template auf der HA Maschine nutze sehe ich „Probleme“:

 

- Ignorieren soweit möglich…schaltet Alarme hierfür aus.

JETZT KOMMT DER ERNSTFALL!


Hat jemand von euch einen Kollegen namens Ernst? Passt gut auf ihn auf.

Ich gehe zu meiner Orion Maschine und klaue das Netzwerk:


 

Teste die alte URL:

 

Mein Beileid:

Aber unter dem virtuellen Hostnamen:

 

Alles gut:

 

Cross-check! Die Dienste laufen nun wie erwartet auf der HA Maschine:

 

Und der Pool sagt „mir geht’s nicht gut, aber irgendwie geht’s trotzdem weiter“ – das sage ich übrigens auch wenn ich zum Mittagessen beim goldenen M war:

War das kompliziert?
Es waren ein paar Schritte sicherlich, aber wir haben gerade die Ausfallsicherheit für unser Orion innerhalb von wenigen Minuten realisiert. Das ist schon eine interessante Sache.

 

Ein paar Dinge noch hinterhergeworfen:

Windowsupdates sollten hier ähnlich behandelt werden wir ihr es bei einem Cluster erledigt, also schön nacheinander.

Orion Updates muss man planen. Wenn auf der primären Maschine Updates eingespielt worden sind, deaktiviert dies den Pool! Hier die Schritte:
http://www.solarwinds.com/documentation/en/flarehelp/sam/content/ha_upgrade_pool_members.htm

 

Es gibt HA für den Anwendungsserver, HA für die Polling Engines sowie HA für zusätzliche Webserver (wobei das vermutlich zu vernachlässigen ist).
Wir kümmern uns nicht um HA für die Datenbank – das ist eure Angelegenheit – nutzt AlwaysOn oder was auch immer am besten passt:
https://logicalread.com/sql-server-availability-technology/

 

Viel Spass mit dem Herumspielen!

As the countdown to the EMEA Partner Summit (formerly Partner Bootcamp) is well underway (we begin on February 5), we want to share a few points on what to expect at next month’s event. We are delighted that the event has grown over the last couple of years, not just in the number of attendees, but also in the breadth and depth of content. We have actually had so much interest that we now run separate tracks for technical and for sales aspects.

 

Just to give a flavor of what to expect, here is a small taster:

 

Keynotes

 

We are delighted to have not one, but three keynote speakers for this EMEA Partner Summit, including:

 

  • Christoph Pfister (EVP Product)
  • Kevin Bury (SVP Customer Success & Business Operations)
  • Ludovic Neveu (GVP Sales)

 

 

Certifications

 

The technical track will focus on training for SolarWinds Certified Professional® (SCP) exams, including:

  • Network Performance Monitor (NPM)
  • Server & Application Monitor (SAM)
  • NetFlow Traffic Analyzer (NTA) (beta)

 

As you can tell, our technical training team didn’t just stop at a single exam for NPM. They have worked tirelessly to extend the scope of products, with SAM in the process of being added to the portfolio. And as a bonus for those attending the Summit, there will be access to a new exam for NTA.

 

However, that’s not all. We are also delighted to announce a brand-new SCP track for Orion® Architecture, aimed at our consultants and partners. This SCP certification will focus specifically on deploying large-scale Orion deployments, and will focus on topics such as:

  • Centralized vs. distributed deployments
  • Deploying high availability
  • Scaling topics for Orion modules
  • Integration with other solutions

 

 

Networking
As promised, we have a great line-up of evening activities. Highlights include a private dining experience at an
award-winning barbeque restaurant. We’re bringing the flavours of our Austin HQ to Ireland, with the former head chef at Jamie Oliver’s Barbecoa Smokehouse.

The Mardyke
Images: © 2017
Mardyke Entertainment Complex. All rights reserved.

Delegates who are staying until Friday are invited to join us on a totally unique quest through one of Cork’s oldest prisons, which is now a top visitor attraction.

Cork City Gaol
Images: © 2017
Cork City Goal. All rights reserved.

 

If you are interested in attending and haven’t registered yet, please contact your Channel Account Manager for more details. And if you have already registered, we look forward to seeing you there.

Howzit, Heita, Aweh or Sawubona are just a few ways to say hello in South Africa. I know because I have been researching South African dialects prior to visiting the country. In early February, I will travel there with two of my colleagues from the sales team in the Ireland office.

 

Quite fortunately, one of my traveling partners is from South Africa and has already been telling me about all of the fantastic tourist attractions we’ll have the opportunity to see. Table Mountain is at the top of my list!

 

This is coming at a perfect time. Having braved the Irish winter, I’m looking forward to getting a chance to work on my tan during this trip.

 

But it won’t be all play and no work. Over the last few months, we have seen some really cool new product releases, including Capacity Planning in VMAN, Cisco® ASA support in NPM, and real-time polling in PerfStack. While in South Africa, we’ll give a number of presentations to highlight some of the recent releases.

 

Customers can register to join us at the SolarWinds Tech Preview Day in Cape Town. Just click here.

 

If any readers of this post are from Cape Town, please comment below where I can find the best biltong.

Sascha Giese

Orion Skalierung

Posted by Sascha Giese Employee Dec 20, 2017

Ich frage mich manchmal ob es einen Zusammenhang zwischen dem Wachstum einer Firma und dem Wachstum des IT Teams gibt. Vermutlich nicht so wirklich!

Es ist leicht zu messen, wenn der Helpdesk überfordert ist und wenn der CEO einmal zu lange auf ein Ticket warten muss ist das vielleicht ein Argument um das Staffing zu erhöhen.

Nagut, wenn der CEO zu lange warten muss wird das Staffing vielleicht zuerst um einen Kopf kürzer…

 

Aber im DC oder Infrastruktur-Management? Eine Handvoll mehr Switches, ein neuer Host - das kann doch alles problemlos von denen verwaltet werden die das bisher auch schon gemacht haben. Aber sicher doch!
In einer perfekten Welt ganz bestimmt, aber in einer perfekten Welt würden Dolce & Gabbana die Frühjahrskollektion kostenfrei direkt zu mir ins Haus liefern.

 

Im Idealfall sollte das IT Team natürlich mitwachsen um mit den erhöhten Ansprüchen umgehen zu können.

 

Das gleiche gilt natürlich auch für ein Solarwinds Deployment.

Die meisten von euch setzen Orion in einem ganz normalen Szenario ein – wir nennen es “central deployment”.

 

Die Orion VM kommt irgendwo in ein DC, oder auch ganz einfach den Serverraum und alles was von dort aus erreicht werden kann wird direkt abgefragt.
Das ist simpel und in der Infrastruktur muss nur sichergestellt werden, dass die Kommunikationsmethoden des/der entsprechenden Module zu den jeweiligen Elementen gegeben sind, als Beispiel also UDP 161 für SNMP, vielleicht UDP 2055 für Netflow.
Die darunterliegende Infrastruktur ist für uns transparent und uninteressant, solange eine Verbindung vorhanden ist.

 

Wie in meinem Posting zur Lizensierung erklärt, kann man das beim NPM bis zu etwa 10000 Interfaces einfach so gestalten. Darüber hinaus muss dann ausskaliert werden.

Der erste Schritt ist hier ein zusätzliches Abfragemodul einzusetzen.

 

Ich werfe in diesem Posting mit verschiedenen Begriffen um mich, lasst mich das zuerst einmal erklären inklusive der Abkürzungen die es bei uns gibt:

 

Zusätzlicher Poller --> Additional Polling Engine --> APE
Zusätzlicher Webserver
--> Additional Webserver --> AWS
Übergeordnete Zentralkonsole
--> Enterprise Operating Console --> EOC
Orion Server
--> Anwendungsserver, aber auch primärer Poller (sobald APE involviert sind)
Hochverfügbarkeit
--> High Availability --> HA

 

Zuerst etwas Theorie – zusammen gefasst:
Ein Poller erweitert die Kapazitäten sämtlicher vorhandener Orion Module um die gleiche Menge wie die „unlimitierten“ Versionen, also pro Poller z.B. weitere 10000 Interfaces beim NPM.
Der Installationsprozess erstellt im Prinzip eine Kopie des Orion Servers, daher sollten auch die Resources identisch sein.
Es wird die gleiche Datenbank genutzt! Das ist wichtig beim Planen des Standortes.

Üblicherweise setze ich mir einen Poller in ein entferntes DC und lasse alles, was dort steht, lokal abfragen. Der Poller sendet die Statistiken direkt in die DB.
Wenn die Verbindung einmal abbricht werden die Daten für eine Weile zwischengespeichert und beim Wiederherstellen der Verbindung in die DB abgesetzt.
Im Moment wird dazu noch MSMQ genutzt welches allerdings mittelfristig durch RabbitMQ abgelöst werden wird.

 

Die komplette Theorie inklusive der Kommunikationsports hier:
https://support.solarwinds.com/Success_Center/Network_Performance_Monitor_(NPM)/NPM_Documentation/Scalability_Engine_Guidelines_for_SolarWinds_Orion_Products?CMPSource=THW&CMP=DIRECT

 

Achtung: Oftmals wird hier nur auf die Ports geachtet. Bitte ignoriert die maximale Latenz nicht – die sollte unter 200 ms liegen.

 

Alles klar, jetzt kommt die Praxis!

 

Der Prozess ist seit etwa einem Jahr denkbar einfach.
Zuerst wird eine VM aufgesetzt die im Idealfall, wie oben schon angemerkt, die gleichen Ressourcen hat wie das primäre Orion System.

Von der VM aus gehe ich mittels Browser auf meinen Orion Server und zu Settings --> All Settings --> Polling Engines und dort klicke ich auf diese freundliche Schaltfläche

 

Das Ding führe ich aus und sehe:

 

Dann werde ich gefragt was ich denn eigentlich vorhabe, ausnahmsweise weiss ich das auch und entscheide mich zuerst für die APE:

 

Oh hier kommt eine Zwischenfrage:

 

Hier sei kurz gesagt, dass APEs sowohl beim SRM als auch beim VMAN kostenlos sind, für die anderen Module aber nicht!
Bei mir spielt Geld aber keine Rolle! Nur bei Dolce & Gabbana

 

Der Installer zieht sich die korrekten Dateien nun vom Orion Server und testet:

 

Bei mir passt alles:

Und dann startet die tatsächliche Installation die aussieht wie die eines einzelnen Orion Moduls daher spare ich uns die Zeit und Screenshots.

 

Das habe ich mir so gedacht! Windows ist anderer Meinung:


Ich schiebe die Schuld einfach auf Windows und starte den Vorgang noch einmal. Windows kann sich schließlich auch nicht wehren.

 

Dieses Mal: Prima!

 

Was jetzt folgt kennt ihr auch:

 

Alles bleibt bei den defaults – next next next und irgendwann:

 

Dann öffnet sich ein Browser mit meiner Orion URL – was jetzt?

Zuerst gehe ich wieder zu Settings --> All Settings --> Polling Engines und verifiziere die APE:

Die APE lebt und ist verbunden aber langweilt sich. Das ändere ich nun.

Manage Nodes

 

Suche mir irgendeine Node und klicke auf More Actions / Change Polling Engine

Wähle aus:

Ich kann links nach Polling Engine gruppieren:

Natürlich kann ich das auch im Bulk ändern mit mehreren Nodes gleichzeitig, ebenso geht das direkt in der Datenbank bei NodesData in der Spalte EngineID:

 

Irgendwann nächstes Jahr reden wir mal über die Datenbank. Aber nicht jetzt.

 

Das gleiche Spiel gibt es beim zusätzlichen Webserver.
Zuerst: Warum brauche ich den?
Wir sagen bei 20-25 Benutzern die gleichzeitig auf Orion zugreifen macht es Sinn, AWS einzusetzen um die Last zu verteilen.
Aber!

Ein AWS ist vergleichsweise günstig für einen dreistelligen Listenpreis zu bekommen.
Einige Kunden setzen den auch bei weniger gleichzeitigen Zugriffen ein allein um ein schnelleres Webinterface zu bekommen.

 

Auch dazu etwas Hintergrund:
Auf dem Orion Server hat das Polling höchste Priorität. Alles andere wird hinterhergestellt.
Wenn die Ressourcen knapp werden, muss unter anderem die Web-Performance darunter leiden.

Wenn das GUI outsourced ist, bekomme ich also auch bei kleineren Deployments bessere Performance.

Probiert es einfach einmal aus – der Prozess ist einfach. Tatsächlich genauso wie oben erklärt daher gehe ich nicht erneut durch die Schritte. Passt einfach nur hier auf:

 

 

 

Gut, jetzt gehen wir mal noch einen Schritt weiter.
Wir garantieren offiziell bis zu neun APEs neben dem NPM (oder anderen Modulen), es gibt Deployments da draußen die deutlich höher ausfallen. Sogar in Deutschland
Wenn ein Unternehmen jetzt aber auch darüber hinauswächst? Sagen wir mal 500 000 Interfaces?

Dann arbeiten wir mit individuellen Instanzen.

 

Hier bekommt jede Region ein eigenes Orion zum Spielen. Mit allen notwendigen Modulen und jeweils einer eigenen Datenbank.

Das System hat viele Vorteile, so kann man z.B. unterschiedliche Lizenzgrößen in Europa und den USA nutzen, auch unterschiedliche Module.
Man hat in den jeweiligen Regionen den vollen Zugriff auf sein eigenes Zeugs und es kann mir relativ egal sein, was an anderer Stelle vor sich geht.
Ebenso kann ich so ein Setup auch als Art von active/active sehen und einige extrem kritische Nodes von zwei Standorten aus überwachen, falls mal irgendwo ein Totalausfall ist.
Last but not least – manchmal gibt es schwierige politische Situationen in einer global agierenden Firma und hier kann ein System mit individuellen Instanzen einfach Brennpunkte aus Diskussionen nehmen. Jeder überwacht halt sein eigenes Zeugs!

 

Aber, auch bei getrennten Instanzen möchte ich sicher irgendwie mit der Gesamtsituation unzufrieden die Gesamtsituation im Überblick halten. Wie geht das?

Dazu gibt es die EOC!

 

Vereinfacht gesagt, ist die EOC das virtuelle Gegenstück zu einer Kontrollwand bei der NASA wie ihr das aus vielen Filmen kennt. Ja genau, die gleichen Filme mit als Raumschiffen getarnten Bügeleisen.

Früher hat die EOC auch tatsächlich so ausgesehen, hat aber vor etwa einem halben Jahr ein neues Kleidchen bekommen und sieht jetzt wie ein modernes Orion System aus.

Verschiedene Orion Instanzen sitzen irgendwo und werden zu einer gemeinsamen EOC verbunden, wo dann die Daten bzw Störungen zusammenfließen.

Die Software wird irgendwo auf einer VM abgelegt und benötigt eine eigene Datenbank. Installiert wird es wieder sehr einfach – hier nur ein Bild:

Dann der Config Wizard, den haben wir auch schon des Öfteren gesehen, aber eine Einstellung ist wichtig:

Legt eine neue DB an. Auch wenn es angeboten wird, nutzt nicht die Orion DB.
Nochmal.
Legt eine neue DB an.

 

Das kann gerne in der gleichen Instanz wie ein Orion sein, aber erspart euch den Ärger und mischt es nicht in die gleichen DB.

Nach Installation und Login erscheint dieses Element:

 

 

Ich verbinde mein Orion:

 

Ich kann der Instanz einen netten Namen geben oder vielleicht einen speziellen Benutzer anlegen:

 

Das war es:

 

Viel gibt es hier allerdings nicht zu tun.

Irgendwo läuft etwas nicht wie gewünscht zeigt die EOC es an, ihr klickt drauf und landet dann bei der entsprechenden Orion Instanz.

Weitere Informationen gibt es hier:

https://support.solarwinds.com/Success_Center/Enterprise_Operations_Console_(EOC)

 

Okay, wie so üblich gibt es ein paar Themen auf die ich nicht eingegangen bin!
Bei den APEs gibt es z.B. auch „stackable“ Poller, also „stapelbar“ was nichts anderes heisst, dass ich einen Zusatzpoller auf die gleiche VM wie das Orion selbst werfen kann.
Ganz vorsichtig ausgedrückt ist das suboptimal, da zum einen nicht jedes Modul stacked Poller unterstützt, und ich so zum anderen weder Loadbalancing noch Regionen auseinanderziehen kann.

 

Ein großes Thema auf das ich hier nicht eingegangen bin ist die Ausfallsicherheit/Hochverfügbarkeit. Das allerdings hebe ich mir für einen neuen Blogpost nächstes Jahr auf!

 

Bis dahin wünsche ich euch frohe Weihnachten usw usw.

Ich schreibe dies gerade während eines weiteren Aufenthaltes in unserem Büro in London und Secret Santa hat gerade stattgefunden (auf Deutsch: Wichteln). Man kennt mich hier zu gut:

 

Geekzeugs, Katzen, Essen…toll! Nur kein Dolce & Gabbana, aber das kommt dann sicher, wenn ich wieder zurück in Cork bin!

Bis dahin macht es gut und entspannt euch!

Tach,

 

Bereit für die nächste und letzte Runde mit unserem Patch Manager?

 

Wir hatten bisher über die Installation und die ersten Schritte gesprochen und sind einmal einen einfachen Patchprozess durchgegangen. Was noch fehlt, ist das Erstellen eines eigenen Paketes.

Leider warte ich seit August auf meinen Schokoriegel! Aus reiner Verzweiflung habe ich neulich einen Schnitzelberg gegessen:

 

Ich hatte ja schon erwähnt, dass wir eine Liste von Updates haben die wir permanent aktuell halten damit ihr es einfach habt.
In der Liste sind weit verbreitete Pakete wie Firefox, Chrome usw usw. Damit kommt man schon ziemlich weit aber, machen wir uns nichts vor, es gibt mehr dort draußen.

Damit der Patch Manager flexibel bleibt gibt es natürlich die Möglichkeit eigene Pakete zu erstellen. Rein theoretisch kann ich die Lösung sogar benutzen um komplett neue Software in meiner Infrastruktur auszurollen.

 

Fangen wir an.
Der erst Schritt ist immer der gleiche: Man benötigt frischen Kaffee. Hört auf zu Lesen. Geht zur Kaffeemaschine. Geht nicht über Los.

 

Danach klickt man in der Konsole auf Administration and Reporting --> Software Publishing --> All Packages (oder auf irgendein Packet), dann ganz rechts auf „New Package“ und ein unschuldiges Fenster erscheint:

 

Schreibt jetzt mal irgendetwas bei „Package Title“ hinein und die Unschuld geht verloren:

 

Hier werden jetzt fehlende Informationen angezeigt die aber zur Weiterverarbeitung benötigt werden.
Füllt das aus wie es passt, hier wurde die Unschuld wiederhergestellt:

 

 

Jetzt wird es interessant. Regeln. Wir lieben Regeln, oder nicht?

 

Wozu brauchen wir die? Eigentlich klar; wir wollen vorab sicherstellen, dass das Paket nicht auf die falschen Maschinen trifft um Probleme zu vermeiden.
Es gibt vier verschiedene Startpunkte:

 

Ich bleibe beim obersten und habe dann eine weitere Auswahl:

 

An dieser Stelle sind die drei ganz oben die interessantesten Optionen, um zwischen 32/64 Bit, Sprachen und OS Versionen zu unterscheiden bevor das Paket überhaupt weiterverarbeitet wird.

Ein Beispiel:

 

Okay weiter geht’s.

Beim nächsten Fenster gibt es dann das vermutlich wichtigste Feature – die Scripting Engine.
Liegt versteckt hinter dem kleinen grünen Icon

 

 

Ich kann hier beliebige Schritte vor und nach dem Starten des Paketes ausführen und verketten.

 

Klickt einfach mal ein wenig herum und macht euch mit den Optionen vertraut, hier wieder das populärste Element:

 

Run a program kann vielleicht cmd.exe starten und irgendwas ausführen mit Schaltern hintendran, oder warum nicht gleich PowerShell mit komplexeren Scripts?
Alles geht!

Protipp: Ich kann leere Pakete erstellen und einfach die cmd.exe starten ohne weiteres, kein Update kein nichts, nur um an die Scriptfunktion an dieser Stelle zu kommen. Ähnlich wie beim SCCM.

 

Gut weiter. MEHR REGELN!!!

 

An dieser Stelle wissen wir bereits, dass das Paket nur auf bestimmte Maschinen trifft.
Vielleicht Windows 10, Deutsch, 64 Bit.

Aber wir müssen jetzt aufpassen. Ein Paket, das mit den bisherigen Informationen auf eine der obigen Maschinen trifft, wird ausgerollt.
Wollen wir das in jedem Fall? Bestimmt nicht!

Wir wollen etwas Bestehendes updaten aber nicht auf jeder Maschine neu installieren. Also suchen wir die Bestätigung, dass eine vorherige Version der Software schon da ist.

Dazu gibt es zwei simple Methoden – ein Check der Registrierung nach einem bestimmten Key, oder, falls das nicht geht, eine Datei irgendwo die sicherlich vorhanden sein muss.
Beides kann man anlegen und bei den Dateiregeln sogar ziemlich granular:

 

Danach kommen nur noch ein paar Zusammenfassungen aber nichts Wildes mehr und die Paketierung ist abgeschlossen.

Das wichtigste jetzt ist testen, testen, testen. Ihr wollte sicher kein Java auf den Domain Controllern ausrollen.

 

Nicht vergessen: Wie auch bei den von uns betreuten Paketen muss das Ding noch an den WSUS weitergeliefert werden, also immer rechtsklick und „publish“

Es gibt noch weitere interessante Themen rund um den Patch Manager, wie vielleicht das Reporting oder auch eventuell das Setup in größeren Umgebungen.

 

Aber im Prinzip ist mit den drei Artikeln zum SPM nun alles gesagt, legt einfach mal los und spielt etwas herum.
Wenn es Fragen gibt wisst ihr ja, wie und wo ich zu erreichen bin. Ein Snickers hilft dabei meine Antwortzeit zu minimieren!

Sascha Giese

DPA Erste Schritte

Posted by Sascha Giese Employee Nov 30, 2017

Kaum zu glauben – es ist schon ein Jahr her, dass ich etwas über Datenbanken geschrieben habe:
https://thwack.solarwinds.com/groups/thwack-emea/blog/2016/11/30/immer-diese-datenbanken

Vor ein paar Monaten bin ich auf den SAM eingegangen und heute bekommt der DPA seinen grossen Auftritt.

 

DPA misst die Zeit die ein Query innerhalb der Datenbank verbringt und zeigt, wo die meiste Zeit aufgebracht wird. Das funktioniert ohne Agent und ohne Änderungen an der Datenbank.
Die Software ist getrennt von Orion, integriert sich aber gerne in eine bestehende Umgebung.
Fangen wir bei Null an. Wobei, ich schreibe das gerade aus unserem Buero in London und hier ist es furchtbar kalt, fast schon unter Null!

 

Die Installation ist denkbar einfach:

 

Ein paar Mal auf Next und 90 Sekunden später ist die Sache erledigt. Das folgende Fenster erscheint:

 

Also weiter geht es im Browser eurer Wahl.

Zuerst wird das Repository angelegt. Das ist die DB in der DPA sein eigenes Zeugs ablegt.

 

Kompatibel sind die folgenden Systeme:

 

In den meisten Fällen wird eine SQLExpress vollkommen ausreichen. Es gibt nur eine Regel:
Nehmt nicht die DB die ihr überwachen wollt, da sonst die Ergebnisse nicht realistisch sind.

Ich nehme eine kleine DB die auf meinem Orion Server liegt. Nicht wirklich empfehlenswert aber ich bin ja auch nicht produktiv!

 

Ich lasse mit dem SA Konto einen Benutzer anlegen:

 

Das Erstellen des Repository dauert nur wenige Sekunden und wir klicken auf „Register“.

Jetzt wird die DB eingehängt die wir tatsächlich überwachen wollen.

 

Ich entscheide mich für meine SQL

 

Keine Sorge wegen des SA Kontos hier. Das dient nur zum Erstellen des Benutzers im nächsten Schritt:

 

Mehr zu den erforderlichen Berechtigungen beim SQL hier:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/SQL_Server_permissions_for_DPA_monitoring

Und für Oracle:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Oracle_permissions_for_DPA_monitoring

 

Alles erledigt! Ein nahezu leeres Dashboard begrüßt euch, aber Daten kommen nun hinein:

 

Weil ich aber nicht Tage warten möchte wechsle ich auf ein schon bestehendes System:

 

Schaut mal auf das Element rechts. Eigentlich wollen wir ja immer, dass Trends nach oben gehen. Hier nicht!

Es ist Wartezeit und die soll gefälligst sinken. Also schalte ich auf „trending down“

 

Was heisst das jetzt? Nichts Gutes! Die Wartezeit ging leider hoch.

 

Schauen wir einmal warum.

Unten ist meine SQL Instanz und wir sehen schon, dass irgendwo ein Problem mit einem Query vorliegt:

 

Ich klicke auf die Instanz.

Das erste was ich sehe ist die Gesamtwartezeit innerhalb der letzten 30 Tage

 

Ich sehe auch direkt, dass meine Baseline bei etwa 22 Minuten am Tag liegt, irgendetwas muss am 08.11. passiert sein, und die Wartezeit wird hauptsächlich durch ein einziges Query erzeugt.

Ich bin jetzt echt interessiert am 08.11. Was war da los? Eine kurze Googlesuche sagt mit, dass Gordon Ramsey am 08.11. geboren wurde, aber 1966 und nicht 2017. Das kann es also nicht sein.

 

Nagut, dann klicken wir mal auf den Tag.

 

50 Sekunden Wartezeit pro Stunde mit der Ausnahme von den zwei Stunden zwischen 0800-100. Es wird immer unheimlicher. Es kann nur ein SQL-Poltergeist sein.

Ich klicke auf 0800. Nur ein Query hat hier wirklich etwas getan. Wir sehen auch schon anhand der Farbe und der Legende rechts, wofür in etwa die Zeit aufgebraucht wurde

 

Ich bin mal mutig und klicke auf das Query.

 

Wir sehen oben 482 Ausführungen innerhalb der Stunde und es war eine reine lesende Abfrage.

Ich kann dem Query oben einen Namen geben „name SQL“, rechts habe ich zwei Knöpfe für weitere Informationen mit historischen Daten und zusätzlichen Statistiken.

 

In meinem Fall steht hier nicht sehr viel – aber das ist auch klar. Ist ein neues Query verursacht von einem Report, den es vorher noch nicht gab.
Wenn ich nur wüsste, was ich da versucht habe!

 

Was auch immer. Wo wir gerade hier sind, schauen wir einmal nach oben.

 

Ich kann hier vom Query zurück navigieren auf den ganzen Tag.

Dort angekommen kann ich hier die Stunde erneut auswählen:

 

Aber jetzt passt mal auf.

Links ist ein Button für „Timeslice“ und nach Klicken dort kann ich einen granularen Intervall einstellen:

 

Unten sehe ich dann die Stunde unterteilt in 10 Minuten:

 

Klickt mal auf einen Block. Dann wieder auf Intervall:

 

Jetzt kann ich mir das ziemlich genau anschauen. Schade, dass das so versteckt ist!

 

 

Wenn ich aber nicht gezielt nach einem Problem suche, sondern einfach nur mal schauen möchte was mein SQL gerade so macht (und warum er gefühlt eine Million GB Ram braucht), nutze ich die Navigation oben und gehe zurück auf den ganzen Tag:

 

Jetzt klicke ich auf einen der anderen Buttons – wie wäre es mit dem hier:

 

 

Rechts sehe ich gut aufgelöst die Programme/DLL die auf die DB zugreifen:

 

Klickt bei der Gelegenheit klickt einfach mal auf die anderen Knöpfchen. Bei einer Produktivumgebung ist der Punkt DB User meist recht interessant – da sieht man vielleicht sogar, wer wirklich arbeitet

Scrollt mal etwas herunter da sind vier weitere Reiter. Nein, nicht die apokalyptischen. Okay der letzte vielleicht:

 

Klickt wieder etwas herum.
Wenn bei euch, so wie bei mir, gerade keine Deadlocks sind guckt einfach hier nach weiteren Details:

https://support.solarwinds.com/Success_Center/Database_Performance_Analyzer_(DPA)/Deadlock_analysis_in_DPA

 

Oben sind noch mehr Knöpfe. Es kann nie genug Knöpfe geben.

 

Wenn man auf Resources klickt gibt es ein paar Standardkennzahlen, die mit dem Umweg SQL über WMI aus der Maschine herausgezogen werden. Die Elemente hier sind selbsterklärend und ich verliere nicht viel Worte. Schaut euch um.

 

Aber nicht zu viel! Es gibt noch mehr zu sehen!

Ziemlich weit oben ist ein Knopf bei mir der bei euch vielleicht noch nicht ist:

 

Beim DPA gibt es ein optionales Paket mit dem Namen „VM Option“, das getrennt lizensiert werden muss. Ich kann mir hier mein vCenter oder meinen ESX direkt einpflegen.

Dazu gehe ich zuerst in die Options und dann „Register…“

 

Es werden readonly Berechtigungen benötigt daher es sollte kein Problem sein, diese von eurem freundlichen VM Admin zu bekommen.
Das vCenter wird scanned und nach einigen Sekunden sollte in der Übersicht der Instanzen rechts ein kleines Icon erscheinen:

 

Wenn ich jetzt also ganz oben auf Virtualization drücke sehe ich zuerst unten in der Übersicht etwas andere Info

 

Spannend wird es jetzt, wenn ich auf die Instanz klicke und alles etwas anders aussieht:

 

Wenn ich auf einen der Pfeile klicke erscheint ein Popup:

 

Ich sehe nun also Events aus der virtuellen Umgebung. Das ist stellenweise mehr als nur nett, weil es mir Dinge erklären kann die ohne diese Informationen so viel Sinn ergeben wie Grünkohl.

Ganz oben der Reiter VM Config:

 

Darunter mehr Knöpfe:

 

Wir sehen mit welchem Host wird es zu tun haben, welche anderen VMs dort sind und wie diese priorisiert sind.
Dazu fällt mir eine Anekdote ein – ich hatte irgendwann mal eine DPA Demonstration mit einem IT Manager der an dieser Stelle sagte „Das sind Informationen die ich meinem DBA niemals geben würde. Danach kündigt der mir noch!“

 

Wir sind fast durch. Folgt ihr mir noch? – Gut!

Ganz oben haben wir noch Buttons:

 

Bisher waren wir auf HOME, klicken wir kurz auf REPORTS

Nach Auswahl der Instanz gibt es ein paar vordefinierte Berichte

 

Unter Report Options kann ich das Ding noch etwas anpassen, unter anderem mit meinen eigenen Statements:

 

 

Das gleiche bei den ALERTS. Hier erlaubt mir „custom“ meine eigenen Statements:

 

Aber ihr seht schon, Berichte und Alarme sind hier eher rudimentär wenn man es mit Orion vergleicht.

Bei den OPTIONS finden wir Grundeinstellungen, können SMTP und AD zufügen sowie andere administrative Aufgaben erledigen.

 

Unter THWACK findet sich wieder etwas Interessantes:

 

Das bringt euch zu benutzerdefinierten Berichten. Diese laufen nicht innerhalb von DPA!
Die Berichte dort werden gegen das Repository gesetzt um spezielle Informationen herauszuziehen. Dazu nutzen wir dann das Management Studio.

 

Jetzt klicken wir auf LOGOUT und verlassen DPA und gehen zu Orion.

Dort unter Settings --> Product specific Settings finden wir Database Performance Analyzer

 

Nach dem Verknüpfen werden automatisch Abhängigkeiten gesucht für den Fall, dass ich Anwendungen überwache die auf meine DB zugreifen.
Das Resultat sieht dann so aus:

 

DPA bringt also seine Informationen in die Orion Plattform. Das ist interessant auf mehreren Ebenen, z.B. im Zusammenspielt mit AppInsight, aber natürlich auch dem Appstack

 

 

Noch recht neu ist die Integration in den Perfstack

 

Das ist schon heiss, oder nicht?
Hier in London ist es immer noch kalt aber das Problem beseitige ich jetzt mit einem Kaffee!

Update: SCM und LA unten eingefügt, SAM Lizenzwechsel

 

Ich arbeite ja in so einer komischen Position als Techniker im Vertrieb.
Das Problem mit der Rolle liegt darin, dass du zwei verschiedene Persönlichkeiten haben musst; die eines Vertrieblers (extrovertiert, schnell handeln) und die eines Technikers (introvertiert, überlegt handeln).

Erst meine multiplen Persönlichkeiten erlauben mir also in meinem Job zu funktionieren. Macht mir das mal nach.

 

Eine Frage bei der sich die Interessengebiete von Vertrieb und Technik häufig Überschneiden ist die nach der Lizensierung der Solarwinds-Produkte.

Hierzu muss man natürlich bedenken, dass jedes Produkt anders lizensiert wird weil man zum Beispiel in der Virtualisierung mit anderen Kennzahlen zu tun hat als in einem Netzwerk.

Schauen wir uns einmal die Produkte einzeln an.

 

NPM (Network Performance Monitor)

 

Das Schwierigste zuerst.
Offiziell wird NPM lizensiert nach der höchsten Anzahl von Elementen einer Kategorie.
Elemente wären Ports/Interfaces, Nodes, Volumes. Die höchste Anzahl davon ergibt dann die Lizenz, und es gibt verschiedene Stufen.
Das versteht kein Mensch und keine Katze!

 

Also ein Beispiel:
Wir haben einen Switch, einen Router und einen Server.

Node    Interface             Volume

1             48                           0             --> Switch

1             2                             0             --> Router

1             2                             4             --> Server

 

Macht 3 Nodes, 52 Interfaces, 4 Volumes, also zusammen 59, hier ist der Beweis:

 

Aber nur die höchste Anzahl in einer Kategorie zählt! Das sind in 99% aller Fälle die Interfaces und in diesem Fall 52. Ich kann demnach 51 Geräte und insgesamt 51 Volumes haben – spielt keine Rolle solange die Zahl kleiner ist als 52.
Natürlich kann ich von den 52 Ports noch entscheiden, welche mir wichtig genug zum überwachen sind.

Eventuell noch Bedenken, dass virtuelle Interfaces auch mitgezählt werden, vielleicht ein VLAN, wenn ich es auch monitoren möchte.

NPM ist verfügbar in verschiedenen Größe, von „bis zu 100 Elementen“ bis zu „theoretisch unlimitiert“.

 

Verstanden?
Der hier schon und hat sich wieder hingelegt. Er heisst übrigens Palpatine wie der Imperator in Star Wars.

 

 

NTA (Netflow Traffic Analyzer)

 

NTA ist simpel – es wird immer an die vorhandene NPM Lizenz gekoppelt.
Der technische Grund ist der, dass NPM den Interface-Index liefert den NTA braucht, um Flows zuzuordnen.
In manchen Situationen ist das zugegebenermaßen nicht optimal, vielleicht bei einer riesigen NPM Lizenz aber nur einer Handvoll Flowexportern, aber andererseits ist uns die Menge an generierten Flows vollkommen egal.

Ein einzelnes Abfragemodul kommt spielen mit 50000 flows pro Sekunde klar.
Also, ein NPM 2000 benötigt ein NTA 2000.

 

NCM (Network Configuration Manager)

 

Ebenfalls einfach – jedes Gerät, mit dessen Konfiguration hantiert wird, konsumiert eine Lizenz.
30 Switches --> NCM 30.

 

IPAM (IP Address Manager)

 

Hier reden wir von „managed IP“ die lizensiert werden müssen.
Beim IPAM gibt es vier verschiedene States:

 

Available wird nicht lizensiert, die drei anderen schon.
Rechenbeispiel: Ich habe ein /24 aber nur noch knapp 200 Adressen sind frei, also muss ich nur die 50 lizensieren.
Die Anzahl an DHCP und DNS Servern sind uninteressant.

 

UDT (User Device Tracker)

 

Hier werden einfach alle Switchports in einen Topf geworfen. 10 x 24 sind ungefähr 240! Ich bin mir fast sicher!

 

VNQM (Voip & Network Quality Manager)

 

Okay jetzt müssen wir uns wieder konzentrieren.
VNQM wird über zwei verschiedene Datensätze lizensiert: IP Telefone und IP SLA Quellen.
Telefone sind klar, bei IP SLA sollte man sich mit der Technologie auseinandersetzen – das kann man hier.
Es werden nur die Quellen lizensiert, nicht die Beantworter. Wenn eine distributed operation genutzt wird, können dort unter Umständen mehrere Quellen definiert sein.

Hier gilt wieder die höchste Anzahl einer der beiden Datensätze. VNQM startet mit 5/300, wenn ich also 6 IP SLA Quellen habe, aber nur 200 Telefone, muss ich trotzdem in die höhere Lizenzstufe die bis 25/1500 ausreicht.

 

Der Kollege hier hängt grad irgendwie und muss sich das noch mal durchlesen. Er heisst übrigens Chewbacca wie…ach, den kennt ihr.

 

VMAN (Virtulization Manager)

 

Etwas Einfaches zwischendurch – die Virtualization Manager wird über die Gesamtanzahl der physischen CPU in allen Hosts lizensiert, also wie das vCenter.
Cores spielen keine Rolle.

 

SRM (Storage Resource Monitor)

 

Bei Storage ist es auch einfach, hier wird nach Disks lizensiert. Also alles was von euren Arrays als Disk gesehen wird, ob das jetzt rotiert oder virtuell ist. Hier auch einfach die Gesamtanzahl nehmen.

 

SAM (Server & Application Monitor)

 

Seit Juli 2019 wird SAM bei allen neuen Lizenzen per Knoten lizensiert, es ist vollkommen unabhängig was genau auf der Maschine überwacht wird, oder wieviele Volumes im System sind.

 

 

SPM (SolarWinds Patch Manager)

 

Der Patch Manager lizensiert sich total langweilig über die Anzahl an Systemen die patched werden. Dabei spielt es keine Rolle ob das Server oder Workstations sind, und auch die Anzahl der eingesetzten Patch Manager Instanzen bzw Rollen ist unerheblich.
Es ist auch gleich ob dahinter ein WSUS oder SCCM steht.

 

WPM (Web Performance Monitor)

 

Okay das ist manchmal eine Herausforderung. Der Web Performance Monitor erlaubt es, Schritte innerhalb des Browsers aufzunehmen um detaillierte Funktionen einer Webanwendung zu testen. Diese Tests können dann von beliebigen Standorten oder auch der Cloud ausgeführt werden.
Lizensiert wird er über das Produkt von Aufnahmen und Standorten, die diese Aufnahmen wiedergeben. Wir nennen die Summe Transaktionen.

 

Beispiel:
Ich habe einen Webshop und einen Exchange mit OWA. Den Webshop teste ich von meiner Zentrale in Deutschland und meiner Zweigstelle in Wien, sowie aus der Cloud.
OWA teste ich nur von meiner Zentrale aus.
Also 4 Transaktionen insgesamt.

 

WHD (Web Help Desk)

 

Die Anzahl an Technikern, die innerhalb von WHD registriert sind, definieren die Lizenz. Also vielleicht: 5 Mitarbeiter in der IT die an Tickets arbeiten, alle 5 werden dann innerhalb von WHD lizensiert.

Langweilig!

 

LEM (Log & Event Manager)

 

Beim Log & Event Manager spielen die eindeutig identifizierten Log-Quellen eine Rolle. Ob von einer IP jetzt verschiedene Logs kommen ist egal, es kann also ein Windows Server gleichzeitig einen Webserver betreiben und die Daten von irgendeinem Endpoint-Security System liefern.
Aber aufgepasst: Es gibt eine Lizenzstufe für Server und Netzwerkkomponenten, und darüber hinaus ein Addon für Workstations welches günstiger ist. Klar, ich habe ja meistens auch ein oder zwei Workstations mehr als Server!

 

DPA (Database Performance Analyzer)

 

Eigentlich ist die Lizensierung ganz einfach…pro DB Instanz, in den meisten Fällen also pro Server. Es kommt recht selten vor, dass ich zwei Instanzen auf der gleichen VM laufen habe, aber in dem Fall müssen dann beide getrennt lizensiert werden.
Aber! Wir unterscheiden hier nach DB System in zwei Kategorien.
Die günstigere ist Cat2 und passt für alle MSFT SQL, MySQL und alle Oracles bis auf EE.
Die Cat1 erlaubt Oracle EE, DB2 und Sybase

 

Cat2 auf dem Bild oben, Cat1 unten ist nicht wirklich eine Cat, aber weiss das nicht.

 

SCM (Server Configuration Monitor)
SCM nimmt die Knoten deren Konfiguration überwacht wird zur Lizensierung. Es ist unerheblich, ob das eine VM, Workstation oder Server ist. Ebenso spielt die Anzahl der überwachten Konfigurationen auf einem Knoten keine Rolle.

 

LA (Log Analyzer)

 

Auch hier ist die Lizensierung sehr einfach: Jede einzelne Gerät das aktiv Logs zu LA sendet, konsumiert eine Lizenz. Das Volumen wird nicht betrachtet. Gut für sehr gesprächige Quellen wie Firewalls oder Hosts!

 

 

 

Ich habe einige Produkte ausgelassen deren Lizensierung aber extrem einfach ist.

Von daher noch ein paar weitere Dinge!

 

Jedes Produkt ist in verschiedenen Stufen erhältlich und bei den meisten gibt es am oberen Ende der Fahnenstange eine Version die üblicherweise auf *LX endet, z.B. NPM SLX, und die wir als theoretisch unlimitiert bezeichnen.
Theoretisch heißt, dass es in der Praxis eine technische Limitierung gibt und die tritt dann ein, wenn das Abfragemodul (Poller) überfordert ist.
Nehmen wir als Beispiel den NPM, dort sagt das System bei etwa 10000 Interfaces und den Standardintervallen „ich kann nicht mehr“. Man kann dann entweder die Intervalle verlängern um dem System mehr Luft zu geben, oder aber ich skaliere nach oben und setze einen weiteren Poller dazu. Diese zusätzlichen Abfragemodule, wir nennen sie APE (Additional Polling Engine), dienen dem erweitern der Kapazität aber können auch genutzt werden um größere, verzweigte Umgebungen klüger zu überwachen.
Ich werde irgendwann mal darüber bloggen, solange schaut einfach hier in die Originaldoku:

Scalability Engine Guidelines for SolarWinds Orion Products - SolarWinds Worldwide, LLC. Help and Support

 

Wenn ich sehen möchte was zur Zeit in Benutzung ist und was noch frei ist, klicke ich innerhalb von Orion auf Settings --> All Settings --> License Details (ganz runterscrollen):

 

Ebenso, unter Settings --> All Settings --> Polling Engines sehe ich wie beschäftigt mein Abfragemodul ist.
Wenn ich mehrere Poller habe tauchen diese auch an exakt dieser Stelle auf:

 

Die hier sind extrem beschäftigt:

 

Macht’s gut!

graeme.brown

Seasonal changes

Posted by graeme.brown Nov 14, 2017

Winter is coming slowly but surely. today was chilly and breezy. Making it perfect for hot chocolate and fuzzy sweaters.

SolarWinds uses cookies on its websites to make your online experience easier and better. By using our website, you consent to our use of cookies. For more information on cookies, see our cookie policy.