1 2 3 Previous Next

THWACK EMEA

79 posts

Habt ihr ein paar Minuten Zeit?

 

Vogel IT-Medien führt gerade wieder die jährlichen „Reader’s Choice“ Kampagnen durch und SolarWinds ist gleich zweimal nominiert.

 

Einmal nominiert im Bereich Netzwerk-Überwachung ist unser Network Performance Monitor (NPM), und die Auszeichnung wird über IP-Insider vergeben.
Zur Umfrage geht es hier.

 

Bei der zweiten Auszeichnung ist Security Event Manager (SEM, vorher LEM) in der Kategorie SIEM beim Security-Insider nominiert und die Umfrage findet sich hier.

 

Aber!

Dort findet sich auch die Kategorie Access Management, bei der unser Access Rights Manager (ARM) nicht nominiert worden ist. Hier kommt ihr jetzt ins Spiel.
Bei der entsprechenden Position gibt es die Option ein ungenanntes Produkt vorzuschlagen.
Wenn ihr der Meinung seid, dass ARM dort auch unter die Besten gehört, tragt bitte „SolarWinds“ ein.

 

Die Umfragen laufen bis zum 31.August und ein Repräsentant der Firma kann die Preise in Augsburg im Oktober in Empfang nehmen.

 

Ich war noch nie in Augsburg. *zaunpfahl*

 

Leute, ihr müsst mehr Patchen.

 

Im April hatte ich die Gelegenheit auf vier verschiedenen Events mit IT Profis zu reden.
In Deutschland und UK, mit dem privaten sowie öffentlichen Sektor, mit Militär und Regierungen.
Und überall das gleiche Problem: Patching.

 

Das kann doch nicht so schwer sein! Was habe ich nicht alles gehört. Es fängt an mit:

 

 

„Ehrlich gesagt weiss ich gar nicht, welche Software in meinem Unternehmen im Umlauf ist.“


Die Aussage tut so weh.
Unglücklicherweise ist das tatsächlich ein Problem und nicht immer simpel zu lösen.


Vor ein paar Jahren war ich bei einem Hersteller von Computergames beschäftigt, und die Umgebung war damals noch „locked down.“
Hat Vorteile.
Die Endbenutzer sind keine lokalen Admins, also kein Wildwuchs bei der installierten Software.
Nach dem Erstellen einer Baseline weiss die IT genau, was wo bei wem installiert ist. Man braucht nur wenige Pakete unterstützen, und man braucht nur wenig Glaskugel, um das Verhalten der Geschäftssoftware bei einem neuen Patch vorab einzuschätzen.

 

Um meine eigenen Erfahrungen weiter zu nutzen; ich war auch ein paar Jahre bei einem anderen Unternehmen als Manager im technischen Support tätig.
Dort hatte ich zwar ausreichende Rechte um Software zu installieren, mein Team jedoch nicht. Wie nennen wir das…selektives Misstrauen?

 

Bei meinem aktuellen Arbeitgeber gibt es dagegen das Prinzip „Grundvertrauen“ nach Schulung der Mitarbeiter.

Die Vorteile dieses Systems liegen ebenfalls auf der Hand: Die Produktivität wird nicht gehemmt.

 

Die Diskussion, welche Regelung nun die Beste ist, überlasse ich anderen.

Klar ist jedoch, dass der Bedarf eines aktiven Software-Inventars bei der dritten Option absolut unabdingbar ist. Eine Baseline reicht hier nicht aus auf Grund der Dynamik.

Es gibt verschiedene Lösungen zur Inventarisierung bei der Suchmaschine eures Vertrauens, und wir sehen von handgestrickten PowerShell Scripts die manuell eine CSV befeuern bis zu omnipotenten Asset Management Systemen die sogar Bestellprozesse unterstützen.

 

Okay, der Punkt ist also valide, aber es gibt verschiedene Lösungsansätze für die jeweilige Situation.
Ich muss wissen mit welchen Paketen ich es zu tun habe, bevor ich eine Patch-Strategie entwickeln kann.
Weiter geht’s.


„Es gibt ständig neue Versionen von X und Y. Es ist schwierig, auf dem aktuellen Stand zu bleiben.“

 

Nö, ist es nicht.
Es gibt viele Webseiten die genau dafür existieren. Ich stelle auch die Behauptung auf, dass jeder IT Pro jeden Tag etwas Zeit auf generellen IT News Webseiten verbringt; das sollte zum Job gehören, und dort wird zumindest über die wichtigsten Updates berichtet.
Man kennt ja die üblichen Verdächtigen.

Eine Alternative wären Newsletter und man lässt sich dadurch auf dem Laufenden halten. Ist nur keine Alternative für mich, ich stehe mit Newslettern auf dem Kriegsfuß.

Luxuriöser wird es dann mit entsprechender Software. Auch hier gibt es wieder verschiedene Optionen wie Freeware, ebenso wird in manchen Unternehmen ein Desktop Security Client eingesetzt der solche Funktionen mitbringt, oder aber eine spezifische Lösung zu diesem Thema.


Der Zeitaufwand hierfür ist wirklich gering. Ab geht’s zum nächsten Punkt.

„Ich komme mit dem Testen nicht hinterher.“

 

Mein erster Gedanke war „Wirklich?“ aber ja, manchmal kann das immer noch ein Problem sein. Ein ernsthaftes.


Die gute Nachricht zuerst: Früher war alles Schlimmer!

Als wir noch eine geschätzte Million Desktopanwendungen genutzt haben, von denen die Hälfte auf obskuren Frameworks basierte, war das Testen ein Alptraum.

Wenn ich heute mal auf meinen eigenen Desktop schaue, so schreibe ich diesen Text im vermutlich am weitesten verbreiteten Textverarbeitungsprogram der Welt, aber das ist neben seinen Kollegen aus dem gleiche Paket und einem SSH Client auch so ziemlich die einzige Desktop-Anwendung die ich noch nutze. Alles andere wird über den Browser bedient und das wird bei vielen von euch ziemlich ähnlich sein.
Tatsächlich könnte ich den Text auch im Browser schreiben, aber manchmal bin ich einfach old-school. Moment, habe ich gerade manchmal geschrieben?

 

Aber natürlich gibt es noch verteilte Anwendungen mit „fat clients“, dringend benötigten lokalen Komponenten. Gerade in Behörden wird stellenweise noch mit Software gearbeitet die vermutlich beim geringsten Windhauch zu Staub zerfällt und nur unter sehr kontrollierten Bedingungen überhaupt lauffähig ist.

Da muss man testen. Sorry, kein Workaround verfügbar.
Jeder hat eine Kopie einer Produktivumgebung auf einer VM mit aktuellem Snapshot, aber meiner Erfahrung nach hat nicht jeder ein Testprotokoll dem Folge geleistet wird, was dann trotz dem Testen noch Überraschungen zur Folge haben kann.
Tatsächlich kostet das Erstellen eines Protokolls erst einmal Zeit, aber die wird locker wieder rausgeholt.

 

Das gibt mir das Stichwort zum nächsten Kommentar:

 

„Ich habe keine Zeit.“

 

Das ist wieder so ein Ding!
Klar, unabhängig von der jeweiligen Position hat man etliche Dinge in der IT um die man sich kümmern muss und manche haben eine höhere Priorität als andere. Jeder von uns kennt die Tage an denen uns die Dinge geradezu um die Ohren fliegen.
Aber was ist wichtiger als ein real existierendes Sicherheitsproblem? Und wessen Kopf liegt auf dem Silbertablett, wenn ein erfolgreicher Breach mit 10 Minuten Routineaufgaben am Tag vermeidbar gewesen wäre?
Ich bin mir sicher, dass das Ticket vom Karl-Heinz aus der Buchhaltung noch ein paar Minuten länger warten kann.

 

Nehmt euch die Zeit, plant vorab, nutzt sie sinnvoll, und vor allem: Dokumentiert, wenn ihr aktiv werdet. Das erleichtert das Leben auch abseits eines Ernstfalles.

 

Patching ist so wichtig.
Ich bin immer wieder erstaunt, wenn Probleme bekannt werden, bei denen eine Sicherheitslücke ausgenutzt worden ist, die der Hersteller schon vor sechs Monaten beseitigt hat. Nein, eigentlich bin ich nicht erstaunt, sondern traurig.
Cyber Security ist ein komplexes Thema, und das Antizipieren von Angriffsvektoren kann eine Vollzeitstelle erfordern.

 

Aber Software aktuell zu halten ist jetzt nicht wirklich Raketenforschung.

Selbst wenn im Unternehmen oder in der Behörde gerade die finanziellen Mittel knapp sind und der Erwerb einer spezialisierten Softwarelösung, die alle oben genannten Themen mehr oder weniger automatisiert, nicht realisierbar ist, kann das Erstellen eines Planes und das Benutzen von kostenlosen Tools zumindest helfen, die Risiken zu mindern.
Auch das Paretoprinzip ist keine Raketenforschung.

 

Was habe ich auf den Messen noch gehört? Ah, das war lustig:

 

„Ich weiss gar nicht, ob sich bei uns jemand darum kümmert.“

 

Der Gipfel des Dramas! Das war vermutlich ein Entwickler. Oder Karl-Heinz aus der Buchhaltung.

I have added a new node in NPM and currently there are hundreds of interfaces that I am trying to plot, however, I just want to plot INTERFACE TRAFFIC STATISTICS of all the interfaces. Is there any way I can do that for all the interfaces in bulk?

Hi,

 

As seen in below screenshot Percent Loss indicates nodes Packet Loss status and percent loss is confusing word for it.

 

Is it correctable to Packet Loss ?

 

RaviK csameer abdhijasharma

Getting more ThroughPut out of your Solarwinds Pollers

Have you ever wondered why there is plenty of system resources (CPU/Memory/Network/Disk) on your Solarwinds Poller box but still the throughput is not where you need it to be?

From my years of being a C-Programmer (Sockets) and knowledge of the ISO 7 Layer stack, it was apparent to me that the issue was in the Transport layer.   This post will explain how-to tune the Transport layer to maximize the TCP throughput.

First, to prove this was the case, I wrote a quick Powershell script to list the TCP Connection Counts for each of the Solarwinds Pollers in our monitoring environment.   We were having "unpredictable results" when the Pollers were too busy.   This occurred when the Total TCP connections per poller were in the 12,000 to 15,000 range.    The symptoms of this issue were, like I stated, "Unpredictable Solarwinds results" (i.e. random failures) while there were plenty of resources (CPU/Memory) on the poller box.    That is where my powershell script came in handy to periodically check the TCP Connection counts.    As suspected, the bottleneck was in Layer 4 (the Transport Layer) where the number of TCP connections were not closing quick enough.    By making a simple change (described below) to the TCP settings, it allows the TCP connections to close faster and thus you get a higher TCP throughput and the issue of the "unpredictable results" went away.    Granted, there may be a future time when the TCP connections start to fail again; at which time we may look at purchasing another poller license.   

After the TCP Kernel parameters are changed and you have restarted Solarwinds then run your powershell script for checking the TCP Connection counts again.   You should see a drastic decrease in the number of connections as they are now closing quicker.

Bottom line, if you want to squeeze the most throughput out of a poller, look into tuning your TCP parameters.     This worked for us.   Disclaimer; as with any kernel change you will need to perform your own due deligence and testing for your own environment.

On Windows platforms, if the following tcp parameters are not explicitly defined in the regedit tables then the default values will be used.   If the default timeout is 120 seconds and the maximum number of ports is approximately 4,000, resulting in a maximum rate of 33 connections per second. If your index has four partitions, each search requires four ports, which provides a maximum query rate of 8.3 queries per second.

(maximum ports/timeout period)/number of partitions = maximum query rate

If this rate is exceeded, you may see failures as the supply of TCP/IP ports is exhausted. Symptoms include drops in throughput and errors indicating failed network connections. You can diagnose this problem by observing the system while it is under load, using the netstat utility provided on most operating systems.

Changing the TCP parameters involves two (2) steps:

Step #1: Configure the TCP settings for the server

To set TcpTimedWaitDelay (TIME_WAIT):

  1. Use the regedit command to access the HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\ Services\TCPIP\Parameters registry subkey.
  2. Create a new REG_DWORD value named TcpTimedWaitDelay.
  3. Set the value to 30.
  4. Stop and restart the system.

NOTE:  TcpTimedWaitDelay will not work unless the StrictTimeWaitSeqCheck is set to 1.

To set MaxUserPort (ephemeral port range):

  1. Use the regedit command to access the HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\ Services\TCPIP\Parameters registry subkey.
  2. Create a new REG_DWORD value named MaxUserPort.
  3. Set this value to 32768.
  4. Stop and restart the system.

 

 

Step #2 – Reboot the server

Reboot of server is required after these changes.

keenb

Good Ol Sweet Sweet SWAG

Posted by keenb Expert Mar 8, 2019

Oh, happy days!  After much posting, answering questions and stuff, the day has come, I have finally gotten the coveted THWACK backpack!  This thing is SUPER nice!  It is going to be my everyday carry for sure!  Thanks to everyone like KMSigma and other SolarWinds staffers for providing this great place for us to share ideas and rewarding us with some sweet, sweet, SWAG!

Sascha Giese

Gisec in Dubai

Posted by Sascha Giese Employee Mar 5, 2019

Hi there!

 

SolarWinds is attending GISEC in Dubai between April 1 – 3 this year.
GISEC is the number-one security-focused tech conference in the Middle East, and we’ll be there with our regional distributor Spire.

 

What can you expect from SolarWinds?
Our resident expert Tony Johnson will be there to show you the latest features we’ve added to the Orion® Platform, and how they can help to increase both security and compliance next to help ensure your IT infrastructure is behaving well.
Rumour has it that there might be loads of new features by early April.

Also, you’ll have a chance to meet Venkatesh Ayyala, who works for Spire and lives in Dubai. Venkatesh and his colleagues are providing professional services to SolarWinds customers in the region, from simple configurations to Orion SDK-based customizations.

 

The event itself takes place in the Dubai WTC, which is the same location as GITEX.
If you’ve never been to Dubai, it’s well worth a visit. Last October I took this lovely shot from level 148, only 555 meters above the ground:

 

Enjoy!

 

Guten Tag,

 

SolarWinds ist erfreut, seine Teilnahme an der AFCEA Bonn 2019 bekanntzugeben.

 

Die AFCEA-Fachveranstaltung in Bonn ist das Aushängeschild des AFCEA Bonn e.V.

In diesem Jahr wird die Konferenz am Mittwoch und Donnerstag, den 10. und 11. April 2019, im MARITIM Hotel Bonn abgehalten. Das Thema in diesem Jahr lautet „Smarte Führungsunterstützung im 21. Jahrhundert“.

Das Team von SolarWinds freut sich auf Sie und erwartet Sie am Stand in F53 FOYER III.

 

SolarWinds fuer Regierung:

SolarWinds zeichnet verantwortlich für leistungsstarke und erschwingliche Softwarelösungen für das IT-Management nahezu jeder dem britischen Verteidigungsministerium (MoD) angegliederten Behörde, und auch das Portfolio unserer in Deutschland bereitgestellten Lösungen wächst zunehmend.

 

Seit 20 Jahren liegen uns die Technikexperten, die unsere Produkte nutzen, am Herzen und wir bemühen uns zu verstehen, was ihre Herausforderungen sind und wie sie diesen begegnen möchten.

Wir sind ein führender Hersteller leistungsstarker und erschwinglicher IT-Infrastrukturmanagement-Software. Unsere Produkte bieten Unternehmen jeder Art und Größe weltweit leistungsstarke Tools zum Überwachen und Verwalten der Leistung ihrer IT-Umgebungen, egal wie komplex ihre IT-Infrastruktur ist – ob lokal, in der Cloud oder in hybriden Modellen.

 

Einige unserer wichtigsten Projekte im Auftrag des Verteidigungsministeriums des Vereinigten Königreichs umfassen:

  • Hauptquartier der Landstreitkräfte des Heeres – Andover, Defence Academy of the U.K.
  • Defence College of Technical Training – Lyneham ITESP
  • Ausstattung und Unterstützung der Streitkräfte
  • Royal Air Force: Alconbury, Brize Norton, Croughton
  • Digby, Halton, Henlow
  • Leeming, St. Athan, Waddington
  • Wyton, Ausbildungszentrum der Royal Air Force – Cosford, Royal Navy: HMS Artful
  • HMS Collingwood
  • Worthy Down Army Barracks sowie Rüstungs-MSPs/Systemintegratoren: BT, Airbus, HPE, Atlas Consortium, Centiant, Centerprise, Lockheed Martin, GD-Mission Systems, DXC Technology

Wir freuen uns, Sie kennenzulernen!

 

Kim

Nach vier Monaten wird es mal wieder Zeit über ein Produkt zu schreiben. Wie es der Zufall so will, haben wir auch ein neues Spielzeug im Portfolio:

 

SolarWinds Access Rights Manager

 

Einige von euch kennen das Produkt vielleicht noch unter dem alten Namen 8MAN.

Was genau macht ARM? Und wer kam überhaupt auf diese Abkürzung?

 

Das Werkzeug überprüft Berechtigungen innerhalb von Active Directory, Exchange, Sharepoint sowie Fileservern. Also, wer kann auf was zugreifen, und wo genau kommt die Berechtigung her?

Benutzer, Gruppen und effektive Berechtigungen lassen sich Erstellen, Verändern, oder Löschen.

Berichte und Instant-Analysen runden das Paket ab.

Alles aus einer charmanten Oberfläche und man kann es auch bedienen, wenn man kein Raketenforscher ist.

ARM wird auf einem beliebigen Mitgliedsserver installiert und ist sehr genügsam mit den Systemanforderungen. Das OS sollte mindestens ein 2008SP1 sein, 2 Kerne, 4 Gig Speicher reichen auch produktiv erst einmal aus. Sämtliche Daten werden in einer SQL gespeichert und auch hier passt 2008 oder jünger.

 

Der Installationsvorgang ist schnell erledigt:

 

Zuerst wird die Konfiguration gestartet mit dem rechten Icon.
Die Farbe ist…ja was ist es denn, 04C9D7, also laut Internet „vivid arctic blue“. Nennen wir es einfach Türkis!

 

Ein AD- und ein SQL®-Benutzer muss angelegt, und die Verbindung zur Datenbank eingerichtet werden:

 

ARM ist jetzt verfügbar:

 

Jedoch ist noch keine Quelle definiert, also hängen wir AD ein.
In den Grundeinstellungen nutzt ARM zum Verknüpfen des Verzeichnisses die bereits hinterlegten Anmeldeinformationen.

 

In meinem Beispiel wird das Verzeichnis jeden Abend einmal durchsucht. Bei der ersten Einrichtung bitte manuell auf den Pfeil drücken für einen sofortigen Scan. Nur bitte nicht bei 10 000 Benutzern morgens um Acht Uhr!

Ein Klick auf das Icon in Orange, Entschuldigung, F99D1C, startet dann das richtige Tool.

 

 

Das Login Fenster:

 

Begrüßt werden wir von diesem Dashboard:

 

 

Befassen uns mit der typischen Frage „Wieso kann dieser Schlumpf denn überhaupt auf X  zugreifen?“

Der Hauptgrund dafür ist vermutlich eine verschachtelte Berechtigung, die nicht auf den ersten Blick ersichtlich ist. Aber jetzt kommt ARM ins Spiel.
Klickt einmal auf Accounts und gebt einen Namen in die Suchbox oben ein:

 

Das Resultat ist ein Baumdiagramm mit den Gruppenmitgliedschaften.

Jeder Klick auf ein Element zeigt dann weitere Details an, probiert es einmal aus. Die Grafiken lassen sich übrigens als Bild exportieren.

Auf der rechten Seite finden wir die AD Attribute:

 

Und jetzt wird es richtig komfortabel. Ich kann den kompletten Datensatz von hier aus editieren:

 

Ja, richtig, ich traue keinem Vegetarier!

 

Übrigens, diese Box hier sieht man bei allen Änderungen. Ordentliches Change-Management erfordert das Setzen von Notizen.

Und wo wir gerade dabei sind, klickt einmal rechts auf ein Konto:

 

Wandern wir vom AD zu Datei-Berechtigungen. Ist nur eine kurze Strecke, wenn man oben auf Show access rights to resources klickt.
Ich wähle einen File Server und einen Pfad aus:

 

Rechts sehe ich die Berechtigungen im Detail:

 

 

ARM kommt noch mit einer zweiten Oberfläche zusätzlich zu dem Client – einem Web-GUI.

Hier stehen mir andere Werkzeuge zur Verfügung.

Viele typische Risiken können schon out-of-the-box betrachtet werden.
Dazu auf Risks klicken:

 

 

Wir sehen inaktive Konten:

 

Oder permanente Passwörter:

 

An gleicher Stelle finden wir auch die allseits beliebte „Everyone“ Berechtigung bei Ordnern:

 

Ein simpler Klick auf „Minimize Risks“ zeigt mir:

 

 

Ich könnte direkt von hier aus wieder Änderungen betreiben – auch im Bulk.

Selbstverständlich wird jede Änderung, die über ARM durchgeführt wird, automatisch protokolliert.
Das Logbuch befindet sich oben im lokalen Client und wir können Berichte erzeugen und exportieren:

 

Vermutlich habt ihr das oben schon gesehen, aber weitere vordefinierte Berichte findet man direkt auf dem Start-Dashboard:

Gehen wir ein oder zwei spezifische Themen an.

Seit Server 2016 gibt es das Feature von temporären Gruppenmitgliedschaften, um vielleicht einem Mitarbeiter für die Dauer eines Projektes Zugriff zu notwendigen Elementen zu bieten. Nach Ablauf des voreingestellten Zeitraums werden die Berechtigungen automatisch entfernt.
Praktisch, oder?

Das nicht ganz so schöne Szenario: Jemand hat sich selbst temporär Zugriff auf eine Ressource gegeben mit dem Hintergrund, dass die Änderung der Gruppenmitgliedschaft hinterher kaum nachvollziehbar ist.
Aber jetzt nicht mehr! Hier geht’s ab:

 

Wenn man mit der Maus über diese Box hier geht

Sieht man rechts Objekte, und für mein Beispiel sind Member added/removed interessant:

 

Leider gibt es in meinem Lab nicht wirklich viel zu sehen, also gehen wir weiter.

 

ARM erlaubt Standardaufgaben direkt aus dem UI durchzuführen, wie z.B. das Erstellen von neuen Benutzern oder Gruppen, Vergeben/Entfernen von Berechtigungen etc.
Wirklich interessant ist das Nutzen von Vorlagen bzw. Profilen.

Hierzu klicken wir im Webclient rechts oben auf das Zahnrad und Department Profiles

 

 

Rechts auf „Create new“

 

 

 

Geben dem Profil einen Namen:

 

 

Links sind weitere Optionen sowie der Button zum Speichern:

 

Ein neuer Mitarbeiter wird lediglich dem Profil zugewiesen, welches sich um sämtliche anderen Einstellungen kümmert – automatisch.

 

Selbstverständlich gibt es auch einen vordefinierten Bericht, der eventuelle Abweichungen zu den Profilen direkt anzeigt. Wir bleiben im Webclient, klicken auf Analyse und wählen die folgende Schaltfläche:

 

 

 

Dann suche ich mir ein Profil aus und ab geht’s:

 

 

Die gute Elyne ist konform, was aber auch wenig überraschend ist als einzige Mitarbeiterin im Marketing:

Das waren nur ein paar der Features von ARM. Weitere interessante Themen wären das Einbinden von anderen Quellen, oder Scripts für komplexere Automatismen. Das ist Futter für zukünftige Postings.

 

Aber, wisst ihr, was ich als Computer-Gamer ganz besonders am ARM mag?
Man kann auf so ziemlich alles klicken. Probiert einmal das hier aus, zu finden ganz links am Bildschirmrand auf dem Start Dashboard:

 

 

 

Viel Spass beim Erkunden!

DefCIS2019 is AFCEA London’s biennial UK Defence CIS Conference where commercial, military, and academic experts will come together to discuss and debate challenges facing us.

This year, the conference and post-conference drinks reception are being held on Tuesday, February 19, 2019 at the IET, Savoy Place, London.

 

 

This year’s conference theme is Delivering Information Advantage… Can the UK Armed Forces do this? Will the UK Armed Forces do this?”

 

 

Come and meet the SolarWinds National Government team exhibiting at the conference!

 

 

WHEN AND WHERE

  • START TIME: Feb 19, 2019 8:00 a.m. GMT (Europe/London)
  • END TIME: Feb 19, 2019 5:30 p.m. GMT (Europe/London)
  • LOCATION: IET, Savoy Place, London
  • EVENT TYPE:Conference
  • EVENT VISIBILITY AND ATTENDANCE POLICY: Open

 

Find out more and book your place here.

 

Do you guys know that Tom is speaking during a breakout session?
Have a look here to learn how to bypass typical pitfalls in DB virtualization.
We should play a game. Whoever puts the best pic of him talking on Twitter gets…uh…a pair of socks maybe?

 

Speaking of pictures, I found a few from last year in Barcelona. This was our home for a few days:

 

I suggest checking Twitter for updates on how it will look next Monday!

 

Also, we discovered an interesting place for dinner.
Have a look at the nameplate to see whose table we were sitting at:

 

We didn’t meet them yet. Which is one of the reasons we go to Barcelona again, and again!

The other reason, obviously, is you guys! Come and see us!

It’s that time of the year again.

Normal people start thinking about Christmas presents, robots are asking for an oil change, but we at SolarWinds are busy planning our next Partner Summit here in Ireland.

 

While we are still in the process of finalizing the agenda—hey, even an oil change takes time—I have some facts to share with you.

Unfortunately, the dinner menu is not yet available, so I will come back to that later!

What do we know?

For starters, the date and location:
Monday, February 4, 2019, to Friday the 8th in Cork, Ireland.

Three keynote speakers agreed to drop by:

 

  • - Denny LeCompte (SVP, Product Marketing)
  • - Kevin Bury (SVP, Customer Success & Business Operations)
  • - Ludovic Neveu (GVP, Sales)

 

I am sure you are familiar with “never change a running system,” so we stick to the things that worked out very well in the past and split the whole agenda between a commercial and a technical track.

The commercial track will provide insights into what’s new at SolarWinds since the last February.
Let me copy some information from our press releases:

 

By the time we meet, we will have more news for you to make sure that you’re up to date on our latest releases, and how they can help your customers.

 

The technical track will continue diving into the different paths of SolarWinds certifications and we will be offering various classrooms and breakout sessions.

Remember in early 2018, when I was providing a technical session for the NTA beta exam with NTA beta materials?
Good news: You will be able to sit the official exam as it left beta. But we might have a new beta track available just in case you are feeling adventurous.

 

As we believe in “work hard, play hard” or, in this case, “study hard, play hard,” our famous evening entertainment will return, and I will make sure that appropriate food is being served for us.

For those of you who are following me on Twitter: No, I won’t cook for you, sorry!

 

Still, almost four months to go so stay tuned for updates as I get them. In the meantime, have a look at previous summits, summarized by my colleague Michael:

2017

2018

 

BRB!

Tach Zusammen,

 

SolarWinds® wird vom 09.-11. Oktober auf der IT-SA in Nürnberg vertreten sein, und zwar mehr als nur einmal!

Unsere Hauptpräsenz wird bei unserem Distributor Ramge Software in Halle 9 an Stand 140 sein.
Stand 140 ist der „hub“ für die anwesenden SolarWinds Mitarbeiter und es wird immer jemand verfügbar sein.

 

Weitere Distributionspartner auf der Messe sind Sysob IT-Distribution, in Halle 9, Stand 446, sowie ALSO Deutschland ebenfalls in Halle 9 an Stand 516.

Ebenso ist unser Partner I.Tresor in Halle 10.1, Stand 309 vertreten.

 

Vielleicht sieht man uns sogar noch an einem anderen Stand!

 

Warum sollte man vorbeischauen? Es gibt so viel Neues zu sehen!

Wir bringen die neuesten Updates für die Orion® Plattform mit inklusive dem Server Configuration Monitor (SCM) und natürlich den neuen Karten, ebenso zeigt unser MSP-Team die NetPath Integration in n-central sowie SolarWinds Backup.

Selbstverständlich bringen wir auch unsere berühmten Pins und Sticker mit!

 

Kommt einfach mal vorbei!

Mit dem Altern ist das ja so eine Sache.

Häufig überlege ich mit meiner Partnerin was man denn am Wochenende kochen könnte und sobald mir eine großartige Idee einfällt sagt sie „das hatten wir doch schon letztes Wochenende“.

 

Ach, richtig, vollkommen vergessen!

Trotzdem mag ich kein Log darüber führen was ich zuletzt gekocht habe. Wozu auch wenn man doch daran erinnert wird

 

In der IT haben wir ständig ähnliche Situationen:
Was habe ich denn neulich noch an diesem Server…das .Net Update, ach, richtig, vollkommen vergessen!
Was ist, wenn ich mich jetzt nicht mehr erinnere? Meine Partnerin kann mir hier nicht helfen, also benötige ich eine andere Lösung.

 

Jetzt kommt der SolarWinds® Server Configuration Monitor (SCM) ins Spiel!

Innerhalb von wenigen Monaten ist SCM jetzt schon das zweite neue Modul für die Orion® Plattform. Orion war bisher in der Lage, Konfigurations-Änderungen bei Netzwerkgeräten festzustellen.
Ihr habt uns das Feedback gegeben, dass da mehr gehen muss, und jetzt geht da auch mehr!

SCM bringt Konfigurationen von Servern und Anwendungen in die Plattform, damit sich bei Problemen mit der Performance oder Verfügbarkeit eventuelle Änderungen als Ursache entweder bestätigen oder ausschließen lassen, ohne externe Produkte zu konsultieren.
Vielleicht hatte ich ja tatsächlich etwas installiert! Oder viel schlimmer: Jemand anders!

 

SCM nutzt den schon bekannten Orion Agent um eine Inventarisierung von Hard- und Software durchzuführen sowie auf Veränderungen bei speziellen Anwendungen zu überwachen. Sollte eine Änderung festgestellt worden sein, kann natürlich ein Alarm ausgelöst werden.

Typische Situationen neben dem Nachverfolgen von Konfigurationsänderungen könnten aber auch Dinge wie das Downsizing bei VM-Ressourcen sein, oder vielleicht Registrierungsänderungen die von Malware verursacht worden sind.
Ebenso sollte man nicht vergessen, dass die Lösung zwar Server Configuration Monitor heisst, aber nichts kann euch hindern damit auch Desktops zu überprüfen um eventuelle nicht autorisierte Installationen von Endbenutzern auf deren Maschinen zu finden.


Also, SCM überwacht Dateien, Ordner und die Registrierung.

 

Eine kurze Tour gefälligst?
Klicken wir einmal den nagelneuen Reiter hier:

 

Ich besitze die unangenehme Eigenschaft bei neuen Spielzeugen direkt in die Einstellungen zu gehen („Oh was macht denn dieser Knopf?“) also klicke ich oben rechts auf die Settings

 

Was haben wir da jetzt:

 

Rechts stellen wir lediglich ein wie lange die Daten vorgehalten werden und das könnt ihr solange einstellen bis euch der Storage-Admin auf das Dach steigt.
In der Mitte wird angezeigt, welche Maschinen welche Profile zugewiesen haben:

 

Oben wäre dann eine Methode, um Profile zuzuweisen:

 

Aber was sind denn jetzt diese Profile?

Profile sind Vorlagen die der Überwachung von spezifischen Veränderungen dienen. Bei einer frischen Installation von SCM sind drei Profile direkt verfügbar: Die Inventarisierung von Hardware, Software sowie dem IIS.
Wir arbeiten bereits an weiteren Profilen wie z.B. Active Directory®, Exchange™ und anderen.

Natürlich könnt ihr auch eure eigenen Profile erstellen! Klickt auf „Add“ und gebt dem Ding einen Namen:

 

Dann noch einmal auf “Add” zum Erstellen der tatsächlichen Bedingung – dies können natürlich auch mehrere sein:

 

Okay das Profil ist drin. Wählt es aus und klickt „Assign to“

 

Nutzt eure Kreativität und verändert die Datei. Das Resultat wird direkt angezeigt:

 

Einen Mausklick weiter sieht man auch die Details:

 

Das war einfach. Jetzt mal etwas spannender!
Ich erstelle ein Profil mit dem Namen „Firewall Policy“ und füge ein neues Element hinzu aber diesmal „Registry“ und nicht Datei:

 

 

Hier wird ein kompletter Key überwacht. Je nach Anwendungsfall kann man in der Hierarchie nach oben wandern aber ich schlage vor es so spezifisch wie möglich zu gestalten, damit es bei Änderungen nicht zu unübersichtlich wird.
Behaltet eine der goldenen Regeln des Monitorings im Kopf:
Wenn etwas passiert wollt ihr keine Zeit damit verschwenden festzustellen, was denn passiert ist!

Okay die Regel habe ich gerade erfunden aber sie klingt gut, oder?

 

Ebenso kann man komplette Ordner überwachen. Das kann sehr interessant sein, daher schnell ein Beispiel.
Beachtet die Wildcards für alle Unterordner und alle Dateien, ebenso habe ich den Download deaktiviert:

 

Aufgepasst: Im Beispiel oben muss das Konto korrekt angegeben werden.
Aus offensichtlichen Gründen wird die Variable %userprofile% keine Resultate anzeigen! Ihr könnt aber %windir% oder andere Variablen nutzen, solange diese nicht an einen Benutzer gebunden sind.

 

Eine weitere Option wären ganz simple Binärdateien. Diese können zwar nicht eingelesen werden aber zumindest wird anhand der Checksumme eine Änderung erkannt.
Das heisst, ich muss mich korrigieren: SCM kann Binärdateien einlesen, nur wir Menschen können damit nichts anfangen.

Die Standard-Profile sind übrigens direkt beim Sonar verfügbar und können zugewiesen werden wie AppInsight:

 

Ich gehe davon aus, dass wir im Laufe der Zeit mehr Profile in thwack haben werden die importiert werden können. Ja, das war ein Wink mit dem Zaunpfahl!

 

Ein weiteres nettes Feature ist das Erstellen von Baselines, also Snapshots von gewünschten Konfigurationen. Das geht ganz einfach per Mausklick ganz rechts:

 

Und aus grau wird grün!

 

Selbstverständlich werden Features der Plattform unterstützt, so gibt es z.B. neue Alarme:

 

Hier ist ein neuer Auslöser für eure eigenen Alarme:

 

Sowie neue Berichte:

 

Und im PerfStack! Wie sagt meine Mutter immer „Niemals den PerfStack vergessen!“

 

Noch ein paar Stichpunkte zur Skalierung:

Wir haben SCM erfolgreich mit bis zu 1000 Agents pro Poller getestet und jeder Agent kommt mit 150 Änderungen pro Sekunde klar bei einem Maximum von insgesamt einer Million Änderungen pro Stunde für eine Orion Instanz.

Falls ihr noch nicht mit dem Orion Agent gearbeitet habt keine Sorge, der Overhead des Agents an CPU, Memory und Bandbreite ist sehr gering.

 

Wie oben schon erwähnt arbeiten wir bereits an den nächsten Features, darunter auch die Anzeige wer eine Änderung durchgeführt hat womit SCM dann für Audit & Compliance nutzbar ist, und schliesslich auch dem Support für Linux.
Schaut einfach hier hin um den jeweils aktuellen Stand zu erfahren:

https://thwack.solarwinds.com/docs/DOC-203089

 

Genug für eine schnelle Vorstellung, jetzt seid ihr dran mit dem Testen. Ich habe dringendere Dinge zu erledigen. Es ist Freitag. Ich muss in die Küche.

Die Vorspeise – Rucola, Prosciutto, Parmesan und Balsamico. Gebt dem Schinken etwas Zeit um auf Zimmertemperatur zu kommen für diese Kombination:

Wenn euch die Kombination von Balsamico und Rucola zu bitter ist empfehle ich etwas Honig.

 

Und schliesslich „Duchesse Di Parma“, Hühnchen mit Prosciutto in Sahnesauce mit etwas Käse.

 

Keine Pasta dieses Mal!!

Viel Spass mit SCM.

If you are experiencing incorrect data reporting in Solarwinds after upgrading your Disk, Memory, or CPU, you are not alone!

A case Study: An Infrastructure Monitoring Team encountered issues in getting the correct disk sizes after capacity upgrade.

 

As you can see to the previous screenshot the /backup are at 100% and reporting a maximum partition size of 503.0 GB but per checking directly on the database server it shows:

A recent upgrade in the database server's file system was performed where the disk /backup was upgraded from 503.6 GB to 4.5 TB.

Solarwinds didn't notice the changes in disk capacity.

 

If you click the /backup you will be directed to this view:

 

Percentage used is 206%. The reason why it happened is because the 'size' is not updated (it should be 4.5 TB).

If the current 'space used' increases and 'size' remains not updated, the 'percentage used' will no longer reliable.

 

Two days ago, the system administrator provisioned additional disks and mounted to the same server, Solarwinds didn't detect any changes in file system.

Solarwinds marked the deleted disk as down. (/backup was deleted in server.)

 

This is a known issue with using SNMP. SNMP cannot monitor Volume Changes, changing SNMP string requires enterprise-wide changes.

Other option is to re-enroll the nodes by removing the affected node ( Examples. /backup, D: Database Backup) to get its updated details.

Removing nodes is risky because it also delete the historical data of node.

This limitation was observed in  Windows and Linux servers in our current operation setup.

 

What you can do?

 

Mount Points Monitoring

 

If you would like to know how Solarwinds will monitor if server resources is added or removed to the server which is already in the monitoring, please refer below:

1. If any mount point is removed you can configure (volume down) alert for the same.

You will be notified with volume is down. Below must be triggered condition for volume down alert or you can make changes according to the requirement.

 

2. If server has a new resources or upgrades.

You need to list resource every time and add them under monitoring.

 

Hope this helps!

 

Sources:

Incorrect disk size - Linux mount points

Linux mount points monitoring

SolarWinds uses cookies on its websites to make your online experience easier and better. By using our website, you consent to our use of cookies. For more information on cookies, see our cookie policy.