Festlegen von KPI’s am Arbeitsplatz – Part 2/3

Nachdem ich im ersten Teil die KPIs von PCs und Remote Desktop Servern beschrieben habe, möchte ich im zweiten Teil auf die Analyse von Anwendungen eingehen.

Zuerst stellt sich die Frage, welche Werte für die Beurteilung der Anwendungsperformance von Relevanz sind. Neben der reinen Startdauer der Anwendung wird der Endbenutzer auch Dinge wie die Reaktionsgeschwindigkeit während der Bedienung der App als wichtigen Faktor sehen. Wie das Programm dann aber reagiert, hängt im Hintergrund von vielen Faktoren ab.

Rein technisch gesehen stehen CPU, RAM, I/O und Netzwerkdurchsatz als wichtigste Faktoren fest:App-Performance

App-Performance-Table

 

Mit diesen Werten kann ich den aktuellen und historischen Ressourcenbedarf der Programme einzeln messen und analysieren. So könnte nach einem Update schnell und eindeutig eine Veränderung festgestellt werden und eine Rückmeldung an den Programmierer erfolgen.

Mit diesen Werten kann ich dann aber noch keine Aussage darüber treffen, wie lange ein Benutzer auf die Daten bzw. Reaktion in seiner Anwendung warten muss. Hier kommt also die Latenz der Anwendung im „Vordergrund“ als KPI in den Blickpunkt. Es sollten auch hier Werte über einen bestimmten Zeitraum erhoben werden, die dann später als Baseline dienen und Rückschlüsse auf Veränderungen geben.

Eine Top 10 Darstellung nach User, Host, Application und Application Prozess geben übersichtlich den aktuellen Status wieder:

App-Latency

App-Performance-Table

Ebenfalls können Anwendungen identifiziert werden, die „einfrieren“ bzw. erst nach sehr langer Zeit reagieren. Hierbei sei erwähnt, dass nicht immer die Anwendung ursprünglich für das Einfrieren verantwortlich ist. Häufig sind Back-End Systeme oder Datenbanken überlastet und führen zur Verzögerung.Application UI Unresponsiveness

Daher ist ein weiterer wichtiger Bestandteil einer Analyse zu erkennen, mit welchen Systemen die Anwendung kommuniziert und wie die Latenzen dieser Verbindungen sich verhalten. So ist die granulare Identifizierung von Bottle-Necks möglich.Network Communication

In der täglichen Arbeit ist das Internet nicht mehr wegzudenken und fest in Unternehmensprozesse eingebunden. Durch diese Entwicklung ist es wichtig das Datenvolumen und die Reaktionsgeschwindigkeit der einzelnen Webseiten zu überwachen. So ist beispielsweise Sales Force ein komplett im Browser nutzbares CRM System und damit für den Unternehmenserfolg verantwortlich. Eine Aufschlüsselung, wie die Seite am einzelnen Arbeitsplatz performt und wie sich die Nutzung ändert, gibt wichtige Hinweise für die zukünftige Planung von Firewalls und ISP Verbindungen. Sehr aufschlussreich ist auch wie viel RAM, CPU und IO pro Webseite auf dem Endgerät verbraucht wird. Viele Webseiten verlangen dem Endgerät extrem viel Leistung ab, was gerade in VDI oder Terminal-Server Umgebungen zu unerwarteten Engpässen führt.

Browser Performance Browser Performance_ Internet Explorer

Neben den Performance und User Expierence Betrachtungen sind die oben aufgeführten Netzwerkkommunikationsdaten auch für den Security Bereich von hoher Bedeutung. Nicht autorisierte Zugriffe auf Webseiten können identifiziert und mit den Ergebnissen von Firewall, Webproxy und Virenscanner korreliert werden. Gerade in Umgebungen mit extrem hohen Sicherheitsanforderungen, wie zum Beispiel Krankenkassen oder Versicherungen, sind eigentlich alle operativen Daten sicherheitsrelevant und sollten entsprechend analysiert werden.

Im letzten Teil meiner Reihe zu KPI´s am Arbeitsplatz werde ich aufzeigen, wie die gewonnenen Erkenntnisse bei der Planung und Erweiterung der Umgebung nutzbar sind.

Festlegen von KPI’s am Arbeitsplatz – Part 1/3

In meiner täglichen Arbeit stoße ich immer wieder auf die gleiche Herausforderung in Unternehmen, wenn es darum geht die User Expierence der Mitarbeiter nachzuhalten.

Der Druck der IT- und Software-Abteilung wächst immer mehr in Bezug auf Verfügbarkeit, Performance und SLA Compliance. Um hier Aussagekräftig zu bleiben, ist es notwendig, Key Performance Indicators (KPI) festzulegen und nachzuhalten. Diese Aufgabe lässt sich hervorragend mit einem Big Data Ansatz lösen.

Im folgenden werde ich auf die unterschiedlichen Bereiche eingehen, die einen performanten Workplace ausmachen und die unterschiedlichen KPI’s beschreiben.

Der Arbeitstag beginnt:

Bereits beim Einschalten des PC’s am Beginn eines Arbeitstages können die ersten Werte sinnvoll und zielgerichtet erhoben werden:

  • Startdauer des PC
  • Anmeldedauer eines Benutzers
  • Wie lange wartet der Benutzer auf den Start seiner Applikation

 

Startdauer des PC

Wer kennt nicht das Phänomen, dass nach dem Starten des PC die erste Tasse Kaffee geholt wird und nach der Rückkehr zum Arbeitsplatz der Bootvorgang leider immer noch nicht abgeschlossen ist. Hier werden bereits die ersten Weichen für die Produktivität eines Mitarbeiters gestellt.

Generell sei angemerkt, dass ein langer Boot Vorgang nicht zwingend mit dem Alter des Gerätes zusammenhängt. Auch Konfigurationsfehler oder unterdimensionierte Hardware können Ursachen dafür sein.

Durch das Festlegen der relevanten Metriken können aussagefähige Dashboards erstellt werden und neben dem Blick auf das gesamte Arbeitsplatznetzwerk auch einzelne Ausreisser in Echtzeit identifiziert werden.

uberagent-boot-io-count-per-process

Auch eine Veränderung der Bootvorgänge über einen längeren Zeitraum wird so sichtbar. Selbst das in der Regel monatliche Patchen des Betriebssystem lässt sich durch den längeren Start des Rechners nachvollziehen.

 

Anmeldedauer eines Benutzers

Neben der Boot Performance ist die Logon Performance für viele Unternehmen der noch wichtigere Wert, da häufig Terminalserverumgebungen oder virtuelle Desktops zum Einsatz kommen.

Der Anmeldeprozess ist häufig ein schwarzes Loch in Bezug darauf, welcher der vielfältigen Vorgänge wie lange dauert. Begonnen mit der Suche nach dem Domänencontroller, dem Abarbeiten der Gruppenrichtlinien, Ordnerumleitungen und den genutzten Scripten kann für den einzelnen Vorgang kein expliziter Wert ermittelt werden. Mit Hilfe spezieller Tools ist es zwar möglich einzelne Anmeldungen zeitaufwändig zu analysieren, aber eine lückenlose Dokumentation bleibt aus.

Welcher IT Leiter wünscht sich nicht über folgende Werte zu verfügen:

uberAgent-logon-process-performance

Erst die genaue Analyse der einzelnen Bausteine im Anmeldeprozess ermöglicht es gezielt zu optimieren. Auch hier steht wieder die Produktivität des Einzelnen, aber auch das Einhalten von SLA’s gegenüber der Unternehmensführung im Vordergrund.

Startdauer einer Applikation und Nutzung

Nachdem die Anmeldung des Benutzers abgeschlossen ist, sollte er nun seine Anwendungen in akzeptabler Zeit starten können. Windows Boardmittel helfen bei einer solchen Fragestellung nur bedingt, da neben dem Start der Hauptanwendung auch sehr häufig Hilfsprozesse mitgestartet werden.

So sollte neben der reinen Startdauer auch I/O Bedarf, RAM Nutzung und CPU Last mit berücksichtigt werden. So können lastintensive Anwendungen schnell identifiziert werden und Maßnahmen zur Optimierung eingeleitet.

uberagent-application-startup-duration

Es folgt Part 2/3 – Anwendungsanalyse

Splunk> .Conf 2015

Die Splunk> .Conf ist die End User Messe des US Unternehmens. Ich durfte die Konferenz dieses Jahr besuchen und möchte 3 interessante Themen davon aufgreifen:

End User Behavior Monitoring:

Eine der Neuvorstellungen auf der Konferenz im Bereich der Informationssicherheit. Mit Hilfe von Machine Learning Algorithmen wird hier das Arbeitsverhalten der User analysiert. So arbeitet der Mitarbeiter in der Regel auf 3 Freigaben und meldet sich zum Beispiel an 4 Applikationen an. Ändert sich dieses Verhalten drastisch kann es dafür mehrere Gründe geben:

  • Der Mitarbeiter hat eine neue Arbeitsaufgabe erhalten und seine Arbeitsweise entsprechend angepasst
  • Der Mitarbeiter plant, das Unternehmen zu verlassen und versucht, vor seinem Ausscheiden möglichst viele Informationen zu sammeln
  • Die Benutzerdaten des Mitarbeiters wurden kompromittiert und der Zugriff erfolgt durch einen Dritten, der Datendiebstahl ausübt.

Alle diese Dinge sind alarmierungswürdig, hier kann die aktuelle UBA  Sicherheit schaffen.

IMG_0245

 

 

Vielen Dank an Mattias Maier, der mir diese App erläutert hat. Auch die anschließende Diskussion, ob diese Technik mit dem deutschen Datenschutz oder den Betriebsräten vereinbar ist, war kontrovers, aber letztlich hilfreich.

 

 

Connected Car

Hier stand mir Philipp Drieger als Ansprechpartner zur Verfügung.IMG_0205

Der Use Case war eigentlich ganz einfach. Man statte ein Auto mit zusätzlicher Sensorik aus, um die Daten maschinenlesbar zu machen. Zusätzlich verkabelt man den Fahrer mit Puls- und Blutdruckmessgerät und fertig ist das Connected Car.

Jetzt noch den Wagen auf eine Rennstrecke schicken und in Echtzeit die Werte visualisieren. Klingt einfach – setzt aber einiges an Know-how und vor allem Ideenreichtum voraus.

Die Auswertungen an sich erinnerten schon fast an die Formel1 mit genauen Fahrwerten aus jedem Streckenabschnitt, man konnte das Adrenalin des Fahrers fast selbst spüren.

Einfach ein toller Use Case aus dem Bereich Internet der Dinge IoT.

End User Expierence Monitoring

Mit Helge Klein war auch ein deutscher Aussteller bei der .Conf. Die Plattform Splunk> Enterprise bietet ihm die Möglichkeit, sein Expertenwissen aus dem Bereich End User IMG_0128Computing mit Schwerpunkt auf Citrix Lösungen in einer eigenen App umzusetzen.

Der uberAgent arbeitet ausschließlich auf Windows Plattformen ab Windows Vista aufwärts und bietet tiefe Einblicke in das Betriebssystem und die Benutzersitzung.

Dieses Thema werde ich zu einem späteren Zeitpunkt genauer betrachten, da hier viele KPIs herangezogen werden müssen, um einen Mehrwert für ein Unternehmen zu erzielen.

Helge und ich haben mit einigen großen Unternehmen auf der .Conf über dieses Thema gesprochen und sind auf großes Interesse gestoßen.

Ich freue mich schon jetzt auf die nächsten Konferenzen und Foren im Bereich Big Data. Bye bye Las Vegas