Festlegen von KPI’s am Arbeitsplatz – Part 2/3

Nachdem ich im ersten Teil die KPIs von PCs und Remote Desktop Servern beschrieben habe, möchte ich im zweiten Teil auf die Analyse von Anwendungen eingehen.

Zuerst stellt sich die Frage, welche Werte für die Beurteilung der Anwendungsperformance von Relevanz sind. Neben der reinen Startdauer der Anwendung wird der Endbenutzer auch Dinge wie die Reaktionsgeschwindigkeit während der Bedienung der App als wichtigen Faktor sehen. Wie das Programm dann aber reagiert, hängt im Hintergrund von vielen Faktoren ab.

Rein technisch gesehen stehen CPU, RAM, I/O und Netzwerkdurchsatz als wichtigste Faktoren fest:App-Performance

App-Performance-Table

 

Mit diesen Werten kann ich den aktuellen und historischen Ressourcenbedarf der Programme einzeln messen und analysieren. So könnte nach einem Update schnell und eindeutig eine Veränderung festgestellt werden und eine Rückmeldung an den Programmierer erfolgen.

Mit diesen Werten kann ich dann aber noch keine Aussage darüber treffen, wie lange ein Benutzer auf die Daten bzw. Reaktion in seiner Anwendung warten muss. Hier kommt also die Latenz der Anwendung im „Vordergrund“ als KPI in den Blickpunkt. Es sollten auch hier Werte über einen bestimmten Zeitraum erhoben werden, die dann später als Baseline dienen und Rückschlüsse auf Veränderungen geben.

Eine Top 10 Darstellung nach User, Host, Application und Application Prozess geben übersichtlich den aktuellen Status wieder:

App-Latency

App-Performance-Table

Ebenfalls können Anwendungen identifiziert werden, die „einfrieren“ bzw. erst nach sehr langer Zeit reagieren. Hierbei sei erwähnt, dass nicht immer die Anwendung ursprünglich für das Einfrieren verantwortlich ist. Häufig sind Back-End Systeme oder Datenbanken überlastet und führen zur Verzögerung.Application UI Unresponsiveness

Daher ist ein weiterer wichtiger Bestandteil einer Analyse zu erkennen, mit welchen Systemen die Anwendung kommuniziert und wie die Latenzen dieser Verbindungen sich verhalten. So ist die granulare Identifizierung von Bottle-Necks möglich.Network Communication

In der täglichen Arbeit ist das Internet nicht mehr wegzudenken und fest in Unternehmensprozesse eingebunden. Durch diese Entwicklung ist es wichtig das Datenvolumen und die Reaktionsgeschwindigkeit der einzelnen Webseiten zu überwachen. So ist beispielsweise Sales Force ein komplett im Browser nutzbares CRM System und damit für den Unternehmenserfolg verantwortlich. Eine Aufschlüsselung, wie die Seite am einzelnen Arbeitsplatz performt und wie sich die Nutzung ändert, gibt wichtige Hinweise für die zukünftige Planung von Firewalls und ISP Verbindungen. Sehr aufschlussreich ist auch wie viel RAM, CPU und IO pro Webseite auf dem Endgerät verbraucht wird. Viele Webseiten verlangen dem Endgerät extrem viel Leistung ab, was gerade in VDI oder Terminal-Server Umgebungen zu unerwarteten Engpässen führt.

Browser Performance Browser Performance_ Internet Explorer

Neben den Performance und User Expierence Betrachtungen sind die oben aufgeführten Netzwerkkommunikationsdaten auch für den Security Bereich von hoher Bedeutung. Nicht autorisierte Zugriffe auf Webseiten können identifiziert und mit den Ergebnissen von Firewall, Webproxy und Virenscanner korreliert werden. Gerade in Umgebungen mit extrem hohen Sicherheitsanforderungen, wie zum Beispiel Krankenkassen oder Versicherungen, sind eigentlich alle operativen Daten sicherheitsrelevant und sollten entsprechend analysiert werden.

Im letzten Teil meiner Reihe zu KPI´s am Arbeitsplatz werde ich aufzeigen, wie die gewonnenen Erkenntnisse bei der Planung und Erweiterung der Umgebung nutzbar sind.

Festlegen von KPI’s am Arbeitsplatz – Part 1/3

In meiner täglichen Arbeit stoße ich immer wieder auf die gleiche Herausforderung in Unternehmen, wenn es darum geht die User Expierence der Mitarbeiter nachzuhalten.

Der Druck der IT- und Software-Abteilung wächst immer mehr in Bezug auf Verfügbarkeit, Performance und SLA Compliance. Um hier Aussagekräftig zu bleiben, ist es notwendig, Key Performance Indicators (KPI) festzulegen und nachzuhalten. Diese Aufgabe lässt sich hervorragend mit einem Big Data Ansatz lösen.

Im folgenden werde ich auf die unterschiedlichen Bereiche eingehen, die einen performanten Workplace ausmachen und die unterschiedlichen KPI’s beschreiben.

Der Arbeitstag beginnt:

Bereits beim Einschalten des PC’s am Beginn eines Arbeitstages können die ersten Werte sinnvoll und zielgerichtet erhoben werden:

  • Startdauer des PC
  • Anmeldedauer eines Benutzers
  • Wie lange wartet der Benutzer auf den Start seiner Applikation

 

Startdauer des PC

Wer kennt nicht das Phänomen, dass nach dem Starten des PC die erste Tasse Kaffee geholt wird und nach der Rückkehr zum Arbeitsplatz der Bootvorgang leider immer noch nicht abgeschlossen ist. Hier werden bereits die ersten Weichen für die Produktivität eines Mitarbeiters gestellt.

Generell sei angemerkt, dass ein langer Boot Vorgang nicht zwingend mit dem Alter des Gerätes zusammenhängt. Auch Konfigurationsfehler oder unterdimensionierte Hardware können Ursachen dafür sein.

Durch das Festlegen der relevanten Metriken können aussagefähige Dashboards erstellt werden und neben dem Blick auf das gesamte Arbeitsplatznetzwerk auch einzelne Ausreisser in Echtzeit identifiziert werden.

uberagent-boot-io-count-per-process

Auch eine Veränderung der Bootvorgänge über einen längeren Zeitraum wird so sichtbar. Selbst das in der Regel monatliche Patchen des Betriebssystem lässt sich durch den längeren Start des Rechners nachvollziehen.

 

Anmeldedauer eines Benutzers

Neben der Boot Performance ist die Logon Performance für viele Unternehmen der noch wichtigere Wert, da häufig Terminalserverumgebungen oder virtuelle Desktops zum Einsatz kommen.

Der Anmeldeprozess ist häufig ein schwarzes Loch in Bezug darauf, welcher der vielfältigen Vorgänge wie lange dauert. Begonnen mit der Suche nach dem Domänencontroller, dem Abarbeiten der Gruppenrichtlinien, Ordnerumleitungen und den genutzten Scripten kann für den einzelnen Vorgang kein expliziter Wert ermittelt werden. Mit Hilfe spezieller Tools ist es zwar möglich einzelne Anmeldungen zeitaufwändig zu analysieren, aber eine lückenlose Dokumentation bleibt aus.

Welcher IT Leiter wünscht sich nicht über folgende Werte zu verfügen:

uberAgent-logon-process-performance

Erst die genaue Analyse der einzelnen Bausteine im Anmeldeprozess ermöglicht es gezielt zu optimieren. Auch hier steht wieder die Produktivität des Einzelnen, aber auch das Einhalten von SLA’s gegenüber der Unternehmensführung im Vordergrund.

Startdauer einer Applikation und Nutzung

Nachdem die Anmeldung des Benutzers abgeschlossen ist, sollte er nun seine Anwendungen in akzeptabler Zeit starten können. Windows Boardmittel helfen bei einer solchen Fragestellung nur bedingt, da neben dem Start der Hauptanwendung auch sehr häufig Hilfsprozesse mitgestartet werden.

So sollte neben der reinen Startdauer auch I/O Bedarf, RAM Nutzung und CPU Last mit berücksichtigt werden. So können lastintensive Anwendungen schnell identifiziert werden und Maßnahmen zur Optimierung eingeleitet.

uberagent-application-startup-duration

Es folgt Part 2/3 – Anwendungsanalyse

Internet of Things im Kuhstall

Das Internet of Things (IoT) ist in der Landwirtschaft angekommen. Resultierend aus der Hochschulforschung  werden  Kühe aktiv gemonitort und pro-aktiv versorgt.

 

 

cattle-feedlot-868032_1280

 

Der erste Blick des Bauern ist der auf das Smartphone, um einen ersten Überblick seines Viehbestandes zu erhalten. Durch Digitalisierung im bäuerlichen Betrieb wird dieses möglich. Ausgerüstet mit einem ID Chip am Halsband wird das Verhalten eines jeden Tieres individuell überwacht und zentral erfasst. Bereits beim Verlassen des Stalls wird das aktuelle Gewicht ermittelt – ebenso die aktuelle Milchmenge.phone-903285_1920

 

Auf der Weide wird das Verhalten der Tiere dokumentiert und ausgewertet. Die Tatsache, ob sich eine Kuh von der Herde separiert oder sich im Verhältnis wenig bewegt, lässt Rückschlüsse auf Krankheiten, Trächtigkeit oder bevorstehendes Kalben zu.

 

cow-952199_1920

Verbunden mit der ständigen Gewichtskontrolle und der Milchproduktion kann so jedes einzelne Tier optimal versorgt werden.

Die Zeiten von unnötigen Zugaben von Medikamenten nach dem Gießkannenprinzip kann so vermieden und Unterversorgung bei der Nahrungsaufnahme gezielt ausgeglichen werden.

Neben den Vorteilen für die Tiere ergeben sich auch für die Mitarbeiter deutliche Vorteile: Sobald sich eine Kuh auffällig verhält wird er aktiv alarmiert und kann umgehend eingreifen. Eine deutliche Zeiteinsparung für den Einzelnen, der sonst viel Zeit mit der Beobachtung der Herde verbringen musste.

 

cows-661686_1920

 

Im Ergebnis geht es den Kühen sogar besser: weniger Medikamente und eine verbesserte Ertragslage. Der Einsatz von IoT-Technologie liefert damit sowohl der konventionellen als auch der ökologischen Viehwirtschaft enorme Vorteile.

Splunk> .Conf 2015

Die Splunk> .Conf ist die End User Messe des US Unternehmens. Ich durfte die Konferenz dieses Jahr besuchen und möchte 3 interessante Themen davon aufgreifen:

End User Behavior Monitoring:

Eine der Neuvorstellungen auf der Konferenz im Bereich der Informationssicherheit. Mit Hilfe von Machine Learning Algorithmen wird hier das Arbeitsverhalten der User analysiert. So arbeitet der Mitarbeiter in der Regel auf 3 Freigaben und meldet sich zum Beispiel an 4 Applikationen an. Ändert sich dieses Verhalten drastisch kann es dafür mehrere Gründe geben:

  • Der Mitarbeiter hat eine neue Arbeitsaufgabe erhalten und seine Arbeitsweise entsprechend angepasst
  • Der Mitarbeiter plant, das Unternehmen zu verlassen und versucht, vor seinem Ausscheiden möglichst viele Informationen zu sammeln
  • Die Benutzerdaten des Mitarbeiters wurden kompromittiert und der Zugriff erfolgt durch einen Dritten, der Datendiebstahl ausübt.

Alle diese Dinge sind alarmierungswürdig, hier kann die aktuelle UBA  Sicherheit schaffen.

IMG_0245

 

 

Vielen Dank an Mattias Maier, der mir diese App erläutert hat. Auch die anschließende Diskussion, ob diese Technik mit dem deutschen Datenschutz oder den Betriebsräten vereinbar ist, war kontrovers, aber letztlich hilfreich.

 

 

Connected Car

Hier stand mir Philipp Drieger als Ansprechpartner zur Verfügung.IMG_0205

Der Use Case war eigentlich ganz einfach. Man statte ein Auto mit zusätzlicher Sensorik aus, um die Daten maschinenlesbar zu machen. Zusätzlich verkabelt man den Fahrer mit Puls- und Blutdruckmessgerät und fertig ist das Connected Car.

Jetzt noch den Wagen auf eine Rennstrecke schicken und in Echtzeit die Werte visualisieren. Klingt einfach – setzt aber einiges an Know-how und vor allem Ideenreichtum voraus.

Die Auswertungen an sich erinnerten schon fast an die Formel1 mit genauen Fahrwerten aus jedem Streckenabschnitt, man konnte das Adrenalin des Fahrers fast selbst spüren.

Einfach ein toller Use Case aus dem Bereich Internet der Dinge IoT.

End User Expierence Monitoring

Mit Helge Klein war auch ein deutscher Aussteller bei der .Conf. Die Plattform Splunk> Enterprise bietet ihm die Möglichkeit, sein Expertenwissen aus dem Bereich End User IMG_0128Computing mit Schwerpunkt auf Citrix Lösungen in einer eigenen App umzusetzen.

Der uberAgent arbeitet ausschließlich auf Windows Plattformen ab Windows Vista aufwärts und bietet tiefe Einblicke in das Betriebssystem und die Benutzersitzung.

Dieses Thema werde ich zu einem späteren Zeitpunkt genauer betrachten, da hier viele KPIs herangezogen werden müssen, um einen Mehrwert für ein Unternehmen zu erzielen.

Helge und ich haben mit einigen großen Unternehmen auf der .Conf über dieses Thema gesprochen und sind auf großes Interesse gestoßen.

Ich freue mich schon jetzt auf die nächsten Konferenzen und Foren im Bereich Big Data. Bye bye Las Vegas

Enterprise Computing Conference 2015

Die Enterprise Computing Conference 2015 (ECC) der ceCMG fand dieses Jahr in Hannover statt. Es war mein erster Besuch der Konferenz, die sich mit den Themenschwerpunkten zPricing, Application Performance und Big Data beschäftigt. Die Teilnehmerzahl ist mit ca. 100 überschaubar und  mit sehr interessanten Firmen aus dem Versicherung- und Finanzsektor besetzt.

Für mich war der zweite Tag der Konferenz mit einem Big Data Seminar besonders aufschlussreich.

Am Vormittag wurde ich von der ersten These des Moderators sehr überrascht:

Big Data = Big Data Warehouse?

Damit wollte er polarisieren, aber die Folge war, dass dann doch über alte Zöpfe diskutiert wurde. Big Data muss demnach am Besten in relationalen Datenbanken abgelegt und vorher auf das notwendigste gefiltert werden, damit es hochperformant bleibt. Damit geht leider der Big Data Ansatz von unstrukturierten Daten völlig verloren. Am Ende wurde tatsächlich darüber diskutiert, ob ein Data Warehouse nicht doch ein passender Big Data Ansatz ist.

Daraus konnte man klar die Angst erkennen, dass die neuen Techniken eventuell nicht beherrschbar sein könnten. Ablage von Daten ohne festes Schema wie es NoSQL, Hadoop oder Splunk realisiert haben, stieß auf große Skepsis. Eine gut optimierte Datenbank oder gar eine In-Memory-Datenbank können diese Aufgaben genauso gut und schnell übernehmen.

Es wurde klar, dass der Business Ansatz der unstrukturierten Daten noch nicht angekommen war und hier noch einige Überzeugungsarbeit geleistet werden muss. Ich hoffe nur, dass einige der Firmen nicht den Einstiegspunkt mit dieser Haltung verpassen.

Der Nachmittag war nicht minder kurzweilig:

Onboarding von Daten in einen Hadoop Cluster und im späteren Verlauf die Auswertung von Daten aus Hadoop.

Ich war gespannt, wie kompliziert das Data Onboarding nach Hadoop wohl sein mag und wurde negativ überrascht. Wie in Open Source üblich ist alles möglich – aber nichts fertig. Es wurde eine Stunde darüber referiert, Daten aus einer Log Datei mit dem Map Reduce Verfahren in einen Cluster zu legen. Dabei überraschte dann noch mehr die Aussage, dass min. 15 Knoten für eine performante Speicherung von ca. 50GB innerhalb von 24h sinnvoll seien. Jetzt bin ich zwar beruflich durch meine Splunk Kenntnisse vorbelastet – aber der Aufwand und das Sizing waren doch sehr befremdlich. Zur Ehrenrettung von Hadoop sei gesagt, dass es kommerzielle Distributionen gibt, die die Arbeit deutlich erleichtern und auch viele vorgefertigte Module mitbringen.
Der Ansatz der Moderators war sehr wissenschaftlich und die Nähe zu einer Hochschule deutlich. In der freien Wirtschaft räume ich reinen Open Source Lösungen keine große Zukunft ein, da zum Einen keine Standardisierung erreicht wird und zum Anderen kein professioneller Support im Fehlerfall zur Verfügung steht. Außerdem ist der hohe Personalaufwand gegenüber einer kommerziellen Lösung nicht zu rechtfertigen.

Die Auswertung der Daten war auch wieder ein wissenschaftlicher Ansatz. 45 Minuten für die Programmierung eines Graphen war ebenfalls viel zu lang. Hier werden sich professionelle Visualisierungswerkzeuge langfristig durchsetzen.

Generell bin ich kein Gegner von Lösungen auf Basis der Hadoop Technologie. Sie bieten die Möglichkeit, große Datenmengen in ihrem eigenen Dateisystem HFS abzulegen und das zu einem sehr günstigen Preis was die Hardware anbelangt. Auch ich arbeite selbst beruflich gerne mit Hadoop – dann aber in Zusammenhang mit Hunk von Splunk, das eine Schnittstelle zum Hadoop Cluster bietet und umfangreiche Auswertungen der Daten möglich macht.

Ich freue mich schon heute, im nächsten Jahr wieder auf dieser Konferenz zu sein und die Veränderungen der letzten 12 Monate mit den Teilnehmern zu besprechen.

Big Data Blog

Ich möchte hier über Interessante Use Cases aus dem Big Data Bereich berichten. Dabei werde ich Themen wie Internet of Things, Industrie 4.0, IT Operations und Informationssicherheit aufgreifen.