Management – Landkarte Teil3: Big Picture

In Teil 1 und 2 der Reihe habe ich unter anderem vom Big Picture gesprochen. Anhand einer fiktiven Infrastruktur-Architektur eines mittelständischen Unternehmens möchte ich im Detail auf das Thema eingehen.

Management- Landkarte Teil2: technische Methoden

Management- Landkarte Teil1: organisatorische Methoden

Warum also ein Big Picture?

Die wenigstem Menschen sind in der Lage, komplexe Strukturen in allen Details über lange Zeit im Kopf zu behalten. Zudem hat jeder Mensch eine eigene Vorstellungswelt, die nicht unbedingt mit den Vorstellungswelten anderer beteiligter Personen deckungsgleich ist. Last but not Least sind auch Fachbegriffe meist unterschiedlich belegt, so das es zu Unverständnis trotz gleicher Fachsprache kommt.

Diese drei wichtigen Gründe führen dazu, eine gemeinsame Basis zu schaffen, die von allen Beteiligten verstanden und akzeptiert wird. Da Infrastrukturen durch ihre Komplexität nicht sonderlich gut durch Texte beschrieben werden, ist der Weg über ein großes Bild, ein Big Picture der gegebene Weg.

Das Pig Picture hilft dem Team wichtige Infrastruktur- Komponenten und ihre Details im Zusammenhang mit anderen Komponenten in einer einheitlichen Sprache darzustellen. Ein Big Picture zeigt mindestens die Technologieebene des zugrundeliegenden Metamodells auf.

Gerne gehe ich in einem späteren Artikel auf das Thema Metamodell ein. Da sich aber dieser Artikel auf den Aspekt der „Allgemein verfügbaren Infrastruktur- Komponenten der Technologieebene“ beschränkt, soll des erstmal damit genug sein. Wer sich vorab über das Thema informieren möchte, dem lege ich diesen Artikel über Metamodelle ans Herz.

Allgemein verfügbare Infrastruktur Komponenten (Basis-Infrastruktur)

Jede Fachanwendung benötigt Infrastruktur-Komponenten wie Authentifizierung & Autorisierung, File- & Print- Services, Datenbanken, Anwendungsserver, Schnittstellen, Sicherheitsfeatures und Backups usw.. um notwendige Leistung für den Fachbereich zur Verfügung zu stellen.

Diese „Allgemein verfügbaren Infrastruktur- Komponenten“ oder Basis-Infrastruktur sind in der Regel in allen Organisationen in der Mindest-Funktionalität gleich. So bedarf es für den geregelten Betrieb Netzwerkkomponenten , DNS, DHCP, Directory Service wie ADDS, Zertifikatsverwaltung wie AD CS, Server- und Client Deployment, Datenbanken, Sicherheits-Komponenten wie Firewalls und Patch-Management Komponenten uvm.

Alle diese Komponenten stehen in Bezug zueinander. Sie kommunizieren miteinander. Und sie haben unterschiedliche Wertigkeit bezüglich Authentizität, Integrität, und Verfügbarkeit in Abhängigkeit der zu verarbeitenden Daten. Diese Aussagen treffen auf 100% der IT – Infrastrukturen zu.

Technologieebene

Deshalb versuche ich hier, ein allgemein gültiges Bild einer Basis-Infrastruktur – bezugnehmend auf ein mittelständiges Unternehmen mit ca. 500 MA – abzubilden. Bei größeren Unternehmen und über mehrere Standorte kann das Bild weiter diversifiziert werden. Bei kleineren Unternehmen muss sicherlich an der einen oder anderen Stelle mit Abstrichen rechnen.

Das Big Picture ist

  • Grundlage für das gemeinsame Verständnis von Zusammenhängen und Abhängigkeiten zwischen IT den Fachbereichen und der Geschäftsführung
  • Grundlage für tiefer gehende (technische) Diskussionen innerhalb der IT
  • Ankerpunkt für detaillierte technische Plots der Feinarchitektur z.B. für Fachanwendungen

Big Pictures sind wie die zugrunde liegenden Infrastrukturen einem steten Wandel unterzogen. Dabei gibt es aber auch mehrere Konstante: Die einmal getroffene Datenklassifizierung wird sicherlich so schnell nicht mehr grundlegend geändert und Authentifizierung & Autorisierung ist immer erforderlich.

Datenklassifizierung

Daten in einem Unternehmen haben unterschiedliche Gewichtungen hinsichtlich Ihrer Wichtigkeit für den Fortbestand und der Erfolg des Unternehmens. So sind die CRM- Daten und die Einkaufskontrakte eines Handelshauses die Grundlage des Erfolges. Kommen diese Daten in die Hände der Mitbewerber, gefährdet das maßgeblich die Zukunft des Unternehmens Ich bezeichne diese Daten als Kronjuwelen

Eine weitere existentielle Datengruppe sind die Mitarbeiter-Daten. Sie zu vernachlässigen, würde nicht nur gegen geltendes Recht verstoßen, sondern auch Angreifern die Gelegenheit bieten, via Sozial Hacking an die Kronjuwelen zu gelangen.

Die dritte Gruppe sind alle Zugangsdaten zum Unternehmen, sei es physisch wie auch IT-seitig. Diese Daten werden von Angreifern in der Hauptsache genutzt um das Unternehmen auszuspähen und ihm ggfls. zu schaden.

Damit wären die überlebenswichtigen Datengruppen benannt.

  • Strategische und operative Daten -> die Kronjuwelen
  • Mitarbeiter- Daten
  • Zugangsdaten

Aber eigentlich sind all‘ diese Datengruppen die Kronjuwelen des Unternehmens.

Authentifizierung & Autorisierung

Zu dem Thema habe ich mich bereits ausführlich geäußert, so das ich auf die folgenden Artikel verweisen darf:

Schutz von Unternehmensidentitäten: Sicherheitsstrategien für ADDS

Tiering-Modell / Security Level

Tiering-Modelle sind seit langem im Finanz- und Versicherungswesen eingeführte Architekturkonzepte. Sie bilden konzentrische Datenringe, Tiers in Securitylevels ab. In der Regel sind fünf Levels / Tiers für den sicheren Betrieb einer Intrastruktur ausreichend, Sie können segmentiert und, wenn erforderlich, um weitere Tiers ergänzt werden.

generisches Tiering-Model einer konzentrisch aufgebauten IT-Infrastruktur
generisches Tiering-Modell
  • TIER 0: DATA
    existentielle Daten des Unternehmens in Datenbanken, HR-Daten, AD, PKI
  • TIER 1: SERVICES & APPLICATIONS
    Applikationsserver, mit Schnittstellen zu internen Systemen in TIER1q und zu Datenbankservern in TIER0.
  • TIER 2: WORKPLACE
    Arbeitsplatze und Endgeräte mit geregeltem Zugriff auf Applikationen in TIER1
  • TIER 4: PERIMETER / DMZ
    Frontendserver, die mit externen Entitäten via Internet kommunizieren müssen.
    Die Frontendserver kommunizieren mit Applikationen in TIER1 über geregelte, verschlüsselte und überwachte Schnittstellen und Protokolle.
  • TIER 5: INTERNET
    In Menge und Qualität nicht definierbare weltweite Umgebung. Zugriff aus dem Internet auf Frontend-Systeme in Tier4 bei höchst möglicher Sicherheit bezüglich Datensparsamkeit, Identität, Verschlüsselung und Überwachung.

Das Tiering Modell wurde in den letzten Jahren insbesondere durch Microsoft für den Einsatz des Active Directory und den angrenzenden Technologien getrieben. Das das Active Directory das führende Identitäts-Directory ist, ist dieses Modell allgemeingültig geworden.

Stages: Produktion & Support

Es ist sehr wichtig zu erwähnen, das eine Produktionsumgebung unbedingt von äußeren Einflüssen frei zu halten ist. Die Produktionsumgebung unterliegt den Regeln des ITSM und der Sicherheit. So dürfen Änderung an der Produktion nur über definierte Kanäle (Deployment-Chain) und durch die Begleitung eines Change Prozesses durchgeführt werden. Ziel ist die umfassende Betriebssicherheit und vollständige Transparenz der Handlungen.

Entwicklung und Test werden in eigenen Stages durchgeführt. Das sind in der Regel eine Entwicklungs- und Testumgebung, sowie eine Abnahmeumgebung, die funktionsgleich der Produktionsumgebung ist. In komplexen Situationen ist eine Integrationsumgebung sinnvoll.

Ergebnis

Das Ergebnis ist ein durchgängiges Tiering-Modell für die Produktionsumgebung, indem Entwicklung, Test und Abnahme von der Produktionsumgebung getrennt ist. Der administrative Zugriff darf immer nur aus dem Level erfolgen, indem die Server / Services aufgestellt sind. Der Zugriff aus einem niedrigeren Security Level auf ein höheren Security Level zum Zweck der Administration ist streng untersagt. Ansonsten sind Durchgriffe für produktive Aufgaben geregelt, verschlüsselt, überwacht und dokumentiert.
Nach Möglichkeit sind Protokollwechsel zwischen den Security Level anzustreben.
Es gilt immer die Prämisse der Datensparsamkeit.

Produktion, Entwicklung und Test sind streng voneinander getrennt. Es gibt keinen Durchgriff und keinerlei direkte Verbindung. Einfluss auf die Produktion kann lediglich durch eine geregelte, limitierte und automatisierte Bereitstellung erfolgen.

Im Beispiel wird die Zufuhr von Software, Updates und Patches über einen Dienstleister erbracht. Das ist eine Lösung, die der Unternehmensgröße und Zweck an dieser Stelle gerecht wurde. Dabei sind CI/CD Ansätze noch nicht implementiert.

Auch ist in diesem Beispiel noch VPN als Verbindungstechnik für Mitarbeiter und Administratoren vorgesehen. Darauf würde ich in Zukunft gerne verzichten zugunsten einer dedizierten Service- Bereitstellung über Cloud Funktionalitäten.

VPN hat aus meiner Sicht in der Zukunft höchstenfalls eine administrative Funktion. Sie sollte wenigen Personen und restriktiver Nutzung bereitgestellt werden.

Big Picture
Big Picture eines fiktiven Unternehmens (JPG Format)

Im Big Picture wurde der Focus zunächst auf die On-Premise Umgebung gelegt. Cloud Komponenten sind rudimentär berücksichtigt, werden aber noch im Detail zu deklinieren sein.

Das Big Picture ist ein lebendes Dokument. Es wächst und ändert sich mit den Aufgaben und Erkenntnissen, die in einer IT Organisation anfallen. Ich werde auch das fiktive Infrastruktur-Modell an dieser Stelle weiter pflegen.

Big Picture

Hier können Sie das Big Picture als .pdf Datei in voller Größe herunterladen.

Send download link to:

Wie rettet man ein Projekt

In meiner Tätigkeit ist es mehrfach vorgekommen, das ich zu einem in ein Projekt berufen wurde, das vor dem Scheitern stand. Es waren in der Regel komplexe Projekte mit vielen Stakeholdern und ambitionierten Zielen.

Der Grund für die hohe Eintrittswahrscheinlichkeit war meist die fehlende Struktur und die indifferente Kommunikation im Projekt. Ich möchte auch an einem Beispiel aufzeigen, welche Möglichkeiten man hat, ein Projekt zu retten.

Als Beispiel dient ein großes Projekt zur Entwicklung eines multifunktionalen Arbeitsplatzes mit einem speziellen Frontend auf Basis von Windows 10. Dieser Arbeitsplatz sollte den Betriebsablauf im Drei- Schicht- Betrieb mit damals 17.000 Mitarbeitern unterstützen. Der vorherige Arbeitsplatz basierte auf Windows XP.

Anforderungen waren in Form von Erwartungshaltungen formuliert, d.h. es gab lediglich Aussagen wie „Der Arbeitsplatz muss genauso aussehen und funktionieren wie der alte Arbeitsplatz“.

Da der Kunde Software- und Infrastruktur- Entwicklung nicht trennte, wurde ein Software- Entwickler als Architekt und PM beauftragt, das Projekt zu verwirklichen.

Die Krise

Ein definitiver Stand der Entwicklung war bei der Übernahme des Projektes nicht erkennbar:  Der Basis-Client war begonnen und dokumentiert, jedoch wurde die Entwicklungsarbeiten für das Frondend am Betriebssystem vorbei programmiert. Somit entstanden u. a. redundante Funktionen, die zu größten Teil nicht die Qualität der bereits vorhandenen Funktionen erreichte.

Der bedrückendste Teil war aber die vollständig fehlende Entwicklungs- Test- und Fehlerbehebungs- Kultur. Es fehlte an dokumentierten Aufgaben, (Teil)- Abnahmen und der gesamten Dokumentation. Zudem war der Delivery- Prozess in der Software- Entwicklung vollständig von einer Person abhängig und nicht durchgängig automatisiert..

Der Deployment- Prozess für den Basis-Client fehlte vollständig.

Die Kommunikation zwischen Projekt, Nachbarprojekten und Programmleitung war  vollständig zum Erliegen gekommen. Das Projekt war zu diesem Zeitpunkt bereits mehrere Jahre alt.

Was war zu tun ?

Um das Projekt aus dem verfahrenen Status Quo in eine produktive Situation zu bringen, waren einige grundsätzliche Änderungen im Projekt notwendig. Sie werden in den nachfolgenden Kapiteln beschrieben.

  • Etablierung eines Entwicklungsprozesses
  • Quality-Gates
  • Einführung von Kommunikationsregeln
  • Kommunikation mit Programmleitung und Nachbarprojekten
  • Dokumentation
  • Projektplanung und agile Projektführung
  • Teams und Verantwortlichkeiten

Etablierung eines Entwicklungsprozesses

Damit die einzelnen Aufgaben des Projekts zielgerecht bearbeitet werden können, ist ein klarer Entwicklungsprozesses notwendig.

Der Prozess startet mit der Annahme einer Anforderung, über die Entwicklung, den Test und die Abnahme im Projekt. Alle abgenommenen Aufgaben werden zyklisch zu einem Release zusammengestellt. Dabei sind folgende Regeln zu beachten:  

  • Anforderungen werden immer an das Anforderungsteam gestellt
  • Anforderungen durch das Anforderungsteam werden bewertet nach: Erwartungshaltung des Fachbereichs, Inhalt, Lösungsraum,  Aufwand, Dauer, Testrelevanz
  • Das Anforderungsteam bestand aus Business Analyst, Solution Architekt, dem RTE  und / oder techn. Project Manager
  • Alle Projektmitglieder sind in Ihrem Themengebiet CONSULTANT
  • Alle Projektmitglieder sind in der Kerngeschäftszeit (9:00 – 17:00 Uhr) auskunftsfähig
  • Dokumentation wird nach dem Dokumentations-Style-Guide aufgebaut.

Der Entwicklungsprozesses wurde in die nachfolgenden Prozessschritte gegliedert:

  • Anforderung
  • Qualifizierung /Priorisierung
  • Entwicklung
  • Test (Integrations-Test & U.A.T)
  • Release & C.R.
  • Produktion

Quality-Gates

Entlang des Entwicklungsprozesses musste die Qualität der Ergebnisse wiederholt überprüft werden. Das begann mit dem Code Review oder einem (Vier Augen) Systemtest, einen Integrationstest, einem Performancetest (wenn notwendig), dem User Acceptance Test (UAT) Jedes Test- Szenario entspricht einem Quality Gate.

In der Software-Entwicklung konnten die Tests bis auf Integrationstest und UAT automatisiert werden.

Neben den Quality Gates im Entwicklungsprozess wurden weitere Quality Gates beim Deployment der notwendigen Infrastruktur eingeführt. Über dies Quality Gates wurden Defekts im Deployment Prozess identifizierbar.

Generell gilt: zu Viele Quality Gate werden kontraproduktiv.

Einführung von Kommunikationsregeln

Jede Person kommuniziert gerne individuell. Das ist aber in einem Projekt nicht möglich. Das bedeutet, das es feste Regeln und Tools für die Kommunikation geben muss. Kommunikation bedeutet auch nicht nur die Erreichbarkeit, Pünktlichkeit und Auskunftsfähigkeit im Projekt. Es umfasst auch die Bereitstellung der Arbeitsergebnisse ohne weitere Aufforderung an einen festgelegten Ort.

  • Teams ist das gesetzte synchrone Kommunikationsmittel, ersatzweise Telefon etc.
  • Mail die das gesetzte asynchrone Kommunikationsmittel. (informell)
  • Jira ist das gesetzte asynchrone Kommunikationsmittel (formell)
  • Es gibt ein gesetztes Test- und Defects- Management- Tool im Projekt
  • Jedes Projektmitglied stellt die Informationen zur Kommunikation (sofern sie nicht durch das Projekt bereitgestellt werden) zur Verfügung.
  • SharePoint unterstützt Dokumentensammlung und fasst Quellen zusammen
  • Git ist das Repository für Scripte und Programmcode
  • Ein Glossar ist verbindlich

Kommunikation mit Programmleitung und Nachbarprojekten

Da hier Stillstand erreicht wurde, musste die K. mit den Nachbarprojekten und der Programmleitung neu organisiert werden. Dazu diente die vollständige Transparenz über den Stand, die Erläuterung der getroffenen Maßnahmen zur Abhilfe und die Festlegung der Personen, die für diese Kommunikation geeignet waren.

Diese Maßnahmen waren eine initale Maßnahme, die in der täglichen Zusammenarbeit positiv unterfüttert werden musste.

Dokumentation

Dokumentation, zumal in einem solch großen Projekt hat immer einen sehr hohen Stellenwert. Denn sie transportiert nicht nur das Ergebnis einer Aufgabe, sondern auch das warum an die Personen, die mit der Doku arbeiten sollen.

  • Dokumentation ist Teil der vollständigen Bearbeitung einer Aufgabe
  • Dokumentation richtet sich immer an eine ist immer Zielgruppe.
  • Dokumentation ist immer auf dem Stand der Entwicklung
  • Dokumentation folgt immer einem Style Guide
  • Dokumentation ist an das Style Guide anzupassen
  • Dokumentation muss überprüft und bewertet werden (Review).
  • Dokumentation ohne Review = keine Einlieferung

Teams und Verantwortlichkeiten

  • Jede Person im Projekt ist verbindlich mit einem oder mehreren Themen verbunden. Diese Verbindungen wird an alle Projektmitglieder tagaktuell kommuniziert.
  • Um Aufgaben besser koordinieren zu können wurden drei Teams gebildet:
  • Frondend Software- Entwicklung
  • Basis-Client Entwicklung
  • Client-Deployment Entwicklung
  • Pro Team wurde ein Team- Lead bestimmt. Jeder Team- Lead plant und koordiniert mit seinem Team den Team – Sprint Die Team- Leads stimmten sich mit dem techn. Projektleiter ab.
  • Darüber hinaus wurden verschiedene clusterübergreifende Positionen entlang des Delivery-Prozesses geschaffen: Anforderungs-Manager / Business-Development -Manager Test-Manager Release-Manager

Verantwortlich für den Delivery- Gesamtprozess war der techn. Projektleiter. 

Gesamtverantwortung lag beim RTE (Release Train Engineer)

Der Teamaufbau folgte dem nachfolgenden Schaubild.

Projektplanung und agile Projektführung

Das Infrastrukturprojekt konnte am sinnvollsten durch eine Hybride Lösung von Wasserfall und agilen Projekt-Management Methoden begleitet werden.

Die Wasserfall-Planung kann die Bereitstellungs- Reihenfolge von Infrastruktur-Komponenten darstellen. Zudem eignet sie sich besser zur Kommunikation mit den Projekt- Owner oder dem Lenkungskreis.

Agile Methoden wie Scrum sind sehr gut geeignet, einzelne Komponenten – Funktionen zu entwickeln, zu testen und zur  Integration vorzubereiten.

Die Herausforderung für den Projektleiter war es, beide Methoden zu verbinden uns so ein gemeinsames Verständnis über den Stand der Dinge für die Technik wie auch für das Business zu erreichen.

Fazit

Ich möchte Niemanden übermäßig mit der Aufzählung von Schulbuch -Weisheiten quälen, deshalb nur soviel: Ein Projekt kann nur funktionieren wenn die o.g. Punkte in geeigneter Weise im Vorfeld gelöst sind. Erfolgreich wird des nur, wenn sich alle Projektteilnehmer nicht zu ernst nehmen, eine gewisse Demut vor der Aufgabe und Respekt vor den Kollegen aufbringen. Und wenn man auch noch das Ganze mit Humor würzen kann, dann kann fast nichts mehr schiefgehen.

P.S. Für den Projekt-Owner: Zu einem Projekt gehört immer genug Ressourcen!

Management- Landkarte Teil2: technische Methoden

Bei den technologischen Methoden und Verfahren ist es extrem wichtig, die Menge der eingesetzten Methoden so gering wie möglich zu halten. Dennoch sollen sie so umfangreich wie nötig sein. Konkurrierende Methoden führen zu Intransparenz und stark erhöhtem Aufwand.

Beispiel:

Setzt man als Autorisierungsinstanz Microsoft Active Directory und ein oder mehrere andere Directoires (IBM RACF, SAP ID oder Oracle LDAP Server) gleichermaßen ein, führt das auch bei stringentem Einsatz von Richtlinien und Prozessen auf beiden Seiten über kurz oder lang zu Abweichungen in den Berechtigungen. Auch werden die Accounts (named User) kontextbezogen nicht deckungsgleich bleiben. Strukturelle Sicherheitslücken sind eine sichere Folge. Und Software- Migrationen werden unnötig erschwert, weil Authentifizierungsverfahren nicht kompatibel sind.

Komplexität in den Griff bekommen: Keep IT simple

Erfolgreiche IT-Organisationen gestalten ihre Prozesse so einfach und transparent wie möglich. Sie benutzen wesentlich weniger Softwareplattformen und Anwendungen, darüber hinaus setzen sie auch bei der Hardware auf einfache, effiziente Lösungen.

Gesenkte Komplexität in der IT verbessert auch die Prozesse anderer Abteilungen. Dabei setzen Sie vor allem auf Standardlösungen und auf möglichst einheitliche Datenbestände On-Premise und in der Cloud. Es gibt immer nur eine wahre Daten-Quelle.

Technische Methoden für den Erfolg

Die nachfolgenden Methoden sind die das Mindestmaß an Struktur, die eine IT Organisation benötigt. Sicherlich gibt es weitere Methoden, die notwendig werden können, wenn kann im konkreten Fall erfolgreich IT betreiben will.

User Life Cycle Management / Identity Access Management

Ein Großer Teil der Angriffe erfolgen über Identitätsklau. Verschiedene Methoden zielen darauf ab, Identitäten im Unternehmen zu erspähen. Mit diesen Identitäten sollen weitere Identitäten mit höheren Rechten erlangt werden. ULC & IAM helfen hier, den validen Überblick über die Identitäten zu jedem Zeitpunkt zu halten.

Enterprise Access Management

Ein wichtiger Bestandteil des User Life Cycle Managements ist die Sorge um Identitäten. Diese Identitäten haben erhöhte Privilegien bis hin zur Enterprise Administration. Sie sind die eigentlichen Angriffsziele von Hackern. Deshalb ist die konsequente Einbeziehung von Authentifizierung & Autorisierung im Enterprise Access Management sehr wichtig. Ebenso wichtig ist der Schutz unternehmenswichtiger Daten und Informationen.

Software Life Cycle Management

Die Menge der Software bestimmt die Lizenz- und – noch wichtiger – die Prozesskosten.
Denn Software muss verteilt, in das Berechtigungskonzept eingepasst, gewartet und aktualisiert werden. Hier hilft das Software Life Cycle Management, die Angriffsflächen und Betriebsaufwände zu minimieren.

Vulnerability Management

Schwachstellen (Vulnerability-) Management ist die zentrale Methode, Schwachstellen in der IT-Infrastruktur zu erkennen, zu bewerten und zu sanieren. Das gilt nicht nur für programmatische Schwachstellen. Sie treten immer wieder in jeglicher Software auf. Es gilt auch für das Design der IT-Infrastruktur und alle damit eingesetzten Prozesse.

Certification Management

Neben User Life Cycle Management / IAM ist der gezielte Einsatz und Pflege von Zertifikaten existentiell für eine sichere IT-Infrastruktur. So sollten nicht nur alle Devices und User mit Zertifikaten abgesichert werden. auch alle Kommunikationsbeziehungen sind verschlüsselt auszuführen.
Darüber hinaus sind alle Skripte, die z.B. der Automation dienen, mit einem Zertifikat zu signieren.

Aufbau der IT-Infrastruktur nach Security Levels

Security-Levels bilden die Vertrauenswürdigkeit eines Netzwerkes ab. Je höher der Security-Level ist, desto vertrauenswürdiger ist der Level. Hohe Security-Levels haben per Default Zugriff auf niedrige Security-Level, andersrum wird der Zugriff verwehrt. Kommunikation zwischen Zonen desselben Security-Level werden per Default geblockt. Folgende Security- Level bilden aus meiner Sicht das Mindeste an Sicherheit.

  • DATA (Level 5)
    DATA ist mit der höchsten Vertraulichkeitsstufe belegt. Hier werden alle strukturierten und unstrukturierten Daten (Datenbanken, Dateien), das Active Directory und die Zertifikatsserver untergebracht. Darüber hinaus sind Backup- , Deployment- und Automationsumgebungen in diesem Level, aber technisch getrennt, unterzubringen. Alle Systeme in dieses Levels sind existentiell für das Unternehmen.
  • APPLICATION (Level 4)
    Im Security Level APPLICATION sind die Applikationsserver und Web-Frontends zu finden. Interne Mitarbeiter kommunizieren mit ihnen. Die Applikationsserver kommunizieren wiederum mit den Datenbankservern in DATA (Multi-Tier-Anwendung).
    Im Best Case können diesen Systeme on Demand neu deployed werden. Alternativ müssen sie aus einem aktuellen Backup jederzeit wieder hergestellt werden können, um den Betrieb zu gewährleisten.
  • WORKSPACE (Level 3)
    Im WORKSPACE sind alle Arbeitsplätze (intern wie extern) zu finden. Sie kommunizieren in der Regel nur mit den Systemen im Security Level APPLICATION.
  • DMZ / PERIMETER (Level 2)
    Die Kommunikation mit externen Partnern B2B oder B2C wird in der Regel über die DMZ abgehandelt. Hier stehen Frontends, wie beispielsweise Shop Systeme, die die Kommunikation mit Kunden und Partnern ermöglichen. Diese Systeme haben keinerlei Datenhaltung (Ausnahme: Konfigurationsdaten). Sie bedienen sich abgesicherter System in APPLICATION. Sie sind im Schadenfall innerhalb kürzester Zeit durch automatisch neu aufgesetzte Systeme ersetzbar.
  • INTERNET (Level 1)
    Das Internet ist grundsätzlich Böse! -:). Natürlich ist das Internet nicht grundsätzlich böse, hat es doch in den letzten Jahrzehnten zu Prosperität und Wohlstand signifikant beigetragen. Es ist jedoch wichtig, sich umfassend und permanent vor den Gefahren zu schützen. Diese Gefahren können durch das Internet bis in das Unternehmen getragen werden.

Staging

In den Anfängen der IT hieß es „Never touch a runnnig system!“ Das gilt in abgewandelter Form auch heute noch:

„Never touch a prodution system without a Change“

Das bedeutet, dass Entwicklung und Test aus dem Produktionsnetzwerk verbannt werden müssen. Dies geschieht, um die höchst mögliche Stabilität der Produktionsumgebung zu erreichen. Erst die fertig ausentwickelte Lösung darf in das Produktionsnetz eingebracht werden. Und das nach festen Regeln, meist im Rahmen eines Change Request und nach Freigabe und der Umsetzung, dem Change.

Um Entwicklung und Test zu unterstützen sind eigene, vollständig unabhängige Umgebungen, die nach an der Produktions- Realität sind, notwendig. Dort können dann neue Methoden und technologieren bis zur Produktionsreife entwickelt, konfiguriert und getestet werden.

Fazit

die beschriebenen Maßnahmen stellen wie auch in Teil 1 beschrieben, das absolute Minimum dar. Mehr geht immer.
Technische Methoden schaffen Klarheit im Umgang mit Technik. Sie bilden das Rückgrat für alle Entscheidungen innerhalb der IT. Was noch wichtiger ist: Endlich muss nicht jede Entscheidung lang und breit besprochen werden. Alle Mitarbeiter orientieren sich an den gewählten Methoden.

.

weiterführende Links

Management- Landkarte Teil1: organisatorische Methoden

Management – Landkarte Teil3: Big Picture

Management- Landkarte Teil1: organisatorische Methoden

IT- Organisation benötigen – wie jede andere Organisation auch – verlässliche Management- Methoden. Sie müssen transparent und messbar sein und den betrieblichen Ablauf und die Weiterentwicklung maßgebend stützen. Insofern sage ich hier nichts neues.

Je nach Größe der IT-Organisation kommen mehr oder weniger IT Service Management- Methoden zum Einsatz. Ich beschreibe hier das Mindeste für ein mittelständisches Unternehmen. Dabei ist es unerheblich, ob die Methoden intern durch die eigene Organisation oder extern, durch einen Dienstleister erbracht werden.
Vorab: Diese Methoden müssen nicht neu erfunden werden, es gibt sie schon sehr lange: ITIL V3 teilt Services in folgende Gruppen ein:

  • Service Strategy
  • Service Design
  • Service Transition
  • Service Operation
  • Continual Service Improvment

ITIL V4 verlässt das Feld der statischen Gruppen und bildet stattdessen vier Dimensionen. Neben der höheren Flexibilität sollen sie ein ganzheitlichen Ansatz für das Management der IT-Organisation ermöglichen.

  • Organisationen und Personen (‚Organizations and people‘)
  • Informationen und Technologien (‚Information and technology‘)
  • Partner und Lieferanten (‚Partners and suppliers‘)
  • Wertströme und Prozesse (‚Value streams and processes‘).

Welchem Model man auch folgen mag, aus meiner Sicht sollten die nachfolgenden Services aus „Service Operation“ eingeführt werden. Ebenso sind die Services aus „Service Strategy“ mit der höchsten Dringlichkeit umzusetzen. Wenn die IT – Organisation erfolgreich mit diesen Services arbeitet, kann man über die Erweiterung des Service Angebotes nachdenken.

Incident Management / Service-Request

Incident Management befasst sich mit allen Ereignissen, die Abweichungen vom erwarteten Verhalten eines Services beinhalten. Incident Management ist verantwortlich für den gesamten Lebenszyklus aller Incidents.
Wichtigstes Ziel des Incident Management ist die schnellstmögliche Wiederherstellung des SLA-konformen Servicebetriebs. Auch Workarounds werden genutzt. Ein weiteres Ziel ist die Minimierung negativer Auswirkungen auf die Geschäftsprozesse.
Incident Management / Service-Request sind die im Unternehmen am meisten gesehenen Dienstleistungen. Sie bilden einen sehr wichtigen Teil der Reputation der IT-Organisation.

Problem Management

Problem Management zielt darauf ab, die Auswirkungen von Incidents zu minimieren, indem es Incidents möglichst verhindert. Für bereits eingetroffene Incidents versucht das Problem Management, deren erneutes Auftreten zu unterbinden.
Problem Management tritt in Erscheinung, wenn Incidents zu einem Sachverhalt gehäuft auftreten. Dies geschieht auch, wenn der Incident durch einen Workaround geklärt wird, die Ursache der Störung aber (noch) nicht ermittelt ist. Die Behebung kann langwierig sein.

Problems werden i.d.R. im Second Level Support bearbeitet, Die abschießende Bearbeitung der Incidents liegt im First Level Support.

Die Trennung von sofortiger Abhilfe durch Incident-Management schafft Transparenz in die Arbeit der IT-Organisation. Die langfristige Stabilisierung der IT-Infrastruktur durch das Problem-Management sorgt ebenfalls für Klarheit. Sie ermöglicht es dem First Level Support, sich voll und ganz auf die kundennahen Aufgaben zu konzentrieren.

Problem Management arbeitet immer auf eine nachhaltige Lösung zu. In der Regel werden die Lösungen durch einen Change begleitet, da sie Eingriffe in den laufenden Betrieb .

Change Management

Keine Änderung an der produktiven Umgebung ohne Change!
Change Management ist die ultimative Hilfe zur störungsfreien Einführung und Änderung von Services im laufenden Betrieb. Die verbindliche inhaltliche und zeitliche Abstimmung mit allen betroffenen Stakeholdern bringt die notwendige Sicherheit für den Betrieb der Services.

Requirements Management

Requirements- Management ist die Unterstützung der systematischen Erfassung, Analyse und Aufbereitung von Anforderungen an ein System mit Methoden und Tools. Requirements- Management entwickelt die Methoden und Tools. Diese werden genutzt, um eindeutige, verständliche und verlässliche Anforderungen zu definieren. Sie gewährleisten auch deren Berücksichtigung im Lösungsdesign. Folgende Ziele sind für das Requirements- Management gesetzt.

  1. Aufwände transparent darstellen
  2. Auftragsbearbeitung beschleunigen
  3. Hohen Automationsgrad ermöglichen
  4. Fehlerbehebungsaufwände minimieren
  5. Kundenvertrauen aufbauen
  6. Erfolg messbar machen

Die oben genannten Ziele werden durch folgende Aufgaben unterstützt.

  • Reporting
  • Entwicklung / Weiterentwicklung der Requirements- Engineering Strategie.
  • Festschreibung von Definitionen.
  • Entwicklung, Verbesserung und Bereitstellung von Methoden und Tools.
  • Schulungen vorbereiten und durchführen.
  • Unterstützung des Requirements Engineers bei komplexen Aufträgen.

Service Katalog

Wenn man die oben angegebenen Services einführen will, kommt man nicht umhin, die Leistungen der IT-Organisation in einem Service Katalog zu beschreiben. Es ist zwar möglich, Incident- und Service-Request , Problem- und Change Management (in kleinen IT Organisationen) ohne einen Service Katalog zu etablieren. Dann fehlt aber die Auswertungs- und die strategische Steuerungsmöglichkeit die sich aus den gewonnenen Informationen ergeben.

Fazit

Ich möchte es an dieser Stelle nochmal betonen: die beschriebenen Maßnahmen stellen das absolute Minimum dar. Mehr geht immer. Sie bilden auch nicht sklavisch ITIL ab, sondern orientieren sich daran.
Es schafft das Organisations- Chaos ab und bringt Ruhe und Verlässlichkeit in der IT-Organisation. Am Ende wird die Leistung der IT signifikant steigen, ohne große personelle Veränderungen durchführen zu müssen.

Essentielle Prämissen für eine sichere IT-Organisation

Eine Prämisse ist eine grundlegende Bedingung, die als Ausgangspunkt für Argumente, Schlussfolgerungen oder Entscheidungen dient. Sie bildet das Fundament für rationale Überlegungen und beeinflusst maßgeblich die Stichhaltigkeit eines Arguments. Prämissen sind in verschiedenen Bereichen wie Philosophie, Wissenschaft und Alltagsentscheidungen von großer Bedeutung.“ (Zitat aus www.BachelorPrint.de)

Wenn ich das in meine Sprache übersetzte, dann sind die nachfolgenden Prämissen das Grundgesetz einer IT-Organisation.

Vorweg: Was bedeutet……

Infrastruktur: beschreibt alle aktiven Komponenten einer Umgebung (on-Premises und Cloud) in Ihrer Gesamtheit. Dazu zählen Netzwerk-Komponenten, Server/Services, Nutzer, Gateways und Firewall-Komponenten. Weiterhin zählen auch alle Benutzergruppen dazu.

Entwickler: In der Infrastruktur sind keine typischen Software Entwickler. Sie setzen aus vorhandenen Methoden und zugekauften Softwareprodukten und Dienstleistungen neue Lösungen anhand der Anforderungen zusammen.

ITSM: IT-Service-Management (ITSM) bezeichnet die Gesamtheit von Maßnahmen und Methoden, die nötig sind, um die bestmögliche Unterstützung von Geschäftsprozessen durch die IT zu gewährleisten ITSM beschreibt Informationstechnik mit dem Focus auf Kunden- und Serviceorientierung. Dazu ist eigentlich genug geschrieben. Ich verweise gerne auf die einschlägige Literatur.

Requirements- Engineering: beschreibt den iterativen Vorgang aus unspezifischen und ungerichteten Erwartungshaltungen spezifische, gerichtete und Abgestimmte Geschäftsanforderungen zu erzeugen.

Genug der Vorrede, jetzt gehts los……

§1 Bewerte die Unternehmensdaten

Die Kernkompetenzen des Unternehmens schlagen sich in den Daten, die tagtäglich produziert werden, nieder. Diese Daten (Kundendaten, Produktionsdaten, Ergebnisse aus Forschung und Entwicklung etc.) dienen nicht nur dem operativen Geschäft, sondern sind Grundlage für alle Aktionen, die das Unternehmen prosperieren lassen und die erzielten Erfolge absichern. Sie sind damit auch Grundlage strategischer Entscheidungen. Außerdem werden mit Ihnen regulatorische Anforderungen erfüllt.

Diese Daten haben einen bestimmten Wert, der zu ermitteln ist. Darüber hinaus muss auch Bewertet werden, welche Schäden entstehen, wenn diese Daten nicht zur Verfügung stehen (Impact)
Beispiele: Für die Herstellung von Daten wurde Arbeitszeit, für die Software, die diese Daten hält wurde Hard- und Software angeschafft und konfektioniert, sowie betrieben. Es lassen sich also Rückschlüsse auf den Wert der Widerherstellung der Daten ziehen.
Fällt eine Datenpool für den operativen Einsatz aus, kann anhand der nicht leistbaren Arbeit festgestellt werden, welcher Schaden dabei entsteht. Eine Grundlage für die Schadensbemessung sind Ausfallzeiten (1h, 4 h, 1Tag 5Tage etc.) oder der Totalausfall mit Neuaufbau der Daten.

§2 Arbeite anhand von (geschäftlichen) Anforderungen

Die Geschäftsführung wie viele Menschen aus den Fachbereichen der Unternehmen machen sich Gedanken zur Weiterentwicklung des Unternehmens. Dabei werden im Idealfall Erwartungshaltungen an die die IT formuliert, die sie in Bits und Bytes umsetzen soll. Diese Erwartungshaltungen sind in der Regel ungerichtet und unspezifiziert. Die Aufgabe ist es nun, diese Erwartungshaltung aufzunehmen und in gerichtete und spezifische Anforderungen (Requirements) umzusetzen. Das ist sicherlich ein harter Weg, der aber bei konsequenter Verfolgung immer zum Ziel und damit zum Erfolg führt.

§3 Kenne alle Stakeholder

Stakeholder sind Personen, die unmittelbar oder mittelbar von einer Aufgabe betroffen und / oder an der Anforderungs- Ermittlung (Requirements- Engineering) beteiligt sind.

Es ist für die Qualität der Anforderungen und den Erfolg einer Aufgabe wichtig, direkte Beziehungen zu den Stakeholdern aufzubauen. Die Übermittlung von Informationen über mehrere Personen, Personenkreise und Institutionen sollte unbedingt vermieden werden.

§4 Definiere eindeutige Ziele

Die Zieldefinition bildet eine künftige zu erreichende Situation des Kunden ab. Somit gehören die Ziele dem Kunden. Ziele sollten im Idealfall vom Kunden formuliert werden. Falls das nicht der Fall ist, müssen die Ziele gemeinsam mit dem Kunden erarbeitet werden. Sie sind unbedingter Teil der Requirements- Engineerings.

Ziele sind:

  • spezifisch
  • messbar
  • akzeptiert
  • realistisch
  • terminiert

    Darüber hinaus sind Ziele immer lösungsneutral formuliert.

§5 Beachte alle Rahmenbedingungen

Wie die Ziele sind die Rahmenbedingungen elementarer Bestandteil des Requirements- Engineerings. Sie bestimmen gemeinsam mit den Zielen und den Requirements den Lösungsraum für den Auftrag.
Rahmenbedingungen können nur unter erheblichen Aufwand oder gar nicht geändert werden. Die Einordnung von Rahmenbedingungen ergibt sich aus ihrem Ursprung. Rahmenbedingungen sind u.a.

  • Gesetzte und Verordnungen (NIS2, KRITIS, DS-GVO etc.)
  • Compliance-Vorgaben
  • Standorte
  • bereits eingesetzte Technologien und Methoden
  • organisatorische Methoden (z.B. ITSM)
  • etc.

§6 Etabliere Kunden-Sensibilität in der IT

Jeder Mitarbeiter außerhalb der IT ist ein Kunde! Wenn das IT-Mitarbeiter verinnerlichen, entsteht (mit der Zeit) ein deutlich verbessertes Verhältnis zwischen den Mitarbeitern der IT und allen anderen Mitarbeitern. Das bessere Verhältnis wird bestimmt von der Kundensicht der IT – Mitarbeiter (Was kann ich tun, damit Du Deinen Job gut machen kannst) und der Mitwirkungspflicht des Kunden ((Was muss Du tun, damit ich meinen Job gut machen kann).

Das ist kein Punkt, der unmittelbar mit der IT-Sicherheit zusammenhängt. Wenn aber dieser Punkt erfüllt wird, werden die Mitarbeiter den Vorgaben der IT eher und nachhaltiger folgen.

§7 Tu was Du sagt und sag was Du tust

Transparenz in den Handlungen der IT für alle Stakeholder ist existentiell für die Akzeptanz Eueres Handelns . Das Bringt die notwendige Transparenz. Verlässlichkeit ist ein weiteres wichtiges Attribut der IT. Das heißt nicht, das nicht auch was schief gehen kann. Nur muss man dann schnell aufklären und einen ehrlichen Lösungsweg skizieren. Auch dieser Punkt zahlt mittelbar auf die Sicherheit ein.

§8 Halte Dich an Standards

Technologische und organisatorische Standards vereinfachen die Entwicklung und den Betrieb einer Infrastruktur enorm. Weitere Vorteile:

  • Einfacher Betrieb von Hard- und Softwarekomponenten
  • Der notwendige Skill ist am Markt in der Regel verfügbar
  • Standards müssen nicht mehr dokumentiert werden, es reichen Referenzen
  • Interaktion mit anderen Softwarekomponenten ist einfacher oder wird erst ermöglicht.
  • Standardisiere Prozesse stützen sich auf eine breite Wissensbasis. So werden sie einfacher eingeführt und weiterentwickelt.
  • Standards ermöglichen erst die sinnvolle Automatisierung von Abläufen

§9 Halte die Menge der eingesetzten Tools klein

Es ist nicht sinnvoll, für jede Aufgabe ein vordergründig exakt passendes Tool einzusetzen, da man damit die Wissensbreite unverhältnismäßig aufbläht. Das Team kann dann nur oberflächlich mit den Tools arbeiten. Es ist viel besser, die Toolbasis strategisch zu planen und die Fach-Applikation darauf abzustimmen. Vorteile:

  • eingeschränkte Angriffsmöglichkeiten
  • Breite Wissensbasis in der Organisation
  • stabilerer Betrieb
  • Einfachere Automatisierung

§10 Konzentriere Dich auf die wirklich notwendigen Methoden

Die Aufgaben der Entwickler, Administratoren uns Support Mitarbeiter sollen nicht von administrativen und organisatorischen Aufgaben von Ihren Kernaufgaben behindert werden. Außerdem sollen Sie bereits erarbeitete Technologien und Methoden einfach wiederverwenden können.
Deshalb ist es wichtig, die in der IT Organisation eingesetzten Methoden zu konzentrieren und vorhandene technische Methoden so aufzubereiten, das sie einfach einzusetzen sind.

Wichtige technologische Methoden (Auszug)

  • Zero Trust Architektur (Security Levels & Security Zonen)
  • Beschränkung auf notwendige Kommunikationsverbindungen (Kommunikationsmatrix)
  • Authentifizierung und Autorisierung
  • Identity Access Management
  • Enterprise Access Management
  • Certification Management
  • Focus auf Multi Tier Applikationen (mindestens bei den strategischen Anwendungen)
  • Staging
  • ……

Wichtige organisatorische Methoden (Auszug)

  • Incident-Management
  • Problem-Management
  • Change-Management
  • Reqirements-Management

§11 Kenne Deine eingesetzten Tools in- und auswendig

Es ist sinnvoll, für jedes eingesetzte Tool einen Product- Owner zu benennen. Er ist der Mastermind für das Tool und die und kann Hilfestellung bei den eingesetzten Methoden geben. Er bildet sich weiter und gibt das erworbene Wissen an seine Kollegen.
Auch bestimmt er in Absprache mit den Stakeholdern , wie das Tool in welchen Szenarien eingesetzt wird. Product- Owner steuert verantwortlich die Pflege gemeinsam mit dem Release-Management und dem Vulnerability-Management.
Übrigens: Ein Product- Owner für jedes Produkt hält die Menge der Tools klein -:).

§12 Schütze alle Identitäten und Traue niemanden

Named-User-Identity
Neben den Daten des Unternehmens sind die Identitäten der zweite große schützenswerte Information im Unternehmen. Sie bilden die Legitimation zur Infrastrukturnutzung für die Mitarbeiter(Named-User-Accounts) und zur Beschränkung der Zugriffsrechte in der täglichen Arbeit auf das wirklich notwendige Maß.

Service-Identity
Es gibt aber in jedem Unternehmen Identitäten, die nicht durch Mitarbeiter aktiv genutzt werden, Sie werden in der Regel zur Authentifizierung automatisierter Aufgaben zwischen zwei Software- Komponenten eingesetzt (Service-Accounts).

Privileged Access Identity
Für Administrationszwecke sind sog. „Privileged Access Accounts“, also Konten mit erhöhten Rechten etabliert. Sie dienen Administratoren zur Wartung und Pflege der eingesetzten Systeme und Tools. Es ist unabdingbar, entsprechende Konzepte (Enterprise Access Management) zu entwickeln und strikt umzusetzen

Computer Identity
Ein weitere Gruppe – und nicht die letzte – sind die Maschinen-Accounts, die zur Authentifizierung von zugelassenen Computern notwendig sind.

Alle Identitäten sind auf unterschiedliche Weise sehr hohen Bedrohungen von außen und innen ausgesetzt. Somit ist die Absicherung durch sicheren architektonischen Aufbau der Infrastruktur, Einhaltung von Sicherheitsvorgaben, und konsequente Überwachung existentiell für den sicheren Betrieb.

Zero Trust
„Zero Trust“ gehört aus meiner Sicht als zentrales Element hier erwähnt. Es soll auf alle Bereiche der IT-Infrastruktur und nicht nur auf Identitäten angewandt werden.

§13 Automatisiere so weit als möglich

Alle Aufgaben die sich als Standard- Aufgaben identifiziert sind, sollten automatisiert werden. Darüber hinaus sind Aufgaben zur Überwachung der Infrastruktur zu automatisieren. Der dritte große Block sind periodisch anfallende Aufgaben, die in den Fachbereichen automatisiert werden können.

Vorteile:
Automation entbindet das Team von Routineaufgaben und stellt Kapazitäten zur Weiterentwicklung der Infrastruktur und des Teams frei.

Alle automatisierten Jobs werden immer in der gleichen Qualität durchgeführt. Sie sind damit – auf positive Weise – berechenbar und verlässlich.

§14 Dokumentiere und überprüfe (regelmäßig) die Dokumentation

Dokumentation ist kein Selbstzweck, sondern dient verschiedenen Ansprüchen. Sie hilft dem Entwickler, die Überblick über die (Teil-) Infrastruktur zu behalten und Details im der Tiefe zu beschreiben. Sie ermöglicht den Wissenstransfer zwischen Kollegen uns unterstützt den reibungslosen Betrieb.

Sie zeigt auch den Reifegrad einer Entwicklung an, so das Stakeholder umfassend, aktuell und eindeutig informiert werden. Sie gibt den Stakeholdern damit die Möglichkeit, die erarbeitete Leistung vor der Inbetriebnahme zu bewerten und ggfls. Änderungen zu erwirken.

§15 Vereinheitlichte die Sprache in der IT und den Fachbereichen

Infrastruktur- Administratoren, Software- Entwickler und Anforderer aus den Fachbereichen benutzten in der Regel zwar die gleiche Sprache, Sie verstehen sich aber nur unzureichend. Der Grund liegt in den verschiedenen kulturellen Ausprägungen, die jeder dieser Bereiche mit sich bringt. Am Ende werden zwar die gleichen Worte benutzt, Ihnen aber unterschiedliche Bedeutungen zugewiesen. Das ist der Anfang von Misserfolg.

§16 Habe den Überblick über die gesamte IT-Infrastruktur – zu jeder Zeit

Es ist unbedingt notwendig, das alle Personen, die Entscheidungen treffen, ein einheitliches und aktuelles Bild der gesamten Infrastruktur haben. Ich habe die Erfahrung gemacht, das Diskussionen über beispielsweise neu einzusetzende Komponenten wesentlich einfacher werden, wenn ein gemeinsames, an eine Wand gepinntes Bild des Status Quo vorliegt. In der Regel müssen solche, recht großen Bilder gedruckt werden, um lesbar alle aktiven Komponenten mit Namen und Beziehungen abbilden zu können.

§17 Weiche nur dann von den Prämissen ab, wenn eine realistische Substituierung angeboten wird.

Diese Prämissen sind die Grundpfeiler aller technologischen und organisatorischen Tätigkeiten in der IT. Sie dürfen nicht verletzt werden, da sonst die Handlungsweise der IT-Organisation unberechenbar und beliebig wird.

Ein Einzelfällen kann es aber vorkommen, das man in Teilen abweichen muss. Um diese Abweichung zu ermöglichen (durch die Abweichung entstehen Mehraufwände) , muss der auslösende Fachbereich entsprechende Substituierungen anbieten.
Das können sein:

  • Akzeptanz von Einschränkungen in der Funktionalität
  • höher finanzieller Aufwand in Entwicklung und Betrieb
  • längere Bearbeitungszeiten
  • höheres Risiko

Abweichungen von den Prämissen stellen immer ein Risiko dar. Deshalb müssen sie periodisch überprüft und – wenn möglich – eliminiert werden.

Fazit
Egal welcher Organisationsform man anhängt: Diese Prämissen sind immer hilfreich, um die IT-Organisation in eine definierte Richtung zu bringen. Wichtig ist hierbei die Entwicklung von einfachen Leitsätzen, die sich leicht merken lassen.

——————————————————————————————————————————
Das nächste Kapitel befasst sich mit den technischen und organisatorischen Methoden in einer Management-Landkarte

Ich freue mich auf Eure Kommentare, entweder auf meiner Website oder bei linkedin oder Xing.

Grundzüge einer sicheren IT-Infrastruktur

Aus meiner Erfahrung – und sicherlich auch aus der Erfahrung vieler IT’ler – ist der Aufbau einer sicheren Infrastruktur nicht nur eine Frage der eingesetzten Werkzeuge, sondern im besonderen Maße der Umgang mit diesen Tools.
Der Erfolg wird sich einstellen, wenn die konsequente Anwendung passender Werkzeuge mit stringenter Anwendung von organisatorischen und technischen Methoden einhergeht.

Wie man es nicht macht!

Wie oft habe ich in der Vergangenheit gesehen, das technische Methoden wahllos eingesetzt wurden, weil es „gerade irgendwie nicht anderes ging“ oder weil „es so verlangt wurde“. Gründe und Zwänge gibt es immer für Chaos.

Beispiel: in einem meiner letzten Projekte wurden während des Audits folgende Datenbanken auf Servern und Arbeitsplatz-Rechnern gefunden. Das Unternehmen hat einen SQL- „Experten“.

  • MS-SQL Server Express
  • MS-SQL Server 2016
  • MS-SQL Server 1019
  • Oracle 11
  • MySQL in Verschiedenen Versionen
  • IBM DB2
  • PostgreSQL
  • IBM Informix
  • ……

Diese Datenbanken liefen auf einem Zoo von verschiedenen Windows Versionen und Linux Derivaten.

Das kann niemand administrieren, es ist zu teuer, zu aufwändig, fehlerbehaftet und angreifbar. Auch wenn es schwerfällt, aber dieser Anzahl von verschiedenen Produkten zu einem Thema muss unbedingt entgegengewirkt werden. Damit ist keine sichere IT-Infrastruktur zu vertretbaren Kosten möglich.

Es ist nicht einfach hier zu vereinheitlichen, erst recht nicht, wenn es bereits zu solchen Auswüchsen gekommen ist. Was man aber grundsätzlich machen kann, um dem Ziel nahe zu kommen, habe ich im nächsten Kapitel beschrieben.

Wie macht man es richtig?

Nun, es gibt sicherlich verschiedene Wege zum Ziel einer „sicheren IT-Infrastruktur“. Ich stelle hier einen Weg vor, der für mich und meine Kunden in der Vergangenheit der Erfolgreichste war.

Die Aussage der „sicheren IT-Infrastruktur“ beschränkt sich nicht auf die Angriffs-sicherheit. Ziele einer „sicheren IT-Infrastruktur“ sind auch die Betriebssicherheit und Stabilität der Anwendungen sowie der notwendige Komfort für die Benutzer. Denn ein System, das dem Benutzer Arbeit abnimmt hat eine wesentlich höhere Akzeptanz als Systeme, die umständlich zu bedienen sind.
Damit ich es nicht vergesse: Automation ist ein elementares Ziel moderner IT-Organisation. Das muss hier Niederschlag finden.

Die Aufgabe, eine IT-Organisation (neu) zu strukturieren kann nicht von einer oder wenigen Personen in der IT getragen werden, Vielmehr ist die Akzeptanz und Unterstützung aller Kernbereichre eines Unternehmens, allen voran der Geschäftsführung, notwendig. Bei entsprechender Vorbereitung des Themas wird das aber gelingen.

Sobald die Unterstützung steht, muss den Mitgliedern der IT-Organisation ein Leitfaden an die Hand gegeben werden, der beschreibt, wie die IT gut funktionieren kann. Sobald der Leitfaden etabliert ist, muss der auch in den wichtigsten Aussagen in die Gesamtorganisation kommuniziert werden.

Den Leitfaden habe ich in Form von Prämissen formuliert.

Gleichzeitig ist der Status Quo (sofern noch nicht geschehen) der IT-Organisation zu erheben. Damit ergeben sich eine Management – Landkarte und das BigPicture der gesamten IT-Infrastruktur in der momentanen Situation. (CMO=Current Mode of Operation). Da die Ausgangslagen der Unternehmen immer individuell sind, kann ich an dieser Stelle nicht im Detail darauf eingehen.

Im nächsten Schritt sind die Ziele für Management und IT-Infrastruktur zu definieren. Um diesen Schritt zu verdeutlichen, werde ich die Minimalziele für die Zukunft der IT-Organisation (FMO=Future Mode Of Operation) ausführen.

Aus dem Audit (Status Qou) und den Zielen ergibt sich eine Fit&Gap-Liste. Daraus sind die Handlungsstränge und die Aktionen zu entwickeln.

Die Themen

  • Prämissen
  • Management- Landkarte (FMO)
  • BigPicture (FMO)
  • Fit&Gap Liste, Handlungsstränge und Aktionen

werde ich in den nächsten Tagen veröffentlichen. Viel Spaß beim Lesen und Kommentieren.

Office 365, Azure und die barrierefreie Nutzung in einer hybriden Umgebung

Eines der zentralen technologischen Themen heute und in den kommenden Jahre ist die sichere Nutzung von cloud- basierenden und lokal installierten Tools.

Insbesondere in Microsoft dominierten Umgebungen (wie in den meisten Unternehmen dieser Erde) ist das Thema mit Office 365 und Azure in den Focus gerückt. Aus Sicht der IT will man dem Benutzer eine möglichst einfache Anmeldung gestalten, ohne dabei die primären Schutzziele Verfügbarkeit, Vertraulichkeit und Integrität einer Unternehmens- Infrastruktur zu vernachlässigen.

So ist das Verständniss für Authentifizierung („Wer bist Du?“) und Autorisierung („Was darfst Du?“) wichtiger den je.

Um etwas mehr Transparenz in das Thema Authentifizierung und Autorisierung gerade Microsoft- Infrastruktur Umgebungen zu bringen, habe ich ein paar neue Seiten zum Thema hier veröffentlicht.

Zunächst habe ich mich auf die Microsoft- Umgebungen beschränkt. Es folgen aber in nächster Zeit weitere allgemeine Artikel zu Authentifizierung und Autorisierung.

Die Beiträge sind unter http://wolfgangmeisen.de/it-architektur-themen/anmeldeverfahren-aus-der-microsoft-welt/ zu finden.