Blogartikel zum Schlagwort IT-Konzeption

Mobiles Arbeiten und Home Office in modernen Unternehmen

Mobiles Arbeiten – Das Büro in der Tasche

Die Digitalisierung verändert die Art und Weise, wie wir leben, denken und arbeiten. Sie macht uns mobiler, weil es uns erlaubt ist, ganze Büros in Taschen zu packen und unser Wissen ständig bequem mit uns zu führen. Dieses Wissen aber ist nur dann etwas wert, wenn es jederzeit und an jedem Ort abrufbar ist.

Mobiles Arbeiten bedeutet Zeitersparnis.

Home Office & Arbeiten von überall

Der Mitarbeiter muss nicht im Büro erscheinen, an Meetings kann auch im Home Office vom Sofa aus teilgenommen werden. Man kann morgens länger schlafen, eine Runde joggen oder wenn es heiß ist ins Freibad gehen. Das alles ist möglich, wenn die Arbeit nicht fest an einen Standort gebunden ist und sich frei einteilen lässt. Warum also nicht draußen in der Sonne die E-Mails bearbeiten? Der heutige Stand der Technik macht das Arbeiten von überall zur Leichtigkeit.

Mobiles Arbeiten hat positive Auswirkungen auf die Gesundheit und verringert Stress.

Wenn sich mittags schon Frustration breitmacht, weil wieder nichts weitergeht, nichts so funktioniert wie es sollte und der Stresspegel bereits den Anschlag erreicht hat, ist es sicher wenig produktiv, den ganzen Nachmittag im Büro zu sitzen. Ein Ortswechsel kann uns auf andere Gedanken bringen, die Perspektive verändern und in entspannter Atmosphäre frische Ideen fließen lassen.

Freiräume und Work-Life-Balance

Einer der wichtigsten Faktoren aber ist: Motivation. Wenn Herr Müller am Geburtstag seiner Tochter von zu Hause arbeiten und so mehr Zeit mit ihr verbringen kann, wird er seine Arbeit motivierter angehen, als wäre er bis 17 Uhr im Büro, um danach noch in den überfüllten Zug nach Hause steigen zu müssen. Wir nennen das Work-Life-Balance.

Nicht zu vergessen ist die Kostenersparnis, die ein mobiles Büro mit sich bringt. Gerade für kleine Unternehmen oder Startups ist Raum ein großer Kostenpunkt, der viele Ressourcen beansprucht, die woanders sicher dringender benötigt werden.

Bringt das mobile Arbeiten auch Nachteile mit sich?

Ist man nur selten am Unternehmensstandort tätig, hat man folglich relativ eingeschränkten Kontakt zu den Kollegen. Ein Austausch im Team findet in begrenzter Form statt, etwa durch Chats oder Telefon. Ein Punkt, den man bedenken sollte. Hier gilt: Die Mischung aus Office und mobiler Arbeit macht’s.

Die kreITiv ist Ihr Spezialist für die Realisierung eines mobilen Arbeitsplatzes. Wir bieten Ihnen die Möglichkeit mittels unserer IT-Leistungspakete für Sie und Ihre Mitarbeiter unkompliziert den Start in die mobile Arbeitswelt umzusetzen. Weitere Infos dazu finden Sie auf unserer Webseite.

Wir freuen uns auf Sie und beraten Sie gern in einem persönlichen Gespräch.

UTM statt Firewall. Achten Sie bei der IT-Sicherheit auf die größere Dimension

UTM – Mehr als eine Firewall

Es gibt ein System in jedem Netzwerk, dass mehr Schläge einstecken muss als Axel Schulz, eine Phalanx, der auch Spartaner ihren Respekt erweisen müssen: die Firewall.

Sie ist das Bollwerk vor dem möglichen Übel, welches durch das offene Internet auf interne Netze zu galoppiert. Doch längst ist das Gerät, welches wir als Firewall bezeichnen, mehr geworden als der Paketfilter alter Tage. Es ist ein UTM-System!

UT-was?

UTM steht für Unified Threat Management, einfach ausgedrückt ein vollintegriertes System zum ganzheitlichen Schutz vor Bedrohungen, vornehmlich aus dem öffentlichen Netz. Mögliche Bestandteile eines solchen Systems sind:

Zusätzlich dazu stellen diese Systeme umfangreiche Möglichkeiten zur Berichterstattung (Reporting) bereit, um dem zuständigen Administrator neben dem Monitoring auch Informationen zur Auswertung an die Hand zu geben.

Kein Netzwerk ist wie das andere

Dimensionierung ist ein Thema, welches hier klar angesprochen werden sollte. Jede einzelne Komponente eines UTM-Systems benötigt Hardwareressourcen, jedes zu schützende Netzwerk hat einen individuellen Charakter.

Wie viele Mitarbeiter wählen sich extern in das Netz ein? Welches Surfverhalten legen die Mitarbeiter an den Tag? Welche Dienste sollen von innen nach draußen kommunizieren können und mit welcher Schlagzahl? Diese und weitere Punkte sind zu klären, bevor man eine Kaufentscheidung trifft.

Schutz kann auch eine Zwangsjacke sein

Nachdem technische Anforderungen geklärt wurden, gilt es solche doch sehr komplexen Systeme zu konfigurieren.

Wer hier aber gleich alle Pforten schließt, sollte bedenken, dass zu viel Sicherheit praktisch Arbeitsunfähigkeit bedeutet. Es gilt also, organisatorische Vorgaben einfließen zu lassen. Bemühen Sie zunächst das Prinzip „So viel wie nötig, so wenig wie möglich“ und tasten Sie sich danach Stück für Stück an eine für Sie passende Konfiguration heran.

Das Unified Threat Management – Es lebt!

Wenn Sie nun eine saubere Konfiguration auf einer gut bemessenen Hardware laufen haben, ist das Schlimmste, was Sie tun können, es danach unangetastet zu lassen. Neben dem täglichen Katz-und-Maus-Spiel gegen Hacker und andere Netzunholde, gibt es auch Änderungen in Ihrem Netz selbst, auf die reagiert werden sollte.

Auch gilt es konsequent zu prüfen, wer da alles von außen anklopfte und ob die ergriffenen Maßnahmen hinreichend greifen. Eine UTM ist also ein System, welches konsequenter Betrachtung und Pflege bedarf. Es ist „lebendig“.

Achten Sie bei der Absicherung der IT-Infrastruktur Ihres Unternehmens also nicht mehr nur auf das Schlagwort „Firewall“, sondern denken Sie in einer größeren Dimension. Denn auch die Bedrohungen erreichen Sie mittlerweile auf diverseren Pfaden. Für den Schutz von Systemen setzen wir daher auf das Unified Threat Management und beraten Sie dahingehend auch gern bei Ihrer IT-Konzeption.

Wohin geht's zum Smart Home?

Smart Home – Gegenwart? Zukunft? Utopie?

“Smart Home” – ein Begriff, der seit der Jahrtausendwende nach und nach aufkam und das perfekt durchoptimierte Zuhause verspricht. Mit einem Knopfdruck auf dem Smartphone werden alle technischen Geräte bedient, am Arbeitsplatz die heimische Temperatur reguliert und dem Kühlschrank eine Liste von Nahrungsmitteln kommuniziert, die er regelmäßig mit seinem Inhalt abgleicht und notfalls fehlende Produkte selbstständig nachbestellt.

Doch der Ansatz geht weit über die bloße Fernsteuerung hinaus. Die Geräte sollen untereinander kommunizieren. Wird ein Fenster geöffnet, soll sich zum Beispiel automatisch die sonst aktive Luftregulierung anpassen. Grundlage dessen ist das sogenannte Internet of Things, eine Infrastruktur zunehmend intelligenter Gegenstände, bis hin zur autonom agierenden KI. Wie weit sind wir technisch auf dem Weg zum smarten Heim, wie verbreitet sind solche Ansätze schon heute und ist eine vernetzte Heiminfrastruktur überhaupt wünschenswert?

State of the (Sm)Art

Rein technisch sind die meisten Smart Home-Ansätze bereits heute völlig problemlos umsetzbar. Sowohl der Kühlschrank, der selbst neue Nahrungsmittel bestellt, als auch Fernsteuerung per App, sowie kommunizierende Geräte sind im Prinzip bereits existent. Doch trotzdem funktionieren fast alle Haushalte noch immer analog. Woran liegt das?

Wie bei den meisten innovativen Produkten gibt es für smarte Geräte sehr hohe Einstiegspreise. Vieles ist noch im Experimentierstadium und wird nicht in großen Stückzahlen produziert. Die Alltagserleichterung ist im Verhältnis dazu noch gering und in vielen Bereichen eher Spielerei. Kommunizierende Haushaltsinfrastruktur ist außerdem nur dann sinnvoll, wenn es im Haushalt eine große Anzahl an Geräten gibt, die solche Funktionen auch nutzen. Funktionierende Beispiele in der Realität, zumindest für komplett smarte Wohnungen, sind daher meist noch Modellprojekte.

Was, wenn die Zukunft abstürzt?

Doch all die Vorteile fürs alltägliche Leben, die ein smartes Heim bietet, sind auch mit Gefahren verbunden. So könnte eine (noch größere) Technikabhängigkeit entstehen. Wenn selbst die Haustür ausschließlich per Smartphone geöffnet werden kann, was passiert, wenn der Akku leer ist oder die Software buggt?

Momentan fehlt es außerdem an einheitlichen Standards für Soft- und Hardware. Zwar gibt es diverse Ansätze dafür, aber bisher konnte sich keiner davon am Markt etablieren. So nutzen unter anderem Samsung und Philipps den Standards Zig Bee, Bosch Z-Wave und RWE sein eigenes RWE Smart Home, es existieren aber noch zahlreiche andere. Die Systeme unterscheiden sich in Punkten wie Wellenlänge, Stromverbrauch oder Verschlüsselung und sind daher oft nicht kompatibel. Möchte man sich sein eigenes Smart Home mit Geräten verschiedener Anbieter zusammenstellen, wird man nicht daran vorbeikommen, zahlreiche Apps herunterzuladen – und zu hoffen, dass die intelligente Technologie verschiedener Hersteller überhaupt miteinander kommunizieren möchte.

Ein weiteres großes Thema ist natürlich Datensicherheit, denn natürlich lässt sich auch das Internet of Things hacken. Möchte man wirklich, dass alles, von der Dunstabzugshaube bis zur Zahnbürste, theoretisch von außen angegriffen, ausgelesen oder manipuliert werden kann? Immerhin wird fast jede Tätigkeit überwacht und eine bedeutende Menge an Daten aufgezeichnet. Sowohl Hacker als auch Hersteller könnten solche Informationen nutzen. Angriffe auf smarte Geräte gibt es bereits und meist sind sie erfolgreich, weil diese nicht einmal geringsten Sicherheitsstandards genügen. Hier müssen Hersteller definitiv noch nachlegen.

Wann sind alle Häuser schlau?

Trotz weitgehender Umsetzbarkeit, hat sich das Smart Home noch lange nicht durchgesetzt. Das hat auch gute Gründe. Preise, Sicherheitslücken und fehlende technische Stabilität schrecken die meisten Nutzer noch ab. Ob und wann sich solche Ansätze durchsetzen, ist schwierig zu prognostizieren. Wie immer bei Alltagsutopien ist es unmöglich Dinge einzubeziehen, die schlicht und einfach noch nicht existieren. Mit Sicherheit bringt die Zukunft Lösungen, die noch nicht absehbar sind – auch für Probleme, die wir noch gar nicht haben.

Auf der anderen Seite gibt es noch immer Alltagsprobleme, für die es noch keine smarte Lösung gibt und vielleicht auch nie geben wird. Solange etwa im Haushalt Müll entsteht, muss dieser auch gesammelt und abtransportiert werden. Letztendlich werden sich wohl einige sinnvolle Konzepte durchsetzen und andere Innovationen an ihrem Preis-Leistungs-Verhältnis scheitern. In jedem Fall werden unsere Heime künftig immer smarter werden und neue Ansprüche an Datenschutz und IT-Sicherheit stellen.

Die Digitalisierung stellt Unternehmen vor Herausforderungen

Die Herausforderungen der Digitalisierung – Erkennen und gezielt überwinden

Seien es Wirtschaftsnachrichten oder die mittlerweile omnipräsenten politischen Debatten: Digitalisierung ist ein fester Bestandteil des Anforderungskataloges für Unternehmen weltweit geworden. Die rasche Entwicklung von Technologien wie Cloud Computing, Big Data und natürlich die sog. Industrie 4.0 werden stets als Treiber der Digitalisierung genannt.

So vielversprechend, wichtig, ja sogar unumgänglich dieser Trend aber ist, so birgt er doch einige Risiken und Herausforderungen, welche wir hier (ohne Anspruch auf Vollständigkeit) kurz beleuchten wollen.

Ohne IT gibt es kein Business

Wie eingangs erwähnt, sind es Technologien – genau genommen Informationstechnologien – also IT, die die Basis jedweder digitaler Daten, deren Erstellung und Verarbeitung darstellen. Kennt man die Nutzungsmöglichkeiten zu seinen Anwendungsfällen also kaum oder gar nicht, gerät man schnell ins Straucheln.

Ist alles mit IT durchdrungen, so muss diese skalierbar und äußerst robust aufgestellt sein. Ohne Skalierbarkeit fehlt die notwendige Dynamik, ohne Robustheit leidet die Arbeitsqualität, die Qualität und Quantität der Daten und im Worst Case, d.h. ohne funktionierende IT, das ganze Unternehmen, was sehr schnell das Aus sein kann.

Ohne Ideen und Erfahrung sind nur Daten digital

Digitalisierung bedeutet längst nicht mehr nur das Umwandeln von analogen in digitale Daten. Vielmehr ist die vernetzte Nutzung, speziell das gezielte automatische Auswerten eben dieser Daten der Kerntenor. Es sind also individuelle Ideen zur Abbildung und Weiterentwicklung der von Daten getriebenen Geschäftsprozesse durch Technologien notwendig, um nicht den Anschluss an den Wettbewerb zu verlieren.

Ob nun analog oder digital, die Qualität – z.B. die Vertrauenswürdigkeit – der Daten ist essentiell um mit ihnen gut zu arbeiten. Fehlentscheidungen auf Basis fehlerhafter oder gar gezielt veränderter Daten können bei dem hohen Tempo fatal werden. Die Basis jeder Dynamik sind saubere Anfangs- und Randdaten, selbst robuste Algorithmen helfen hier nicht.

Achten Sie daher auf hochwertige und vertrauenswürdige Quelldaten und sichern Sie deren Integrität in Ihren eigenen Systemen.

Nicht alle Daten darf man uneingeschränkt nutzen

So grenzenlos einem die Möglichkeiten der Datenauswertung z.B. im Falle des Marketings und Vertriebs durch die schier unendlichen Datenquellen wie etwa Google, Amazon oder Facebook erscheinen, so muss diese Euphorie doch gebremst werden.

Gerade in Deutschland ist die Sensibilität für personenbeziehbare und personenbezogene Daten äußerst hoch. Der Gesetzgeber räumt dem „Auswertungsobjekt“ Mensch daher weitreichende Rechte zur Einsicht und zur Löschung erhobener Daten ein.

Ergo: Achten Sie bei allen Digitalisierungsvorhaben auf die restriktiven Rahmenparameter Datenschutz und Compliance.

Der Mitarbeiter versus die Status LED

Offensichtlich transformiert die Digitalisierung von Geschäftsprozessen die Arbeitsweisen eines jeden von uns. Tätigkeiten wie das Erheben von Daten, deren Auswertung bis hin zur Ableitung optimaler Entscheidungen werden durch Sensorik, heuristische Algorithmen und künstliche Intelligenz immer mehr Aufgabe von Maschinen.

Studie zum jährlichen Lagebild zur Digitalen Gesellschaft

Zugang, Nutzung, Kompetenz und Offenheit in Bezug auf die Digitalisierung in Deutschland,
weitere Informationen zum D21-Digital-Index 2016, Bildquelle: Initiative D21 (CC BY 2.0)

Wo platzieren wir hier den Menschen als Arbeitnehmer? Degradieren wir ihn zur finalen Prüfinstanz maschineller Abläufe? Als ITler stellt sich der Autor einen dumpf auf Status LEDs blickenden Techniker vor. Oder ist der Mensch nur noch der Innovator, ein Komponist der vorhandenen und aufkommenden Technologien? Dies ist eine gesellschaftliche Herausforderung, welcher wir uns gemeinsam stellen müssen.

Aber auch abseits von diesen Zukunftsgedanken (um nicht von einer Dystopie zu sprechen) erleben wir schon im Jetzt durch die Always On Mentalität, smartphonegetriebene Techniksklaven sowie die Möglichkeit, uneingeschränkt von Zeit und Ort arbeiten zu können, eine Verschiebung dessen, was wir geregelte Arbeit nennen.

Die Herausforderung ist es also, auch die Arbeitnehmer mit zu transformieren – d.h. Kompetenzen und Wissen im Sinne der Technologien aufzubauen – ohne dass sie selbst zu phantasielosen Robotern mutieren.

Backups und Archive - von der Strategie zur technischen Umsetzung

Backups verstehen und korrekt einsetzen

Wird von Datensicherheit gesprochen, so sind Backups der Daten ein zentrales Thema. Meist sind sie der Notnagel in Worst Case Situationen und sollten demnach wohl durchdacht sein.

Heute wollen wir kurz beleuchten, welche technischen und organisatorischen Überlegungen vor dem Einsatz von Backups angegangen werden sollten.

Backups und Archive – Unterschiede und Gemeinsamkeiten

Bevor wir uns dem eigentlichen Thema widmen, soll noch eine kurze Abgrenzung erklärt werden: der Unterschied zwischen einem Backup und einem Archiv.

Während ein Backup darauf abzielt, innerhalb einer definierten Zeitperiode (meist kurze Abstände wie etwa ein Tag) ältere Abbilder bzw. Versionen des Datenbestandes anzubieten und dabei zu alte Abbilder automatisch u.a. aus Platzgründen verwirft, so besteht ein Archiv aus wenigen fest definierten kompletten Datenbeständen, deren maximales Alter oft viele Jahre sein kann (der Gesetzgeber gibt für Rechnungen bspw. eine Aufbewahrungsfrist von zehn Jahren vor).

Was beide gemein haben, sind die technischen und organisatorischen Anforderungen:

  • Veränderbarkeit: Es muss sichergestellt sein, dass Daten nachträglich nicht geändert oder manipuliert werden können.
  • Zugriffkontrolle: Bei Bedarf müssen die Daten schnell verfügbar sein. Jedweder Zugriff darf nur durch Autorisierte geschehen.

I. Eine Strategie wird gebraucht

Nun verfällt man leicht in den Reflex zu sagen, alles muss ins Backup und schlimmer noch, das Backup solle doch bitte auch Archiv sein, also auch sehr alte Datenbestände umfassen. Beachten Sie den Speicherbedarf, welcher überproportional durch lange Aufbewahrungszeiten von z.T. redundanten Daten entsteht! Hier fallen unnötige Kosten für die Bereitstellung der Speichervolumina, der Kontrolle dieser Speichervolumina sowie unnütz lange Transfervolumina an, welche die Last und damit auch die Kosten u.a. für die Dimensionierung des zugrundeliegenden Netzwerks in die Höhe treiben.

Es gilt also auch hier: So wenig wie möglich, so viel wie nötig. Klären Sie, welche Datenbestände wirklich durch Backups geschützt werden sollen. Beachten Sie dabei auch das Nutzungsverhalten, evtl. gibt es eine Person, die oft nervös die Entfernen-Taste bemüht. Durchdenken Sie, ob die eine einfache Strategie, in der tagesgenaue Backups mit einer Aufbewahrungszeit von 7 Tagen (d.h. tagesgenaue Stände einer Woche) für Ihre Datennutzung genügen, oder ob man nicht doch lieber gar jede Stunde Versionsstände automatisiert erstellt haben möchte.

II. Organisatorische Fragen vor dem ersten Backup

Damit aus einer Strategie ein Plan wird, gilt es Anforderungen, Rahmenparameter und eben organisatorische Themen zu klären.

Hier eine Liste grundsätzlicher organisatorischer Fragen:

  • Wer darf auf die Backups zugreifen?
  • Wie regelmäßig sollen die Backups auf Korrektheit geprüft werden?
  • Soll sich ein Dienstleister um die Backups kümmern oder soll das inhouse bleiben?
  • Sollen sich die möglicherweise mehrfach vorhandenen Backupziele in unterschiedlichen Sicherheitszonen befinden?
  • Wer hat (physischen) Zutritt zu diesen Sicherheitszonen? Wer sollte ihn haben, wer nicht?
  • Wie wird im Desaster-Fall ein Recovery angegangen? (Informationspolitik, Meldewege, …)

III. Anforderungen an die Technik

Mit der Strategie und geklärten organisatorischen Rahmenbedingungen ist nun erst die Technik dran. Es sollte nach den vorherigen Ausführungen klar sein, dass der USB-Stick oder die externe Festplatte keine geeigneten Medien sind, um Backups aufzunehmen.

Welche Voraussetzungen sollten also gegeben sein:

  • Hinreichend Speicherplatz für aktuelle und kommende Backups, passend zur Strategie => Skalierbarkeit als Primärfaktor
  • Technische Umsetzbarkeit von Berechtigungskonzepten => Primärfaktoren Autorisation und Authentizität
  • Technische Umsetzbarkeit der Unveränderbarkeit => Primärfaktor Integritätsschutz
  • Ausfallsicherheit der einzelnen Komponenten sowie Erfüllung der Performanceanforderungen => Primärfaktor Verfügbarkeit

Als Sekundärfaktoren sollen hier auch die einfache Bedienbarkeit sowie kurze Reaktionszeiten seitens des Herstellers in Supportfällen genannt werden.

Backups in der Cloud?

Es ist in der Tat nicht leicht, all diese Anforderungen im Rahmen der eigenen IT und evtl. des eigenen Budgets erfüllen zu können. Hier wird die Cloud interessant, bietet sie doch unerreichbare Skalierbarkeit, hohe Kostentransparenz und durch den Managed Service Charakter der zugesicherten Dienstleistungen eine gute Grundlage, um die eigenen sowie grundsätzliche Anforderungen abzuprüfen.

Für KMUs ist Backup as a Service als Dienst aus der Cloud die beste Möglichkeit, wirklich umfassend gute Backups inklusive Features wie Georedundanz und granularer Rücksicherungen von z.B. E-Mails bei voller Kostenkontrolle genießen zu können.

Und wo fängt man jetzt an?

Komplexe und vor allem sicherheitsrelevante Themen bedürfen stets Erfahrung bzw. Beratung.

In der Tat ist es am besten, sich an Fachleute – wie etwa die kreITiv – zu wenden, um eine umfassende individuelle Beratung zu erhalten. Profitieren Sie von unserem Praxiswissen sowie unserem breiten Angebotsspektrum im Bereich Backup as a Service und sprechen Sie uns an.

IT-Dokumentation und Wissensmanagement

Dokumentation und Wissensmanagement, die Grundpfeiler des IT-Betriebs

Heute widmen wir uns einem Thema, welches gern stiefmütterlich behandelt wird; der Fleißarbeit, zu der sich Admins über den ganzen Globus hinweg genötigt sehen, die aber unendlich wichtig ist: Dokumentation. Wieso hat sie eigentlich einen so hohen Stellenwert? Worauf kommt es bei Dokumentationen an und gibt es Hilfsmittel, welche die Pflichtaufgabe gut unterstützen und damit weniger lästig erscheinen lassen?

Der Grund für Dokumentationen

Es ist nicht nur den Verwaltern und den Betreuern von IT-Infrastrukturen klar, dass diese in ihrer Komplexität stetig wachsen. Es gilt den Überblick zu wahren, welche Komponente welchen Zweck erfüllt und wie eben dieser durch welche Konfigurationen erreicht wurde. Der Begriff Komponente deutet es schon an: Deren Zweck ist stets im Verbund zu verstehen, daher ist auch die funktionale Verknüpfung der Teile eine wichtige Information, um den Regelbetrieb eines Systems an sich am Laufen zu halten.

Und hier haben wir schon den Grund für Dokumentation: Selbst wenn man über ein ausgefeiltes Monitoringsystem schnell auf eine Störung des Regelbetriebes an einer ganz bestimmten Stelle hingewiesen wird, braucht es eine Informationsquelle, die erklärt, wie der Betrieb eigentlich funktionieren sollte und wie die gestörte Komponente da hereinspielt.

Eine saubere Dokumentation sorgt für Informationshaltung, um den Regelbetrieb abzubilden, damit dieser im Falle einer Störung effizient wiederhergestellt werden kann. Zu bedenken ist auch folgender Fall: Der alteingesessene Admin verlässt das Unternehmen und damit gehen nicht nur seine Fähigkeiten und Fertigkeiten, sondern auch sein Wissen. Eine gut geführte Dokumentation sorgt dafür, dass ein fachkundiger Dritter schnell die IT-Landschaft übernehmen kann. Denn er versteht durch sie die Intention und daraus resultierte Konfiguration der einzelnen Bestandteile.

Worauf es bei der Dokumentation ankommt

Die Wikipedia fasst die Qualitätsmerkmale einer Dokumentation gut zusammen:

VollständigkeitStrukturiertheitNachvollziehbarkeit
ÜbersichtlichkeitKorrektheitIntegrität/Authentizität
VerständlichkeitEditierbarkeitObjektivität

Man erkennt, dass es nicht reicht, alles mögliche aus einem Berg aus Notizzetteln in einen Ordner abzuheften (oder zu speichern, man denkt ja papierlos). Es ist auch dafür zu sorgen, dass man sieht, wer was wann zu welchem Zweck niedergeschrieben hat, dass dies ohne persönliche Wertung („der Exchange Server war mir schon immer zu langsam“) geschieht und zudem auch noch auffindbar ist, am besten dort, wo man danach auch suchen würde.

Aus eigener Erfahrung möchte ich noch folgendes hinzufügen: Auch die Prozesse rund um die IT sind zu dokumentieren. Meldewege bei Störungen oder Sicherheitsvorfällen, wo muss man sich melden, wenn es gilt neue Hard- oder Software zu ordern, wie kündigt man Wartungsarbeiten an, was ist beim Zu- bzw. Abgang von Mitarbeitern zu beachten etc. sind ebenso entscheidend für den Regelbetrieb wie die Konfiguration einer Firewall!

Womit diese Anforderungen abgedeckt werden können

Sprechen wir von Dokumentation, sprechen wir von Wissensspeicher und – wie wir soeben gelernt haben – auch vom Management dieses Wissens. Das heißt für uns, dass das Utensil der Wahl ein Wissensmanagementsystem sein muss. Hier müssen wir nicht lange suchen, denn es gibt Software, welche wohl alle schon irgendwie kennen: Wiki-Systeme.

Sei es nun MediaWiki, DokuWiki oder eine andere Spielart, haben all diese Systeme etwas gemein: Es werden Artikel zu Themen erstellt, dabei wird ein Autor benannt und ein Zeitstempel angehängt. Besser noch, die Artikel können untereinander verlinkt werden, es gibt eine Revisionshistorie und man kann (in Abghängigkeit von den gesetzten Berechtigungen) mittels einer Volltextsuche den gesamten Wissensspeicher durchsuchen.

Was man zuvor erarbeiten sollte, ist eine Struktur, die man diesem Wissensspeicher verpassen muss. Dazu gehören nicht nur Kategorien wie etwa Netzwerk, Server und Clients, sondern eben auch ein Berechtigungskonzept sowie einige Standardartikel (Template würde der Softwareentwickler sagen).

Hat man das zusammengetragen, steht einer wirklich guten Dokumentation nichts mehr im Wege. Und wer weiß, vielleicht macht die Wiki-Pflege am Ende sogar Spaß …

 

Als langjähriger IT Service Provider hat die kreITiv GmbH viel Erfahrung mit diesem Thema, denn auch wir mussten uns einst dieser Herausforderung stellen. Benötigen Sie Unterstützung beim Aufbau einer Dokumentation, dann zögern Sie nicht, unser Team zu kontaktieren! Wir helfen gern.

Möglichkeiten und Vorteile von Cloud Computing im Unternehmenseinsatz

Cloud Computing für Unternehmen, was ist das und was bringt das?

In einem früheren Blog-Artikel haben wir über den Sinn und Zweck von Virtualisierung für kleine und mittlere Unternehmen berichtet. Daran anknüpfend wollen wir nun den Faden weiterspinnen: Arbeiten mit und in der Cloud.

Doch was ist Cloud Computing eigentlich? Was bringt es mir und wie setze ich es sachgemäß ein? Diese Fragen wollen wir hier knapp beantworten.

Was ist Cloud Computing?

Um zu verstehen, was Cloud Computing ist, muss man erkennen, was die Dienstleister einem da anbieten. Alles firmiert unter dem Begriff „Service“, welches hier als Dienst und nicht zwingend als Dienstleistung zu verstehen ist. Diese Services werden mit unterschiedlichen Stufen – Level genannt – angeboten. Der Vertrag, der zwischen dem Kunden und dem Dienstleiter („Service Provider“) entsteht, heißt dann folgerichtig „Service Level Agreement“.

Das Portfolio der Services spaltet sich üblicherweise in drei große Hauptpunkte, welche als Metaebenen zu verstehen sind:

  1. Infrastructure as a Service (IaaS)

Eine komplette Infrastruktur von Diensten, welche Ihre IT abbilden kann. Das heißt Firewalls, VPN, Datenablage, Email und Spezialsoftware. Auch das Netzwerk, welches die Dienste zusammenfügt und als Ganzes präsentiert, ist ein Dienst.

  1. Platform as a Service (PaaS)

Eine Arbeitsoberfläche wird Ihnen als Dienst angeboten. Der „klassische“ virtuelle Server, welchen Sie bei diversen Hosten mieten können, gehört in diese Kategorie.

  1. Software as a Service (SaaS)

Eine Software wird Ihnen als Dienst angeboten. Häufig wird diese über ein Webfrontend zur Bedienung übergeben. Aber auch Software, die clientseitig installiert wird, etwa Dropbox als Onlinespeicher, zählt in diese Kategorie.

Natürlich muss irgendeine Hardware diese Dienste ausführen. Diese Hardware steht in Rechenzentren und führt die Server, welche die Dienste anbietet, als virtuelle Maschinen oder sog. Container aus. Alles mit einem hohen Maß an Redundanz, damit die Verfügbarkeit, welche als ein Service Level angeführt wird, auch eingehalten werden kann. Der Vorteil auf der Anwenderseite: Sie müssen sich praktisch nicht damit auseinander setzen. Sie sagen „Ich brauche Speicher!“ und gegen Geld gibt es diesen dann, egal wo Sie sind und das auch noch rund um die Uhr.

Bei IaaS liegt die Komposition der Dienste und deren Orchestrierung (so nennt es der Fachmann) in Ihrer Hand. Im Falle PaaS können Sie sich Ihre Plattform nach Ihrem Gusto einrichten.

Vorteile in der Cloud – Skalierbarkeit und Kostentransparenz

Zwei entscheidende Punkte bringen Cloud Computing auf die Gewinnerspur: Skalierbarkeit und Kostentransparenz der Infrastruktur.

Zeichnen wir ein Szenario:

Sie haben ein Startup. Für dessen Betrieb benötigen Sie Rechentechnik. Den Bedarf an Rechentechnik leiten Sie oder ein Fachmann aus Ihren aktuellen Anforderungen und eventuellen Erwartungen ab. Dann investieren Sie in Hardware und das Personal oder den Dienstleiter zur Gewährleistung des Regelbetriebes. Diese Investition ist oft nicht gering, die Technik ist an Sie als Anlagevermögen gebunden und muss (denn das wird von ihr erwartet) für mind. 3 Jahre so ihren Zweck erfüllen. Und dann kommt alles anders: Ihr Unternehmen wächst enorm und Sie sitzen auf zu knappen Hardware-Ressourcen, oder aber der Markt will nicht so, wie Sie es wollen und Sie sitzen auf der Hardware, welche Sie nicht auslasten.

Cloud Computing löst dieses Problem durch die schier uneingeschränkte Skalierbarkeit: Sie brauchen jetzt nur 2 Email-Postfächer und 10 GB Speicher, morgen aber jeweils 100? Kein Problem. Da die Zahlung pro Nutzung („pay per use“) erfolgt, haben Sie zusätzlich auch praktisch tagesgenau volle Kostentransparenz. Wenn Sie nichts mehr brauchen, kündigen Sie einfach die Dienstleistung. Auch brauchen Sie kein Fachpersonal zur Aufrechterhaltung des Regelbetriebes, dafür existieren ja die Service Level Agreements, welche Sie mit Ihrem Service Provider getroffen haben. Praktisch eine volle Flexibilisierung Ihrer Kosten und eine TCO (Total Cost of Ownership, Gesamtbetriebskosten), die Sie tagesgenau exakt bestimmen können.

So erklärt unser Premium Partner Microsoft das Cloud Computing

Welche Services sind nun die Richtigen für Sie? Um diese Frage zu klären, ist es grundsätzlich wichtig, sich über Ihre Anforderungen klar zu werden. Ein Sachverständiger kann diese mit Ihnen konkret ausformulieren und eine passende Komposition für Sie zusammenstellen.

Die kreITiv ist ein solcher Sachverständiger und berät Sie gern, wenn Sie mit Ihrem Unternehmen den Schritt in die Wolke gehen wollen.

Voraussetzungen, Vorteile und Varianten der Server Virtualisierung

Virtualisierung, auch für kleine Unternehmen sinnvoll

In der IT größerer Unternehmen nicht mehr wegzudenken: Server und Client Virtualisierung. Doch was ist das eigentlich? Was muss man beachten? Welche Vorteile ergeben sich daraus?

Betrachten wir dazu kurz die übliche Konfiguration eines Computers. Auf der Hardware, sprich der physischen Technik wie sie im Serverschrank oder als PC unter dem Tisch steht, ist eine Software installiert, die alle Komponenten ansteuert und die Anwender-Software verwaltet: das Betriebssystem. Ist dieser Computer als Server vorgesehen, laufen alle Dienste, welche er im Netzwerk anbieten soll, parallel auf diesem einen Betriebssystem.

Kommt es nun im laufenden Betrieb zu Störungen an dem Betriebssystem (zum Beispiel Updates oder Konfigurationsfehler), ist keiner der Dienste mehr verfügbar. Hat die Hardware einen Defekt, muss diese erst ersetzt werden, bis die Dienste wieder verfügbar sind. Beide Störungsfälle können z.T. mehrere Stunden oder gar Tage in Anspruch nehmen. Downtimes, die so für unternehmenskritische Ressourcen (zum Beispiel der Mail-Server) nicht tragbar sind.

Was ist nun Virtualisierung?

Grob gesprochen wird eine logische Metaebene geschaffen, die es erlaubt auf einer Hardware mehrere Betriebssysteme – genauer Betriebssystem-Instanzen bzw. Gastsysteme – auszuführen. Soll heißen, mehrere virtuelle Computer auf einem Physischen. Die Software, welche diese Ebene generiert, nennt sich Hypervisor.

Dabei gibt es 2 Methoden:

1. Der Hypervisor agiert zwischen der Hardware und den Betriebsystem-Instanzen.

Man spricht hier von Bare Metal Hypervisor bzw. Type 1 Hypervisor. Vorteile dieser Methode sind: Geschwindigkeit/Performance. Nachteile sind: Kosten der Software sowie erweiterte IT-Kenntnisse notwendig.

2. Der Hypervisor agiert zwischen einem vorhandenen Betriebssystem und den Betriebssystem-Instanzen.

Hier spricht man von einem Type 2 Hypervisor. Vorteile sind die geringen Kosten (oft kostenfrei) und die vergleichsweise einfache Einrichtung. Nachteilig sind jedoch die geringere Performance und die mangelnde Flexibilität der Konfiguration.

Im Unternehmensumfeld kommt praktisch nur der Typ 1 vor, so dass ich mich hier auf diesen beschränken möchte. Mit diesen ist es nun also möglich auf einem physischen Server mehrere virtuelle Serverinstanzen auszuführen.

Was muss man dabei beachten?

Veranschaulichung der Virtualisierung von Betriebssystemen

Das Prinzip der Betriebssystem-Virtualisierung: Ein Hypervisor managed mehrere virtuelle Computer auf einem physischen System

Jedes Betriebssystem benötigt inkl. seiner Dienste bestimmte Ressourcen. Diese sind Prozessorleistung, Arbeitsspeicher und Festplattenkapazität. Sollen nun mehrere auf einer Maschine betrieben werden, so muss diese den Ressourcenhunger aller Gastsysteme kumuliert abdecken.

Nun benötigen die Gastsysteme nicht immer alle Ressourcen unmittelbar und nutzen auch oft gleiche Ressourcen (z.B. Betriebssystem-Dateien). Moderne Hypervisor können Ressourcen wie zum Beispiel den Arbeitsspeicher dynamisch verteilen, je nach Last.

Auch beherrschen sie Datendeduplizierung: Nutzen Gäste zum Großteil die gleichen Dateien, speichert der Hypervisor die Daten nur einmal, kann sie aber in mehreren Gastsystemen gleichzeitig anbieten, was z.T. immens Festplattenspeicher spart. Auch die Größe der virtuellen Datenträger, welche die Gastsysteme nutzen, ist dynamisch anpassbar (sog. Thin Provisioning).

Welche Vorteile ergeben sich aus Virtualisierung?

Trennt man (weil man es ja nun kann) jeden Serverdienst von all den anderen durch eigene (dedizierte) virtuelle Serverinstanzen, so beeinflussen sich Störungen nicht gegenseitig. Ein Fehler legt also nicht mehr das gesamte System lahm. Auch lastet der klassische Fall nie die ganze Hardware aus, oft dümpelt diese vor sich hin und verbraucht unnütz Strom. Schlimmer noch: Hat man mehrere Serversysteme im Einsatz so addieren sich die Ineffizienzen Ihrer Auslastung.

Da Virtualisierung voll skalierbar ist, wird die Hardware, auf der die Gastsysteme ausgeführt werden, optimal ausgelastet. Damit verringert sich der Energiebedarf, die Geräuschemissionen, der Kühlungsbedarf und nicht zuletzt auch die Anschaffungskosten für die Hardware, welche ihre IT-Anforderungen stemmen soll.

Doch es gibt noch weitere Vorteile

Verknüpft man mehrere physische Computer über deren installierte Hypervisor, können sich diese ihre Aufgaben teilen und im Störungs- oder Wartungsfall ohne Umschaltzeiten sogar komplett den Dienst eines Partners übernehmen. Dieses Zusammenschalten nennt sich Clustern. Erst durch Clustern kann man echte Hochverfügbarkeit erreichen, ein entscheidender Faktor für systemkritische Infrastrukturen. Clustern kann man auch ohne Virtualisierung, jedoch mit einem deutlichen höheren Kosten- und Arbeitsaufwand.

Auch ist zu beachten, dass virtuelle Computer lediglich Software, das heißt Daten sind. Diese kann man bekanntlich speichern. Hier bedeutet das: Gastsysteme können einem Versionierungsprozess unterworfen werden, punktgenau gesichert und zurückgespielt werden (Backups einer kompletten virtuellen Maschine inkl. ihres Betriebszustandes), von einem (kompatiblen) Hypervisor zum anderen migriert werden sogar im laufenden Betrieb (sog. Live Migration) und letztendlich auch kopiert d.h. geklont werden.

Es ist hieran schon zu erkennen, dass es viele Anwendungsfälle für Virtualisierung gibt. Unabhängig von der Unternehmensgröße lassen sich dadurch die Kosten für Hardware reduzieren und bei korrektem Einsatz die IT-Sicherheit (speziell die Verfügbarkeit der Daten und Dienste sowie Backups) drastisch erhöhen.

 

Haben wir Ihr Interesse für das Thema geweckt? Haben Sie Fragen, wie auch Sie Virtualisierung in Ihrer IT einsetzen können? Das Team der kreITiv GmbH berät Sie gern.

Im kreITiv Blog stellen wir verschiedene Arten von VPNs vor

VPN-Tunnel – Ein sicherer Weg zum Fernzugriff

Wer in der heutigen Zeit von unterwegs, zu Hause, oder aus einer Filiale Zugriff auf Daten seines Unternehmens benötigt, kommt nicht daran vorbei, sich im Besonderen über das Thema IT-Sicherheit Gedanken zu machen.

Sichere Verbindungen dank VPN-Lösungen

Der wirksamte Schutz vor Einsicht und Änderung von Daten seitens Dritter ist eine gesicherte Verbindung zwischen den Endpunkten mittels einer Lösung via Virtual Private Network. Doch ist ein solches VPN nicht immer gleich VPN: Es gibt verschiedene Arten von gesicherten Verbindungen. Diese unterscheiden sich durch den Endpunkttyp, das angewandte Authentifizierungsverfahren, sowie durch Typ und Stärke ihrer Verschlüsselung.

I. Der Endpunkttyp

Es wird zunächst in die beiden Kategorien „Site“ und „End“ und damit zwei mögliche Verbindungen unterschieden: „Site-to-Site” und „End-to-Site“.

Als „Site“ wird ein ganzes Netzwerk bezeichnet. Endpunkttyp ist hier in der Regel der Internet-Router, die Internet-Firewall oder ein separater VPN-Router. Ein Benutzer kann intern auf die Ressourcen im Netzwerk zugreifen, muss keine eigene gesicherte Verbindung zu seinem Ziel aufbauen und bekommt von der verwendeten Technik im Grunde nichts mit. Nachteilig sind allerdings die – wenn auch vergleichsweise geringen – Kosten für die benötigte Hardware und natürlich die Standortabhängigkeit.

Beim „End“ spricht man von einem einzelnen Endpunkt bzw. einem Endgerät. Von diesem Gerät aus verbindet sich der angemeldete Benutzer manuell mit einem entfernten Netzwerk, also einer „Site“. Von Vorteil ist an dieser Stelle die ermöglichte Mobilität des Nutzers sowie der Kostenfaktor (auf dem zugreifenden Gerät muss lediglich eine VPN-Software eingerichtet werden). Ein Nachteil liegt in dem Umstand, dass der Benutzer diese Verbindung aktiv aufbauen und mit dafür der Bedienung der Software vertraut sein muss, um an Unternehmensdaten heranzukommen.

II. Das Authentifizierungsverfahren

Mittels VPN greifen Geräte aus der Ferne auf Unternehmensressourcen zu

Das VPN-Prinzip. Sicher und verlässlich auf Unternehmensressourcen zugreifen.
Bildquelle: Ludovic.ferre via Wikimedia Commons (CC BY-SA 4.0)

Das Authentifizierungsverfahren dient der Feststellung, ob wahlweise der anzumeldende Benutzer oder die Site derjenige ist, der er vorgibt zu sein. Verwendet werden hierfür ein Passwort (auch Pre-Shared-Key PSK) oder ein wesentlich sichereres Zertifikat.

Es sollte dafür Sorge getragen sein, dass auch die Authentifizierung selbst verschlüsselt erfolgt, damit nicht bereits an dieser Stelle ein Dritter in das System gelangen kann. Als unsicher gilt bspw. das unverschlüsselte Password Authentication Protocol PAP. Wir raten stattdessen zu einer Verwendung des Extensible Authentication Protocol EAP, das eine Verschlüsselung durch Erweiterungen erhält. Speziell EAP-TTLS und PEAP arbeiten bereits von Beginn der Verbindung an mit Verschlüsselungsalgorithmen und machen es Dritten damit extrem schwer, an die begehrten Anmeldedaten heranzukommen.

III. Der Verschlüsselungstyp

Letztendlich sind für die Sicherheit der Verbindung selbst nur noch der Verschlüsselungstyp und dessen Stärke verantwortlich.

Während ältere Verschlüsselungsverfahren wie PPTP („Point-to-Point-Tunneling-Protocol“, 1996 entwickelt) mittlerweile als unsicher gelten und daher nicht mehr verwendet werden sollten, gibt es mit SSL-VPN und IPsec zwei empfehlenswerte Alternativen, die den sicherheitstechnischen Anforderungen der heutigen Zeit gerecht werden..

SSL-VPN lässt sich als kleines kompatibles Pendant ansehen, das selbst hinter einer Firewall und einem eingeschränkt konfigurierten Internet-Router mit NAT („Network Address Translation“) noch lauffähig ist. Es baut auf dem Prinzip einer verschlüsselten Webseite auf und lässt sich daher nicht tunneln. Aus diesem Grund eignet sich SSL-VPN ausschließlich für End-to-Site-Verbindungen.

Mit IPsec lassen sich VPN-Verbindungen mit besonders hohen Anforderungen an die Sicherheit realisieren. Es handelt sich um eine Erweiterung des Internet-Protokolls und besteht aus den folgenden Grundsätzen:

  • Verschlüsselung
  • Kryptografischer Schutz der zu übertragenden Daten
  • Datenintegrität
  • Authentisierung des Absenders
  • Zugangskontrolle
  • Authentifizierung von Verschlüsselungs-Schlüsseln
  • Verwaltung von Verschlüsselungs-Schlüsseln

VPN als Maßnahme im Gesamtpaket der IT-Sicherheit

Eine VPN-Absicherung allein ist dabei ausdrücklich nicht als Garantie vor der Ausspähung von Daten zu verstehen. Es sollte als Maßnahme immer in ein abgestimmtes System zur IT-Sicherheit eingebettet sein.

Stehen auch Sie vor der Herausforderung, von unterschiedlichen Standorten sicher auf Ihre Unternehmensressourcen zugreifen zu müssen? Das Team der kreITiv berät Sie gern bei der Planung und Umsetzung eines individuellen IT-Konzepts.

ISDN-Anschluss für Unternehmen

ISDN wird abgeschaltet, was nun?

Die Telekom und andere Netzbetreiber werden ISDN-Anschlüsse sukzessive kündigen und abschalten – dieser Fakt schwebt als drohendes Damoklesschwert über vielen Unternehmen, welche mittels dieser Technik telefonieren und faxen. Bis zum Jahr 2018 möchte die Telekom diesen Vorgang abgewickelt haben. Als Gründe werden zu hohe Stückkosten für Ersatzteile, zu viele Service-Einsätze von Technikern und der mittlerweile als „Zoo“ bezeichnete Zustand in den Hauptverteilern (HVT) genannt. Erste Kündigungen wurden bereits ausgesprochen, doch ein wirkliches Alternativprodukt hat die Telekom erst für das Jahr 2017 auf der Agenda.

Technische Leiter und Geschäftsführer sind also jetzt angehalten, der Kündigen zuvor zu kommen, Alternativen zu prüfen und entsprechend zu projektieren.

Die Alternative – Nfon Cloud-Telefonanlage

Eine Alternative möchten wir hier kurz vorstellen. Die All-IP-Lösung der Nfon AG über die Cloud. IP-Telefonie ist mittlerweile nun nichts Neues mehr. Anstatt über ein getrenntes Netz mit völlig eigener Technik (wie bei ISDN), werden Rufaufbau und Übertragung der Sprachpakete über das Internet vorgenommen. Als Basis dient also ein breit ausgebautes Netz, welches die Trennung der Dienste, die über es laufen, mittels höherer Protokolle handelt.

Nun ist aber bei klassischer IP-Telefonie immer noch eine spezielle Telefonanlage, welche nur spezielle Endgeräte zulässt, am Standort des Kunden von Nöten. Auch die Konfiguration der erwünschten Leistungsmerkmale und Dienste ist durch die eigene IT-Abteilung oder externe Dienstleister zu erbringen.

Nfon verschiebt all dies in die Cloud. Ihre Telefonanlage ist standortunabhängig über eine komfortable Weboberfläche konfigurierbar, Telefone unterschiedlicher Marken und Modelle werden unterstützt. Ihre Nebenstelle wird mobil, da sie nicht auf Ihr lokales Netzwerk festgelegt ist und selbst Ihr geliebtes analoges Fax-Gerät kann weitergenutzt werden. Wie bei Cloud-Lösungen üblich ist Full-Service durch qualifizierte Techniker inklusive, abgerechnet wird nur das, was genutzt wird. Und noch besser, ab der ersten Nebenstelle erhalten Sie alle Enterprise-Leistungsmerkmale wie Warteschlangen und Zeitsteuerungen, für deren Einrichtung man sonst ebenso zahlte, kostenfrei dazu.

Telefonie in der Cloud, ist das sicher?

Bei “Cloud” zuckt nun der ein oder andere zusammen. Wie sicher ist das? Wie verfügbar ist diese Lösung? Hier kann man beruhigen: die Nfon-Cloud ist eine Cloud “Made in Germany” und das Rechenzentrum steht in Deutschland. Es unterliegt also alles dem deutschen Telekommunikationsgesetz und wird regelmäßig geprüft und zertifiziert. Welche Daten fließen nun wie über die Leitungen? Verschlüsselte Verbindungsanfragen und Sprachpakete. Lediglich Nebenstellennamen und Rufnummern sind im Rechenzentrum gespeichert.

Haben wir Ihr Interesse geweckt? Die kreITiv GmbH begleitete nun schon über 100 Unternehmen bei solch einer Umstellung und ist ein starker Partner der Nfon AG hinsichtlich Vertrieb und Betreuung. Wenden Sie sich also vertrauensvoll an uns, wenn Sie sich des ISDN-Problems proaktiv widmen wollen, mit unserer Erfahrung können wir Ihnen sicher helfen!