Beiträge

Mit kreITiv zur sicheren IT-Infrastruktur

Proaktives Agieren durch Monitoring von IT-Infrastruktur

Verfügbarkeit ist eines der zentralen Schutzziele von IT-Infrastrukturen, denn es ist naheliegend, dass nur mit funktionierenden – eben zu Verfügung stehender Technik – gearbeitet werden kann. In Rechenzentren gewährleistet man ein hohes Maß an Verfügbarkeit durch redundante Auslegung sämtlicher Systeme, die ein Glied in der Kette der angebotenen Dienste darstellen.

Hier nun sollte jeder Kunde von Cloud-Dienstleitungen aus Rechenzentren innehalten und sich folgende Frage stellen: Und was ist mit meinem Endgerät, an dem ich dann tatsächlich arbeite? Da sich die zuvor genannte Kette tatsächlich erst bei dem eigentlichen Benutzer schließt, ist diese Frage absolut gerechtfertigt. Wie aber gewährleistet man eine hohe Verfügbarkeit von Endgeräten? Redundanz kann es wohl nicht sein, oder haben Sie stets ein Ersatz-Smartphone griffbereit?

Monitoring – alles Relevante im Blick behalten

Wir haben also die Endgeräte als zu betrachtendes Glied identifiziert. Es gilt nun, dieses gezielt ins Auge zu fassen, um es in seinem laufenden Betrieb effizient zu überwachen.

Wichtig ist, sich die Funktionen klarzumachen, von denen die eigentliche Arbeit abhängt, soll heißen das Relevante herauszufiltern. Relevant sind neben den Hardwarefunktionen auch die Dienste, die Indikatoren für die Lauffähigkeit des Betriebssystems und wichtiger Software sind. Mit diesen Informationen kann das Endgerät nun beobachtet werden, ein Monitoring also.

Monitoring ist praktisch das Ablesen und Prüfen der Vitalfunktionen einer digitalen Arbeitskraft mit dem Ziel, Störungen kritischer Komponenten in ihrer Anbahnung zu erkennen.

Software Agenten als Mess- und Beobachtungsposten

Es ist ersichtlich, dass man zum Monitoring die richtigen Instrumente benötigt. Üblicherweise sind das kleine Softwarepakete, welche passend konfiguriert Daten sammeln und diese über eine sichere Verbindung an ein zentrales Monitoringsystem liefern. Diese Softwarepakete nennt man auch Agenten bzw. Agents.

Das Monitoringsystem hat die Aufgabe, Technikern die diversen gesammelten Informationen der vielen möglichen Systeme graphisch aufbereitet, inklusive einer automatisierten Qualifizierung darzustellen. Erst damit wird es dem Techniker ermöglicht, Abweichungen vom Normzustand zu erkennen und zielgerichtet und schnell zu agieren.

Proaktivität als Mittel der Verfügbarkeitssteigerung

Das Messen und Qualifizieren der vom Agent gesammelten Daten gibt dem Techniker die richtigen Hebel in die Hand, um Störungen vorzubeugen. Droht also zum Beispiel der Speicher eines Endgerätes vollzulaufen und es damit nicht mehr einsatzbereit zu machen, wird dies dem Techniker signalisiert. Dazu hat er zuvor Schwellenwerte definiert, ab der eine Warnung erfolgen soll. Er kann nun schauen, wie er selbst Platz schaffen kann oder den Endanwender mit einem Warnhinweis darum bitten, eventuell unnötige Dateien zu verschieben oder zu löschen.

Noch bevor der Benutzer also mit dem Problem konfrontiert und in seiner Bedienung der Hardware beeinträchtigt wird, wurde es erkannt, bewertet und auch schon aus der Welt geschafft. Dieses Konzept wird als Proaktivität bezeichnet und kann durch Planung und den Einsatz passender Technik umgesetzt werden. Es ermöglicht auch ohne das Hinnehmen eines Ausfalls von redundant ausgelegten Systemen, die Verfügbarkeit der eigentlichen Funktion zu steigern.

Monitoring über kreITiv birgt weitere Mehrwerte

Mit seiner jahrelangen Erfahrung in der Einrichtung und Nutzung von Agent-Software kann Ihnen das Team der kreITiv-IT zur Seite stehen, um Ihre Endgeräte zu betreuen. Darüber hinaus ermöglichen diese uns auch, Fernwartungsaufgaben zu handhaben, Antivirus-Schutz auszurollen und aktuell zu halten sowie auch Datensicherungen anzufertigen. Wir bieten eine vollumfängliche Betreuung, damit Sie sich auf Ihre Arbeit konzentrieren können.

Datenträgerverschlüsselung für Notebooks und Wechseldatenträger

Datenträgerverschlüsselung für Notebooks und Festplatten

Trotz der zunehmenden Virtualisierung von IT-Ressourcen hantieren wir im Büroalltag auch heute noch mit einer ganzen Bandbreite an unterschiedlichsten Hardware-Klassen. Auch und gerade hier ist für Unternehmen die Verschlüsselung ein brisanter Themenkomplex, da Daten eben nicht nur auf digitalem Wege, sondern auch mitsamt ihrer physischen Datenträger entwendet werden können.

Wieso sollte man verschlüsseln?

In der Regel sind private, aber vor allem geschäftliche Daten vertraulich und sollten nicht in fremde Hände fallen. Wenn nun ein Datenträger, wie ein USB-Stick oder eine externe Festplatte, verloren geht oder ein Notebook gestohlen wird, hat der neue Besitzer normalerweise vollen Zugriff auf alle darauf enthaltenen Daten. Um dies zu verhindern, sollte man im Rahmen von Unternehmensrichtlinien alle Wechseldatenträger sowie mobilen Endgeräte wie Notebooks und Tablets sicher verschlüsseln.

Damit ist sichergestellt, dass nur berechtige Personen auf die Daten zugreifen können. Dies hat auch Vorteile für den firmeninternen Gebrauch, denn nicht jeder Mitarbeiter soll Zugriff auf alle Daten bekommen (Vertraulichkeit). Gleichzeit können Daten damit vor unberechtigter Veränderung und Manipulationen geschützt werden (Integrität). Diese beiden Begriffe sind zwei Grundpfeiler der Informationssicherheit.

Womit kann man verschlüsseln?

Die einfachste Möglichkeit zur Verschlüsselung von Datenträgern bringt das Betriebssystem Windows bereits selbst mit: Das Sicherheitsfeature Bitlocker ist in den Ultimate- und Enterprise-Versionen von Windows Vista und Windows 7, sowie den Pro- und Enterprise-Versionen von Windows 8, Windows 8.1 und Windows 10 bereits enthalten. Allerdings wird erst ab Version 7 die Verschlüsselung von USB-Medien unterstützt.

Welche Werkzeuge zur Verchlüsselung gibt es?

Tools zur Datenträgerverschlüsselung – Bitlocker, TrueCrypt und VeraCrypt

Bitlocker gilt prinzipiell als sicher, allerdings geben Fachleute zu bedenken, dass es sich um proprietäre Software handelt, bei der der Quellcode vom Hersteller nicht veröffentlicht wird. Deshalb kann die Sicherheit von unabhängigen Experten nicht komplett eingeschätzt werden und Hintertüren könnten möglicherweise vorhanden sein. Diese könnten vom Hersteller selbst oder von kooperierenden Behörden ausgenutzt werden.

Aus diesem Grund erfreut sich eine Software aus dem Open-Source-Bereich großer Beliebtheit: TrueCrypt. Diese Software hat immer noch eine große Fangemeinde, auch wenn sie inzwischen nicht mehr weiterentwickelt wird. Dennoch hat ein ausführlicher Audit der Version 7.1a durch das Open Crypto Audit Project (OCAP) im April 2015 TrueCrypt als relativ sicher eingestuft. Es wurden zwar Schwachstellen gefunden, diese sind allerdings für die meisten Nutzer nicht relevant.

Als Nachfolger von TrueCrypt präsentiert sich die Software VeraCrypt. Hierzu ist zwar aktuell noch kein entsprechendes Audit vorhanden, allerdings wird die Software von einer Community gepflegt und weiterentwickelt. Dies hat langfristig den Vorteil, dass bekannte Sicherheitslücken soweit möglich geschlossen werden. Die Oberfläche und der Leistungsumfang entsprechen weitestgehend dem von TrueCrypt.

Wie wird verschlüsselt?

Egal, für welche Software Sie sich entscheiden, jede Verschlüsselung ist natürlich besser als gar keine Verschlüsselung und in der Praxis arbeiten die Programme sehr ähnlich. Die Verschlüsselung erfolgt in der Regel durch das symmetrische Verfahren AES mit einer Schlüssellänge von 256-bit. Verschlüsseln kann man damit ganze Systemlaufwerke von PCs und Notebooks sowie externe USB-Datenträger wie Sticks, Festplatten und SSDs. Mit TrueCrypt und VeraCrypt kann man außerdem verschlüsselte Container erstellen, welcher als einzelne Datei eine beliebige Anzahl an Daten enthalten können.

Für die Zugriffskontrolle auf die verschlüsselten Daten gibt es mehrere Authentisierungsmöglichkeiten, welche auch kombiniert werden können:

  • Die gängigste Möglichkeit für den Zugriff ist die Vergabe eines Passwortes oder einer PIN.
  • Des Weiteren kann eine Schlüsseldatei erzeugt werden, welche dann z.B. auf einem angeschlossenen USB-Stick vorhanden sein muss, um Zugriff zu bekommen.
  • Bitlocker kann zur Verifizierung außerdem die Existenz eines eingebauten TPM-Chips (Trusted Platform Module) prüfen. Wird eine Festplatte aus dem ursprünglichen Rechner ausgebaut, ist somit kein Zugriff mehr möglich.

Wenn für Sie noch Fragen zum Thema Informationssicherheit offen sind oder Sie eine individuelle Beratung dazu wünschen, dann wenden Sie sich gern an das Team der kreITiv.

Cloud aus Deutschland, ISO-Zertifizierungen und Datenschutzbewusstsein

Sicherheit in der Public Cloud

Die Cloud und wieso auch die KMU sie nutzen sollte, wurde in vorherigen Beiträgen des kreITiv-Blogs schon erläutert. Nun sind Datenschutz und Datensicherheit aber zentrale Themen bei der Nutzung jedweder IT. Speziell Cloud-Produkte sind hier noch mit Ressentiments behaftet.

In diesem Artikel wollen wir kurz erläutern, worauf Sie beim Erwerb und der Nutzung von Cloud-Produkten achten sollten.

Standort Deutschland und Zertifizierungen schaffen Vertrauen

Rechenzentren dienen der Bereitstellung der Cloud. Somit sind auch die Daten, die Sie eventuell in die Cloud verlagern, in diesen Rechenzentren abgelegt. In Anbetracht der Entscheidung des EuGH, das Safe Harbor Abkommen für ungültig zu erklären und das EU-US Privacy Shield Abkommen erst erarbeitet wird, sind Standorte von Rechenzentren außerhalb Deutschlands immer mit einem Datenschutzrisiko verbunden. Achten Sie daher – auch aus Compliance-Vorgaben für Ihre Branche – stets darauf, dass Sie Cloud-Dienstleistungen aus deutschen Rechenzentren erhalten. Bei Amazon AWS und Microsoft Azure können Sie zum Beispiel Standorte auswählen, andere Anbieter sollten explizit den Standort Deutschland angeben.

Ist man nun innerhalb Deutschlands, ist das Vorhandensein einer ISO 27001-Zertifizierung der nächste wichtige Kontrollpunkt. Damit ist sichergestellt, dass sich der Anbieter an anerkannte Verfahrensweisen zur Erbringung von Datensicherheit hält.

Sicherheit bei der Nutzung der Cloud

Die Bedrohungen für Rechenzentren entsprechen denen von klassischen Firmennetzwerken. Da in Rechenzentren jedoch zentral Daten von vielen Unternehmen gelagert und bewegt werden, sind sie ein wesentlich attraktiveres Ziel für potentielle Angreifer. Auch ist der Clouddienstleister eben ein externer Dienstleister, so dass Ihre Daten grundsätzlich einem höheren Risiko des Fremdzugriffes oder Verlustes ausgesetzt sind.

Folgende Maßnahmen sind daher stets empfohlen:

  • Legen Sie Ihre Daten immer verschlüsselt ab
  • Fertigen Sie immer regelmäßig Backups Ihrer Daten an
  • Legen Sie diese Backups ebenfalls nur verschlüsselt ab
  • Prüfen Sie diese Backups regelmäßig auf Korrektheit und Vollständigkeit
  • Legen Sie nur so viele Logins an wie gerade nötig
  • Prüfen Sie, ob die Verbindungen zum Rechenzentrum stets verschlüsselt sind (Hinweise zur Verschlüsselung im www finden Sie in unserem Blogartikel zum Thema)
  • Verwenden Sie sichere Passwörter (mind. 8 Zeichen, Groß- und Kleinbuchstaben, Ziffern und Sonderzeichen, keine erkennbaren Muster)
  • Wechseln Sie regelmäßig die Passwörter
  • Sensibilisieren Sie Ihre Mitarbeiter regelmäßig über die Themen Datenschutz und Datensicherheit
  • Schränken Sie Nutzerrechte auf genau das ein, was ein Nutzer zum Arbeiten benötigt

Sie erkennen, dass sich diese Verhaltensweisen auch auf Ihre lokale IT anwenden lässt. Für spezielle Cloud-Dienstleistungen ließe sich diese Liste noch erweitern, was jedoch den Rahmen dieses Artikels sprengen würde.

Datenschutz und Datensicherheit für Unternehmen

Was sollten Sie im Hinterkopf behalten:

  • Rechenzentren/Cloud aus Deutschland sorgt für hohen Datenschutz
  • ISO 27001 sorgt für anerkannte Maßnahmen für eine hohe Datensicherheit
  • Richtige Verhaltensweisen im Umgang mit Cloud-IT sorgen für Sicherheit bei deren Nutzung

Wenn für Sie noch Fragen offen sind oder Sie eine individuelle Beratung zu den Themen Datenschutz und Datensicherheit Ihrer IT wünschen, dann wenden Sie sich gern an das Team der kreITiv GmbH.

Möglichkeiten und Vorteile von Cloud Computing im Unternehmenseinsatz

Cloud Computing für Unternehmen, was ist das und was bringt das?

In einem früheren Blog-Artikel haben wir über den Sinn und Zweck von Virtualisierung für kleine und mittlere Unternehmen berichtet. Daran anknüpfend wollen wir nun den Faden weiterspinnen: Arbeiten mit und in der Cloud.

Doch was ist Cloud Computing eigentlich? Was bringt es mir und wie setze ich es sachgemäß ein? Diese Fragen wollen wir hier knapp beantworten.

Was ist Cloud Computing?

Um zu verstehen, was Cloud Computing ist, muss man erkennen, was die Dienstleister einem da anbieten. Alles firmiert unter dem Begriff „Service“, welches hier als Dienst und nicht zwingend als Dienstleistung zu verstehen ist. Diese Services werden mit unterschiedlichen Stufen – Level genannt – angeboten. Der Vertrag, der zwischen dem Kunden und dem Dienstleiter („Service Provider“) entsteht, heißt dann folgerichtig „Service Level Agreement“.

Das Portfolio der Services spaltet sich üblicherweise in drei große Hauptpunkte, welche als Metaebenen zu verstehen sind:

  1. Infrastructure as a Service (IaaS)

Eine komplette Infrastruktur von Diensten, welche Ihre IT abbilden kann. Das heißt Firewalls, VPN, Datenablage, Email und Spezialsoftware. Auch das Netzwerk, welches die Dienste zusammenfügt und als Ganzes präsentiert, ist ein Dienst.

  1. Platform as a Service (PaaS)

Eine Arbeitsoberfläche wird Ihnen als Dienst angeboten. Der „klassische“ virtuelle Server, welchen Sie bei diversen Hosten mieten können, gehört in diese Kategorie.

  1. Software as a Service (SaaS)

Eine Software wird Ihnen als Dienst angeboten. Häufig wird diese über ein Webfrontend zur Bedienung übergeben. Aber auch Software, die clientseitig installiert wird, etwa Dropbox als Onlinespeicher, zählt in diese Kategorie.

Natürlich muss irgendeine Hardware diese Dienste ausführen. Diese Hardware steht in Rechenzentren und führt die Server, welche die Dienste anbietet, als virtuelle Maschinen oder sog. Container aus. Alles mit einem hohen Maß an Redundanz, damit die Verfügbarkeit, welche als ein Service Level angeführt wird, auch eingehalten werden kann. Der Vorteil auf der Anwenderseite: Sie müssen sich praktisch nicht damit auseinander setzen. Sie sagen „Ich brauche Speicher!“ und gegen Geld gibt es diesen dann, egal wo Sie sind und das auch noch rund um die Uhr.

Bei IaaS liegt die Komposition der Dienste und deren Orchestrierung (so nennt es der Fachmann) in Ihrer Hand. Im Falle PaaS können Sie sich Ihre Plattform nach Ihrem Gusto einrichten.

Vorteile in der Cloud – Skalierbarkeit und Kostentransparenz

Zwei entscheidende Punkte bringen Cloud Computing auf die Gewinnerspur: Skalierbarkeit und Kostentransparenz der Infrastruktur.

Zeichnen wir ein Szenario:

Sie haben ein Startup. Für dessen Betrieb benötigen Sie Rechentechnik. Den Bedarf an Rechentechnik leiten Sie oder ein Fachmann aus Ihren aktuellen Anforderungen und eventuellen Erwartungen ab. Dann investieren Sie in Hardware und das Personal oder den Dienstleiter zur Gewährleistung des Regelbetriebes. Diese Investition ist oft nicht gering, die Technik ist an Sie als Anlagevermögen gebunden und muss (denn das wird von ihr erwartet) für mind. 3 Jahre so ihren Zweck erfüllen. Und dann kommt alles anders: Ihr Unternehmen wächst enorm und Sie sitzen auf zu knappen Hardware-Ressourcen, oder aber der Markt will nicht so, wie Sie es wollen und Sie sitzen auf der Hardware, welche Sie nicht auslasten.

Cloud Computing löst dieses Problem durch die schier uneingeschränkte Skalierbarkeit: Sie brauchen jetzt nur 2 Email-Postfächer und 10 GB Speicher, morgen aber jeweils 100? Kein Problem. Da die Zahlung pro Nutzung („pay per use“) erfolgt, haben Sie zusätzlich auch praktisch tagesgenau volle Kostentransparenz. Wenn Sie nichts mehr brauchen, kündigen Sie einfach die Dienstleistung. Auch brauchen Sie kein Fachpersonal zur Aufrechterhaltung des Regelbetriebes, dafür existieren ja die Service Level Agreements, welche Sie mit Ihrem Service Provider getroffen haben. Praktisch eine volle Flexibilisierung Ihrer Kosten und eine TCO (Total Cost of Ownership, Gesamtbetriebskosten), die Sie tagesgenau exakt bestimmen können.

So erklärt unser Premium Partner Microsoft das Cloud Computing

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Welche Services sind nun die Richtigen für Sie? Um diese Frage zu klären, ist es grundsätzlich wichtig, sich über Ihre Anforderungen klar zu werden. Ein Sachverständiger kann diese mit Ihnen konkret ausformulieren und eine passende Komposition für Sie zusammenstellen.

Die kreITiv ist ein solcher Sachverständiger und berät Sie gern, wenn Sie mit Ihrem Unternehmen den Schritt in die Wolke gehen wollen.

Fernwartungssoftware ermöglicht einen zeit- und ortsunabhängigen Support für Ihre IT

Technischer Support per Fernzugriff – jederzeit und überall

Wer kennt das nicht? Man sitzt am Computer und wird urplötzlich durch eine unbekannte Fehlermeldung aus seiner Arbeit gerissen. Was ist zu tun? Ein Techniker, Supporter oder Administrator weiß meistens Rat, doch bis dieser vor Ort ist, kann schon etwas Zeit ins Land gehen. Hilfe benötigt man in bestimmten Fällen aber sofort. Was ist die Lösung? Verlässlicher und schneller Support mit den Mitteln der Fernwartung.

Fernwartungssoftware – Überbrückt Zeit und Raum für Techniker

Dank moderner Fernwartungssoftware ist auch der externe, technische Ansprechpartner so schnell verfügbar, als würde er im Nachbarbüro sitzen. Das Feld an Lösungen reicht von großen Namen wie TeamViewer, GoToAssist oder LogMeIn bis zu kleineren Anbieter wie etwa Mikogo, Ammyy oder pcvisit. Alle Anbieter bauen mit ihren Anwendungen eine Verbindung zwischen zwei Rechnern auf und ermöglichen dem Techniker, den Bildschirm des Gegenübers anzeigen zu lassen und die Steuerung zu übernehmen. Auf diese Weise kann unabhängig vom Standort beider Teilnehmer effektiver Support geleistet werden.

pcvisit ist einer der wenigen deutschen Vertreter und bietet über dem üblichen Leistungsumfang hinaus auch Tools zur Fehleranalyse auf ferngesteuerten PCs. Das spart eine langwierige Suche und bringt die Fehlerbehebung deutlich schneller voran. Mittlerweile haben alle Anbieter auch eine Variante ihrer Lösungen für MacOS im Angebot, sodass eine Hilfestellung unabhängig vom Betriebssystem möglich ist.

Per Wurmloch zum IT-Kunden

Die Fernwartung – Das Wurmloch des IT-Supports
Bildquelle: qingqing3 (CC BY 2.0)

Doch die Loslösung des Technikers vom Ort seines Einsatz geht noch einen Schritt weiter. Mithilfe eines sog. Host-Dienstes erhält man bei einigen Herstellern von Fernwartungssoftware die Möglichkeit, die PCs auch außerhalb der Geschäftszeiten aus der Ferne zu warten. Der Supporter kann sich damit auch ohne jegliche Interaktionen des eigentlichen Benutzers mit dem zu wartenden PC verbinden und notwendige Arbeiten durchführen.

Vor der Fehlermeldung – Monitoring und proaktiver Support

Im Idealfall beugt man Fehlern aber natürlich durch eine regelmäßige Wartung vor. Auch dafür sind die gängigen Softwarelösungen gerüstet. Kunden können bspw. vom zuständigen Administrator bzw. Supporter über anstehende Wartungsarbeiten informiert werden.

Dabei helfen Monitoring-Programme, wie z.B. Nagios, dem Vorreiter für Serverüberwachung. Da sich Nagios allerdings vorrangig auf Server konzentriert, haben Anbieter wie LogicNow (ehemals GFI) und ServerEye einen Dienst geschaffen, der einfach und komfortabel sowohl Server als auch Arbeitsplatz-PCs überwacht. Fehler und mögliche Störungen, z.B. durch volllaufenden Festplattenspeicher, werden frühzeitig gemeldet, damit der Supporter rechtzeitg reagieren kann. Der Vorteil dieser beiden Anbieter liegt in den integrierten Fernwartungstools, die einen schnellen und einfachen Zugriff über die jeweiligen Wartungs- und Monitoring-Oberflächen ermöglichen.

Durch die modernen Fernwartungslösungen werden Fehler oder Störungen effektiv und teils sogar proaktiv erkannt, um daraufhin effizient gelöst zu werden. Eine deutliche Steigerung in der Verfügbarkeit der Endgeräte ist somit gewährleistet.

Neben dem positiven Gefühl, dass die helfende sachkundige Hand nur einen Mausklick entfernt ist, ist auch der Kostenfaktor nicht zu vernachlässigen. Kosten, welche durch die Anfahrt des Technikers oder den längeren Ausfall der betroffenen PCs und Server entstehen, entfallen. Eine Win-Win-Situation für den Nutzer und den Betreuer.

Wenn Sie sich für die Betreuung Ihrer Server und Arbeitsplatz-PCs über Fernwartungssoftware interessieren, zögern Sie nicht sich bei der kreITiv zu melden. Wir beraten und betreuen Sie gern.

Voraussetzungen, Vorteile und Varianten der Server Virtualisierung

Virtualisierung, auch für kleine Unternehmen sinnvoll

In der IT größerer Unternehmen nicht mehr wegzudenken: Server und Client Virtualisierung. Doch was ist das eigentlich? Was muss man beachten? Welche Vorteile ergeben sich daraus?

Betrachten wir dazu kurz die übliche Konfiguration eines Computers. Auf der Hardware, sprich der physischen Technik wie sie im Serverschrank oder als PC unter dem Tisch steht, ist eine Software installiert, die alle Komponenten ansteuert und die Anwender-Software verwaltet: das Betriebssystem. Ist dieser Computer als Server vorgesehen, laufen alle Dienste, welche er im Netzwerk anbieten soll, parallel auf diesem einen Betriebssystem.

Kommt es nun im laufenden Betrieb zu Störungen an dem Betriebssystem (zum Beispiel Updates oder Konfigurationsfehler), ist keiner der Dienste mehr verfügbar. Hat die Hardware einen Defekt, muss diese erst ersetzt werden, bis die Dienste wieder verfügbar sind. Beide Störungsfälle können z.T. mehrere Stunden oder gar Tage in Anspruch nehmen. Downtimes, die so für unternehmenskritische Ressourcen (zum Beispiel der Mail-Server) nicht tragbar sind.

Was ist nun Virtualisierung?

Grob gesprochen wird eine logische Metaebene geschaffen, die es erlaubt auf einer Hardware mehrere Betriebssysteme – genauer Betriebssystem-Instanzen bzw. Gastsysteme – auszuführen. Soll heißen, mehrere virtuelle Computer auf einem Physischen. Die Software, welche diese Ebene generiert, nennt sich Hypervisor.

Dabei gibt es 2 Methoden:

1. Der Hypervisor agiert zwischen der Hardware und den Betriebsystem-Instanzen.

Man spricht hier von Bare Metal Hypervisor bzw. Type 1 Hypervisor. Vorteile dieser Methode sind: Geschwindigkeit/Performance. Nachteile sind: Kosten der Software sowie erweiterte IT-Kenntnisse notwendig.

2. Der Hypervisor agiert zwischen einem vorhandenen Betriebssystem und den Betriebssystem-Instanzen.

Hier spricht man von einem Type 2 Hypervisor. Vorteile sind die geringen Kosten (oft kostenfrei) und die vergleichsweise einfache Einrichtung. Nachteilig sind jedoch die geringere Performance und die mangelnde Flexibilität der Konfiguration.

Im Unternehmensumfeld kommt praktisch nur der Typ 1 vor, so dass ich mich hier auf diesen beschränken möchte. Mit diesen ist es nun also möglich auf einem physischen Server mehrere virtuelle Serverinstanzen auszuführen.

Was muss man dabei beachten?

Veranschaulichung der Virtualisierung von Betriebssystemen

Das Prinzip der Betriebssystem-Virtualisierung: Ein Hypervisor managed mehrere virtuelle Computer auf einem physischen System

Jedes Betriebssystem benötigt inkl. seiner Dienste bestimmte Ressourcen. Diese sind Prozessorleistung, Arbeitsspeicher und Festplattenkapazität. Sollen nun mehrere auf einer Maschine betrieben werden, so muss diese den Ressourcenhunger aller Gastsysteme kumuliert abdecken.

Nun benötigen die Gastsysteme nicht immer alle Ressourcen unmittelbar und nutzen auch oft gleiche Ressourcen (z.B. Betriebssystem-Dateien). Moderne Hypervisor können Ressourcen wie zum Beispiel den Arbeitsspeicher dynamisch verteilen, je nach Last.

Auch beherrschen sie Datendeduplizierung: Nutzen Gäste zum Großteil die gleichen Dateien, speichert der Hypervisor die Daten nur einmal, kann sie aber in mehreren Gastsystemen gleichzeitig anbieten, was z.T. immens Festplattenspeicher spart. Auch die Größe der virtuellen Datenträger, welche die Gastsysteme nutzen, ist dynamisch anpassbar (sog. Thin Provisioning).

Welche Vorteile ergeben sich aus Virtualisierung?

Trennt man (weil man es ja nun kann) jeden Serverdienst von all den anderen durch eigene (dedizierte) virtuelle Serverinstanzen, so beeinflussen sich Störungen nicht gegenseitig. Ein Fehler legt also nicht mehr das gesamte System lahm. Auch lastet der klassische Fall nie die ganze Hardware aus, oft dümpelt diese vor sich hin und verbraucht unnütz Strom. Schlimmer noch: Hat man mehrere Serversysteme im Einsatz so addieren sich die Ineffizienzen Ihrer Auslastung.

Da Virtualisierung voll skalierbar ist, wird die Hardware, auf der die Gastsysteme ausgeführt werden, optimal ausgelastet. Damit verringert sich der Energiebedarf, die Geräuschemissionen, der Kühlungsbedarf und nicht zuletzt auch die Anschaffungskosten für die Hardware, welche ihre IT-Anforderungen stemmen soll.

Doch es gibt noch weitere Vorteile

Verknüpft man mehrere physische Computer über deren installierte Hypervisor, können sich diese ihre Aufgaben teilen und im Störungs- oder Wartungsfall ohne Umschaltzeiten sogar komplett den Dienst eines Partners übernehmen. Dieses Zusammenschalten nennt sich Clustern. Erst durch Clustern kann man echte Hochverfügbarkeit erreichen, ein entscheidender Faktor für systemkritische Infrastrukturen. Clustern kann man auch ohne Virtualisierung, jedoch mit einem deutlichen höheren Kosten- und Arbeitsaufwand.

Auch ist zu beachten, dass virtuelle Computer lediglich Software, das heißt Daten sind. Diese kann man bekanntlich speichern. Hier bedeutet das: Gastsysteme können einem Versionierungsprozess unterworfen werden, punktgenau gesichert und zurückgespielt werden (Backups einer kompletten virtuellen Maschine inkl. ihres Betriebszustandes), von einem (kompatiblen) Hypervisor zum anderen migriert werden sogar im laufenden Betrieb (sog. Live Migration) und letztendlich auch kopiert d.h. geklont werden.

Es ist hieran schon zu erkennen, dass es viele Anwendungsfälle für Virtualisierung gibt. Unabhängig von der Unternehmensgröße lassen sich dadurch die Kosten für Hardware reduzieren und bei korrektem Einsatz die IT-Sicherheit (speziell die Verfügbarkeit der Daten und Dienste sowie Backups) drastisch erhöhen.

 

Haben wir Ihr Interesse für das Thema geweckt? Haben Sie Fragen, wie auch Sie Virtualisierung in Ihrer IT einsetzen können? Das Team der kreITiv GmbH berät Sie gern.

CeBIT - die weltweit größte IT-Messe

kreITiv wieder auf der CeBIT

Seit fast 30 Jahren ist die CeBIT in Hannover Aushängeschild für Innovationen im Bereich Technik, Software und Sicherheit. Früher richtete sich die Messe vorwiegend an Konsumenten, mittlerweile hat sich der Schwerpunkt zunehmend auf den Business-Bereich verlagert.

Im Jahr 2015 steht die Messe unter dem Leitgedanken „D!Conomy – die digitale Transformation ist da“. Das Motto setzt sich als Kunstwort aus den Teilbegriffen „digital“ und „economy“ zusammen und beschreibt die wirtschaftlichen und gesellschaftlichen Veränderungen, die durch die Digitalisierung entstehen. Insgesamt waren über 3.400 Unternehmen aus 70 Ländern mit einem Stand auf der CeBIT 2015 vertreten.

Die Mitarbeiter der kreITiv nutzen – wie jedes Jahr – die Möglichkeit, sich über Neuigkeiten der Branche zu informieren, damit unsere Kunden frühzeitig die Chance haben, die Potenziale neuer Technologien zu nutzen. Diese Innovationen versprechen Zeitersparnis im täglichen Handling der IT, Sicherheit im Umgang mit Daten und Ausfallsicherheit sowie Kosteneinsparungen, die wir 1:1 an unsere Kunden weitergeben.

Bildquelle: Original von CeBITAus (CC BY 2.0), Bild bearbeitet

Schreibmaschine war gestern, heute zählen Serverlösungen

Sicheres Instant Messaging für Unternehmen

Oft kommt es im Unternehmensalltag vor, dass Informationen schnell und unkompliziert in Echtzeit ausgetauscht werden sollen, ohne dass erst ein Telefon – welches evtl. sogar belegt ist – oder das E-Mail Programm bedient werden müssen. Benutzt man dafür allerdings einen Instant Messaging Service, wie bspw. die Klassiker ICQ oder Skype, wird die Kommunikation über das Internet realisiert.

Die Risiken dieses Weges gestalten sich dabei wie folgt:

  • die Nutzungsbedingungen dieser Dienste beinhalten oft eine Mitleseerlaubnis für den Betreiber
  • die Chat-Inhalte werden oft unverschlüsselt übertragen
  • per Spoofing können sich Fremde als autorisierte Nutzer ausgeben
  • per “Man in the Middle” können Angreifer Chats mitlesen und manipulieren sowie Schadsoftware verteilen

Die Lösung dieses Problems ist ein Instant Messaging Service, der nur im eigenen,  selbst administrierten Netzwerk agiert. Openfire ist ein Server, der genau diese Funktion zur Verfügung stellt. Vollständig in Java programmiert ist er eine nahezu plattformunabhängige Lösung, die Dank der Apache-Lizenz 2.0 frei verwendet werden kann.

Genutzt wird das offene XMP-Protocol, welches sowohl Chat-Funktionalität als auch simplen Datei-Austausch realisiert, und per SSL/TLS auch verschlüsselt erfolgen kann. Software Clients, die XMPP unterstützen, gibt es durch die offene Struktur für nahezu alle Endgeräte bzw. deren Betriebsysteme (Windows, Mac OSX, Linux, iOS, Android …).

Die Konfiguration des Openfire-Servers ist dank einer intuitiven Weboberfläche denkbar einfach. Benutzer können entweder in einer mitgelieferten Datenbank verwaltet werden, oder aber es wird eine externe Datenbank wie z.B. Microsofts Active Directory für die Authentifitierung und Autorisierung genutzt. Somit kann Openfire fest an die vorhandene Domäne des Unternehmens ohne zusätzlichen administativen Aufwand angebunden werden.

Wir – das Team der kreITiv GmbH – nutzen Openfire zur schnellen, hausinternen Kommunikation und können Ihnen nach eingehender Prüfung Ihrer Systemvoraussetzungen eine optimal an Ihre Anforderungen angepasste Lösung anbieten.
Alternativ beraten wir Sie auch gern bzgl. eines eigenen Openfire-Servers als gehostete Lösung in einem deutschen Hochverfügbarkeitsrechenzentrum an.

Openfire-Key Facts:

  • plattform-unabhängiger XMPP Server
  • ermöglicht Chats und einfachen Dateiaustausch im Intranet
  • frei nutzbar da unter Apache-Lizenz 2.0
  • einfache Konfiguration über Webinterface
  • kann Benutzer selbst verwalten oder eine externe Datenbank (zB MS Active Directory) nutzen
  • breite Unterstützung von XMPP durch Client-Software für alle relevanten Betriebssysteme
IT-gestützt, sicher und gesetzeskonform mit Managed E-Mail Systemen

E-Mail Archivierung für Unternehmen

Professionelle Bürokommunikation per E-Mail ist in höchstem Maße angewiesen auf Verfügbarkeit, Sicherheit und eine verlässliche Archivierung. Hinzu kommt, dass eine ganze Reihe gesetzlicher Bestimmungen in Bezug auf den Datenschutz und die Archivierung geschäftlicher E-Mails einzuhalten sind. Nicht immer kann man sich als Unternehmer sicher sein, auf dem neusten Stand zu sein und allen rechtlichen Vorschriften gerecht zu werden.

Rechtsanwalt Hagen Döhl und IT- Spezialist Rainer Witt haben daher am 27.09.2013 in einem einstündigen Seminar interessierte Unternehmer über diese wichtigen Themen informiert:

  • Rechtliche Vorschriften bezüglich der E-Mail Archivierung in kleinen und mittelständischen Unternehmen
  • Technische Möglichkeiten, eine moderne E-Mail Archivierung in Ihrem Unternehmen zu realisieren
  • Archivierungs- und Verwaltungsdienste in der Cloud
  • Managed E-Mail
Veranstaltung kreITiv Mailarchivierung

IT- Spezialist Rainer Witt spricht zum Thema E-Mail Archivierung

Die Veranstaltung stieß auf großes Interesse und der entspannte Rahmen ließ Zeit für Diskussionen und Rückfragen. Interessieren auch Sie sich für Managed E-Mail Systeme um Ihre Bürokommunikation fit für´s 21. Jahrhundert zu machen? Dann kommen Sie auf uns zu. Wir beraten Sie gern.

Ein Small Business Server

Small Business Server – Fluch oder Segen?

Der Microsoft Konzern veröffentlichte mit der Server Version 2003 erstmals eine für kleine- und mittelständische Unternehmen optimierte Variante seines Serverbetriebssystems.

Diese Version beinhaltet zum Teil sehr kostenintensive Software wie z.B. Exchange Server, SQL Server oder auch die Share Point Lösung. Doch sind die Komponenten so fest miteinander verknüpft, dass mitunter hohe Leistungsanforderungen für die eingesetzte Hardware bestehen.

Der Gedanke, man könne sich nur einzelner Komponenten der Software bedienen und somit Kosten sparen, resultiert in den meisten Fällen in einer Systeminstabilität als unerwünschtem Nebeneffekt. Ist es also angemessen auf diese Variante zu setzen, auch wenn dies zu Lasten der Hardwareleistung gehen würde?

Wir empfehlen: Nutzen Sie Managed Services wie z.B. Hosted Exchange Lösungen! Bei diesen Angeboten ist eine hochverfügbare Infrastruktur gegeben, die für jegliche Mailserverumgebung von enormer Bedeutung ist.

Die kreITiv GmbH arbeitet auf diesem Sektor mit verschiedenen Partnern zusammen. Wir können Ihnen nach eingehender Prüfung Ihrer Systemvoraussetzungen eine optimal an Ihre Anforderungen angepasste Business Server Lösung anbieten.

Bildquelle: Original von Dennis Hamilton (CC BY 2.0)