Blogartikel aus der Kategorie: IT-Infrastruktur

Wofür stehen SSL, TLS und SSH und wie werden sie zur Verschlüsselung eingesetzt?

SSL/TLS und SSH – Wieso gibt es mehrere Verschlüsselungsprotokolle?

Hackerangriffe, Datenklau, elektronische Spionage – Die Notwendigkeit von Verschlüsselung und Datensicherheit liegt auf der Hand. Es findet ein ständiger Wettlauf von Hackern und Datenschützern statt. Um unsere Daten zu schützen, gibt es mittlerweile zahlreiche Sicherheitsprotokolle. Die meisten gehen dabei auf SSL (Secure Sockets Layer) und SSH (Secure Shell) zurück.

Doch wieso gibt es mehrere Verschlüsselungsprotokolle? Welches ist wann besser und wie funktionieren sie? Diese Fragen sollen im Folgenden entschlüsselt werden.

Eine kleine Geschichtsstunde zur Verschlüsselung

Zunächst zur Unterscheidung: SSL und SSH sind jeweils Verschlüsselungsprotokolle, die Mitte der 90er Jahre entwickelt wurden. 1999 wurde SSL, mit der Version 3.1, in TLS (Transport Layer Security) umbenannt, der also die direkte Weiterentwicklung ist. Die Notwendigkeit von Sicherheitsprotokollen entstand mit dem Aufkommen der ersten Webbrowser.

Beide Varianten wurden parallel voneinander entwickelt, sind nicht miteinander verwandt und inkompatibel. Im Gegensatz zu SSL war SSH zunächst Freeware und wurde erst mit seiner Entwicklung zu proprietärer Software. Seit ihrer ersten Version wurden beide Protokolle notwendigerweise immer weiterentwickelt, da es auch stets Bestrebungen von Hackern gab und gibt, sie zu knacken.

Und wie funktioniert’s?

Die Protokolle nutzen unterschiedliche Ansätze. Vereinfacht gesagt sorgt TLS für die Verschlüsselung der Daten an sich, während SSH eine sichere Verbindung zwischen Client und Server herstellt. Dass eine TLS-Verschlüsselung vorliegt, erkennt man in der Regel daran, dass an das übliche http ein ‚s‘ für ‚secure‘ angehängt wird. Einen ausführlicheren Einblick bieten wir in unserem kreITiv-Blogartikel über Standards speziell zur Verschlüsselung von Webseiten.

Das SSL-Zertifikat kurz erklärt:
YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Bei SSH geht es dagegen darum, sicher auf einem Server arbeiten zu können, ohne dass Daten mitgelesen werden. Dabei wird nur das asymmetrische Public-Key-Prinzip eingesetzt. Der Server sendet zunächst seinen Public Key und der Client schickt diesen verschlüsselt zurück. Durch den passenden Private Key des Servers kann nun eine sichere Verbindung aufgebaut werden. Problematisch wird das nur, falls sich ein Proxy-Server oder eine Firewall dazwischen befindet. Doch auch für diesen Fall gibt es weiterentwickelte Protokolle.

Sicher ist sicher

Wann welches Protokoll wie genutzt wird, ist stark durch deren historische Entwicklung beeinflusst. Im Grunde erfüllen alle mit unterschiedlichen Ansätzen einen ähnlichen Zweck. Für den Endnutzer spielen diese Feinheiten in der Regel keine Rolle. Was Sie aber mitnehmen sollten, ist die grundlegende Notwendigkeit, Daten und deren Übertragung zu schützen. Durch die beständigen Entwicklungen auf dem Gebiet, sollte man sich durchgängig mit dem Thema Datensicherheit auseinandersetzen.

Wenn Sie weitergehende Beratung benötigen, dann wenden Sie sich gern an uns. Die IT-Experten der kreITiv unterstützen Sie gern beim Schutz Ihrer Daten.

UTM statt Firewall. Achten Sie bei der IT-Sicherheit auf die größere Dimension

UTM – Mehr als eine Firewall

Es gibt ein System in jedem Netzwerk, dass mehr Schläge einstecken muss als Axel Schulz, eine Phalanx, der auch Spartaner ihren Respekt erweisen müssen: die Firewall.

Sie ist das Bollwerk vor dem möglichen Übel, welches durch das offene Internet auf interne Netze zu galoppiert. Doch längst ist das Gerät, welches wir als Firewall bezeichnen, mehr geworden als der Paketfilter alter Tage. Es ist ein UTM-System!

UT-was?

UTM steht für Unified Threat Management, einfach ausgedrückt ein vollintegriertes System zum ganzheitlichen Schutz vor Bedrohungen, vornehmlich aus dem öffentlichen Netz. Mögliche Bestandteile eines solchen Systems sind:

Zusätzlich dazu stellen diese Systeme umfangreiche Möglichkeiten zur Berichterstattung (Reporting) bereit, um dem zuständigen Administrator neben dem Monitoring auch Informationen zur Auswertung an die Hand zu geben.

Kein Netzwerk ist wie das andere

Dimensionierung ist ein Thema, welches hier klar angesprochen werden sollte. Jede einzelne Komponente eines UTM-Systems benötigt Hardwareressourcen, jedes zu schützende Netzwerk hat einen individuellen Charakter.

Wie viele Mitarbeiter wählen sich extern in das Netz ein? Welches Surfverhalten legen die Mitarbeiter an den Tag? Welche Dienste sollen von innen nach draußen kommunizieren können und mit welcher Schlagzahl? Diese und weitere Punkte sind zu klären, bevor man eine Kaufentscheidung trifft.

Schutz kann auch eine Zwangsjacke sein

Nachdem technische Anforderungen geklärt wurden, gilt es solche doch sehr komplexen Systeme zu konfigurieren.

Wer hier aber gleich alle Pforten schließt, sollte bedenken, dass zu viel Sicherheit praktisch Arbeitsunfähigkeit bedeutet. Es gilt also, organisatorische Vorgaben einfließen zu lassen. Bemühen Sie zunächst das Prinzip „So viel wie nötig, so wenig wie möglich“ und tasten Sie sich danach Stück für Stück an eine für Sie passende Konfiguration heran.

Das Unified Threat Management – Es lebt!

Wenn Sie nun eine saubere Konfiguration auf einer gut bemessenen Hardware laufen haben, ist das Schlimmste, was Sie tun können, es danach unangetastet zu lassen. Neben dem täglichen Katz-und-Maus-Spiel gegen Hacker und andere Netzunholde, gibt es auch Änderungen in Ihrem Netz selbst, auf die reagiert werden sollte.

Auch gilt es konsequent zu prüfen, wer da alles von außen anklopfte und ob die ergriffenen Maßnahmen hinreichend greifen. Eine UTM ist also ein System, welches konsequenter Betrachtung und Pflege bedarf. Es ist „lebendig“.

Achten Sie bei der Absicherung der IT-Infrastruktur Ihres Unternehmens also nicht mehr nur auf das Schlagwort „Firewall“, sondern denken Sie in einer größeren Dimension. Denn auch die Bedrohungen erreichen Sie mittlerweile auf diverseren Pfaden. Für den Schutz von Systemen setzen wir daher auf das Unified Threat Management und beraten Sie dahingehend auch gern bei Ihrer IT-Konzeption.

Wohin geht's zum Smart Home?

Smart Home – Gegenwart? Zukunft? Utopie?

“Smart Home” – ein Begriff, der seit der Jahrtausendwende nach und nach aufkam und das perfekt durchoptimierte Zuhause verspricht. Mit einem Knopfdruck auf dem Smartphone werden alle technischen Geräte bedient, am Arbeitsplatz die heimische Temperatur reguliert und dem Kühlschrank eine Liste von Nahrungsmitteln kommuniziert, die er regelmäßig mit seinem Inhalt abgleicht und notfalls fehlende Produkte selbstständig nachbestellt.

Doch der Ansatz geht weit über die bloße Fernsteuerung hinaus. Die Geräte sollen untereinander kommunizieren. Wird ein Fenster geöffnet, soll sich zum Beispiel automatisch die sonst aktive Luftregulierung anpassen. Grundlage dessen ist das sogenannte Internet of Things, eine Infrastruktur zunehmend intelligenter Gegenstände, bis hin zur autonom agierenden KI. Wie weit sind wir technisch auf dem Weg zum smarten Heim, wie verbreitet sind solche Ansätze schon heute und ist eine vernetzte Heiminfrastruktur überhaupt wünschenswert?

State of the (Sm)Art

Rein technisch sind die meisten Smart Home-Ansätze bereits heute völlig problemlos umsetzbar. Sowohl der Kühlschrank, der selbst neue Nahrungsmittel bestellt, als auch Fernsteuerung per App, sowie kommunizierende Geräte sind im Prinzip bereits existent. Doch trotzdem funktionieren fast alle Haushalte noch immer analog. Woran liegt das?

Wie bei den meisten innovativen Produkten gibt es für smarte Geräte sehr hohe Einstiegspreise. Vieles ist noch im Experimentierstadium und wird nicht in großen Stückzahlen produziert. Die Alltagserleichterung ist im Verhältnis dazu noch gering und in vielen Bereichen eher Spielerei. Kommunizierende Haushaltsinfrastruktur ist außerdem nur dann sinnvoll, wenn es im Haushalt eine große Anzahl an Geräten gibt, die solche Funktionen auch nutzen. Funktionierende Beispiele in der Realität, zumindest für komplett smarte Wohnungen, sind daher meist noch Modellprojekte.

Was, wenn die Zukunft abstürzt?

Doch all die Vorteile fürs alltägliche Leben, die ein smartes Heim bietet, sind auch mit Gefahren verbunden. So könnte eine (noch größere) Technikabhängigkeit entstehen. Wenn selbst die Haustür ausschließlich per Smartphone geöffnet werden kann, was passiert, wenn der Akku leer ist oder die Software buggt?

Momentan fehlt es außerdem an einheitlichen Standards für Soft- und Hardware. Zwar gibt es diverse Ansätze dafür, aber bisher konnte sich keiner davon am Markt etablieren. So nutzen unter anderem Samsung und Philipps den Standards Zig Bee, Bosch Z-Wave und RWE sein eigenes RWE Smart Home, es existieren aber noch zahlreiche andere. Die Systeme unterscheiden sich in Punkten wie Wellenlänge, Stromverbrauch oder Verschlüsselung und sind daher oft nicht kompatibel. Möchte man sich sein eigenes Smart Home mit Geräten verschiedener Anbieter zusammenstellen, wird man nicht daran vorbeikommen, zahlreiche Apps herunterzuladen – und zu hoffen, dass die intelligente Technologie verschiedener Hersteller überhaupt miteinander kommunizieren möchte.

Ein weiteres großes Thema ist natürlich Datensicherheit, denn natürlich lässt sich auch das Internet of Things hacken. Möchte man wirklich, dass alles, von der Dunstabzugshaube bis zur Zahnbürste, theoretisch von außen angegriffen, ausgelesen oder manipuliert werden kann? Immerhin wird fast jede Tätigkeit überwacht und eine bedeutende Menge an Daten aufgezeichnet. Sowohl Hacker als auch Hersteller könnten solche Informationen nutzen. Angriffe auf smarte Geräte gibt es bereits und meist sind sie erfolgreich, weil diese nicht einmal geringsten Sicherheitsstandards genügen. Hier müssen Hersteller definitiv noch nachlegen.

Wann sind alle Häuser schlau?

Trotz weitgehender Umsetzbarkeit, hat sich das Smart Home noch lange nicht durchgesetzt. Das hat auch gute Gründe. Preise, Sicherheitslücken und fehlende technische Stabilität schrecken die meisten Nutzer noch ab. Ob und wann sich solche Ansätze durchsetzen, ist schwierig zu prognostizieren. Wie immer bei Alltagsutopien ist es unmöglich Dinge einzubeziehen, die schlicht und einfach noch nicht existieren. Mit Sicherheit bringt die Zukunft Lösungen, die noch nicht absehbar sind – auch für Probleme, die wir noch gar nicht haben.

Auf der anderen Seite gibt es noch immer Alltagsprobleme, für die es noch keine smarte Lösung gibt und vielleicht auch nie geben wird. Solange etwa im Haushalt Müll entsteht, muss dieser auch gesammelt und abtransportiert werden. Letztendlich werden sich wohl einige sinnvolle Konzepte durchsetzen und andere Innovationen an ihrem Preis-Leistungs-Verhältnis scheitern. In jedem Fall werden unsere Heime künftig immer smarter werden und neue Ansprüche an Datenschutz und IT-Sicherheit stellen.

Die Digitalisierung stellt Unternehmen vor Herausforderungen

Die Herausforderungen der Digitalisierung – Erkennen und gezielt überwinden

Seien es Wirtschaftsnachrichten oder die mittlerweile omnipräsenten politischen Debatten: Digitalisierung ist ein fester Bestandteil des Anforderungskataloges für Unternehmen weltweit geworden. Die rasche Entwicklung von Technologien wie Cloud Computing, Big Data und natürlich die sog. Industrie 4.0 werden stets als Treiber der Digitalisierung genannt.

So vielversprechend, wichtig, ja sogar unumgänglich dieser Trend aber ist, so birgt er doch einige Risiken und Herausforderungen, welche wir hier (ohne Anspruch auf Vollständigkeit) kurz beleuchten wollen.

Ohne IT gibt es kein Business

Wie eingangs erwähnt, sind es Technologien – genau genommen Informationstechnologien – also IT, die die Basis jedweder digitaler Daten, deren Erstellung und Verarbeitung darstellen. Kennt man die Nutzungsmöglichkeiten zu seinen Anwendungsfällen also kaum oder gar nicht, gerät man schnell ins Straucheln.

Ist alles mit IT durchdrungen, so muss diese skalierbar und äußerst robust aufgestellt sein. Ohne Skalierbarkeit fehlt die notwendige Dynamik, ohne Robustheit leidet die Arbeitsqualität, die Qualität und Quantität der Daten und im Worst Case, d.h. ohne funktionierende IT, das ganze Unternehmen, was sehr schnell das Aus sein kann.

Ohne Ideen und Erfahrung sind nur Daten digital

Digitalisierung bedeutet längst nicht mehr nur das Umwandeln von analogen in digitale Daten. Vielmehr ist die vernetzte Nutzung, speziell das gezielte automatische Auswerten eben dieser Daten der Kerntenor. Es sind also individuelle Ideen zur Abbildung und Weiterentwicklung der von Daten getriebenen Geschäftsprozesse durch Technologien notwendig, um nicht den Anschluss an den Wettbewerb zu verlieren.

Ob nun analog oder digital, die Qualität – z.B. die Vertrauenswürdigkeit – der Daten ist essentiell um mit ihnen gut zu arbeiten. Fehlentscheidungen auf Basis fehlerhafter oder gar gezielt veränderter Daten können bei dem hohen Tempo fatal werden. Die Basis jeder Dynamik sind saubere Anfangs- und Randdaten, selbst robuste Algorithmen helfen hier nicht.

Achten Sie daher auf hochwertige und vertrauenswürdige Quelldaten und sichern Sie deren Integrität in Ihren eigenen Systemen.

Nicht alle Daten darf man uneingeschränkt nutzen

So grenzenlos einem die Möglichkeiten der Datenauswertung z.B. im Falle des Marketings und Vertriebs durch die schier unendlichen Datenquellen wie etwa Google, Amazon oder Facebook erscheinen, so muss diese Euphorie doch gebremst werden.

Gerade in Deutschland ist die Sensibilität für personenbeziehbare und personenbezogene Daten äußerst hoch. Der Gesetzgeber räumt dem „Auswertungsobjekt“ Mensch daher weitreichende Rechte zur Einsicht und zur Löschung erhobener Daten ein.

Ergo: Achten Sie bei allen Digitalisierungsvorhaben auf die restriktiven Rahmenparameter Datenschutz und Compliance.

Der Mitarbeiter versus die Status LED

Offensichtlich transformiert die Digitalisierung von Geschäftsprozessen die Arbeitsweisen eines jeden von uns. Tätigkeiten wie das Erheben von Daten, deren Auswertung bis hin zur Ableitung optimaler Entscheidungen werden durch Sensorik, heuristische Algorithmen und künstliche Intelligenz immer mehr Aufgabe von Maschinen.

Studie zum jährlichen Lagebild zur Digitalen Gesellschaft

Zugang, Nutzung, Kompetenz und Offenheit in Bezug auf die Digitalisierung in Deutschland,
weitere Informationen zum D21-Digital-Index 2016, Bildquelle: Initiative D21 (CC BY 2.0)

Wo platzieren wir hier den Menschen als Arbeitnehmer? Degradieren wir ihn zur finalen Prüfinstanz maschineller Abläufe? Als ITler stellt sich der Autor einen dumpf auf Status LEDs blickenden Techniker vor. Oder ist der Mensch nur noch der Innovator, ein Komponist der vorhandenen und aufkommenden Technologien? Dies ist eine gesellschaftliche Herausforderung, welcher wir uns gemeinsam stellen müssen.

Aber auch abseits von diesen Zukunftsgedanken (um nicht von einer Dystopie zu sprechen) erleben wir schon im Jetzt durch die Always On Mentalität, smartphonegetriebene Techniksklaven sowie die Möglichkeit, uneingeschränkt von Zeit und Ort arbeiten zu können, eine Verschiebung dessen, was wir geregelte Arbeit nennen.

Die Herausforderung ist es also, auch die Arbeitnehmer mit zu transformieren – d.h. Kompetenzen und Wissen im Sinne der Technologien aufzubauen – ohne dass sie selbst zu phantasielosen Robotern mutieren.

Backups und Archive - von der Strategie zur technischen Umsetzung

Backups verstehen und korrekt einsetzen

Wird von Datensicherheit gesprochen, so sind Backups der Daten ein zentrales Thema. Meist sind sie der Notnagel in Worst Case Situationen und sollten demnach wohl durchdacht sein.

Heute wollen wir kurz beleuchten, welche technischen und organisatorischen Überlegungen vor dem Einsatz von Backups angegangen werden sollten.

Backups und Archive – Unterschiede und Gemeinsamkeiten

Bevor wir uns dem eigentlichen Thema widmen, soll noch eine kurze Abgrenzung erklärt werden: der Unterschied zwischen einem Backup und einem Archiv.

Während ein Backup darauf abzielt, innerhalb einer definierten Zeitperiode (meist kurze Abstände wie etwa ein Tag) ältere Abbilder bzw. Versionen des Datenbestandes anzubieten und dabei zu alte Abbilder automatisch u.a. aus Platzgründen verwirft, so besteht ein Archiv aus wenigen fest definierten kompletten Datenbeständen, deren maximales Alter oft viele Jahre sein kann (der Gesetzgeber gibt für Rechnungen bspw. eine Aufbewahrungsfrist von zehn Jahren vor).

Was beide gemein haben, sind die technischen und organisatorischen Anforderungen:

  • Veränderbarkeit: Es muss sichergestellt sein, dass Daten nachträglich nicht geändert oder manipuliert werden können.
  • Zugriffkontrolle: Bei Bedarf müssen die Daten schnell verfügbar sein. Jedweder Zugriff darf nur durch Autorisierte geschehen.

I. Eine Strategie wird gebraucht

Nun verfällt man leicht in den Reflex zu sagen, alles muss ins Backup und schlimmer noch, das Backup solle doch bitte auch Archiv sein, also auch sehr alte Datenbestände umfassen. Beachten Sie den Speicherbedarf, welcher überproportional durch lange Aufbewahrungszeiten von z.T. redundanten Daten entsteht! Hier fallen unnötige Kosten für die Bereitstellung der Speichervolumina, der Kontrolle dieser Speichervolumina sowie unnütz lange Transfervolumina an, welche die Last und damit auch die Kosten u.a. für die Dimensionierung des zugrundeliegenden Netzwerks in die Höhe treiben.

Es gilt also auch hier: So wenig wie möglich, so viel wie nötig. Klären Sie, welche Datenbestände wirklich durch Backups geschützt werden sollen. Beachten Sie dabei auch das Nutzungsverhalten, evtl. gibt es eine Person, die oft nervös die Entfernen-Taste bemüht. Durchdenken Sie, ob die eine einfache Strategie, in der tagesgenaue Backups mit einer Aufbewahrungszeit von 7 Tagen (d.h. tagesgenaue Stände einer Woche) für Ihre Datennutzung genügen, oder ob man nicht doch lieber gar jede Stunde Versionsstände automatisiert erstellt haben möchte.

II. Organisatorische Fragen vor dem ersten Backup

Damit aus einer Strategie ein Plan wird, gilt es Anforderungen, Rahmenparameter und eben organisatorische Themen zu klären.

Hier eine Liste grundsätzlicher organisatorischer Fragen:

  • Wer darf auf die Backups zugreifen?
  • Wie regelmäßig sollen die Backups auf Korrektheit geprüft werden?
  • Soll sich ein Dienstleister um die Backups kümmern oder soll das inhouse bleiben?
  • Sollen sich die möglicherweise mehrfach vorhandenen Backupziele in unterschiedlichen Sicherheitszonen befinden?
  • Wer hat (physischen) Zutritt zu diesen Sicherheitszonen? Wer sollte ihn haben, wer nicht?
  • Wie wird im Desaster-Fall ein Recovery angegangen? (Informationspolitik, Meldewege, …)

III. Anforderungen an die Technik

Mit der Strategie und geklärten organisatorischen Rahmenbedingungen ist nun erst die Technik dran. Es sollte nach den vorherigen Ausführungen klar sein, dass der USB-Stick oder die externe Festplatte keine geeigneten Medien sind, um Backups aufzunehmen.

Welche Voraussetzungen sollten also gegeben sein:

  • Hinreichend Speicherplatz für aktuelle und kommende Backups, passend zur Strategie => Skalierbarkeit als Primärfaktor
  • Technische Umsetzbarkeit von Berechtigungskonzepten => Primärfaktoren Autorisation und Authentizität
  • Technische Umsetzbarkeit der Unveränderbarkeit => Primärfaktor Integritätsschutz
  • Ausfallsicherheit der einzelnen Komponenten sowie Erfüllung der Performanceanforderungen => Primärfaktor Verfügbarkeit

Als Sekundärfaktoren sollen hier auch die einfache Bedienbarkeit sowie kurze Reaktionszeiten seitens des Herstellers in Supportfällen genannt werden.

Backups in der Cloud?

Es ist in der Tat nicht leicht, all diese Anforderungen im Rahmen der eigenen IT und evtl. des eigenen Budgets erfüllen zu können. Hier wird die Cloud interessant, bietet sie doch unerreichbare Skalierbarkeit, hohe Kostentransparenz und durch den Managed Service Charakter der zugesicherten Dienstleistungen eine gute Grundlage, um die eigenen sowie grundsätzliche Anforderungen abzuprüfen.

Für KMUs ist Backup as a Service als Dienst aus der Cloud die beste Möglichkeit, wirklich umfassend gute Backups inklusive Features wie Georedundanz und granularer Rücksicherungen von z.B. E-Mails bei voller Kostenkontrolle genießen zu können.

Und wo fängt man jetzt an?

Komplexe und vor allem sicherheitsrelevante Themen bedürfen stets Erfahrung bzw. Beratung.

In der Tat ist es am besten, sich an Fachleute – wie etwa die kreITiv – zu wenden, um eine umfassende individuelle Beratung zu erhalten. Profitieren Sie von unserem Praxiswissen sowie unserem breiten Angebotsspektrum im Bereich Backup as a Service und sprechen Sie uns an.

Wir zeigen Ihnen den Weg zur geeigneten Microsoft Office Software für Ihr Unternehmen

Microsoft Office Lösungen für Unternehmen – Ein persönlicher Ratgeber

Das Angebot an Office Lösungen für Unternehmen ist enorm. Hat man sich bei der Wahl der Office Software im ersten Schritt für ein Microsoft Produkt und gegen Open-Source Lösungen entschieden, steht man noch immer vor einem Dschungel von Angeboten und Paketen. Im folgenden Artikel erfahren Sie, welche Pakete Microsoft für Unternehmen anbietet und welche Faktoren für die Wahl der geeigneten Lösungen für das eigene Business entscheidend sind.

Zwei Faktoren, welche Microsoft zur Diversifizierung seines Angebotes an Office Paketen nutzt, sind die Größe und die Art des Business. Dabei wird zunächst zwischen kleinen und großen Unternehmen unterschieden. Zusätzlich zu dieser Unterscheidung werden auch Angebote speziell für Bildungseinrichtungen, Behörden oder gemeinnützige Vereine bereitgestellt. Bei der Wahl des Office Produktes sollte man sein Unternehmen zunächst einer dieser Kategorien zuordnen. In diesem Artikel wird der Fokus auf die Pakete für kleine und große Unternehmen gelegt.

Microsoft Office als reine Webanwendung

Neben der Art und Größe des Unternehmens sind die benötigten Funktionalitäten der wichtigste Faktor bei der Wahl des Office Paketes. Hierbei gilt der Grundsatz:

Je höher der Preis, desto größer das Angebot an Funktionalitäten.

Für ein Unternehmen sollte ein vollständig installierbares Office Paket selbstverständlich sein. Doch Microsoft bietet auch eine interessante und kostengünstige Alternative zur Desktopversion. Das Paket Office 365 Enterprise E1 beinhaltet die Lizenz für Word, Excel und PowerPoint als Webanwendungen für den Browser.

Microsoft Office 365 im Business Einsatz

Microsoft Office als Webanwendung für Unternehmen.
Bildquelle: microsoft.com

Neben den Officeanwendungen werden zusätzlich ein Cloudspeicher und eine E-Mail Adresse angeboten. Auch Tools zur internen Teamkommunikation sind im Paket enthalten. Die Webanwendung versucht viele Funktionalitäten der Desktopversion zu unterstützen. Ein vollständiger Funktionsumfang, verglichen mit der Desktopversion, konnte jedoch nicht erreicht werden. Des Weiteren fehlen Programme wie OneNote oder Access. Das Paket Office 365 Enterprise E1 ist im Jahresabonnement für 6,70€ pro Nutzer und Monat erhältlich.

Standardfeatures bei Office Paketen

Hat man sich für die vollständige Desktopversion von Office entschieden, sind einige Features als Standard in allen Paketen enthalten. Dazu gehört bspw. die Möglichkeit zur Nutzung von Microsoft Office Apps für Smartphones und Tablets.  Jeder Nutzer kann dabei die App auf jeweils fünf Smartphones und fünf Tablets nutzen.

Neben der mobilen Anwendung ist auch die Verwendung der Office Webanwendungen möglich. Auch eine hohe Datensicherheit sowie Web- und Telefonsupport sind ein Standard aller Pakete.

Welches Microsoft Office für mein Unternehmen?

Steht man als Unternehmer vor der Wahl der Office Anwendung für das eigene Unternehmen, betrachtet man zunächst das Angebot von Microsoft und stellt sich die Frage:

Welches Office Paket enthält welche Funktionalitäten, die für mein Unternehmen entscheidend sind?

Um die Frage zu beantworten, muss zunächst die Entscheidung zwischen Desktopvariante und Webanwendung gefällt werden. Wir von der kreITiv sehen die Desktopvarianten der Office Anwendungen vor den Webanwendungen und würden diese auch weiterempfehlen. Auch Befürworter der Webvariante können mit den vollständig installierbaren Paketen zufrieden sein, da die Nutzung der Webanwendungen bei diesen im Preis enthalten ist.

Hat man sich für die Desktopvariante von Office entschieden, sollten nun das eigene Unternehmen und die Anforderungen in Bezug auf Verwaltung, Installation und Laufzeit analysiert werden. Hierbei kann man einige Standard-Fälle unterscheiden; die Wahl der Office Lösung sollte jedoch individuell auf das Unternehmen angepasst werden.

Die Basispakete

Nehmen wir an, dass ein Unternehmen ein CRM-System zur Verwaltung von E-Mails, Kontakten, Terminen und Nachrichten nutzt. Der Geschäftsführung stehen ebenfalls Werkzeuge für die Kennzahlenauswertung und Kennzahlendarstellung zur Verfügung. Ein solches Unternehmen möchte nun ein Office Paket wählen, welches bspw. zur Erstellung von Anschreiben, Berichten, Angebotsübersichten oder Ähnlichem genutzt werden kann.  Es werden demnach nur die Desktopversionen von Programmen, wie Word, Excel oder PowerPoint benötigt.

Die Office Pakete Business, Plus, Premium usw.

Von Basis bis Premium – Finden Sie Ihr passendes Office Paket. Bildquelle: microsoft.com

Ein geeignetes Paket für solche Anforderungen wäre Office 365 Business. Hierbei werden alle Office-Anwendungen und die vorher genannten Standardfeatures bereitgestellt. Die Nutzergrenze liegt bei 300 Benutzern, das Paket wird zurzeit im Jahresabonnement für 8,80€ pro Nutzer und Monat zur Verfügung gestellt.

Sollte die Nutzergrenze überschritten werden, kann auf Office 365 Plus zurückgegriffen werden. Dieses wird im Jahresabonnement für 12,90€ pro Nutzer und Monat angeboten und beinhaltet zusätzlich einen Cloudspeicher von einem Terrabyte pro Nutzer.

Erweiterte Funktionalitäten der Premiumpakete

Sollte ein Unternehmen jedoch zusätzliche Funktionalitäten zur Bewältigung des Arbeitsalltages benötigen, können umfangreichere Pakete von Microsoft genutzt werden. Hierbei kann man aus den Paketen Office 365 Business Premium, Office 365 Enterprise E3 und  Office 365 Enterprise E5 wählen. Die beiden letztgenannten beinhalten Anwendungen, welche eine gute Alternative zu externen Verwaltungs- und Datenanalysesystemen bilden.

Office 365 Business Premium

Ab dem Office 365 Business Premium Paket werden zusätzliche Werkzeuge zur unternehmensinternen Kommunikation und zur Aufgabenverwaltung angeboten. Dazu gehören u.a. ein Soziales Unternehmensnetzwerk, ein Chatportal, ein Videoportal und Livekonferenzen. Dieses Paket ist ebenfalls begrenzt auf 300 Nutzer und ist zurzeit im Jahresabonnement für 10,50€ pro Nutzer und Monat erhältlich.

Office 365 Enterprise E3

Ab dem Office 365 Enterprise E3 Paket ist eine E-Mail Adresse mit Kalender sowie Kontakten auf Unternehmensniveau und unbegrenztem Speicherplatz enthalten. Auch eine Compliance Lösung zur Überwachung von Gesetzen und internen Richtlinien wird zur Verfügung gestellt. Das Enterprise E3 Paket ist im Jahresabonnement für 19,70€ pro Nutzer und Monat erhältlich.

Office 365 Enterprise E5

Ab dem Office 365 Enterprise E5 Paket werden zusätzlich einige leistungsstarke Business Intelligence Werkzeuge zur Verfügung gestellt. Außerdem ist PSTN Conferencing (zur Teilnahme von externen Personen an Skype-Besprechungen über Festnetz oder Mobiltelefon) und eine Cloudbasierte Anrufverwaltung im Paket enthalten. Das Enterprise E5 Paket wird im Jahresabonnement für 34,40€ pro Nutzer und Monat angeboten.

 

Individuelle Beratung

Das Angebot an Microsoft Office Lösungen für Unternehmen ist also sehr vielfältig. Eine kompakte Übersicht der Pakete findet sich auf der entsprechenden Produktseite von Microsoft. Um das richtige Paket zu wählen, sollten die Anforderungen der Unternehmer in Bezug zur Office Software deshalb klar sein. Die eigenen Anforderungen zur Verwaltung, Installation und Laufzeit genau zu identifizieren, kann jedoch auch eine große Herausforderung sein.

Wir von der kreITiv beraten Sie deshalb gern, wenn Sie Fragen zur Einrichtung und Wahl von Office Lösungen für Ihr Unternehmen haben. So schlagen wir uns gemeinsam durch den Software-Dschungel und finden einen individuellen Pfad zu mehr Produktivität im Büroalltag.

Individuell, flexibel, kosteneffizient - Die Cloud-Arbeitsplatz Lösungen von kreITiv

Workspace-as-a-Service – Der Arbeitsplatz aus der Cloud

Die Möglichkeiten, Dienste aus der Cloud zu beziehen, haben wir in mehreren Artikeln bereits beschrieben. Auch den zu Grunde liegenden Gedanken – aus einmaligen Investitionen werden Dienstleistungen auf Subskriptionsbasis – sollte den meisten Entscheidern als klares Plus von Cloud Lösungen mittlerweile gewahr sein.

Lassen Sie uns aus diesem Wissen doch einmal etwas ganzheitlicheres Stricken: Den Arbeitsplatz aus der Cloud mit Client-Hardware auf Subskriptionsbasis beim Anwender. Passend zur Nomenklatur von Cloud-Lösungen nennen wir es Workspace-as-a-Service.

I. Der Dschungel aus Angeboten wird strukturiert

Die Intention liegt auf der Hand: Statt vieler einzelner Dienste, welche die Werkzeuge für einen klassischen Büroarbeitsplatz liefern sollen, muss ein Paket an Diensten her, um den Angebotsdschungel zu strukturieren.

Ein solches Paket sollte die Arbeitsplattform an sich (den Desktop) sowie Office-Software und einen individuellen Email-Dienst beinhalten. Alles aus einer Hand mit einem Abrechnungsmodell pro Monat und pro Benutzer.

II. Ein Arbeitsplatz ist mehr als Software

Hier sollten wir aber nicht aufhören! Denn wenn wir den Benutzer in den Mittelpunkt stellen, müssen wir darüber nachdenken, wie und vor allem auch womit dieser nun die Werkzeuge des Pakets benutzen soll. Die Hardware also, hier das Endgerät, welches wir als Client in der Fachsprache kennen.

Das kann ein klassischer PC mit all seiner Peripherie (Monitore, Maus und Tastatur) für das Büro, aber auch ein Notebook für den Vielreisenden sein. Eine Dockingstation mit Peripherie und dazu dann ein Notebook ist die Hybridlösung, die der Autor empfiehlt. Sie gewährleistet die Flexibilität, welche wir auch bei Cloud-Lösungen schon so schätzen.

III. Auch die Hardware muss ein Dienst werden

Seien wir ehrlich: Wir erwarten von einem wie auch immer gearteten Rechner, dass dieser seine Funktion erfüllt und wir arbeiten können. Dafür möchten wir zahlen, nicht für Reparaturen und sonstigen Service.

Das bedeutet doch, wir wollen für den korrekten Betrieb des Gerätes zahlen, nicht aber für Fehlerbereinigungen. Ein völlig analoges Konzept zu Cloud-Lösungen, die wir als Managed Services kennen.

Ergo: Die Client-Hardware muss ein Managed Service werden!

IV. Telefonie ist Teil eines Arbeitsplatzes

Wir können nicht von einem Arbeitsplatz sprechen, ohne Telefonie mit zu betrachten. Diese muss aber genauso flexibel sein wie unsere bisherigen Komponenten. Cloud-Telefonie muss also dazu, denn nur so gewährleisten wir Standortunabhängigkeit bei zentraler Administration und Abrechnung pro Benutzer. Die Kriterien für die Endgeräte, seien es nun Tisch-, DECT- oder Softwaretelefone, müssen auch hier gelten: Für deren Funktion wollen wir bezahlen! Daher Telefonie als Managed Service, bitte!

V. Sicherheit sollte stets gewährleistet werden

Verfügbarkeit, Integrität, Vertraulichkeit und Authentizität müssen auch hier immer beachtet werden. Regelmäßige Backups mit Funktionsprüfung, ein aktueller Virenschutz sowie ein zentrales Berechtigungskonzept sind für Endgeräte genauso ein Muss.

Darüber hinaus sollten auch die Verbindungen über das an sich immer als unsicher zu betrachtende Internet zwischen Client und Cloud-Diensten betrachten. Diese Verbindungen sollten verschlüsselt werden, VPN wird also benötigt. Auch für all diese Punkte sollte gelten: Wir möchten für die Funktion auf Subskriptionsbasis bezahlen, nicht für die Technik und den Service. Sicherheit als Managed Service also.

Das Ziel – Eine Lösung für den individuellen Cloud-Arbeitsplatz

Da haben wir unser Wunschpaket: Die Lösungen aus dem Rechenzentrum als passender Mix, die Technik, mit der wir diesen bedienen und damit wir ruhig schlafen können auch die Sicherheitsfunktionen für alle Ebenen und Schnittstellen.

Wir sind flexibel, denn wir denken pro Anwender, wir brauchen keine hohen Investitionen, die wir in ihrem Nachgang kaum einschätzen können, denn wir zahlen pro Monat und wissen auch genau wofür.

Die kreITiv denkt mit

Der geneigte Leser merkt es schon, die kreITiv hat einen Plan. Wir wollen Ihnen keine Insellösungen anbieten, sondern auf Ihre Anforderungen angepasste Pakete unserer Dienstleistungen zusammenstellen. Auch wir haben uns die Gedanken gemacht, in die wir Sie durch die vorherigen Absätze eingeweiht haben und Antworten auf die dahinterliegenden Fragen gefunden, welche wir mit Ihnen teilen wollen.

Erwarten Sie mit Spannung unsere Workspace-as-a-Service Pakete und kontaktieren Sie uns für eine individuelle Beratung.

IT-Dokumentation und Wissensmanagement

Dokumentation und Wissensmanagement, die Grundpfeiler des IT-Betriebs

Heute widmen wir uns einem Thema, welches gern stiefmütterlich behandelt wird; der Fleißarbeit, zu der sich Admins über den ganzen Globus hinweg genötigt sehen, die aber unendlich wichtig ist: Dokumentation. Wieso hat sie eigentlich einen so hohen Stellenwert? Worauf kommt es bei Dokumentationen an und gibt es Hilfsmittel, welche die Pflichtaufgabe gut unterstützen und damit weniger lästig erscheinen lassen?

Der Grund für Dokumentationen

Es ist nicht nur den Verwaltern und den Betreuern von IT-Infrastrukturen klar, dass diese in ihrer Komplexität stetig wachsen. Es gilt den Überblick zu wahren, welche Komponente welchen Zweck erfüllt und wie eben dieser durch welche Konfigurationen erreicht wurde. Der Begriff Komponente deutet es schon an: Deren Zweck ist stets im Verbund zu verstehen, daher ist auch die funktionale Verknüpfung der Teile eine wichtige Information, um den Regelbetrieb eines Systems an sich am Laufen zu halten.

Und hier haben wir schon den Grund für Dokumentation: Selbst wenn man über ein ausgefeiltes Monitoringsystem schnell auf eine Störung des Regelbetriebes an einer ganz bestimmten Stelle hingewiesen wird, braucht es eine Informationsquelle, die erklärt, wie der Betrieb eigentlich funktionieren sollte und wie die gestörte Komponente da hereinspielt.

Eine saubere Dokumentation sorgt für Informationshaltung, um den Regelbetrieb abzubilden, damit dieser im Falle einer Störung effizient wiederhergestellt werden kann. Zu bedenken ist auch folgender Fall: Der alteingesessene Admin verlässt das Unternehmen und damit gehen nicht nur seine Fähigkeiten und Fertigkeiten, sondern auch sein Wissen. Eine gut geführte Dokumentation sorgt dafür, dass ein fachkundiger Dritter schnell die IT-Landschaft übernehmen kann. Denn er versteht durch sie die Intention und daraus resultierte Konfiguration der einzelnen Bestandteile.

Worauf es bei der Dokumentation ankommt

Die Wikipedia fasst die Qualitätsmerkmale einer Dokumentation gut zusammen:

VollständigkeitStrukturiertheitNachvollziehbarkeit
ÜbersichtlichkeitKorrektheitIntegrität/Authentizität
VerständlichkeitEditierbarkeitObjektivität

Man erkennt, dass es nicht reicht, alles mögliche aus einem Berg aus Notizzetteln in einen Ordner abzuheften (oder zu speichern, man denkt ja papierlos). Es ist auch dafür zu sorgen, dass man sieht, wer was wann zu welchem Zweck niedergeschrieben hat, dass dies ohne persönliche Wertung („der Exchange Server war mir schon immer zu langsam“) geschieht und zudem auch noch auffindbar ist, am besten dort, wo man danach auch suchen würde.

Aus eigener Erfahrung möchte ich noch folgendes hinzufügen: Auch die Prozesse rund um die IT sind zu dokumentieren. Meldewege bei Störungen oder Sicherheitsvorfällen, wo muss man sich melden, wenn es gilt neue Hard- oder Software zu ordern, wie kündigt man Wartungsarbeiten an, was ist beim Zu- bzw. Abgang von Mitarbeitern zu beachten etc. sind ebenso entscheidend für den Regelbetrieb wie die Konfiguration einer Firewall!

Womit diese Anforderungen abgedeckt werden können

Sprechen wir von Dokumentation, sprechen wir von Wissensspeicher und – wie wir soeben gelernt haben – auch vom Management dieses Wissens. Das heißt für uns, dass das Utensil der Wahl ein Wissensmanagementsystem sein muss. Hier müssen wir nicht lange suchen, denn es gibt Software, welche wohl alle schon irgendwie kennen: Wiki-Systeme.

Sei es nun MediaWiki, DokuWiki oder eine andere Spielart, haben all diese Systeme etwas gemein: Es werden Artikel zu Themen erstellt, dabei wird ein Autor benannt und ein Zeitstempel angehängt. Besser noch, die Artikel können untereinander verlinkt werden, es gibt eine Revisionshistorie und man kann (in Abghängigkeit von den gesetzten Berechtigungen) mittels einer Volltextsuche den gesamten Wissensspeicher durchsuchen.

Was man zuvor erarbeiten sollte, ist eine Struktur, die man diesem Wissensspeicher verpassen muss. Dazu gehören nicht nur Kategorien wie etwa Netzwerk, Server und Clients, sondern eben auch ein Berechtigungskonzept sowie einige Standardartikel (Template würde der Softwareentwickler sagen).

Hat man das zusammengetragen, steht einer wirklich guten Dokumentation nichts mehr im Wege. Und wer weiß, vielleicht macht die Wiki-Pflege am Ende sogar Spaß …

 

Als langjähriger IT Service Provider hat die kreITiv GmbH viel Erfahrung mit diesem Thema, denn auch wir mussten uns einst dieser Herausforderung stellen. Benötigen Sie Unterstützung beim Aufbau einer Dokumentation, dann zögern Sie nicht, unser Team zu kontaktieren! Wir helfen gern.

Mit kreITiv zur sicheren IT-Infrastruktur

Proaktives Agieren durch Monitoring von IT-Infrastruktur

Verfügbarkeit ist eines der zentralen Schutzziele von IT-Infrastrukturen, denn es ist naheliegend, dass nur mit funktionierenden – eben zu Verfügung stehender Technik – gearbeitet werden kann. In Rechenzentren gewährleistet man ein hohes Maß an Verfügbarkeit durch redundante Auslegung sämtlicher Systeme, die ein Glied in der Kette der angebotenen Dienste darstellen.

Hier nun sollte jeder Kunde von Cloud-Dienstleitungen aus Rechenzentren innehalten und sich folgende Frage stellen: Und was ist mit meinem Endgerät, an dem ich dann tatsächlich arbeite? Da sich die zuvor genannte Kette tatsächlich erst bei dem eigentlichen Benutzer schließt, ist diese Frage absolut gerechtfertigt. Wie aber gewährleistet man eine hohe Verfügbarkeit von Endgeräten? Redundanz kann es wohl nicht sein, oder haben Sie stets ein Ersatz-Smartphone griffbereit?

Monitoring – alles Relevante im Blick behalten

Wir haben also die Endgeräte als zu betrachtendes Glied identifiziert. Es gilt nun, dieses gezielt ins Auge zu fassen, um es in seinem laufenden Betrieb effizient zu überwachen.

Wichtig ist, sich die Funktionen klarzumachen, von denen die eigentliche Arbeit abhängt, soll heißen das Relevante herauszufiltern. Relevant sind neben den Hardwarefunktionen auch die Dienste, die Indikatoren für die Lauffähigkeit des Betriebssystems und wichtiger Software sind. Mit diesen Informationen kann das Endgerät nun beobachtet werden, ein Monitoring also.

Monitoring ist praktisch das Ablesen und Prüfen der Vitalfunktionen einer digitalen Arbeitskraft mit dem Ziel, Störungen kritischer Komponenten in ihrer Anbahnung zu erkennen.

Software Agenten als Mess- und Beobachtungsposten

Es ist ersichtlich, dass man zum Monitoring die richtigen Instrumente benötigt. Üblicherweise sind das kleine Softwarepakete, welche passend konfiguriert Daten sammeln und diese über eine sichere Verbindung an ein zentrales Monitoringsystem liefern. Diese Softwarepakete nennt man auch Agenten bzw. Agents.

Das Monitoringsystem hat die Aufgabe, Technikern die diversen gesammelten Informationen der vielen möglichen Systeme graphisch aufbereitet, inklusive einer automatisierten Qualifizierung darzustellen. Erst damit wird es dem Techniker ermöglicht, Abweichungen vom Normzustand zu erkennen und zielgerichtet und schnell zu agieren.

Proaktivität als Mittel der Verfügbarkeitssteigerung

Das Messen und Qualifizieren der vom Agent gesammelten Daten gibt dem Techniker die richtigen Hebel in die Hand, um Störungen vorzubeugen. Droht also zum Beispiel der Speicher eines Endgerätes vollzulaufen und es damit nicht mehr einsatzbereit zu machen, wird dies dem Techniker signalisiert. Dazu hat er zuvor Schwellenwerte definiert, ab der eine Warnung erfolgen soll. Er kann nun schauen, wie er selbst Platz schaffen kann oder den Endanwender mit einem Warnhinweis darum bitten, eventuell unnötige Dateien zu verschieben oder zu löschen.

Noch bevor der Benutzer also mit dem Problem konfrontiert und in seiner Bedienung der Hardware beeinträchtigt wird, wurde es erkannt, bewertet und auch schon aus der Welt geschafft. Dieses Konzept wird als Proaktivität bezeichnet und kann durch Planung und den Einsatz passender Technik umgesetzt werden. Es ermöglicht auch ohne das Hinnehmen eines Ausfalls von redundant ausgelegten Systemen, die Verfügbarkeit der eigentlichen Funktion zu steigern.

Monitoring über kreITiv birgt weitere Mehrwerte

Mit seiner jahrelangen Erfahrung in der Einrichtung und Nutzung von Agent-Software kann Ihnen das Team der kreITiv-IT zur Seite stehen, um Ihre Endgeräte zu betreuen. Darüber hinaus ermöglichen diese uns auch, Fernwartungsaufgaben zu handhaben, Antivirus-Schutz auszurollen und aktuell zu halten sowie auch Datensicherungen anzufertigen. Wir bieten eine vollumfängliche Betreuung, damit Sie sich auf Ihre Arbeit konzentrieren können.

Datenträgerverschlüsselung für Notebooks und Wechseldatenträger

Datenträgerverschlüsselung für Notebooks und Festplatten

Trotz der zunehmenden Virtualisierung von IT-Ressourcen hantieren wir im Büroalltag auch heute noch mit einer ganzen Bandbreite an unterschiedlichsten Hardware-Klassen. Auch und gerade hier ist für Unternehmen die Verschlüsselung ein brisanter Themenkomplex, da Daten eben nicht nur auf digitalem Wege, sondern auch mitsamt ihrer physischen Datenträger entwendet werden können.

Wieso sollte man verschlüsseln?

In der Regel sind private, aber vor allem geschäftliche Daten vertraulich und sollten nicht in fremde Hände fallen. Wenn nun ein Datenträger, wie ein USB-Stick oder eine externe Festplatte, verloren geht oder ein Notebook gestohlen wird, hat der neue Besitzer normalerweise vollen Zugriff auf alle darauf enthaltenen Daten. Um dies zu verhindern, sollte man im Rahmen von Unternehmensrichtlinien alle Wechseldatenträger sowie mobilen Endgeräte wie Notebooks und Tablets sicher verschlüsseln.

Damit ist sichergestellt, dass nur berechtige Personen auf die Daten zugreifen können. Dies hat auch Vorteile für den firmeninternen Gebrauch, denn nicht jeder Mitarbeiter soll Zugriff auf alle Daten bekommen (Vertraulichkeit). Gleichzeit können Daten damit vor unberechtigter Veränderung und Manipulationen geschützt werden (Integrität). Diese beiden Begriffe sind zwei Grundpfeiler der Informationssicherheit.

Womit kann man verschlüsseln?

Die einfachste Möglichkeit zur Verschlüsselung von Datenträgern bringt das Betriebssystem Windows bereits selbst mit: Das Sicherheitsfeature Bitlocker ist in den Ultimate- und Enterprise-Versionen von Windows Vista und Windows 7, sowie den Pro- und Enterprise-Versionen von Windows 8, Windows 8.1 und Windows 10 bereits enthalten. Allerdings wird erst ab Version 7 die Verschlüsselung von USB-Medien unterstützt.

Welche Werkzeuge zur Verchlüsselung gibt es?

Tools zur Datenträgerverschlüsselung – Bitlocker, TrueCrypt und VeraCrypt

Bitlocker gilt prinzipiell als sicher, allerdings geben Fachleute zu bedenken, dass es sich um proprietäre Software handelt, bei der der Quellcode vom Hersteller nicht veröffentlicht wird. Deshalb kann die Sicherheit von unabhängigen Experten nicht komplett eingeschätzt werden und Hintertüren könnten möglicherweise vorhanden sein. Diese könnten vom Hersteller selbst oder von kooperierenden Behörden ausgenutzt werden.

Aus diesem Grund erfreut sich eine Software aus dem Open-Source-Bereich großer Beliebtheit: TrueCrypt. Diese Software hat immer noch eine große Fangemeinde, auch wenn sie inzwischen nicht mehr weiterentwickelt wird. Dennoch hat ein ausführlicher Audit der Version 7.1a durch das Open Crypto Audit Project (OCAP) im April 2015 TrueCrypt als relativ sicher eingestuft. Es wurden zwar Schwachstellen gefunden, diese sind allerdings für die meisten Nutzer nicht relevant.

Als Nachfolger von TrueCrypt präsentiert sich die Software VeraCrypt. Hierzu ist zwar aktuell noch kein entsprechendes Audit vorhanden, allerdings wird die Software von einer Community gepflegt und weiterentwickelt. Dies hat langfristig den Vorteil, dass bekannte Sicherheitslücken soweit möglich geschlossen werden. Die Oberfläche und der Leistungsumfang entsprechen weitestgehend dem von TrueCrypt.

Wie wird verschlüsselt?

Egal, für welche Software Sie sich entscheiden, jede Verschlüsselung ist natürlich besser als gar keine Verschlüsselung und in der Praxis arbeiten die Programme sehr ähnlich. Die Verschlüsselung erfolgt in der Regel durch das symmetrische Verfahren AES mit einer Schlüssellänge von 256-bit. Verschlüsseln kann man damit ganze Systemlaufwerke von PCs und Notebooks sowie externe USB-Datenträger wie Sticks, Festplatten und SSDs. Mit TrueCrypt und VeraCrypt kann man außerdem verschlüsselte Container erstellen, welcher als einzelne Datei eine beliebige Anzahl an Daten enthalten können.

Für die Zugriffskontrolle auf die verschlüsselten Daten gibt es mehrere Authentisierungsmöglichkeiten, welche auch kombiniert werden können:

  • Die gängigste Möglichkeit für den Zugriff ist die Vergabe eines Passwortes oder einer PIN.
  • Des Weiteren kann eine Schlüsseldatei erzeugt werden, welche dann z.B. auf einem angeschlossenen USB-Stick vorhanden sein muss, um Zugriff zu bekommen.
  • Bitlocker kann zur Verifizierung außerdem die Existenz eines eingebauten TPM-Chips (Trusted Platform Module) prüfen. Wird eine Festplatte aus dem ursprünglichen Rechner ausgebaut, ist somit kein Zugriff mehr möglich.

Wenn für Sie noch Fragen zum Thema Informationssicherheit offen sind oder Sie eine individuelle Beratung dazu wünschen, dann wenden Sie sich gern an das Team der kreITiv.