Das 1x1 der IT: Begriffe klären

In dieser Rubrik fassen wir zentrale Begriffe der IT-Wirtschaft zusammen, so wie wir diese praktisch umsetzen. So können Sie einen Einblick in unsere Arbeitsweise und in unser Selbstverständnis gewinnen. Klicken Sie einfach auf den gewünschten Begriff und lassen Sie sich von unserem kundenfreundlichen Ansatz überzeugen.

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Achten Sie auf die Spitzklammer

 

Die gefälschten Absenderkennungen im E-Mail-Verkehr sind zu einer Pest geworden – vor allem deshalb, weil sie so kinderleicht zu fälschen sind. Im Prinzip kann jeder Laie im Browser sich einen neuen ‚Kriegsnamen‘, ein ‚Pseudo‘, zulegen. Die erstaunten Nutzer erhalten dann oft sogar eine E-Mail von sich selbst, die sie aber nie geschrieben haben.

Die Methode der gefälschten Absenderkennung machen sich vor allem die Versender von Spam-Mails zunutze. Öffnet man eine solche Mail – vor allem deren angehängte Dateien – dann ist das Malheur im Handumdrehen passiert. Am Ende wurde der eigene Rechner dann sogar zu einem Teil eines Netzes aus Spam-Mail-Schleudern, weil man auf eine gefälschte Absenderkennung blind vertraute.

Erste und einfache Abhilfe schafft vor allem die Überprüfung der Absenderzeile, die in der Regel einen Absendernamen in Klartext enthält – und erst dahinter in Spitzklammern dann die E-Mail-Adresse:

Amazon.de versandbestaetigung@amazon.de

Kennung E-Mail-Adresse

Die Kennung kann – wie oben erwähnt – jedermann in seinem Browser leicht manipulieren. Wichtig ist es daher vor allem, vor dem Öffnen jedes Posteingangs die E-Mail-Adresse in den Spitzklammern zu überprüfen. Denn einen E-Mail-Server, der bspw. ‚amazon.de‘ seine Domain nennen dürfte, den kann sich kein Spam-Mail-Versender so leicht installieren.

Achten Sie daher beim Prüfen Ihrer Mails immer auf die Spitzklammer in Ihrem Mailclient!

AdWords: Googles Geschäftsmodell

 

Im Jahr 2000 führte Google sein AdWord-System ein. AdWord ist ein Kunstwort, das sich aus ‚Advertising‘ (= ‚Werbung‘) und ‚Keywords‘ (= ‚Schlüsselwörter‘) zusammensetzt. Googles Kunden bezahlen dafür, dass ihre Werbung seitlich vom Ergebnisformular in Gestalt von Snippets mit Link erscheint – immer dann, wenn der Nutzer des Suchsystems ein bestimmtes Schlüsselwort aufruft.

Das Adword-System wurde bis 2008 als Cost-Per-Click abgerechnet (s. CPC), seither ist ein komplexes Modell entstanden, das u.a. auch die Ladezeiten, die Qualität der Anzeige, die Art der genutzten Geräte (Handy, PC) berücksichtigt. Im Blog ‚Inside AdWords‘ (- seit 2008 auch auf deutsch -) informiert Google kontinuierlich über Änderungen auf seiner weltweit bedeutendsten Werbeplattform.

Kein Job wie jeder andere: Die Auftragsdatenverarbeitung (ADV)

 

Der § 11 des Bundesdatenschutzgesetzes und der § 80 im Zehnten Buch des Sozialgesetzes regeln in Deutschland die ‚Datenverarbeitung im Auftrag‘ bzw. die ‚Auftragsdatenverarbeitung (ADV)‘. Sie bestimmen über das ‚Outsourcing‘ von Datenverarbeitungsaufträgen an externe Dritte.

Die rechtlichen Rahmen einer ADV gibt seit dem Jahr 2009 das Bundesdatenschutzgesetz mit einer Zehn-Punkte-Regel vor, die unter anderem Fragen der Löschung, der Meldepflicht und der Kontrollrechte umfasst.

Der Auftraggeber hat sich – abhängig von der Art der erhobenen Daten – davon zu überzeugen, dass der Auftragnehmer für die Aufgabe zertifiziert ist, und dass er ein Sicherheitskonzept umsetzt. Dies erfolgt in der Regel durch eine schriftliche Auskunft. Erst dann darf der Auftraggeber personenbezogene Daten übermitteln. Haftungsrechtlich steht bei Verstößen meist nicht der Dienstleister in der Verantwortung, sondern unverändert der Auftraggeber.

Kein Job wie jeder andere: Die Auftragsverarbeitung (AV)

 

Der Art. 28 der DSGVO, § 26 des Bundesdatenschutzgesetzes (2018) und der § 80 im Zehnten Buch des Sozialgesetzes regeln in Deutschland die ‚Datenverarbeitung im Auftrag‘ bzw. die ‚Auftragsverarbeitung (AV)‘. Sie bestimmen über das ‚Outsourcing‘ von Datenverarbeitungsaufträgen an externe Dritte.

Die Auftragsverarbeitung löst die ‚Auftragsdatenverarbeitung (ADV)‘ aus dem “alten” Bundesdatenschutzgesetz ab. Die Neuregelung lässt viele der schon bisher geltenden Anforderungen an den Verantwortlichen unverändert.

Den rechtlichen Rahmen einer AV gibt seit der DSGVO in der Regel ein Auftragsverarbeitungsvertrag nach Art. 28 Abs. 3 DSGVO vor. In jenem werden unter anderem Gegenstand, Zweck, Art und Dauer der Verarbeitung festgelegt sowie die Art der personenbezogenen Daten, die Kategorien der betroffenen Personen und die Rechte und Pflichten des Verantwortlichen und des Auftragsverarbeiters.

Der Verantwortliche hat sich – abhängig von der Art der erhobenen Daten – davon zu überzeugen, dass der Auftragsverarbeiter für die Aufgabe zertifiziert ist, und dass er ein Sicherheitskonzept umsetzt, welches gewährleistet, dass die Datenverarbeitung durch geeignete technische und organisatorische Maßnahmen mit den rechtlichen Bedingungen konform ist. Dies erfolgt in der Regel durch eine schriftliche Auskunft. Erst dann darf der Verantwortliche personenbezogene Daten übermitteln.

Haftungsrechtlich steht bei Verstößen meist nicht der Dienstleister in der Verantwortung, sondern unverändert der Verantwortliche. Der Auftragsverarbeiter haftet hingegen, wenn er seinen Pflichten als Auftragsverarbeiter nicht nachgekommen ist. Dies ist der Fall sofern er die Anweisungen des Verantwortlichen nichtbeachtet oder sogar gegen die Weisungen gehandelt hat.

Datenschutz individuell gestalten: Die Binding Corporate Rules (BCR)

 

1995 beschloss die EU ihre Richtlinie 95/46/EG. In ihr wird seither der Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten geregelt. Für jeden Datentransfer in ‚unsichere Drittstaaten‘ (z.B. USA oder Indien) mussten zunächst noch einzeln Verträge geschlossen werden, was sich als gerade für große Unternehmen als kostenintensives Hindernis erwies. Erste Firmen entwickelten daraufhin Unternehmensrichtlinien, die das Verfahren zu vereinheitlichen suchten.
Im Juni 2003 tauchte der Begriff der ‚Binding Corporate Rules‘ dann erstmals in der EU-Datenschutzgruppe auf. Die Überlegungen richteten sich darauf, ein flexibles Instrument für den Datentransfer zu schaffen, welches zugleich die Vorgaben des Datenschutzgesetzes erfüllt. Das Resultat war ein Verfahren, dass es Unternehmen gestattet den Datenschutz beim Transfer in Drittstaaten individuell zu gestalten, sofern die angewandten ‚Binding Corporate Rules‘ einige Mindeststandards erfüllen. Hierzu zählen u.a.:

– Aufbau und Umsetzung eines Sicherheitskonzeptes
– Datenschutzschulung von Mitarbeitern
– Verpflichtende Teilnahme an einem Audit-Programm
– Leistung von Schadenersatz bei Verstößen
– Geregeltes Beschwerdeverfahren
– Zusicherung von Transparenz
– Festlegung des Geltungsbereichs

Der Vorteil der Einführung von ‚Corporate Binding Rules‘ ist die Möglichkeit einer individuellen Ausgestaltung der Datenübermittlung in ‚unsichere Drittstaaten‘. Der Nachteil ist vor allem der hohe Organisationsaufwand und das langwierige Prüfungsverfahren. Ein BCR-Prozess kann bis zur Einführung etwa zwei Jahre dauern. Rechnen tut sich das derzeit nur für große Unternehmen.

Blade Server: Rechner rationalisieren

 

Blade Server beruhen auf der Idee, mehrere Computer an nur einer einzigen Stromversorgung, an nur einem gemeinsam genutzten Speichermedium und mit einer Lüftung zu betreiben. Das spart Platz, Energie und vereinfacht die Systemarchitektur.

 

Wie ‚Blätter‘ (‚Blades‘) werden die Platinen mit den Mikroprozessoren und dem Arbeitsspeicher nebeneinander in den Server geschoben. Mehr als 80 solcher Blades nimmt das Standardrack heute auf, also weit mehr als 5.000 Prozessoren. Vorteilhaft sind dabei vor allem die kompakte Bauweise, die hohe Leistungsdichte, die Skalierbarkeit, sowie die einfache Verkabelung und die schnelle und einfache Wartung.

 

Allerdings erfordert die energetische Auslegung und die Lüftung dieser ‚hochdichten Rechenkraft‘ ein gehöriges Maß an technischer Kompetenz, weshalb gerade kleine und mittlere Unternehmen (KMU) solche Aufgaben zunehmend an Externe auslagern.

Wenn Müll zum Problem wird: Blacklisting

 

Das Phänomen, das zum ‚Blacklisting‘ führte, kennt jeder: Jene Unzahl von nervenden SpamMails, die morgens das Postfach verstopfen. Um diesen unerwünschten Müll abzuwehren, wurden die ‚DNS-based Blackhole Lists‘ (DNSBL) geschaffen, die in Echtzeit verwendete Adressen mit Verdachtsfällen abgleichen (mit den ‚Real Time Blackhole Lists‘ – RBL). Das ‚Domain Name System‘ (DNS) ist dabei jenes Auskunftssystem, das Nachrichten exakt einem gewünschten Rechner zustellen kann.

 

 

Eine DNSBL führt also eine weltweite Liste jener Rechner, deren Adressen im Internet-Protokoll (IP) als Müllschleudern schon einmal unangenehm auffielen. Solange die weltumkreisende Lawine nur Rechner betraf, deren einziger Lebenszweck auch das Versenden von SpamMails war, funktionierte dieses System einwandfrei, es gab kaum ‚false positives‘.

 

 

Heute aber erfolgt das Versenden von Massen-Mails immer seltener von einem fixen Ort aus, zumeist sind ‚trojanisierte Rechner‘ am großen Spiel um ‚Viagra‘, um ‚angebliche Lottogewinne‘ oder um ‚seltsame Erbschaften aus Nigeria‘ beteiligt. Ein Schadprogramm (‚Trojaner‘) hat sich dann, vom Besitzer des Rechners unbemerkt, auf die Festplatte geschlichen, und nutzt dessen Hardware als Spamschleuder.

 

 

Hier liegt auch das Problem des Blacklisting. Um von einer schwarzen Liste wieder gelöscht zu werden (‚delisting‘), ist ein hoher Aufwand erforderlich, der oft viel Geld und Nerven erfordert. Es kommt daher immer darauf an, welche DNSBLs vom Mail-Server des Providers verwendet werden.

 

 

Viele Provider kümmern sich aus den oben genannten Gründen daher leider nicht um ein delisting.

Cluster: Ein Netz für alle Fälle

 

Als Cluster wird ein Rechnerverbund aus vernetzten IT-Maschinen bezeichnet. Je nach Verwendungszweck kommen verschiedene Formen der Vernetzung zum Einsatz.

Ein High-Availabity-Cluster (HAC) sorgt für ständige Verfügbarkeit und eine hohe Ausfallsicherheit. Tritt in einem Knoten des Netzes ein Problem auf, migrieren alle laufenden Dienste auf einen anderen Knoten. Sowohl die Hard- wie auch die Software eines HA-Clusters muss dabei völlig frei von singulären Komponenten sein, die bei einem Ausfall das System lahmlegen könnten. Eine Doppelauslegung aller Komponenten ist für HA-Cluster also die Mindestregel. Auch trennen die Komponenten solcher Cluster geographisch oft mehrere Kilometer Distanz, so dass auch in einem Katastrophenfall das System nicht ausfällt (‚stretched Cluster‘).

Ein anderes Problem besteht in wechselnden Leistungsanforderungen. Hier kommen ‚Load-Balancing-Cluster‘ zum Einsatz (LBC), die den Arbeitsanfall bei erhöhten Anforderungen unter sich gleichmäßig aufteilen. Solche Systeme werden oft aus Kostengründen installiert. Statt einzelner teurer Hochleistungsmaschinen teilt hier ein Schwarm aus vernetzten Standard-Computern die wechselnden Aufgaben gleichmäßig unter sich auf.

Wo es um die Bewältigung großer Datenmengen geht, kommen High-Performance-Computing-Cluster zum Einsatz (HPC). Zumeist ist die Wissenschaft das Einsatzgebiet für ein solches Netz. Hier wird eine Aufgabe mit Hilfe eines Decomposition-Programms auf viele Rechner aufgeteilt, welche jeweils Teilaufgaben übernehmen (‚Jobs‘). Die Geschwindigkeit des Netzwerks und der verwendeten Software sind hier kritische Größen. Die sogenannten ‚Super-Rechner‘ verwenden heute zumeist ein HPC-Cluster, das auf einer Linux-Basis operiert.

Ein ‚Knigge‘ für Unternehmen: Der Code of Conduct

 

Im Kern formuliert ein Code of Conduct die ‚Benimm-Regeln‘ für Firmen und deren Mitarbeiter. Es handelt sich um eine interne Vorgabe, die auch andere Namen wie ‚Corporate Behavior‘ (CB) oder ‚Leitsätze‘ tragen kann. Es handelt sich um das ‚innere Gesetz‘, das im Unternehmen alle zu befolgen haben. Verstöße gegen diese Regeln können durchaus arbeitsrechtliche Folgen haben.

Ein Code of Conduct gibt einerseits Mitarbeitern Sicherheit durch eine grundlegende Handlungsorientierung, andererseits vermittelt die Gleichförmigkeit, die diese Regeln erzwingen, ein erwünschtes einheitliches Firmen-Image nach außen.

Ein ‚Code of Conduct‘ kann so kurz und lapidar wie die Zehn Gebote verfasst sein, er kann aber auch alle denkbaren Probleme bis ins Detail regeln, vom Umgang mit Geschenken über die Arbeitszeiten, den Datenschutz und das Auftreten gegenüber Kunden bis hin zu anti-korruptiven Maßnahmen. Der ‚Code of Conduct‘ ist meist eingebettet in den größeren Rahmen einer sozialen Verantwortung, der ‚Corporate Social Responsibility (CSB)‘.

IT-Compliance: Ein Meer aus Regeln

 

Wer heute IT-Dienste im Netz für die Verwaltung oder die Geschäftsabwicklung nutzt, muss eine Reihe von gesetzlichen Regelungen beachten. Diese werden als IT-Compliance bezeichnet. Vor allem muss die Informationssicherheit, die Verfügbarkeit, die Datenaufbewahrung und der Datenschutz beachtet werden.

Zu den Gesetzen, welche es zu beachten gilt, zählen unter anderem:

 

  1. Das deutsche und das österreichische Telekommunikationsgesetz
  2. Datenschutz-Grundverordnung (DSGVO)
  3. Das Bundesdatenschutzgesetz (BDSG neu)
  4. Die steuerlichen ‚Grundsätze zum Datenzugriff und zur Prüfung digitaler Unterlagen (GDPdU)
  5. Das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich

 

Eine Reihe internationaler Regelungen kommt noch hinzu (u.a. Basel II, FINRA, IFRS, MIFID oder PCI-DSS).

Wenn Sie sicher gehen wollen, dass Ihr Unternehmen die IT-Compliance einhält, fragen Sie einfach uns.

CPC: Der Meistbietende gewinnt

 

Das Marketing wurde im Netz zu einer verwirrenden Angelegenheit, und die alten Gesetze gelten nicht mehr. Die neue Währung im Netz heißt Cost-per-Click (CPR): Der Werbetreibende bezahlt nur noch für jene Kunden, die sein Angebot auch aufrufen, und nicht länger für die einzigartige Kreativleistung einer Agentur.
Die Platzierung ist beim CPC das neue Gut. Die Werbung für ein Produkt auf einer anderen Homepage wird gewissermaßen ‚versteigert‘, die Höhe des Gebots entscheidet, wie prominent ein Werbebanner dort erscheint. Die Begriffe ‚Affiliate-Marketing‘ oder ‚Search-Engine-Marketing‘ (SEM) haben sich hierfür eingebürgert.
Wenn bspw. die Homepage ‚Heiraten heute‘ ein Banner der Firma ‚Brautmoden‘ für einen Cost-per-Click von zwei Euro verhandelt und dieses Werbebanner bei sich eingebunden hat, so zahlt die Firma ‚Brautmoden‘ vierzig Euro an ‚Heirat heute‘, sobald zwanzig Klicks erfolgt sind.
Auch neue Abrechnungsformen kommen vor: je Weiterleitung das Cost-per-Lead (CPL), je Bestellung das Cost-per-Order (CPO), je Verkauf das Cost-per-Sale (CPS) usw.

Die CPU: Ein technisches Wunderwerk en miniature

 

Nicht zu Unrecht wird die CPU als das ‚Herz‘ eines Rechners bezeichnet. Die Central Processing Unit (CPU) oder zentrale Verarbeitungseinheit (ZVE) ist ein programmierter und miniaturisierter Rechen-Chip, der – gemäß seiner ‚Architektur‘ aus Halbleitern (bzw. ‚Transistoren‘) – definierte Rechenvorgänge (‚Algorithmen‘) abarbeiten kann. CPU’s finden sich keineswegs nur in Computern, sondern bspw. auch in Waschmaschinen oder Fahrkartenautomaten.

Die Hauptbestandteile eines solchen Rechenkerns oder Prozessors sind Module, die unterschiedliche Aufgaben übernehmen. Im Zentrum steht das das Rechenwerk, die arithmetisch-logische Einheit (ALU), hinzu kommt das Steuerwerk, das vor allem die Adressen verwaltet, dazu mehrere Register und ein Speichermanager (Memory Management Unit oder MMU).

Co-Prozessoren unterstützen die Zentraleinheit bei ihren Aufgaben, indem sie bspw. Gleitkomma-Operationen übernehmen. Moderne CPU’s sind heute als Mehrkern-Einheiten (‚Multi-Core-Units‘) ausgelegt, wodurch die Parallelverarbeitung und die Geschwindigkeit bei der Lösung von Aufgaben unterstützt wird. Datenleitungen (‚Busse‘) ermöglichen die Kommunikation mit anderen Bestandteilen des Rechensystems, insbesondere mit dem Arbeitsspeicher. Die ‚Caches‘ (Zwischenspeicher) ermöglichen eine rasche Weiterverarbeitung von Teilergebnissen.

Die Auswahl der verwendeten Prozessoren in einem Unternehmen sollte sich an den anfallenden Aufgaben orientieren. Keineswegs ist die teuerste Lösung immer die beste oder effizienteste. Wir beraten Sie gern.

CTR: ‚Klick‘ heißt die neue Währung

 

Im Netz sind die guten alten ‚Anzeigenpreise‘ ziemlich irrelevant geworden. Die Werbung erfolgt mit Bannern, und bezahlt wird nach der Zahl der Mausklicks. Die Click-Through-Rate (CTR) wurde so zur neuen Kennzahl im Internet-Marketing. Wird bspw. eine Seite mit einem Werbebanner hundertmal aufgerufen, und wird das Banner dabei einmal angeklickt, dann beträgt diese ‚Klickrate‘ ein Prozent. Was fast schon ‚sensationell‘ wäre, denn meist bewegt sich die CTR-Zahl im Promillebereich.
Im E-Mail-Marketing gelten etwas andere Verhältnisse, weil sich die Klickrate hier aus dem Verhältnis von geöffneter Mail und den Klicks auf die mailinternen Links definiert (sog. ‚Nettoklickrate‘).

Datenausführungsverhinderung (DEP) – Wenn das Programm plötzlich stoppt …

 

Auf Windows-Rechnern findet sich die bekannteste Datenausführungsverhinderung (DEP – ‚Data Execution Prevention‘). Hierbei handelt es sich um eine Methode, das Starten von unerwünschtem oder schädlichem Programmcode zu verhindern. Das DEP erlaubt Programmen bei der beabsichtigten Ausführung nicht, auf verdächtige Weise eigene oder fremde Speicherbereiche zu nutzen.

Derartige Angriffe mittels ‚Executables‘ sind typisch für Viren oder Trojaner, die sich Zugang zum System verschaffen wollen. Gelänge es einem Angreifer, seinen bösartigen Programmcode im Systemspeicher auszuführen, wäre die Sicherheit und Integrität des Systems nicht mehr gegeben. Entdeckt das vorgeschaltete DEP einen solchen illegalen Zugriffsversuch, beendet es das Programm sofort. Der Nutzer sieht meist nur, wie sich ein Fenster öffnet, das ihn auf das gestoppte Programm hinweist.

DEP ist auf 64-Bit-Systemen standardmäßig aktiviert. Es schützt dort die Windows-Programme und –Dienste. Bei den 32-Bit-Systemen muss diese DEP-Funktion erst eingeschaltet werden. Es ist jederzeit möglich, unverdächtige Programme separat von dieser Überwachung auszunehmen. Dies aber geschieht auf eigene Gefahr.

Datenschutz: Gute Absichten, viele Schlupflöcher

 

Der Datenschutz ist von der Datensicherheit, der Informationssicherheit oder der IT-Sicherheit strikt zu trennen. Beim Datenschutz im IT-Bereich geht es um den Schutz der Privatsphäre eines jeden Menschen, also um seine ‚informationelle Selbstbestimmung‘. Es handelt sich darum, dass seine Daten nicht missbräuchlich verwendet werden, zum Beispiel bei einem schwunghaften Handel mit Mail-Adressen.

Für die Nutzung und Verarbeitung personenbezogener Daten gibt es juristische Regeln, die in der Datenschutz-Grundverordnung (DSGVO), im Bundesdatenschutzgesetz (BDSG) und in den Datenschutzgesetzen der Länder festgelegt sind. Dass es trotz möglicher Strafen immer wieder zu spektakulären Verletzungen des Datenschutzes kommt, hängt vor allem mit der ‚Transnationalität‘ des Internets zusammen. Ein Hacker, der (scheinbar) von den Weihnachtsinseln oder von Usbekistan aus operiert, ist mit nationalem Recht kaum dingfest zu machen.

Der beste Datenschutz besteht daher in einer hohen Datensicherheit. Hier gibt es hervorragende technische Möglichkeiten, einer missbräuchlichen Nutzung von personenbezogenen Daten den Riegel vorzuschieben. Fragen Sie einfach uns.

Datenschutzbeauftragter: Weisungsfreie Kontrollfunktion

 

Aufgaben und Tätigkeiten eines internen oder externen Datenschutzbeauftragten regeln in Deutschland die §§ 4f und 4g des Bundesdatenschutzgesetzes (BDSG). Hinzu kommen landesrechtliche Vorschriften. Der Beauftragte für Datenschutz soll die Einhaltung des BDSG und anderer Gesetze kontrollieren (Telemedien-Gesetz (TMG) oder Telekommunikations-Gesetz (TKG)). Der Datenschutzbeauftragte handelt stets unabhängig und weisungsfrei.

Alle Behörden, Unternehmen und Vereine müssen einen Datenschutzbeauftragten benennen, sobald bei ihnen personenbezogene Daten automatisiert verarbeitet werden. ‚Automatisiert‘ ist jede Verarbeitung, die elektronische Datenverarbeitungsgeräte (z. B. PCs) für den Geschäftsablauf verwendet. Spätestens einen Monat nach Tätigkeitsbeginn muss jede Organisation einen Datenschutzbeauftragten bestellen, ansonsten liegt eine Ordnungswidrigkeit vor, die mit Strafen bis zu 50.000 Euro geahndet werden kann. Der Datenschutzbeauftragte entstammt entweder ‚intern‘ der Organisation, oder er muss ‚extern‘ benannt werden.

Wer die Funktion eines Datenschutzbeauftragten nicht ‚aus Bordmitteln‘ erfüllen kann, darf gern uns und unsere Erfahrung ‚extern‘ nutzen.

Dienstleistungen: Immateriell und unverzichtbar

 

Als Dienstleistung bezeichnet man jede Unterstützung, die nicht auf einem Austausch von Waren oder Gütern beruht. Der Nutzer kauft bei Dienstleistern keine ‚anfassbaren Dinge‘, sondern vor allem Kompetenz und Erfahrung ein. Solche Dienstleistungen sind folglich im Kern ‚immateriell‘, auch wenn am Ende Konzepte oder Trägermedien übergeben werden.

Zu den klassischen Dienstleistungen zählen bspw. Aufgaben wie ‚Beratung‘, ‚Planung‘ oder auch ‚Umsetzung‘. Unser IT-Service ist ein solch klassischer Dienstleistungsbereich. Das Entgelt wird hierbei über einen Werk- oder Dienstvertrag geregelt. Er verpflichtet den Auftragnehmer zu den darin definierten Diensten, entweder einmalig oder dauerhaft.

Im Kern ist b.r.m. ein klassischer Dienstleister: Wir garantieren unseren Kunden mit unserem IT-Service einen problemfreien und zuverlässigen Aufbau und Betrieb ihrer elektronischen Datenverarbeitung und IT-Kommunikation.

Digital: Das Hexen-Nullmaleins

 

Bestünde die Welt nur aus digitalen Daten, könnte kein Mensch diese langen Ketten aus Nullen und Einsen lesen. Die ‚digitale Welt‘ ist jener geheimnisvolle Ort, wo sich nur noch Computer zurechtfinden. Dies ist – streng genommen – die Kernbedeutung des Wortes ‚digital‘, es bezeichnet jene binäre Welt, wo die Sprache der Transistoren regiert.

Umgangssprachlich fassen wir das Wort ‚digital‘ längst sehr viel weiter. Wir verwenden es, um die ‚digitale Technik‘ insgesamt zu benennen, also jene Maschinen und Rechenknechte, die mit Hilfe von Gattern, Zählern und Flipflops aus Nullen und Einsen verständliche und logische Ergebnisse erzeugen, welche wir dann auf dem Monitor bewundern.

DNSSEC – Schutz vor ‚Speichervergiftung‘

 

Die Methodik der ‚Domain Name System Security Extensions‘ (DNSSEC) wurde eingeführt, um einen vermehrten Schutz vor ‚Cache Poisoning‘ (‚Temporärspeichervergiftung‘) zu bieten. Ein Angriff auf das Domain Name System (DNS) sollte nicht mehr so leicht möglich sein, ein Missbrauch, durch den der Datenverkehr oft genug auf einen fremden Rechner umgeleitet wurde. Denial-of-Service-Attacken (DoS), das IP-Spoofing wie auch das DNS-Hijacking hatten in dieser Sicherheitslücke ihren Ursprung.
Das DNSSEC sichert den Datenverkehr durch ein Verschlüsselungsverfahren ab. Der Besitzer einer Information unterzeichnet – verkürzt dargestellt – auf dem Master-Server jeden Datenverkehr mit einem geheimen Schlüssel (‚private key‘), den nur der Empfänger mit seinem ‚public key‘ auflösen kann. Die verwendeten Schlüssel haben eine begrenzte zeitliche Gültigkeit. Zur Teilnahme an dem Verfahren ist die EDNS-Fähigkeit eines Rechners erforderlich. Diese ‚extended DNS‘ gestattet Protokoll-Erweiterungen beim Domain Name System (DNS).
Zu beachten ist, dass beim DNSSEC-Verfahren nur die ‚Verkehrswege‘ über die beteiligten Server verschlüsselt sind. Die Daten bzw. die ‚Inhalte‘ einer Nachricht bleiben weiterhin unverschlüsselt.

Domäne: Das kleine Netz innerhalb des großen

 

Von einer Domäne – nicht zu verwechseln mit der ‚Domain‘ – spricht man im IT-Bereich, wenn man es mit einem geschlossenen (Firmen-)Netzwerk zu tun hat. In den meisten Fällen handelt es sich hierbei um eine ‚Windows-Domäne‘, die dann natürlich auch auf diesem Betriebssystem basiert. Der System-Administrator vergibt die Zugangsdaten und wacht auch über den Beitritt eines neuen ‚Client‘ (eines neuen Windows-Rechners). Er richtet ein Dynamic Host Configuration Protocol (DHCP) und das Domain Name System (DNS) ein, das die Teilnahme am lokalen Netz sicherstellt.

Domain: Der Postbote für alle Level

 

Ohne eindeutige Adresse träfe auch im Internet keine Nachricht beim Empfänger ein. Eine ‚Domain‘ ist ein zusammenhängender Teilbereich innerhalb der Internet-Hierarchie, der eine solche exakte Adressierung erlaubt. Die Namen der Domains sind – sofern nicht bereits vergeben – von Netzkunden frei wählbar. Die zuständige Vergabestelle ist das NIC (Network Information Center) der jeweiligen Top-Level-Domain, auf welche die Endungen ganz rechts in der Internet-Adresse verweisen (z.B.: .de, .com oder .org). In Deutschland registriert die ‚DENIC eG‘ alle Internet-Adressen, die auf .de enden.

Das Domain-System ähnelt einem weitverzweigten Wurzelwerk. Ganz oben in der Hierarchie steht zunächst das Root-Level, dann folgen die Top-Level-Domains, daraufhin die untergeordneten Second- und Third-Level-Domains. So ist in der Adresse www.brm.de das ‚www‘ jenes Root-Level, das auf das ‚World Wide Web‘ verweist, das ‚.de‘ bestimmt die deutsche Top-Level Domain, ein ‚brm‘ verweist im Second Level auf unsere hauseigene Domain, mögliche weitere Ergänzungen erlauben in dritter und vierter Ebene den Ansprung genau definierter Seiten auf unserer Homepage.

Auswahl und Registrierung von Domains gehört bei uns zu den Standardaufgaben im IT-Service.

DNS: Das Adressbuch im Netz

 

Das ‚Domain Name System‘ (DNS) ist im Kern ein Auskunftsdienst, der im ‚Namensraum‘ des Internet Adressen verwaltet, und damit die Anfragen von Nutzern ans richtige Ziel leitet. Der Nutzer gibt eine noch halbwegs verständliche Anfrage ein – wie z.B. die URL ‚brm.de‘ – und das DNS wandelt in einem von hunderttausenden ‚Name-Servern‘ diesen Text dann in eine lange Zahlenkombination um, die exakt der ‚Anschlussnummer‘ (IP-Adresse) des gewünschten Teilnehmers entspricht.

Manches klar – und vieles unklar in Europa: Die DSGVO

 

Die neue Europäische Datenschutz-Grundverordnung (DSGVO) hatten viele Unternehmen und Netznutzer zu lange nicht auf dem Radar. Der erste Entwurf stammt aus dem Jahr 2012, beschlossen wurden die neuen Paragraphen im April 2016, am 25. Mai 2018 tritt die DSGVO jetzt in Kraft. Viel Zeit ging seither also ins Land. Das Ziel der Verordnung ist es, europaweit den Datenschutz auf eine einheitliche Grundlage zu stellen. Das Unterlaufen von Standards durch einzelne Mitgliedsstaaten soll mit ihr wirksam unterbunden werden.

Neu für den Nutzer von Online-Diensten ist sein ‚Recht auf Vergessenwerden‘. Er erhält die Möglichkeit, Auskunft über persönliche Daten zu erhalten, und er kann das Löschen von Daten verlangen, wenn eine Speicherung überfällig, unnötig oder unrechtmäßig ist. Weiterhin müssen alle Daten von nun an ‚portabel‘ sein: Auf Wunsch kann der Kunde eines Dienstes die Herausgabe seiner Daten in strukturierter Form verlangen, so dass er sie einem anderen Anbieter übergeben kann. Generell gelten für alle Datenverarbeitungsvorgänge im Internet und auch in Unternehmen zwei Prinzipien: ‚Privacy by Design‘ und ‚Privacy by Default‘ – d.h.: Der Schutz der Privatsphäre muss bereits beim Aufbau eines Datenverarbeitungsvorgangs berücksichtigt werden, und die Voreinstellungen müssen privatsphäreschützend eingerichtet sein.

Wer bei der Datenverarbeitung mit einem externen Dienstleister kooperiert, der darf bei b.r.m. heute schon sicher sein, dass unsererseits bei der Auftragsverarbeitung (AV) keine Verstöße gegen die neue Verordnung erfolgen, auch, dass die genannten Privacy-Prinzipien eingehalten werden. Das Anlegen eines ‚Verzeichnisses der Verarbeitungstätigkeiten‘, welches die DSGVO fordert, ist bei uns längst implementiert. Ferner sind alle Verarbeitungstätigkeiten lückenlos dokumentiert.  In allen Fragen rings um die DSGVO sind wir damit Ihr kompetenter Ansprechpartner, allein schon deshalb, weil Harald Rossol, unser Geschäftsführer, zugleich als anerkannter Datenschutzbeauftragter arbeitet. Beratung und Betreuung in allen Fragen der neuen Europäischen Datenschutz-Grundverordnung (DSGVO) liegen damit bei uns in besten Händen – von den Technischen und  Organisatorischen Maßnahmen (TOM) über die Sicherheitsanalyse und das Verzeichnis der Verarbeitungstätigkeiten bis hin zur Risikobewertung.

Betroffen von der DSGVO ist übrigens jeder, der personenbezogene Daten im Netz verarbeitet, vom kleinen Blogger bis hin zu globalen Giganten wie Facebook. Als ‚personenbezogen‘ gelten alle Merkmale wie Name, Geschlecht, Hautfarbe, politische Einstellung, aber auch Autokennzeichen oder Kleidergrößen. Sobald Daten u.a. erhoben, gespeichert, verändert, ausgelesen oder übertragen werden, gilt dies als eine ‚Verarbeitung‘. Wer eine Webseite betreibt, der muss künftig jeden Besucher darüber aufklären, welche Daten er zu welchem Zweck erhebt und speichert. Ausgenommen hiervon sind allein Justiz und Strafverfolgung. Kontrolliert wird die Einhaltung der DSGVO von den Datenschutzbehörden. Maßgeblich für die Zuständigkeit ist die Hauptniederlassung eines Betreibers oder Unternehmens.

Ändern wird sich für die Betreiber kleiner Webseiten zunächst wenig, weil die DSGVO in vieler Hinsicht den bisher gültigen Datenschutzgesetzen gleicht. Es genügt hier in den meisten Fällen, die Datenschutzerklärungen und Allgemeinen Geschäftsbedingungen (AGB) anzupassen. Vor allem sollen die Online-Datenschutzerklärungen künftig ‚allgemeinverständlich‘ sein, was natürlich einen weiten Interpretationsspielraum öffnet. Neu ist auch die ‚datenschutzrechtliche Selbstauskunft‘: Jedes Unternehmen muss innerhalb eines Monats einem Bürger Auskunft darüber geben, welche Informationen über ihn dort zu welchem Zweck und wie lange gespeichert sind.
Die Grenze zwischen ‚privat‘ und ‚kommerziell‘ wird allerdings trennschärfer. Poste ich Bilder meines heimischen Gartens, dann bleibt dies unkritisch. Verkaufe ich aber beispielsweise dort gezeigte Gartenmöbel, dann fällt die Webseite künftig unter die DSGVO. Das gilt auch für ‚Affiliate-Angebote‘, also dort, wo der Betreiber einer Webseite auf einen anderen Anbieter verlinkt. Derartige Plug-Ins, ob nun unter WordPress oder Firefox, sollten private Betreiber besser eliminieren, bis rechtliche Klarheit herrscht.

Wesentlich ist auf alle Fälle eine Anpassung der Datenschutzerklärung und der Geschäftsbedingungen auf jeder Webseite, sonst öffnet man bloß den ‚Abmahnwälten‘ Tür und Tor. Im Netz finden sich hierzu eine Fülle rechtskonformer Textvorlagen.

Für viel Alarm sorgten vor allem die angedrohten finanziellen Sanktionen bei Verstößen. Lag das Bußgeld bisher maximal bei 300.000 Euro, können jetzt – abhängig von der Schwere des Verstoßes – bis zu 20 Mio. Euro fällig werden (Art. 83). Eine Extra-Regel, die sich vor allem gegen die Tech-Giganten richtet, macht auch eine Strafe bis zu vier Prozent des weltweiten Umsatzes möglich, und letztlich auch den Zugriff aufs Privatvermögen.

Die erste Folge der DSGVO dürfte zunächst aber eine anhaltende Rechtsunsicherheit sein. Was sind bspw. ‚berechtigte Interessen‘ eines Unternehmens? Die Verordnung enthält eine Fülle von solchen schwammigen Formulierungen, die erst durch Gerichtsentscheidungen zu klären sind, vermutlich nach Jahren vor dem Europäischen Gerichtshof. Auch musste das nationale Datenschutzrecht durch ein neues Bundesdatenschutzgesetz an die DSGVO angepasst werden. Andererseits gibt es keine Fluchtmöglichkeit vor dieser Verordnung mehr, zum Beispiel nach Übersee. Die Verordnung gilt für alle, die innerhalb der EU Daten erheben oder auswerten wollen – sie gilt also auch für Google oder Facebook.

Bei Fragen zur neuen DSGVO und IT Service in Bremen wenden Sie sich einfach an uns …

Schritt für Schritt zum SMAR­Ten ISO-Zertifikat für KMU

 

EcoStep 4.0 wurde zusam­men mit Unter­neh­men ent­wi­ckelt und ist ein Ange­bot an alle klei­nen und mitt­le­ren Unter­neh­men (KMU) bis zu 250 Mit­ar­bei­tern, die ihre Betriebs­ab­läufe opti­mie­ren und dabei Umwelt– sowie Arbeits­schutz­as­pekte berück­sich­ti­gen wol­len. EcoStep 4.0 ist eine pra­xis­ori­en­tierte Alter­na­tive zu den her­kömm­li­chen ISO-Normen. Es bedient sich der aus KMU Sicht wich­tigs­ten Norm­for­de­run­gen der fol­gen­den drei Stan­dards und ver­eint sie in einem System:

 

  •     ISO 9.001 Qualitätsmanagement
  •     ISO 14.001 Umweltmanagement
  •     OHSAS 18.001 Arbeitsschutz

 

Jedes Unter­neh­men ist indi­vi­du­ell. Des­we­gen ist EcoStep 4.0 kein star­res Sys­tem, son­dern ori­en­tiert sich an den tat­säch­li­chen Pro­zess­ab­läu­fen im Unter­neh­men. D.h. also an den tat­säch­li­chen Tätig­kei­ten, die nach­ein­an­der oder par­al­lel ablau­fen und dazu die­nen, das­selbe Ziel (z.B. Her­stel­lung eines Pro­dukts oder Ver­kauf einer Dienst­leis­tung) zu erreichen.

Je nach Bran­che und Tätig­keits­feld des Unter­neh­mens haben die Qualitäts-, Umwelt– und Arbeits­schutz­as­pekte eine mehr oder min­der große Bedeu­tung. Je nach­dem wer­den sie auch im Rah­men von EcoStep 4.0 unter­schied­lich gewich­tet. Nichts­des­to­trotz sind sie alle drei Aspekte von Bedeu­tung und nie wird ein Aspekt ganz wegfallen.

 

Die regelmäßige Re-Zertifizierung garantiert die bestehende und verbesserte Qualität des IT-Service Unternehmens in Bremen. Die letzte erfolgreiche Re-Zertifizierung des EDV-Dienstleisters zu EcoStep 5.0 hat im Dezember 2019 stattgefunden. b.r.m. ist nunmehr seit über 10 Jahren nach EcoStep zertifiziert.

E-Mail: Auf Papier verzichten

 

Das Internet ist der schnellste Postbote der Welt. E-Mails erlauben es, Text-Nachrichten ebenso wie digitale Dokumente (z. B. Grafiken oder Office-Dokumente) in wenigen Sekunden an jeden Ort der Erde zuzustellen. Im Jahr 2012 verfügten bereits 3,375 Milliarden Menschen auf der ganzen Welt über einen aktiven E-Mail Account.

Wo sich die Menschen derart ballen, ist auch die Kriminalität nicht weit. Die Datei-Anhänge von E-Mail-Nachrichten sind einer der häufigsten Verbreitungswege von Trojanern und anderer Malware. Grundsätzlich sollte man niemals den Dateianhang eines unbekannten Absenders öffnen. Kunden von b.r.m. werden in solchen Fällen eigens vorgewarnt: Ein Header der Mail weist sie darauf hin, dass es sich hier um eine höchst zweifelhafte Mail handelt.

Die Festplatte: Maximaler Speicher dank Minimierung

 

Für die dauerhaften Speichermedien im IT-Bereich gibt es viele konkurrierende Namen: Festplatte, Hard-Disc-Drive (HDD) oder schlicht Hard-Disc (HD). Es handelt sich um magnetische Speichermedien mit rotierenden Scheiben (‚Platter‘), auf denen berührungslos Daten festgehalten werden.

Neuerdings gibt es auch Solid State Drives (SSD), die keine beweglichen Teile mehr enthalten. Diese sind zwar schneller, bisher aber auch teurer. Sie benötigen mehr Energie, und sie bieten einen geringeren Speicherplatz. Weil sie aber stoßunempfindlicher sind, haben sie vor allem den mobilen Bereich für sich erobert (MP3-Player, USB-Sticks, Smartphones).

Bei konventionellen Festplatten sind inzwischen Speicherdimensionen im Terabyte-Bereich auch für Privatkunden problemlos erhältlich (derzeit bis hin zu 10 TB). Der Anstieg des Speicherraums von HDDs folgt in etwa dem Anstieg der marktüblichen Rechenleistung. Der Standard bei der Baugröße beträgt derzeit 3,5“.

Konventionelle Festplatten sind folgendermaßen aufgebaut: Eine oder mehrere magnetisierbare Scheiben (‚Platter‘) sind auf einer Achse oder Spindel auf einem hydrodynamischen Gleitlager befestigt, ein kleiner E-Motor treibt die Spindel an (was dann das typische ‚Festplattenrauschen‘ verursacht). Bewegliche Schreib-Lese-Köpfe (im Prinzip winzige Elektromagneten) auf einer Aktor-Achse übernehmen mit Hilfe einer Steuerelektronik, gekoppelt an einen digitalen Signalprozessor (DSP), die Fixierung der Daten auf den Platters, wobei sie auf dem Rotations-Luftpolster über der Scheibe ‚berührungslos‘ schweben. Ein Festplattencache ermöglicht die Zwischenspeicherung von Daten, eine Schnittstelle sorgt für die Kommunikation mit anderen Komponenten des Rechners. Ein festes Gehäuse schützt die Elektronik und die empfindlichen Datenscheiben.

Die Zahl und die Beschichtung der Scheiben, sowie die intelligente Art der ‚Beschriftung‘, entscheiden über die Speicherkapazität. Auf modernen Festplatten kommen heute High Storage Density Media (HSDM) zum Einsatz, zumeist eine CoCrPt-Legierung, die von einem diamantähnlichen Kohlenstoff-Überzug vor Beschädigungen geschützt ist. Die steigende Datendichte sorgt dafür, dass heute intensiv an Ultra-High-Storage-Density-Media geforscht wird.

Die Speicherung von Daten muss übrigens nicht ‚intern‘ erfolgen. Viele unserer Kunden nutzen die externen Speicherkapazitäten der b.r.m. – erstens, weil sie dort auf die fortschrittlichste Festplatten-Technik treffen, und zweitens, weil ihre Daten dort in einem ‚Hochsicherheitsraum‘ vor unbefugten Zugriffen geschützt sind.

Firewall: Mauern überwinden

 

Einen ‚Port‘ – zumindest aber ein Bullauge – muss ein Programm immer dann öffnen, wenn seine erzeugten Inhalte auch auf anderen Monitoren weltweit sichtbar sein sollen. Wie beispielsweise im Fall einer Homepage. Dort, wo etwas aus einem solchen ‚Port‘ oder ‚Hafen‘ in die virtuelle Welt auslaufen kann, dort kann natürlich auch etwas einlaufen. Daher wurden, um einen Rechner vor unerwünschten Zugriffen aus dem Netz heraus zu schützen, die ‚Firewalls‘ oder ‚Brandschutzmauern‘ geschaffen. Diese Sicherheitsprogramme sorgen dafür, dass nach festgelegten Regeln nur erwünschte Gäste in den heimatlichen Hafen gelangen. In der Regel muss jeder Zugriff zwei solcher Schutzmauern überwinden: die erste beim Provider, die zweite dann beim Client auf dem Netzwerkrechner.

Fullservice im IT-Bereich

 

Seit der Gründung durch Harald Rossol im Oktober 1991 hat sich die b.r.m. Technologie- und Managementberatung zu einem gesuchten EDV-Service-Unternehmen für die Region und darüber hinaus entwickelt – vor allem für mittelständische Unternehmen (KMU). Zentral gelegen in der ‚Bremer Überseestadt‘ sind wir im Falle eines Falles schnell vor Ort, mit jahrelanger Erfahrung in allen IT-Service-Fragen – vom Aufbau der Infrastruktur über den EDV-Betrieb im Alltag bis hin zum Hosting von Aufgaben. Unser IT-Serice arbeitet ohne Warteschleifen überaus partnerschaftlich, effizient, kostengünstig und sicherheitsbewusst – in allen Bereichen digitaler Kommunikation.

Gefahren meistern

 

Datenverlust
Die Ursachen für Datenverluste sind vielfältig: Hardwaredefekte,  Soft­ wareausfälle, mangelhafte Back-ups, Cyberangriffe, Brand- oder Wasserschäden. Auch das versehentliche Löschen des Inhalts einer Festplatte kommt mitunter vor. Durch Produktionsstillstände und Imageschäden können Datenverluste für Unternehmen existenzbedrohend sein.

Erpressung
„Zahlen Sie 30 Bitcoin, oder wir greifen mit einer DDoS-Attacke an!” Solche Lösegeldforderungen erreichen Hunderttausende deutsche Unternehmen. Betroffen sind vor allem Finanzdienstleister, Versicherungen und Online-Service-Anbieter. „DDoS” steht für „Distributed Denial of Service”. Mit solchen Attacken können Erpresser die Internetseiten, Netzwerke und Rechner von Firmenlahmlegen.

Betrug
Bargeldlose Zahlungssysteme sind ein häufiges Angriffsziel von Internetbetrügern. Ihre virtuellen Attacken  mit manipulierten Konto- und Kreditkartendaten schädigen vor allem Finanzdienstleister und Onlinehändler

Hacking
Cyberkriminelle spähen Sicherheitslücken in der IT von Unternehmen aus, um diese zu manipulieren. Zum Beispiel gelang es Hackern, die Telefonanlage einer deutschen Hochschule zu kapern. Innerhalb eines Wochenendes stellten sie 12.000 Telefonverbindungen nach Afrika her. Schadenshöhe: 120.000 EUR.

Schadenshöhe
Für Mittelständler kann eine Computerattacke existenzgefährdend sein, warnen Experten mit Blick auf durchschnittliche  Schadenssummen. Die Verletzung von Betriebs- und Geschäftsgeheimnissen durch Cyberkriminelle schlägt mit jeweils rund 600.000 Euro je Fall zu Buche.

Darknet
Neben Drogen oder Waffen werden auch gestohlene Firmendaten auf anonymen Schwarzmärkten im Darknet, dem verschlüsselten Bereich des Internets, gehandelt. Die digitale Schattenwirtschaft birgt somit ein zunehmendes Bedrohungspotenzial für Wirtschaftsunternehmen

Phishing
Beim Phishing versucht der Angreifer, über gefälschte Webseiten, E-Mails oder Kurznachrichten an persönliche Daten von Internetnutzern zu gelangen, um diese für seine Zwecke zu missbrauchen . Das Wort leitet sich von “Password” und “Fishing” ab, zu Deutsch “nach Passwörtern angeln”.

Arbeitssicherheit
Cyberkriminalität bedroht nicht zuletzt die Arbeitssicherheit in einem Unternehmen, warnen Präventionsexperten. Können aufgrund mangeln­ der Datensicherheit technische An· lagen von außen manipuliert werden, kann dies Auswirkungen auf deren Sicherheitsfunktionen haben und Beschäftigte unbemerkt gefährden

Malware
38,3 Prozent aller Computer werden mindestens einmal im Jahr durch Malware, also Schadsoftware, attackiert, bilanziert das Softwareunternehmen Kaspersky. Computerviren und -würmer können Epidemie artig  Millionen von Rechnern befallen, wenn sie nicht rechtzeitig gestoppt werden.

Zukunft
Nach Ansicht des Bundeskriminalamts nehmen die von Cybercrime ausgehenden Gefahren für die Wirtschaft weiter zu. Trends wie das Internet der Dinge und Industrie 4.0 eröffnen neue Tatgelegenheiten.

Glasfaser – Licht als Übertragungsweg

 

Glasfasern entstehen, wenn aus einer Silikatschmelze lange dünne Fasern gezogen werden. Diese lichtleitenden Medien kommen dann in der Optik und in der Lasertechnik zum Einsatz, vor allem verstärkt aber auch in der Datentechnik. Es ist vor allem die unerhörte ‚Bandbreite‘ bis zu 100 TBit/s, welche Glasfaserkabel zum idealen Datenübertragungsmedium machen. Glasfasern bestehen aus einem lichtleitenden Kern (‚core‘), einem abschirmenden Mantel (‚cladding‘) und einer robusten Schutzhülle (‚jacket‘). Heutige Glasfaserkabel können Strecken von bis zu 100 km ohne jede Zwischenverstärkung überbrücken.
Nicht nur die gewaltige Kapazität von Glasfaserleitungen macht sie zum zukünftigen Standard allen Datenverkehrs. Glasfaserkabel sind darüber hinaus absolut unempfindlich gegenüber elektrischen und magnetischen Störfaktoren. Sowie – last not least – sind sie bis heute nahezu ‚abhörsicher‘. Ein Problem ist die Empfindlichkeit offen verlaufender Glasfaserkabel, bspw. in Büros.

Green-IT: Gewohnheiten hinterfragen

 

Gute Ideen sind wie Kinder: Sie kommen klein auf die Welt, um mit den Jahren erwachsen zu werden. Am Anfang stand auch bei uns ein bloßer Keim, der dann – wie in einer übersättigten Lösung – zu einem großen Kristall aus Folgerungen heranwuchs. Der Fortschritt begann schlicht mit angestautem Ärger über zu hohe Stromrechnungen fürs unternehmenseigene Rechenzentrum. In der Folge wurden immer neue Möglichkeiten der Abhilfe gegen eine allzu energieintensive IT-Technik praktisch erprobt.

 

Ein vielfach preisgekröntes Beratungsunternehmen für IT-Energieeffizienz wuchs so heran. Deutschlandweit gelten wir als Pioniere der Green-IT. Deshalb, weil wir neue Ideen nicht erst beim Kunden erproben, sondern weil wir mit bereits bewährten und erprobten Ideen den Kunden zu einer energieeffizienten Praxis verhelfen. Was mit Sicherheit auch Ihre Buchhaltung erfreut …

Unser Rechenzentrum ist ‘ausgezeichnet’.

Greylisting: Müll entsorgen

 

Beim Greylisting wird eine Mail, die unter Verdacht geriet, zunächst beim Provider zurückgehalten. Der Empfänger erhält aber eine automatische Nachricht über den Vorgang und kann – falls er dies wünscht – die Mail innerhalb einer Frist nachträglich freigeben. Das Greylisting ist somit ein IT-Service, der entwickelt wurde, um das irrtümliche Löschen von E-Mails zu verhindern. Schließlich ist die Zuordnung ‚Spam‘ nicht immer eindeutig zu treffen; keine E-Mail zeichnet sich selbst als ‚Müll‘ oder ‚Malware‘ aus. Wir aber zeichnen uns durch einen Service aus, der hier Sicherheit schafft.

Hardware: Näher an Software, als man denkt

 

 

Drückt man es simpel aus, dann zählt im IT-Bereich alles, was angefasst werden kann, zur Hardware (engl.: „Eisenware“). Trotzdem besitzt auch jede Hardware reichlich ‚Intelligenz‘, weil im Prozessor, im Monitor oder in der Grafikkarte bereits vielfältige logische Funktionen fest integriert sind. Die Abgrenzung zwischen ‚Hardware‘ und steuernder ‚Software‘ ist also nicht trennscharf, sondern fließend. Besonders simple Hardware-Systeme nennt man übrigens ‚Firmware‘ (Kaffeemaschinen, Küchenherde usw.).

Im IT-Bereich zählen wir heute u.a. die folgenden Komponenten zur Computer-Hardware:

– Hauptplatine
– Chipsatz
Prozessor
– Arbeitsspeicher
Laufwerke
– Grafikkarte
– Soundkarte
– Monitor
– Drucker
– Tastatur
– Maus
– Lautsprecher
usw.

IT-Consulting: Ohne gute Beratung rechnet sich nichts

 

IT-Berater sind zweifach begabt: Sie müssen umfangreiche digitale Ingenieurskenntnisse mit dem betriebswirtschaftlichen Blick einer Unternehmensberatung verbinden können. Kein Wunder, dass gute IT-Beratung zu den gesuchtesten Dienstleistungen mit Milliardenumsätzen zählt.

Als IT-Beratung hat sich b.r.m. auf eine Marktnische spezialisiert. Bei uns gibt es keine Telefonwarteschleifen, keine langen und teuren Anreisezeiten usw. Wir betreiben ein regionales IT-Consulting für die mittelständische Wirtschaft, womit wir uns im Großraum Bremen seit 1991 höchst erfolgreich etabliert haben.

IT-Service: Unauffällig fortschreiten

 

Zum IT-Service gibt es viele Definitionen. Im Kern treffen sich alle darin, dass diese Dienstleistung sich auf die Informationstechnologie stützen muss, dass sie die Geschäftsprozesse des Kunden gewinnbringend rationalisiert, und dass sie in den Verantwortungsbereich eines Providers fällt. Gute IT-Services erkennt der Kunde daran, dass er sie meist gar nicht bemerkt. Dass also sein digitales Netzwerk rund um die Uhr störungs- und unterbrechungsfrei läuft, dass es trotzdem stets auf dem neuesten Stand ist und auch innovative Aufgaben ebenso sicher wie klaglos bewältigt. Für all diese ‚Tasks‘ im Bereich der IT-Services gibt es dann natürlich auch Fachbegriffe – Application Management, Equipment Services, Maintenance oder auch Training on the Job – letztlich aber geht es immer darum, dass der Kunde über ein zuverlässiges digitales Rückgrat verfügt, das ihm sein Kerngeschäft erleichtert. Ein IT-Servicedienstleister sollte die Bedürfnisse des Kunden deshalb von vornherein verstehen. Am leichtesten geschieht dies, wo der Mittelstand auf den Mittelstand trifft. Weil sich nur so die genormten ‚One-Size-Fits-All-Solutions‘ der großen Anbieter vermeiden lassen.

IT-Service Bremen
IT-Service – Über den Dächern der Freien Hansestadt Bremen

IT-Solution: Ideen verwirklichen

 

Heute lässt sich kaum noch eine Geschäftsidee realisieren, ohne auf digitale Unterstützung zurückzugreifen. Wie man seine Pläne in der Netzwelt strategisch und wirtschaftlich realisieren kann, damit beschäftigen sich die IT-Solutions.

Bei der Beratung geht es bspw. um die einzusetzende Technik und Software, um eine tiefgreifende Marktkenntnis, um Kostenfragen, womit jede Überdimensionierung des Projektes vermieden werden kann, es geht darum, vorhandene Programme an einen neuen Geschäftszweck anzupassen – und um vieles mehr.

Wenn Sie wissen wollen, weshalb wir Ihnen die passende IT-Lösung für Ihre Ideen bieten, schauen Sie einfach auf unsere Referenzen.

Der Klick: Mit der Maus zu den ‚Mäusen‘ …

 

Dass aus einem einzigen Druck mit dem Finger mal eine der wichtigsten Kennzahlen im Internet werden würde, hätte vor zwanzig Jahren noch niemand gedacht. Der Mausklick führt die Nutzer nicht nur durch den weiten Raum des Internet, er ist zugleich zur allseits akzeptierten ‚Währung‘ im E-Commerce geworden, weil er einerseits zumindest ‚Interesse‘ signalisiert, und andererseits sogar Kaufabschlüsse ermöglicht.

Inzwischen wird nahezu jede Oberfläche im Netz intuitiv mit der Maus bedient. Zumindest solange, bis die Weiterentwicklung der Spracherkennungssoftware uns sogar dieses lästige Klicken abnehmen wird …

Klimaschutz: Vorausschauend rechnen

 

Die kommende Klimakonferenz wird den Temperaturanstieg, verglichen mit vorindustriellen Zeiten, endgültig auf zwei Grad Celsius begrenzen. Ökonomen warnen deshalb bereits vor einer ‚Carbon Bubble‘, also dem Absturz überbewerteter Unternehmen aus der Öl- und Gasindustrie. Denn die tragen zu viele fossile Rohstoffe im Portfolio. Dass der Klimaschutz ein randständiges und irrelevantes Thema sei, darf daher niemand behaupten, ganz egal, ob er nun auf Seiten der Skeptiker oder Apokalyptiker steht. Neue Auflagen werden kommen, auch für die stetig wachsende IT-Industrie, deren Energieverbrauch von Laien immer noch unterschätzt wird. Wer früh auf Green-IT setzt, hat auch beim Klimaschutz die Nase vorn.

Malware: Übernahmen verhüten

 

Im Lateinischen ist ‚malus‘ das Schlechte. Bei Malware handelt es sich also um Programme, die Ihrem Rechner schaden, um solche, die ihn übernehmen möchten, die Ihre Aktivitäten auszuspionieren trachten oder generell unerwünschte Funktionen ausführen. Zwar zählen auch ‚Computerviren‘ zur Malware, das aber sind in der Regel Programme, die sich schlicht von Rechner zu Rechner ausbreiten, während die heutige Malware typischerweise die Gestalt eines Trojaners annimmt, der insgeheim auf Ihrem Rechner die Kommandobrücke geentert hat.

 

In der Regel gelangen diese Trojaner durch das unbedachte Herunterladen von Programmen aus obskuren Quellen auf den Rechner, durch ungenügende Passwörter oder durch das unbedachte Anklicken von Mail-Anhängen. Wir bieten unseren Kunden einen umfassenden Schutz gegen den Befall durch Malware. Aber wie andere Dienstleister auch können wir unbedachte Aktionen des Kunden nicht ganz ausschließen. Wenn Sie den Verdacht auf Malware hegen, fragen Sie im Zweifel vorher uns. Senden Sie uns Ihren Verdachtsfall, bevor Sie unbedacht eine Maustaste betätigen. 

Man-in-the-middle – das James-Bond-Verfahren

 

Die ‚Mittelsmann-Angriffe‘ (MITM) benötigen ein Netzwerk, um zu funktionieren. Ein Rechner schaltet sich zwischen zwei Kommunikationspartnern ein und funktioniert dort wie ein ‚Doppelagent‘: Beiden Seiten spielt er vor, der richtige Empfangspartner zu sein, weshalb das Verfahren auch als ‚Janusangriff‘ bekannt ist, nach dem doppelgesichtigen Gott der Antike. Naturgemäß erfreuen sich derartige Angriffe bei Industriespionen, bei Geheimdiensten wie auch bei der Polizei einer hohen Beliebtheit.

Bei der Abwehr möglicher MITM-Angriffe hilft eigentlich nur eine konsequente Verschlüsselung von Daten. Statt aussagekräftiger Informationen erhält der ‚Mittelsmann‘ dann nur noch einen wüsten Ziffernbrei, der – je nach Qualität des verwendeten Schlüssels – nicht mehr zu deuten ist. Hierzu ist aber eine gegenseitige Authentifizierung der Kommunikationspartner erforderlich, bspw. durch den Austausch digitaler Zertifikate oder Schlüssel.

Im Alltag bieten die ‚Transport Layer Security‘ (TLS) oder die Secure Shell (SSH) einen ersten Schutz vor unerwünschten Einblicken Dritter in den Datenverkehr.

Mobile Device: Wenn der Standort keine Rolle spielt

 

Als Mobile Device wird – vereinfacht – jede IT-Technik bezeichnet, die man mit sich herumtragen kann: Smartphones, USB-Sticks, PDAs, Tablets usw. Diese Geräte sind technisch anders aufgebaut als eine ortsfeste Desktop- oder Server-Technik, sie müssen u.a. stoßunempfindlich und leicht sein, und sie dürfen dem Besitzer – s. Samsung – auch keine Löcher in den Anzug brennen. Trotzdem verfügen diese Geräte über die meisten Standard-Funktionen ortsfester IT-Technik: Kamera, MP3-Player, Tastatur, TV etc.

Im Geschäftsleben sind moderne ‚Handhelds‘ unverzichtbar geworden. Sie ermöglichen eine ortsunabhängige Kommunikation von (fast) jedem Ort aus. Wo es um ein sicheres und ‚mobiles Internet‘ für Ihr Unternehmen geht, sind wir der richtige Ansprechpartner.

Nachhaltigkeit: Vom Morgen her denken

 

Der Begriff Nachhaltigkeit stammt aus der Forstwirtschaft des 19. Jahrhunderts: Ein Wald soll demnach stets so bewirtschaftet werden, dass erstens das Biotop gesund und unvermindert bleibt, und zweitens der Holzertrag über die Generationen hin nicht abnimmt. Nachhaltigkeit beschreibt also eine Methode des Wirtschaftens. In der Folge wurde dieses Prinzip auf andere Erwerbszweige übertragen.

 

Bezogen auf die IT bedeutet Nachhaltigkeit heute, dass die verwendeten Rohstoffe für die Technik am Ende des Lebenszyklus wiedergewonnen werden sollten, und dass die Energie, die zum Betrieb der Rechner genutzt wird, ausschließlich regenerativen Quellen entstammt. Die letztere Bedingung lässt sich heute ziemlich problemlos einhalten, das ist schlicht eine Frage des guten Willens. Vom vollständigen Recycling technischer Komponenten sind viele Hersteller hingegen noch ein gutes Stück entfernt. Am derzeit möglichen Maximum der Nachhaltigkeit arbeiten unsere Server.

Page Impressions: Der Gradmesser der Werbung

 

Die ‚Page Views‘ – oder ‚Page Impressions‘ – messen die Zahl der Aufrufe von Netzangeboten. Es handelt sich primär um eine kommerzielle Kennzahl, die von der ‚Gesellschaft für die Verbreitung von Werbeträgern e.V.‘ (IVW) monatlich ermittelt wird. Wer an dem Verfahren teilnimmt, unterwirft sich zugleich den Regularien des IVW.
Die IVW-Zahlen sind vor allem für Mediaanbieter, Mediaagenturen und sonstige Werbetreibende interessant, die das Budget ihrer Kunden möglichst effektiv einzusetzen suchen, und dafür geeignete Werbeplattformen im Netz suchen.

Phishing: Gar nicht erst antworten

 

Grundsätzlich haben Passwörter auf der Festplatte nichts zu suchen. Darüber hinaus sollten sie kompliziert sein und etliche Sonderzeichen enthalten. Gebilde wie ‚Ich‘, ‚Chef‘ oder der Name der werten Ehefrau sind geradezu eine Einladung fürs Phishing.

Beim Phishing versucht eine unbefugte und anonyme Quelle solche und andere Daten ‚abzugreifen‘. Oft über gefälschte E-Mails, die dann bspw. dem Corporate Design Ihrer Hausbank täuschend ähnlich sehen. Darin werden Sie aufgefordert, Ihre geheimen Log-Daten über ein Formular einzugeben. Über den barrierefreien Zugang zu Ihrem Konto freut sich anschließend ein Anonymous, vielleicht aus Timbuktu, Caracas oder Sverdlovsk, der ‚ratzfatz‘ Ihren Kontostand tief in die roten Zahlen stürzt.

Die große Regel lautet also: Banken – auch andere Dienstleister – würden niemals per E-Mail Ihre persönlichen Daten abfragen. Jede E-Mail, die so etwas von Ihnen verlangt, ist folglich ein Phishing-Versuch. Gleiches gilt übrigens für jene Mails afrikanischer Potentatentöchter, die ‚ganz zufällig‘ zehn Millionen US-Dollar auf einem versteckten Konto entdeckt haben, weshalb Sie dieses Schwarzgeld doch bitte gegen Gewinnbeteiligung auf Ihrem Konto zwischenlagern möchten.

Das Wort ‚Phishing‘ ist ein Ausdruck aus der Nerd-Sprache. Nerds wiederum sind jene bebrillten Gestalten, die pizza- und popcornmümmelnd Tag und Nacht vor dem Monitor hocken sollen. Das Wort setzt sich aus dem ‚Angeln‘ zusammen (‚fishing‘) und einem Hauch von Hacker-Slang, wo jedes Wort, das mit einem f beginnt, notorisch mit einem ph verziert wird: Voll phat, ej …!

Kein Ersatz für den sicheren Hafen: Der EU-US Privacy Shield

 

Nach der Debatte um die Datenweitergabe außerhalb Europas hatte die EU zunächst das ‚Safe-Harbor-Abkommen‘ mit der amerikanischen Regierung favorisiert. Als der Europäische Gerichtshof diese Vereinbarung für ungültig erklärte, wegen erkennbarer Mängel beim Transfer personenbezogener Daten, trat am 12. Juli 2016 der „EU-US Privacy-Shield“ in Kraft. Die Obama-Regierung hatte zuvor den ‚Judicial Redress Act‘ verabschiedet, der EU-Bürgern eine Klagemöglichkeit in den USA eröffnet.

Im Kern des ‚Privacy Shield‘ steht ein ‚Angemessenheitsbeschluss‘ der EU, welcher die wechselseitige Anerkennung von Regeln verlangt: „Die Garantien für die Übermittlung von Daten auf der Grundlage des neuen EU-US-Datenschutzschildes sollen den Datenschutzstandards in der EU entsprechen“. Seit dem Privacy Shield tragen sich amerikanische Unternehmen, die in der EU mit Daten Geschäfte machen wollen,  in eine Liste ein, die sie zur Kooperation beim Datenschutz verpflichtet.

EU-Bürger können sich in den USA seither an einen Ombudsmann im Außenministerium wenden, um Verstöße zu ahnden. Im Streitfall, wenn also EU-Bürger gegen amerikanische Unternehmen klagen, melden sich die Betroffenen bei den nationalen Datenschutzbehörden, die dann mit der ‚Federal Trade Commission‘ möglichen Verstößen nachgeht. Jährlich erscheint ein Bericht der Europäischen Datenschutzkommission, der Fortschritte und Verstöße aufzählt.

Von Anfang an gab es massive Kritik am Privacy Shield. Vor allem wurde bemängelt, dass man schlecht gegen eine ‚Massenüberwachung in den USA‘ klagen könne, von der man gar nichts erführe. Auch sei der Ombudsmann keineswegs unabhängig. Das Europäische Parlament forderte die Kommission am 24. Mai 2016 auf, den Datenschild grundlegend zu überarbeiten.

Überdies unterzeichnete der neue US-Präsident Donald Trump am 25. Januar 2017 eine Verfügung, wonach der Privacy Shield nicht für Personen gelte, die keine US-amerikanischen Staatsbürger und keine ständig in den USA lebenden Einwohner seien.

Mit anderen Worten: Der ‚Privacy Shield‘ bietet derzeit EU-Bürgern keinen ausreichenden Schutz vor einer Weitergabe personenbezogener Daten in Übersee.

proDelta: Jederzeit, an jedem Ort …

 

Jederzeit erreichbar sein – das ist der Segen (für manche auch der Fluch) moderner Kommunikationstechnik. Die heutige Welt verlangt den Zugriff auf essentielle Daten von jedem Ort aus: auf Baustellen wie im Außendienst, mit dem Handy, mit dem Smartphone oder vor Ort beim Kunden auf dem Monitor.

Unser Online-Service proDelta erschließt Verwaltungen und Unternehmen diese Möglichkeiten. Dieser mobile Dienst erlaubt eine strukturierte Speicherung von Daten aller Art, er arbeitet unabhängig vom Endgerät, und er garantiert eine maximale Sicherheit bei stets aktuellem Workflow. Kurzum: proDelta ist ein zentraler Baustein für Ihre zeitgemäße IT-Infrastruktur …

Mein Name ist Donald Duck: Die Pseudonymisierung

 

Im Kern ist die Pseudonymisierung von Daten eine abgeschwächte Form der Anonymisierung. Bei der letzteren werden Daten so verändert, dass sie keinem Individuum mehr zugeordnet werden können. Bei der Pseudonymisierung werden nur der Name oder andere Kennzeichen durch einen ‚Code‘ – meist eine mehrstellige Buchstaben- und Zahlenfolge – ersetzt. Die Identifizierung der Person wird hierdurch zwar erschwert, aber in der Regel nicht unmöglich gemacht. Die Bezüge von Datensätzen untereinander bleiben erhalten, eine Zusammenführung von Daten ist möglich.

‚Nicknames‘, ‚Pseudos‘ oder ‚Avatare‘ – dies alles sind Beispiele dafür, wie die Pseudonymisierung im Alltag voranschreitet. Rechtlich ist diese ‚Tarnung‘ nach § 13 Telemediengesetz auch zulässig. Bei einer Klage aber wird dieses Pseudonym regelhaft aufgedeckt. Der Dienstanbieter ist verpflichtet – zum Beispiel bei polizeilichen oder staatsanwaltlichen Ermittlungen – den Klarnamen des Nutzers bekannt zu geben.

Die fortschreitende Pseudonymisierung trägt trotz der geringen Schutzwirkung erheblich zum Niedergang der Gesprächskultur im Internet bei. Viele Nutzer wähnen sich hinter dem Schild eines Pseudonyms sicher. Dementsprechend sinkt die gutbürgerliche Hemmschwelle bei Anstand und Gesprächskultur, starkdeutsches Pöbeln und Drohen nimmt überhand.

Das RAM: Eine vergessliche Produktionsstätte

 

Das ‚Random Access Memory‘ (RAM) ist jener ‚Direktzugriffs-‚ oder ‚Arbeitsspeicher‘, der bei Rechenvorgängen die Hauptarbeit leistet. Ein einzelner RAM-Baustein hat weniger Pins als die Busbreite der ‚Wörter‘ beträgt, die verarbeitet werden sollen. Da diese ‚Wortbreite‘ – also die Grundverarbeitungsdatengröße – ständig stieg, bis hin zur derzeitig gebräuchlichen 64-Bit-Architektur, fassen die Konstrukteure viele RAMs in einer ‚Bank‘ zusammen, wodurch sie die geforderte Wortbreite dann abdecken können.

Die Daten in den RAMs sind meist ‚flüchtig‘ oder ‚volatil‘, sie werden also nicht gespeichert, wenn die Stromzufuhr endet. Diese vergesslichen Bausteine werden auch als dynamisches RAM bezeichnet (DRAM). Es gibt allerdings ‚nicht-volatile‘ RAM-Bausteine mit einem guten Gedächtnis. Sie werden NVRAM genannt.

Derzeit forscht die Wissenschaft intensiv an resistiven RAMs (RRAM) für den Massenmarkt. Ein solcher Speichertyp ist erstens ‚nicht-volatil‘, er bewahrt damit seine Daten, die Speicherdichte ist zweitens wesentlich höher, und drittens sinkt auch der Energieverbrauch erheblich. Letzteres ist keineswegs unwesentlich, denn kaum etwas verbraucht so viel Energie, wie das RAM, was insbesondere die Akku-Laufzeit von Smartphones und Tablets erheblich einschränkt.

Ransomware – Geld oder Rechner?

 

Die Methode, durch eine Blockade des Rechners ein ‚Lösegeld‘ (engl.: ‚ransom‘) zu erpressen, hat in den letzten Jahren erheblich zugenommen. Der Nutzer eines Rechners sieht auf dem Monitor dann nur noch die ‚Lösegeldforderung‘ der Angreifer. Das besonders Perfide daran: Geht das Opfer auf die Forderung ein, bleibt sein Rechner in der Regel trotzdem blockiert. Man kann sich also nur höchst selten ‚freikaufen‘.

‚Ransomware‘ befällt längst nicht mehr nur ein einziges Betriebssystem. Ob Linux, Mac-OS oder Windows, alle Nutzer sind von dieser digitalen Form des Straßenraubs betroffen. Längst auch geistern im DarkNet viele Bauanleitungen für Ransomware herum, die sogenannten ‚CrimeWare-Kits‘. Eine ‚Ransomware‘ verschlüsselt dann zumeist nicht den gesamten Rechner, sondern vor allem jene Daten, die dem Nutzer wichtig sind, also bspw. den Ordner ‚Eigene Dokumente‘ unter Windows.

Der Schutz gegen Ransomware gleicht dem gegen andere Viren oder Trojaner. Ein Nutzer erhält bspw. eine Mail mit dem Anhang einer unbezahlten Rechnung, mit einer Strafandrohung des Bundeskriminalamtes, oder mit angeblichen Nutzungsverstößen der GEMA. Wer einen solchen Anhang öffnet, hat dann den Erpressern den ‚Hausschlüssel‘ selbst in die Hand gedrückt.

Man sollte daher NIEMALS einen Mail-Anhang öffnen, der nicht aus einer absolut vertrauenswürdigen Quelle stammt. GEMA wie BKA nutzen übrigens noch immer die gute alte Briefpost. Ferner ist es wichtig, alle relevanten Daten regelmäßig auf externen Datenträgern zu sichern, weil sie so für die Erpresser unerreichbar bleiben. Browser können durch installierte Anwendungen wie ‚NoScript‘ vor der Ausführung von Java-Befehlen geschützt werden, auch Werbeblocker bieten einen erhöhten Schutz.

Rechenzentrum: Rund um die Uhr verfügbar

 

„Was ein Rechenzentrum ist? Mein Gott, das weiß doch jeder. Ein Rechenzentrum ist – äh, äh, Moment mal …“. Einfache Fragen machen oft die größten Probleme. Hier die kurze Definition: Ein Rechenzentrum ist eine EDV-Einrichtung, die Rechentechnik für größere Datenmengen an zentraler Stelle zur Verfügung stellt.

 

Vor allem aber können die Server in einem Rechenzentrum ohne Ausfallzeiten arbeiten. Deshalb auch sind alle wesentlichen Komponenten für einen reibungslosen Betrieb in einem Rechenzentrum gleich mehrfach vorhanden. Weil sich ein solcher Aufwand nur dort rechnen kann. Diese Mehrfachauslegung wiederum ermöglicht es, einzelne Aggregate zu warten, ohne dass der Nutzer jemals einen Leistungseinbruch bemerkt. Das gilt sogar für die Stromversorgung, die dank einer Kreuzverkabelung absolut unterbrechungssicher arbeitet.

 

Ökonomisch sind Rechenzentren ab einer gewissen Größe der Einrichtung immer die bessere Lösung: Programme sind hier an einem einzigen Ort installiert, statt auf jedem einzelnen Arbeitsplatzrechner. Daten und Prozesse, die zentral an einem Ort aktualisiert werden, verhindern, dass ein unterschiedlicher Informationsstand im Unternehmen für Verwirrung sorgt. Kurzum: Ohne zentral vernetzte Rechner könnte kein modernes Unternehmen heute erfolgreich arbeiten.

Redundanz: Ein zweischneidiges Schwert

 

Informationstheoretiker nennen alles, was in einem Datensatz überflüssig ist, schlicht ‚redundant‘. Sie betrachten diese Doppelungen zunächst als lästig, weil es Datenbestände ohne Informationsgewinn nur unnötig aufbläht. Fast jede Nachricht enthält solche Redundanzen, die ohne Schaden für den Informationsgehalt weggelassen werden könnten. IT-Programmierer nennen einen solchen Eingriff in den Datenbestand ‚Deduplikation‘.

Die Redundanz hat allerdings auch positive Seiten, weil sie sich selbst auf Fehler kontrollieren kann. Redundanz-Abweichungen voneinander wären dann ‚Alarmsignale‘, die auf eine unvollständige oder fehlerhafte Übermittlung hindeuten. In der Informationstheorie gilt es also immer abzuwägen zwischen der Qualität eines Datenbestandes (hohe Redundanz) und der Quantität bei der Datenübertragung (mit niedriger Redundanz).

Die Sandbox: Testlauf auf der Isolierstation …

 

Jeder kennt die dubiosen Anhänge von E-Mails, von denen man nicht weiß, ob sie Schad-Code enthalten oder nicht. Die Lösung zur Überprüfung einer möglichen zerstörerischen Wirkung heißt ‚Sandbox‘. So wie Generäle früher den vermuteten Ablauf einer Schlacht in einem Sandkasten zunächst durchspielten, so wird hier die Auswirkung in einem Quarantäne-Bereich zunächst einmal analysiert. Einige bekanntere Programme haben als Plug-In schon eine (schwächere) Sandbox-Funktion, bspw. das ‚Java Runtime Environment‘ (JRE).
Andere Programme verfolgen einen sehr viel restriktiveren Ansatz: Hier wird der gesamte Browser in einem Isolationsbereich ausgeführt, abgeschottet von allen Schreibzugriffen auf die Festplatte. Jeder dieser Zugriffe wird auf ein separates Unterverzeichnis umgeleitet, das – im Falle eines Schädlings – problemlos gelöscht werden kann, bevor sich also Malware einnisten konnte. Noch umfassender ist der Aufbau einer ‚virtuellen Maschine‘ (VM). Ein gesamter Rechner wird hier auf einer Software-Ebene nachgebildet, welche vom realen Rechner in jeder Hinsicht isoliert ist. ‚Infiziert‘ wird dann nur dieses ‚virtuelle Gefängnis‘. Als verdächtig gelten bspw. Versuche von Systemänderungen, das Erstellen neuer Netzwerkverbindungen oder das unmotivierte Öffnen von Dateien.

S/MIME: Damit Vertrauliches vertraulich bleibt …

 

Für den Mailverkehr nutzen wir weltweit alle das standardmäßige MIME-Format (Multipurpose Internet Mail Extensions). Das ermöglicht es uns bspw. deutsche Sonderzeichen außerhalb des ASCII-Formats zu verwenden (ß, ä, ü usw.). Standardisierung ist aber immer auch angriffsanfällig – was Hacker für ihre Zwecke zu nutzen trachten.

Um dieser Gefahr zu entgehen, wurde das S/MIME-Format entwickelt (‚Secure/ Multipurpose Internet Mail Extensions‘). Mit seiner Hilfe werden Mails signiert und/oder verschlüsselt. Um S/MIME einsetzen zu können, müssen die Nutzer mit einem X.509-basierten Zertifikat ausgestattet sein.

Ein unbefugter Anwender liest dann aus einer derart verschlüsselten Mail nur noch Buchstabensalat heraus. Erst die Kenntnis eines Schlüssels des Absenders, der ihm in einer zertifizierten Mail übersandt wurde, ermöglicht dem Empfänger dann die Lektüre solcher Mails.

Zur Teilnahme am S/MIME-Mailverkehr ist die identitätsgesicherte Anmeldung bei einer Zertifizierungsstelle (CA) zwingend erforderlich. Unser IT-Service ermöglicht jenen Kunden, die mit vertraulichen Daten operieren (Rechtsanwälten, Ärzten, Entwicklern oder Treuhändern), eine ebenso sichere wie problemlose Partizipation an diesem ‚einbruchsgesicherten Mail-Verkehr‘.

Sender Policy Framework (SPF): Das Postgeheimnis sichern

 

Gefälschte Absenderangaben auf E-Mails werden zu einem immer größeren Problem im digitalen Raum. Insbesondere der überbordende ‚Spam‘ und das ‚Phishing‘ bahnen sich mit Hilfe von ‚gefaketen‘ Adressen ihren Weg. Das ‚Sender Policy Framework (SPF)‘ dient dazu, dieser Spam-Lawine Herr zu werden.
Für jede Domain hinterlegt der Administrator bei diesem Verfahren eine Liste von Adressen erlaubter ‚Mail Transfer Agents (MTA)‘, also von Servern, die berechtigt sind, für diese Domain E-Mails zu versenden. Authentisch sind dann nur noch jene Versender, die in dieser Liste enthalten sind, alle anderen Mails landen im Nirvana.
SPF ist kein narrensicheres System. Es fängt nicht alle unerwünschten Mails ab, weil es nur Absenderadressfälschungen erkennt, nicht aber den Spam-Inhalt selbst. Andererseits ist SPF ein Verfahren, das missbräuchliche Verwendungen rechtlich verfolgbar macht, sofern das Empfängersystem SPF unterstützt.

SEO: Mit Schlüsselwörtern an die Spitze

 

Wer Google nutzt, kriegt auch Besuch: Ein Webcrawler – auch ‚Google-Bot‘ genannt – schaut bei ihm auf dem Server vorbei und notiert sich die neuesten Veränderungen auf der Homepage oder auch bei anderen World-Wide-Web-Inhalten. Was hingegen außerhalb des www-Bereichs passiert, kann Google auch nicht registrieren. Dort beginnt das Reich des ‚Dark Net‘.

Das Interesse jeder kommerziellen oder auch nur an ‚Wahrnehmung‘ interessierten IP-Adresse im Netz ist es, möglichst weit vorn bei Google ‚gelistet‘ zu werden, beim so genannten ‚Page-Ranking‘. Fast nur Links auf Googles erster Seite – das zeigen viele Experimente – werden von den Nutzern auch weiter verfolgt.

So ist die Netzdisziplin der ‚Search Engine Optimization‘ (SEO) entstanden. Da niemand den Code von Google’s Webcrawler kennt, versuchen Experten per Rückschluss aus Veränderungen beim Listing den Vorlieben des Google-Bots auf die Spur zu kommen. So konnte sich rings um die SEO eine rege Szene von Vermarktern bilden.  Denn Google’s erste Ergebnisseite bietet immer nur Platz für wenige Premium-Plätze.

Einigkeit herrscht bei der SEO inzwischen über die folgenden Punkte: 1. Google’s Webcrawler reagiert vor allem auf Veränderungen. Eine Seite, die wochenlang brach liegt, sackt im Ranking ab, weshalb sie laufend aktualisiert werden muss. 2. Die Such- und Schlüsselwörter (‚Keywords‘), die den Interessenten zum Ziel führen sollen, entfalten stets dann eine besondere Wucht, wenn sie auch in Überschriften und in der Netz-Adresse (URL) vorkommen. 3. Alle Links im Angebot wirken wie Katapulte. Jeder Text sollte sich ins Netz hinein verzweigen, und nicht nur auf den eigenen Tümpel verweisen. 4. Rückverweise beschleunigen nochmals den Steigflug, weshalb eine (redigierte) Kommentarfunktion eingerichtet, wie auch ‚Backlinks‘ möglich sein sollten.

Neben diesen zentralen Geboten fürs SEO gibt es noch viele weitere Faktoren. Fragen Sie im Zweifel einfach uns. Wir haben schon viele Kunden bei Google auf die Titelseite gebracht.

Software: Sinngebung für Transistoren

 

Bildlich gesprochen, ist die Hardware nur die Rechenmaschine mit Tastatur, erst die Software schreibt sich darauf dann ihren Roman. Es handelt bei der ‚Software‘ sich um einen Sammelbegriff für ‚Programme‘ oder ‚Algorithmen‘, die der Maschine sagen, was und wie sie etwas zu tun hat.

Die Software macht dann aus einem Computer jenes individuell angepasste Arbeitsgerät, das aus unserem Leben kaum mehr wegzudenken ist. Eine wissenschaftliche Definition beschreibt die Software als „die Gesamtheit von Informationen, die man der Hardware hinzufügen muss, damit das so entstandene Computersystem für ein definiertes Aufgabenspektrum nutzbar wird“.

Die ISO-Norm zählt zur Software übrigens nicht nur das Programm, sondern auch die Dokumentation aller seiner Funktionen. Hier beginnt die Grenze zwischen Hard- und Software dann wieder zu verschwimmen.

Spam: Unerwünschtes unterdrücken

 

Während des Krieges in England war ‚Spam‘ jenes Lebensmittel, das man zuverlässig in jedem Laden bekam: ein aus Fleischresten zusammengehäckselter Nährstoff ohne geschmacklichen Wert. Auf diese Allgegenwärtigkeit und Wertlosigkeit bezieht sich auch der Begriff ‚Spam‘, wie er für unerwünschte Post im E-Mail-Verkehr heute gebräuchlich ist. Es ist jener ‚Abfall‘ in Zeiten des elektronischen Postverkehrs, dem niemand gänzlich entgeht – vom angeblich herrenlosen Millionen-Dollar-Konto in Nigeria bis hin zur wundersamen Penisverlängerung.

Vom ‚Spam‘ zu unterscheiden ist die ‚Malware‘: Das ist jene Post, die in ihrem Anhang Spionage-Programme transportiert, die beim Öffnen dem Rechner oder seinem Besitzer schaden können. Mit ihrem umfassenden IT-Service gelingt es b.r.m. übrigens, den Löwenanteil nerviger oder gefährlicher Sendungen schon im Vorfeld zu entsorgen.

Spamfilter: Werbemüll entsorgen

 

Fast jeder machte schon Erfahrungen mit dem Internet-Angeboten für Viagra, unerhörten Gewinnchancen, fast kostenlosen Krankenversicherungen oder gar Penisverlängerungen, das zumeist ungebeten im Postfach aufschlägt. Ein Spamfilter ist ein Programm oder Modul, das solch unerwünschte und belästigende Werbung aus dem Datenstrom filtert. Es gibt verschiedene Methoden, solchen ‚Spam‘ erheblich auszudünnen.

 

Die Blacklist-Methode scannt bspw. die absendenden Server, die E-Mail-Adressen oder die Headlines nach unerwünschten Begriffen und richtet sich selbst ein solches Abwehr-Regime ein. Der Bayes-Filter verlangt zunächst die Mitarbeit des Anwenders, der die ersten etwa 1.000 Mails selbst nach ‚erwünscht‘ oder ‚Müll‘ sortiert. Danach schafft der Filter dann eine Trefferquote von annähernd 95 Prozent. Neuere Methoden zielen auf verlinkte URLs (Internet-Adressen) in den Spam-Mails, und damit auf die ‚Geschäftemacher‘ dieses Modells, um auf diesem Wege die konsequente Müllentsorgung im virtuellen Raum zu betreiben.

SPF: Kein ‚Enkeltrick‘ im Mailverkehr

 

Das Sender Policy Framework (SPF) entstand, um das unbefugte Herumdoktern an IP-Adressen auf Mailservern zu bekämpfen. Im Kern werden hierbei vom Administrator einer Domain die IP-Adressen aller sendeberechtigten Personen (‚Mail Transfer Agents‘ – MTA) für den Mail-Empfänger einsehbar hinterlegt.  Für die angegebene Domain ruft das empfangende System diese SPF-Informationen über das Domain Name System (DNS) auf. Es vergleicht die IP-Adresse des sendenden MTAs mit den erlaubten Adressen. Stimmt die IP-Adresse mit den verifizierten MTAs überein, gilt der Absender als authentisch. Andernfalls wandert die E-Mail in die Tonne, zumindest aber wird vor ihr gewarnt. Die Teilnahme am SPF-System und das Einsehbarmachen von SPF-Records erfolgt auf freiwilliger Basis.

Obwohl mit der Hilfe von SPF auch Müll und Phishing eingedämmt werden können, ist das ‚Sender Policy Framework‘ kein Spam-Abwehr-Programm. Es dient lediglich dazu, Fälschungen von Absenderadressen quasi ‚auf dem Umschlag‘ einer Mail schon zu erkennen.

SSL: Gut, aber nicht gut genug …

 

Das Secure Sockets Layer (SSL) war lange das Verschlüsselungsprotokoll zur sicheren Datenübertragung im Internet. Der kryptologische Vorsprung ist aber immer nur hauchdünn, die Hacker sitzen den Sicherheitsexperten stets dicht auf den Fersen. Weshalb heute das alte SSL-Protokoll durch die Transport Layer Security (TLS) ersetzt wurde.

Das Prinzip aber blieb: Baut ein Client eine Verbindung zum Server auf, dann muss sich dieser durch ein Zertifikat ausweisen. Das bescheinigt dem ‚anklopfenden‘ Client, dass er eine vertrauenswürdige Seite aufruft. Zur Bestätigung fragt der Client den Server mit einer Zufallszahl o.ä. ab, worauf dieser die Aufgabe nur lösen kann, wenn er entsprechend der Übereinkunft eine passende Auflösung bieten kann. Wir haben es also mit einer Form des ‚Schlüsselaustauschs‘ zu tun.

Der Kunde erkennt sichere Internet-Seiten an ihrem browserabhängigen Verifizierungszeichen ganz links in der Adresszeile.

Thin Client: Schlankes bevorzugen

 

Nicht an jedem Arbeitsplatz muss ein vollumfänglich ausgestatteter PC mit allen technischen Finessen laufen. Ein ‚Thin Client‘ ist ein Desktop-Computer, der ganz ohne bewegliche Teile auskommt, also ohne Festplatte, DVD-Laufwerk usw. Er nutzt stattdessen Ressourcen des angeschlossenen Rechenzentrums, womit er in erheblichem Ausmaß Energie einspart.

Jede Verarbeitung von Daten übernimmt jetzt der Server, über das Remote Desktop Protocol (RDP): Die Ergebnisse aller Abfragen und Rechenschritte erscheinen ohne Zeitverzug beim Anwender auf dem Monitor.

Wir empfehlen überall, wo Serverstrukturen vorhanden sind, den Einsatz von Thin Clients. Ein solches Netzwerk leistet nicht nur einen erheblichen Beitrag zu mehr Green IT, sondern es spart zudem viel Geld im Bereich der Hardware. Auch unter betriebswirtschaftlichen Gesichtspunkten gibt es also keinen rationalen Grund, auf Thin Clients noch länger zu verzichten.

Weil Schlankheit nicht nur optisch gewinnt.

Ein effizienter Thin Client

TLS: Der neue Sicherheitsstandard

 

Die Transport Layer Security (TLS) ist an die Stelle des Secure Sockets Layer (SSL) getreten, wobei viele Funktionen erhalten blieben. Das TLS ist der Versuch, einen Hochsicherheitstrakt für übertragene Daten im Internet zu schaffen. Gleich fünf Protokolle sollen die Sicherheit und Datenintegrität im Internet gewährleisten. Auch im Falle von TLS folgen verbesserte Versionen in dichter Folge aufeinander.

TLS umfasst unter anderem eine Ende-zu-Ende-Verschlüsselung, eine Prüfung der Nachrichten-Authentizität, einen ‚Handshake‘, welcher eine wechselseitige Identifizierung ermöglicht, und vieles mehr. Trotz aller ‚Schlösser‘ vor diesem System ist auch TLS nicht absolut sicher – wie fast nichts im Internet. ‚Man-in-the-Middle-Angriffe‘ wurden verzeichnet, Chosen-Plaintext- oder Kompressionsangriffe. Politische Beschränkungen kommen hinzu: Aufgrund amerikanischer Exportverbote für Kryptographie dürfen oft nur kurze ‚Schlüssel‘ zum Einsatz kommen, die Angreifern dann ihr Handwerk erleichtern.

Mit einem Wort: Nichts im Netz ist ‚absolut sicher‘, außer der Sicherheit, dass dies so ist. Unseren Kunden bieten wir aber jederzeit das derzeitige Maximum an Sicherheit.

Trojanisches Pferd: Vorausschauend handeln

 

Längst hat das ‚Trojanische Pferd‘ oder kurz der ‚Trojaner‘ den Virus bei der Bedrohung von IT-Systemen abgelöst. 55 % der Malware zählen heute zu den Trojanern, nur noch zehn Prozent sind Viren.

Der Trojaner hat es in der Regel nicht auf Zerstörung abgesehen, er will Computer ‚ausspähen‘ oder ‚nutzen‘, um andere Funktionen auszuführen. ‚Trojaner‘ heißen die Programme deshalb, weil sie sich als nützliches ‚Arbeitspferd‘ tarnen, dann aber unbemerkt zusätzliche Schadprogramme installieren. Oft handelt es sich hierbei um ‚Sniffer‘, die den Inhalt von Systemen ausspähen, oder um ‚Keylogger‘, die Tastaturangaben (z.B. Passwörter)  registrieren.

 

 

Trojaner sind in der Regel als kombiniertes Programm aufgebaut. Der nützliche Teil schleppt über einen ‚Linker‘ oder ‚Binder‘ die Schadsoftware mit ein. Jedes Programm kann auf diese Weise missbraucht werden. Einmal eingeschleppt, ist das Wirtsprogramm dann nicht länger erforderlich. Die eingeschleppte ‚Malware‘ startet in der Regel automatisch, sobald der Rechner den Betrieb aufnimmt. Als besonders anfällig für das ‚Schleusen‘ von Schad-Software sind neuerdings auch Plug-ins für den Browser oder jene Apps, die auf mobilen Endgeräten laufen.

Grundsätzlich können Trojaner jeden Weg benutzen, der Daten auf den Computer lädt: Datenträger, Netzverbindungen, E-Mails usw. Die Ausführbarkeit einer Datei wird oft bewusst getarnt, so dass der Anwender bspw. glaubt, eine harmlose Bilddatei mit der Endung ‚Dingsbums.jpg‘ zu öffnen, weil die ‚Executable‘ nicht in der Anzeige auf dem Monitor erschien. Faktisch trug die Datei aber die Kennung ‚Dingsbums.jpg.exe‘.

 

Andere Trojaner nutzen wiederum die Schwachstellen bestehender Programme aus, die ‚Exploits‘. Jeder kennt heutzutage die Aufforderungen, bei sensiblen Programmen rasch ein Update auszuführen, um die Lücke in der Sicherheit zu schließen.

 

Schutz vor Trojanern bietet allein der Verzicht darauf, Programme aus unbekannten oder unsicheren Quellen zu nutzen, vor allem aus dem ‚Graubereich‘ des Netzes – das gilt dann auch für scheinbar harmlose Foto-, Video- oder Tondateien. Die gewohnten Viren-Scanner hingegen helfen gegen Trojaner nur bedingt. Ungeöffnete Trojaner können sie oft erfolgreich eliminieren, einmal installiert aber sind ihre Fähigkeiten zumeist begrenzt. In solchen Fällen hilft nur ein Überspielen des Datenträgers mit der letzten sauberen Sicherung.

UAC – Frage an den Administrator

 

In früheren Windows-Versionen war der Nutzer dieser System-Software auch der Kapitän auf seinem Schiff. Selbst dann, wenn er computertechnisch nicht der Hellste war. Er hatte jederzeit den vollen Zugriff eines Administrators auf sein System – und machte es so überaus anfällig für Viren und Trojaner.
Seit der Einführung von Windows Vista gibt es die ‚Benutzerkontensteuerung‘ (UAC – User Account Control). Arbeitet ein Nutzer an einem Windows-Rechner, dann nutzt er zunächst immer bloß simple User-Rechte. Immer dann, wenn ein Programm eine höherstufige Berechtigung verlangt, poppt ein Fenster auf, das ausdrücklich seine Zustimmung als Administrator verlangt. Die UAC wechselt also zwischen den Hierarchie-Ebenen und warnt den Nutzer, dass hier möglicherweise eine Gefährdung vorliegen könnte.

Verkabelung – Wenn der Wischmopp aufs Digitale trifft

 

Eine ebenso unterschätzte wie große Gefahr für jede Computertechnik ist die Putzfrau. Von fast allen Tabletop-Rechnern laufen Kabel zu den Anschlussbuchsen in der Wand. Die Reinigungskraft aber hat nur ihre Hygiene im Kopf. Jede Verkabelung, die oft genug frei über den Boden verläuft, trifft dann die volle Wucht des Wischmopps, der Schwung der Kehrmaschine oder die unbändige Kraft des Staubsaugers.
Regelmäßige Verformungen der Kabel sind die Folge – und irgendwann bricht die Datenleitung in ihrem Inneren. Besonders dann, wenn es sich um hochempfindliche Glasfaserleitungen handelt. Niemand würde glauben, wie oft Network-Experten wegen Problemen im Datenverkehr bereits ausrückten, als deren Ursache sich dann nur ein gebrochener Kabelstrang herausstellte. Eine ‚reinigungssichere Führung‘ von Datenleitungen ist daher unumgänglich, wenn man diese Probleme vermeiden will.

Verschlüsselung: Alles soll geheim sein

 

Die Verschlüsselung verwandelt einen ‚Klartext‘ in einen ‚Geheimtext‘ (‚Chiffrat‘), den der Empfänger nur lesen kann, wenn er den passenden ‚Schlüssel‘ zur Entzifferung besitzt. Das Verfahren ist alt, sein Einsatz begann lange vor der ‚Digitalisierung der Welt‘. Nicht nur Texte lassen sich verschlüsseln, sondern auch Sprachaufzeichnungen oder (bewegte) Bilder.

Eine besonders einfache Form der ‚Codierung‘ ist bspw. das Morsealphabet. Wer die akustischen Zeichen mit Hilfe eines erlernten Schlüssels nicht in sinnvolle Buchstabenfolgen zurückverwandeln kann, der hört nur ein ‚Biep-biiiep-biep‘.

Im digitalen Bereich verläuft die Verschlüsselung heute weitgehend automatisiert. Wer eine E-Mail schreibt, dem fällt nicht mehr auf, dass seine Nachricht vor dem Absenden ‚verschlüsselt‘ wurde. Zum Entschlüsseln wird dann wiederum der passende Schlüssel benötigt, der einen Geheimtext in einen Klartext zurückverwandelt. Die meisten Hackversuche konzentrieren sich daher auf den Raub von ‚Schlüsseln‘ (z.B. auf Passwörter). Die Sorglosigkeit mancher Nutzer hier ist wirklich atemberaubend. Zum Einsatz kommen tausendfach noch immer Ziffernfolgen wie ‚1234‘, ‚Ich‘ oder ‚Passwort‘.

Vom ‚Schlüsselraub‘ oder von der ‚Entschlüsselung‘ muss die ‚De-Chiffrierung‘ oder das ‚Entziffern‘ getrennt werden. Hier kommen ‚Kryptoanalytiker‘ zum Einsatz, die aus Regelmäßigkeiten in den Zeichenfolgen auf das verwendete Verfahren rückschließen. Historisch ist das ‚Knacken‘ der deutschen Enigma-Maschine mit Hilfe der Turing-Bombe das berühmteste Beispiel.

Viren: Viren bekämpfen

 

Computerviren sind Programme, die sich im System oder im Netz verbreiten. Um dies tun zu können, benötigen sie einen ‚Wirt‘, der sie in ein System einschleust, bevor sie dann andere Programme befallen. Umgangssprachlich werden sie oft mit ‚Würmern‘ oder ‚Trojanern‘ in einen Topf geworfen, obwohl es sich um verschiedene Vorgehensweisen dieser Malware-Formen handelt. ‚Viren‘ handeln grundsätzlich passiv‚ sie benötigen den Aufruf eines weiteren Programms, um dies befallen zu können. ‚Würmer‘ hingegen sind Programme, die selbsttätig nach Lücken in der Sicherheitsarchitektur suchen.

Antivirenprogramme besitzen immer einen entscheidenden Nachteil: Sie können stets nur Viren identifizieren, die bereits bekannt sind. Gegen ‚Neuentwicklungen‘ sind sie zunächst machtlos. Entscheidend für die Qualität eines Antivirenprogramms ist daher immer dessen Reaktionszeit auf neue Gefahren.

WLAN – die neue Welt des Funkverkehrs

 

Ein anderer Begriff fürs WLAN (Wireless Local Area Network) lautet auch ‚WiFi‘. In beiden Fällen handelt es sich um das Verfahren einer kabellosen Datenübertragung in einem lokalen Bereich. Die Reichweite eines WLAN hängt von der Strahlungsleistung und der Art der Umgebung ab. Die häusliche Sendeleistung liegt in Deutschland zwischen 100 und 500 mW und deckt damit eine Fläche von 30 bis 100 Metern ab, wobei bspw. feuchte Betonwände die Übertragung erheblich dämpfen können. Mit Richtfunkantennen lässt sich die Leistung von WLAN-Netzen erheblich steigern. Bei freier Sicht können dann Entfernungen bis 100 km überbrückt werden.

Webseite: Das Vielerlei als Einheit …

 

Fälschlicherweise werden die Begriffe ‚Webseite‘ und ‚Website‘ oft gleichbedeutend verwendet. Wo die ‚Website‘ die Gesamtheit eines Internet-Auftritts beschreibt, verweist die ‚Webseite‘ auf ein einziges Dokument, das mit Hilfe einer eindeutigen URL (Uniform Resource Locator) aufgerufen werden kann. Es handelt sich also um ein einheitliches Dokument, das zumeist in HTML (Hypertext Markup Language) verfasst wurde.

Eine Webseite besteht dabei keineswegs nur aus Buchstabenfolgen, sie kann Bilder, Filme, Tondokumente oder Querverweise (‚Links‘) enthalten. Das verbindende Element ist die einzigartige URL-Adresse, die dem Browser den Aufruf dieses Konglomerats als ein zusammenhängendes (und druckbares) Dokument ermöglicht.

Mit unserem IT-Service unterstützen wir unsere Kunden technisch wie textlich bei der Gestaltung von Webseiten, beim Einrichten ganzer Websites, wie auch beim Führen von Blogs und Newslettern.

Send this to a friend