In 56 Prozent der Unternehmen findet keine effektive Kommunikation der Datenlöschrichtlichtlinie statt. Zu diesem Ergebnis kommt die weltweit gültige Studie „Data Sanitization: Policy vs. Reality“.
Browsing: Datenmanagement
Große Datenmengen und knappe Ressourcen stellen Personalabteilungen vor die Herausforderung, administrative Routinearbeiten in verschiedenen Programmen zeiteffizient und vor allem fehlerfrei zu erledigen. Immer wichtiger wird demnach die Integration verschiedener Aufgabenbereiche, sodass alle Systeme reibungslos untereinander und eigenständig kommunizieren können und stets über die richtigen Daten eines Mitarbeiters verfügen.
Die Dynamik der Digitalisierung erschwert das für Geschäftsprozesse so wichtige Stammdatenmanagement. Doch ein Master-Data-Management-System kann verschiedene „Welten“ abbilden und integrieren – ohne den laufenden Betrieb zu stören.
Künftig werden immer mehr Mitarbeiter in unterschiedlichsten Fachbereichen in der Lage sein müssen, Daten schnell und eigenständig zu analysieren, um aus diesen geschäftsfördernde Erkenntnisse abzuleiten. Das dabei vorausgesetzte Vertrauen in die Daten kann nur ein Resultat von gutem Datenmanagement sein.
Der wichtigste Grund, warum Office 365 durch eine Backup-/Recovery-Lösung eines Drittherstellers geschützt werden sollte, ist das uralte Konzept der 3-2-1-Regel für Sicherungen: Es sollten drei Kopien der zu sichernden Daten auf zwei verschiedenen Medien liegen, von denen eine Kopie „extern“ abgelegt sein sollte. Die Sicherungsfunktionalität von Office 365 hilft bei diesen Anforderungen nicht weiter, sie verstößt sogar förmlich gegen dieses grundlegende Datensicherungskonzept.
Die Anti-Ransomware Lösung von Cohesity kombiniert eine Vielzahl neuer Funktionen innerhalb der aktuellsten Version der Cohesity DataPlatform und ermöglicht die aktive Bekämpfung von Ransomware-Angriffen. Über einen Mehr-Ebenen-Ansatz lassen sich Angriffe verhindern, erkennen sowie gegebenenfalls darauf reagieren. Damit trägt sie zur Aufrechterhaltung des Systembetriebs bei. Die neuen Funktionen stehen ab sofort generell allen Anwendern zur Verfügung, die die neueste Version der Cohesity DataPlatform (Pegasus 6.1.1) verwenden.
Das Delta Lake Projekt soll zum offenen Standard für Data Lakes werden. daher hat Databricks diese Initiative an die Linux Foundation übergeben. Das Engagement der Community zeigt die Begeisterung für Open Source und fördert branchenweite Innovationen für datengesteuerte Initiativen.
Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an Geschäftsanwendungen und Tools trägt dazu bei, dass die Datenmenge stetig wächst. So haben die Analysten von 451 Research herausgefunden, dass bei 29 Prozent der befragten Führungskräfte die Datenmenge um 100 bis 500 Gigabyte (GByte) pro Tag und bei 19 Prozent sogar um 500 GByte bis 1 Terabyte (TByte) zunimmt. Bei 13 Prozent ist es ein Zuwachs von 2 TByte.
Die Digitale Transformation setzt die richtige Technologie voraus. Das stellt die Verantwortlichen vor eine fast unüberwindbare Aufgabe, wie eine aktuelle Studie des Datenbank-Pioniers Couchbase ergeben hat. Vor allem veraltete Datenbanken sind ein Hindernis auf dem Weg zur Digitalen Transformation.
Im Storage-Bereich lassen sich etwa HCI-Lösungen (Hyperkonvergente Infrastrukturen) einsetzen, Cloud-Ressourcen direkt auf den Client-Systemen anbinden (Onedrive, iCloud-Drive, AWS S3), oder die Unternehmen beziehen ihre Apps direkt aus der Cloud (Amazon WorkSpaces, Microsoft Azure). All diese Lösungsansätze für den Secondary Storage lassen sich durch den Einsatz eines globalen Dateisystems kombinieren und optimieren: Falls ein einziges Dateisystem sowohl auf den lokalen Systemen, als auch auf VMs (virtuelle Maschinen), Containern, HCI-Lösungen und sonstigen Cloud-Ressourcen als „Unterbau“ eingesetzt wird, profitieren die Administratoren und Mitarbeiter in den IT-fremden Fachabteilungen. Cohesity stellt mit „SpanFS“ eine Lösung bereit mit folgenden Features bereit: Eine globale Deduplizierung mit variabler…