
Multi-Cloud-Architekturen und Ransomware-Bedrohungen: Aktualisierungsbedarf für Backup-Lösung
Rechenzentren entwickeln und verändern sich so stark, dass es schwierig sein kann, Schritt zu halten: Schlagworte wie Cloud, Hybrid Cloud, Multi-Cloud, Software as a Service wie Office 365, Virtualisierung und Container bringen einen massiven Änderungsbedarf der aktuellen Storage-Konzepte mit sich, denn sie führen zu einer Massenfragmentierung der Daten. Sicherung und Wiederherstellung gehören traditionell zu den wichtigsten Aufgaben im Speicherumfeld. Doch die angestammten Backup- und Restore-Lösungen – inklusive der zugehörigen Wiederherstellungspläne – sind in vielen Fällen nicht mehr zeitgemäß. Modernere Konzepte sind gefragt, die vor allem eine schnelle Wiederherstellung bieten: Die „Restore-Messlatte“ liegt heutzutage bereits bei Hunderten von virtuellen Maschinen (VMs)…

„Know your Customer“-Prinzip effizient umsetzen
Seit 2020 gelten für bestimmte Unternehmen verschärfte Prüfungs- und Meldepflichten, um Geldwäsche oder Terrorfinanzierung aufzudecken. Ein Aufwand, der sich angesichts der Vielzahl von Datenquellen kaum mehr manuell bewältigen lässt. Doch wer die richtigen Parameter kennt, der kann eventuellen Strafen wegen möglicher Verstöße gegen „Know your Customer“ (KYC) entgehen, zumal sie sich mit einer technischen Lösung effizient vermeiden lassen. Denn KYC gilt nicht nur für Finanzinstitute.

Partner-Ökosystem für Anwendungen, Datenbanken und große Datenintegrationen in Delta Lake
Unternehmen verfügen über eine Fülle von Informationen, die in verschiedenen Quellen gespeichert sind. Diese Daten für Reportings, Business Intelligence und Machine Learning zusammenzuführen, ist eine der größten Herausforderungen, wenn es darum geht, Geschäftsnutzen aus Daten zu ziehen. Das Data Ingestion Network führt alles zusammen.

Mehr als Anforderungsmanagement: Die Arbeit der Business Analysten
Ihr Berufsprofil ist noch wenig bekannt, dabei sind sie in IT-Projekten unverzichtbar: Business Analysten. Als Bindeglied zwischen Fachbereich und IT verantworten sie das Anforderungsmanagement, sind aber zunehmend auch mit neuen Aufgaben bis hin zum Projektmanagement konfrontiert – für Unternehmen oft ein Grund, nach Verstärkung in diesem Bereich zu suchen.

Datenstrategien: Automatisierung des Data Warehouse muss Teil der Lösung sein
Die Im Zeitalter von Big Data könnte man davon ausgehen, dass man gar nicht genug Daten haben könnte. Denn aus Daten lassen sich in der Theorie wichtige Erkenntnisse ziehen, die Unternehmen zu ihrem Vorteil nutzen können. Und so sammeln Unternehmen seit Jahren fleißig Daten aus immer mehr Quellen ein – und stehen damit auch vor der immer komplexeren Aufgabe diese Daten sinnvoll verarbeiten zu müssen.

„Datensilos in Data Lakes und Data Warehouses gehören der Vergangenheit an“
Mit einem Lakehouse sind Unternehmen in der Lage, strukturierte Informationen und Big Data aufzuspalten und sie getrennt für BI- und Machine-Learning-Anwendungen einzusetzen. Roman Pritzkow, Regional Vice President Enterprise Sales Germany bei Databricks, verdeutlicht im Interview mit line-of.biz (LoB) die Vorteile.

Massive Datentransformation in einer gesamten Organisation
„Daten-Unternehmen“ gelten als die künftig marktführenden Unternehmen – und zwar in jedem Segment. Dies erfordert eine Datenplattform, die die Entscheidungen jedes Mitarbeiters steuert und, was ebenso wichtig ist, Datenprodukte antreibt. Dazu ist eine Unified Analytics Plattform nötig, die in jeder Abteilung und jedem Team skalierbar ist.

Best Practices zur Absicherung einer Datenplattform
Beim Auflösen von Datensilos schieben viele Unternehmen alle ihre Daten aus verschiedenen Quellen in einen Data Lake, in dem Data Engineers, Data Scientists und Business Analysten die Daten verarbeiten und abfragen können. Es geht darum, Daten für die Benutzer verfügbar zu machen, aber es entsteht eine neue Herausforderung. Denn diese verschiedene Datenklassen sind vor den Benutzern zu schützen und zu isolieren, die keinen Zugriff auf diese Daten haben.

Beispiele zeigen, wie sich das Ressourcenproblem in Edge-Geräten lösen lässt
Bereits im ersten Teil dieser Beitragsreihe wurde gezeigt, dass das Volumen der am Edge erzeugten Daten zu groß sein wird, als dass ihre Analyse komplett in der Public Cloud erfolgen wird. Ein neuer Ansatz muss her, der aus dem industriellen Internet der Dinge echtes Edge Computing macht – allen Ressourcenbeschränkungen der Geräte zum Trotz. Zwei Beispiele sollen diesen Ansatz verdeutlichen.

So lässt sich das Ressourcenproblem in Edge-Geräten lösen
Das Volumen der am Edge erzeugten Daten wird zu groß sein, als dass ihre Analyse komplett in der Public Cloud erfolgen wird. Ein neuer Ansatz muss her, der aus dem industriellen Internet der Dinge echtes Edge Computing macht – allen Ressourcenbeschränkungen der Geräte zum Trotz.

MLflow Search-API im Einsatz: Modellmetriken in Dashboards anzeigen
Data Engineers für maschinelles Lernen und Data Scientists trainieren häufig Modelle zur Optimierung einer Verlustfunktion. Mit Optimierungsmethoden wie dem Gradientenabstieg lässt sich iterativ der Verlust verringern, um schließlich ein Minimum zu erreichen. Data Scientists haben sich bereits oft die Frage gestellt, wie die eigene Produktivität optimiert werden kann? Oder kann ich den Fortschritt der Metriken meiner Trainingsmodelle visuell erkennen?

Plattform macht separate ETL-, Datenmodellierungs-, Datenvorbereitungs- und Analyse-Tools überflüssig
Die Partnerschaft von Infor mit der Cloud-basierten Datenplattform Snowflake soll Unternehmen beim Aufbau automatisierter Data Warehouses unterstützen – und wird dazu künftig die Fähigkeiten der Full-Stack-Analyse- und BI-Plattform Birst aus dem Hause Infor nutzen.

Mehr Sicherheit und höhere Skalierbarkeit für Unified Data Analytics
Weitreichende Sicherheitskontrollen, proaktive Verwaltung und Automatisierung über den gesamten Daten- und Machine Learning-Lebenszyklus hinweg ermöglichen die neuen Funktionen, die Databricks für seine Unified Data Analytics-Plattform vorgestellt hat.

Deutsche Führungskräfte sind häufiger Dateninnovatoren und nutzen Daten als Wettbewerbsvorteil
Den wirtschaftlichen Wert von Daten für das Erreichen von Geschäftsergebnissen bestätigt die neue Splunk-Studie. Dabei zeigt der Splunk Data-Maturity-Rechner den Stand der Datennutzung und Potenziale auf. Demnach sind deutsche Führungskräfte häufiger Dateninnovatoren und nutzen zudem die Daten als strategischen Wettbewerbsvorteil.

Automatisierung verändert Data Science: klarere Erkenntnisse und höhere Produktivität
Ein Hauptziel der visuellen Analyse und Datenwissenschaft ist es, umsetzbare Erkenntnisse zu gewinnen, die sich direkt auf die Geschäftsprozesse auswirken – zur Steigerung der Einnahmen, zur Verbesserung der Produktivität oder zur Minderung der Risiken. Automatisierte künstliche Intelligenz, genauer gesagt automatisiertes maschinelles Lernen für die Datenwissenschaft, kann helfen, dieses Ziel zu erreichen.

Das Beste aus Data Lakes und Data Warehouses kombinieren
Mit Hilfe von Databricks Ingest und Partner-Integrationen können Data Teams Data Lakehouses für BI-Anwendungen und Machine Learning einfacher aufbauen.

Besseres Machine Learning durch „Active Learning“
Gekennzeichnete Daten sind ein wichtiger Bestandteil des maschinellen Lernens, aber die Erstellung von „Labels“ ist manchmal teuer. Aktives Lernen hilft dabei, die Kennzeichnung intelligent zu steuern, um die Kosten zu senken und bessere Modelle zu erstellen. In einem Beispiel wird gezeigt, wie eine Python-Bibliothek für aktives Lernen, modAL, zum Einsatz kommen kann, um einen Menschen bei der Kennzeichnung von Daten für ein einfaches Textklassifizierungsproblem zu unterstützen. Modelle zum Bereich Machine Learning vermitteln oftmals den Eindruck von schwarzer Magie. Sie können zum Beispiel erkennen, ob sich auf einem Bild ein Hotdog befindet – oder auch nicht. Hierbei handelt es sich natürlich…

Unternehmensinterne Richtlinien zur Datenlöschung fehlen
In 56 Prozent der Unternehmen findet keine effektive Kommunikation der Datenlöschrichtlichtlinie statt. Zu diesem Ergebnis kommt die weltweit gültige Studie „Data Sanitization: Policy vs. Reality“.

Pega Trend Radar belegt: KI-Einsatz wird zum Standard
Dieses Jahr werden Unternehmen die Basistechnologie „Künstliche Intelligenz“ (KI) in der Praxis noch stärker einsetzen. Die Entwicklung belegt auch der Pega Trend Radar. Eine Umfrage über Künstliche Intelligenz ergab, dass die Mehrheit der Unternehmen Künstliche Intelligenz bereits nutzen, vor allem für die Datenanalyse innerhalb von Big-Data-Projekten (67 Prozent), im Bereich der Kundeninteraktion (58 Prozent) und für die Prozessautomatisierung (55 Prozent).

Nahtloses Datenmanagement auf intelligenter iPaaS-Lösung
Große Datenmengen und knappe Ressourcen stellen Personalabteilungen vor die Herausforderung, administrative Routinearbeiten in verschiedenen Programmen zeiteffizient und vor allem fehlerfrei zu erledigen. Immer wichtiger wird demnach die Integration verschiedener Aufgabenbereiche, sodass alle Systeme reibungslos untereinander und eigenständig kommunizieren können und stets über die richtigen Daten eines Mitarbeiters verfügen.

Master Data Management: So können IT-Mitarbeiter Stammdaten stressfrei verwalten
Die Dynamik der Digitalisierung erschwert das für Geschäftsprozesse so wichtige Stammdatenmanagement. Doch ein Master-Data-Management-System kann verschiedene „Welten“ abbilden und integrieren – ohne den laufenden Betrieb zu stören.

Passende Software erleichtert Forecast und Controlling
Ungenutztes Potential heben, Unternehmensprozesse optimal steuern und planen: Durch intelligente Vernetzung aller Betriebsbereiche werden interne Abläufe schneller und effizienter. Das Beispiel eines Modellbau-Spezialisten zeigt, wie Unternehmen von zeitgemäßer Planungssoftware profitieren, indem sie betriebswirtschaftliche Prozesse verbessern und zudem durch verlässliche Auswertung aktuellster Zahlen Sicherheit in der Planung schaffen.