Author Rainer Huttenloher

KI veredelt Predictive Analytics

Jeder würde gerne einen Blick in die Zukunft werfen, um Antworten auf drängende Fragen zu finden: „Was möchten meine Kunden?“ oder „Wie lange wird meine Anlage voll funktionsfähig bleiben?“ Mit hellseherischen Fähigkeiten würde es uns leichter fallen, auf „unvorhersehbare Ereignisse“ zu reagieren. Der Einsatz von Künstlicher Intelligenz (KI) zusammen mit Predictive Analytics (PA) könnte diese Aufgabe übernehmen.

Wissen ist Macht – doch wie mächtig ist Wissen, wenn die 360-Grad-Sicht fehlt?

Wörterbücher für Geschäftsleute sind voll von Plattitüden. Natürlich sollten sie ihre Kunden kennen, sind ihre Mitarbeiter der wichtigste Vermögensgegenstand und ihre Unternehmen nur so gut wie deren Produkte. Doch bleiben diese Aussagen so lange Binsenweisheiten, wie die Unternehmen nicht wissen, was sie wissen – weil sie die Silogrenzen ihrer zahllosen Systeme und Datentöpfe nicht überwinden können und deshalb keine 360-Grad-Sicht zum Beispiel auf ihre Kunden haben?

„Extra für komplexe Architekturen: Delta Engine“

Für den Spark+AI Summit Ende Juni 2020 waren mehr als 60.000 Teilnehmer aus über 100 Ländern registriert. Die Veranstaltung brachte die Apache Spark Community zusammen und informierte sie zunächst über die Neuerungen von Spark 3.0 aber auch wie Databricks Machine Learning einsetzt, um die aktuelle COVID-19-Krise zu bewältigen. Im Interview mit dem BI-Themenhub (BIT) erklärt Roman Pritzkow, Regional Vice President für die Region DACH bei Databricks, welche weiteren Entwicklungen geplant sind.

Vom Datenchaos zur Datenintelligenz

Der Beruf des Data Scientists wurde einst als der „attraktivste Job des 21. Jahrhunderts“ bezeichnet. Wer sich jedoch den Alltag von Datenwissenschaftlern in der Praxis genauer ansieht, kann daran Zweifel bekommen: Die Ergebnisse einer Studie von IDC aus dem Jahr 2019 zeigen, dass diese Experten im Durchschnitt 67 Prozent ihrer Zeit mit der Suche und der Aufbereitung von Daten verbringen. Bezogen auf einen durchschnittlichen Arbeitstag in Deutschland wären dies täglich 5,5 Stunden, die nur für die Datenverwaltung aufgewendet werden.

Das MLflow-Projekt tritt der Linux Foundation bei

Die von Databricks geschaffene Open-Source-Plattform für Machine Learning (ML), MLflow, wird der Linux Foundation beitreten. Seit seiner Einführung vor zwei Jahren hat MLflow ein beeindruckendes Engagement der Community von über 200 Mitwirkenden zu verzeichnen und wird monatlich mehr als 2 Millionen Mal heruntergeladen, mit einer vierfachen jährlichen Wachstumsrate bei den Downloads. Die Linux Foundation bietet eine anbieterneutrale Anlaufstelle mit einem Open-Governance-Modell, um das MLflow-Projekt noch weiter auszubauen und noch mehr Community-Beteiligung zu ermöglichen.

Bereitstellung und Verwaltung von Cloud-skalierten Datenplattformen

Datenmengen wachsen exponentiell, gleichzeitig entwickeln Unternehmen Produkte, um diese Daten zu nutzen und ihren Kunden bessere Dienstleistungen anzubieten. Dieses exponentielle Wachstum kann jedoch nicht einfach durch ein ähnliches Wachstum von Ausgaben in Infrastruktur und Personal aufrechterhalten werden. Heute stehen in jeder der großen Clouds (AWS, Azure) über hundert Dienste zur Verfügung, die zum Aufbau einer Datenplattform genutzt werden können. Weiterhin gibt es Hunderte von Unternehmensdiensten, die ebenfalls in eine Datenplattform integriert werden müssen. Datenverantwortliche und Plattform-Administratoren haben die Aufgabe, die richtigen Dienste und Produkte bereitzustellen, um die Datenanforderungen ihres Unternehmens zu erfüllen. Diese Dienste müssen skalierbar, zuverlässig, richtlinienkonform und innerhalb…

Multi-Cloud-Architekturen und Ransomware-Bedrohungen: Aktualisierungsbedarf für Backup-Lösung

Rechenzentren entwickeln und verändern sich so stark, dass es schwierig sein kann, Schritt zu halten: Schlagworte wie Cloud, Hybrid Cloud, Multi-Cloud, Software as a Service wie Office 365, Virtualisierung und Container bringen einen massiven Änderungsbedarf der aktuellen Storage-Konzepte mit sich, denn sie führen zu einer Massenfragmentierung der Daten. Sicherung und Wiederherstellung gehören traditionell zu den wichtigsten Aufgaben im Speicherumfeld. Doch die angestammten Backup- und Restore-Lösungen – inklusive der zugehörigen Wiederherstellungspläne – sind in vielen Fällen nicht mehr zeitgemäß. Modernere Konzepte sind gefragt, die vor allem eine schnelle Wiederherstellung bieten: Die „Restore-Messlatte“ liegt heutzutage bereits bei Hunderten von virtuellen Maschinen (VMs)…

„Know your Customer“-Prinzip effizient umsetzen

Seit 2020 gelten für bestimmte Unternehmen verschärfte Prüfungs- und Meldepflichten, um Geldwäsche oder Terrorfinanzierung aufzudecken. Ein Aufwand, der sich angesichts der Vielzahl von Datenquellen kaum mehr manuell bewältigen lässt. Doch wer die richtigen Parameter kennt, der kann eventuellen Strafen wegen möglicher Verstöße gegen „Know your Customer“ (KYC) entgehen, zumal sie sich mit einer technischen Lösung effizient vermeiden lassen. Denn KYC gilt nicht nur für Finanzinstitute.

1 2 3 5