Databricks
04.07.2022, 14:42 Uhr
Neue Funktionen für Databricks Lakehouse
Neue Funktionen der Data-Lakehouse-Plattform sind unter anderem Data-Warehousing- und Data-Governance-Funktionen, ein Marketplace und die Data Cleanrooms-Funktionalität. Dazu kommen Data-Engineering-Optimierungen und Verbesserungen im ML-Lebenszyklus.
Databricks hat die Weiterentwicklung der Databricks-Lakehouse-Plattform vorgestellt. Zu den neuen Funktionen gehören eine verbesserte Data-Warehousing-Leistung und -Funktionalität, erweiterte Data Governance, Innovationen für die gemeinsame Nutzung von Daten, darunter ein Marktplatz für Analysen und Daten-Cleanrooms für eine sichere Zusammenarbeit, automatische Kostenoptimierung für ETL-Operationen und Verbesserungen im Lebenszyklus von maschinellem Lernen (ML).
Ali Ghodsi, Mitbegründer und CEO von Databricks: "Unsere Kunden möchten Business Intelligence, KI und maschinelles Lernen auf einer Plattform durchführen können, auf der sich ihre Daten bereits befinden. Dies erfordert erstklassige Data-Warehousing-Funktionen, die direkt auf ihrem Data Lake ausgeführt werden können."
Hier einige der vom Hersteller aufgelisteten neuen Data-Warehousing-Funktionen:
- Databricks SQL Serverless, das in der Vorschau auf AWS verfügbar ist, bietet sofortige, sichere und vollständig verwaltete elastische Rechenleistung für verbesserte Leistung zu geringeren Kosten.
- Photon, die Abfrage-Engine für Lakehouse-Systeme, soll in den kommenden Wochen allgemein auf Databricks Workspaces verfügbar sein und damit die Reichweite von Photon auf der Plattform weiter ausbauen.
- Open-Source-Konnektoren für Go, Node.js und Python machen es jetzt noch einfacher, von operativen Anwendungen aus auf das Lakehouse zuzugreifen.
- Databricks SQL CLI ermöglicht es Entwicklern und Analysten jetzt, Abfragen direkt von ihren lokalen Computern aus auszuführen.
- Databricks SQL bietet jetzt Query Federation und damit die Möglichkeit, Remote-Datenquellen wie PostgreSQL, MySQL, AWS Redshift und andere abzufragen, ohne dass die Daten zunächst aus den Quellsystemen extrahiert und geladen werden müssen.
Mehr über die Databricks Lakehouse Plattform erfahren Sie auf dieser Seite.