Storage Consortium
Podcast

Storage Consortium

166
0

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de

Das Storage Consortium fokussiert aktuelles technisches & wirtschaftliches Wissen für IT Organisationen und Unternehmen – Verlagsunabhängig und unter Mitarbeit sowie Themenauswahl eines erfahrenen Industrieexperten. Die Schwerpunkte des Online-Angebotes - neben dem Hauptgebiet Datenmanagement und Speicherverwaltung - bilden praxisnahe Informationen & Trends zu KI, Big Data, Cloud Computing... im Zusammenhang mit Server- und Netzwerkinfrastruktur-Lösungen für professionelle Rechenzentren und Cloud-Services-Anbieter. Top-aktuelle Podcasts und unser umfangreiches Podcast-Archiv finden Sie in der zugehörigen Rubrik unserer Webseite unter www.storageconsortium.de

166
0

Objektdaten-Speicherung nur für große Datenmengen? Einsatzbereiche & Use Cases

Im Tech-Podcast nachgefragt: Expertengespräch mit HPE und Cancom am Beispiel von Scality ARTESCA, container-basierte „fast Object“ Storage Software Lösung Zum Hintergrund: Unternehmenswichtige Daten werden - von Core-to-Edge - in immer größeren Mengen erzeugt. Das betrifft Enterprise Anwendungen in Rechenzentren und in der Cloud / SaaS, Industrial Internet of Things mit Sensoren an Außenstellen, Video-Überwachung, Maschinendaten usw. Zusätzlich fordert der beschleunigte Einsatz von ML- und künstlicher Intelligenz auf Grund von Digitalisierungs-Initiativen die Speicher- und IT-Infrastruktur heraus. Stichworte: Datenmobilität, Agilität, Sicherheit, skalierbare Leistung, Kosten. Zum Podcast-Inhalt (Hörzeit: 28:21 min.) Die Gesprächspartner dieser Folge sind Dirk Hannemann, HPE Principal Solution Architect und Christian Hansmann, Solution Sales Architect bei Cancom SE. Die Fragen stellt Norbert Deuschle (Storage Consortium): Wo liegen für ihre Kunden derzeit die größten Herausforderungen im Bereich der Daten- und Speicherverwaltung ? ARTESCA ist ein verteiltes Objektspeichersystem, das mit Cloud-nativen Methoden als Set von containerisierten Mikroservices auf Basis einer Scale-out-Architektur aufgebaut ist. Warum soll ich mich als mittelständisches Unternehmen mit vielleicht nur 50 oder 100 TB überhaupt mit dieser Art von Lösungen beschäftigen? Mit Einsatzbeispielen (Use Cases) Kosteneffizienz, Performance und Hochverfügbarkeit sind im Bereich der Datenspeicherung wichtige Randbedingungen. Wie positioniert sich eine moderne Objekt Storage Lösung in diesem Umfeld? Hohe Datenverfügbarkeit und Sicherheit ist für Anwenderunternehmen überlebensnotwendig. Daneben spielen datenschutz-rechtliche Aspekte (Compliance, wer hat die Hoheit über die Daten), Schutz von Ransomware & Co sowie Backup- und Disaster Recovery Verfahren eine zentrale Rolle. Wie spielt das mit Object Storage zusammen und wo liegen betriebsseitig derzeit die größten Herausforderungen? Für welche Datenspeicherungs-Anforderungen ist ARTESCA primär konzipiert und was unterscheidet die Software von Scality RING, dem klassischen Objektspeicherangebot des Unternehmens? Das S3-Protokoll  und Cloud-native gewinnen an Beliebtheit (Stichworte: Agilität, DevOps, Kubernetes & Co.). Allerdings besteht Kundenseitig der Bedarf, auch weiterhin bewährte File-Protokolle- und Daten einzusetzen-/zu verwalten. Wie lassen sich im Rahmen dieser Lösung beide Aspekte sinnvoll kombinieren? Weitere Information unter www.storageconsortium.de
Internet and technology 3 years
0
0
5
28:21

Tape-basierter S3 Object Storage mit PoINT Archival Gateway

Das Storage Consortium (N.Deuschle) spricht in dieser Podcast-Episode mit Herrn Thomas Thalmann, Geschäftsführer der Firma PoINT Software & Systems GmbH in Siegen zu den Technologien, Vorteilen und konkreten Anwendungsfällen einer S3-basierten Objektspeicher-Softwarelösung in Kombination mit Tape Storage. Im Einzelnen werden in dem Gespräch folgende Punkte adressiert und ausführlicher behandelt: Unstrukturierte Daten, Objektdatenspeicherung, S3, die Cloud und Bandsysteme... Wie sind die akuellen Entwicklungen in der Praxis zu bewerten und wo liegen die wesentlichen Gründe für das beschleunigte Datenwachstum auf der Seite Ihrer Kunden? Wo liegen die Vorteile bei der Verbindung einer Objekt-basierten Datenspeicherung mit Tape-Medien? Welcher Nutzen ergibt sich daraus gegenüber der verbreiteten Datei-basierten Speicherung? Warum die Archivdaten nicht einfach in der Cloud ablegen? Native S3-Schnittstelle und Bandspeicher: Sowohl zur Archivierung als auch für Objekt Storage verwendet man zum Zugriff (RESTful-)APIs. Das Verfahren arbeitet zustandslos über eine einheitliche Schnittstelle. Was sind die wesentliche Gründe, die für den Einsatz von APIs auf Basis der S3 Schnittstelle sprechen? Welche Voraussetzungen sollten geschaffen werden, um Tape-Technologien in Form von Bandbiblotheken sinnvoll in vorhandene Speicher-Infrastrukturen einzubinden? Welche bevorzugten Anwendungsfälle und Einsatzvorteile bietet die Tape-basierter S3 Object Storagelösung 'PoINT Archival Gateway’. Weitere Informationen zum Thema finden Sie auf der Webseite des Storage Consortium unter www.storageconsortium.de
Internet and technology 3 years
0
0
6
18:08

Moderne Datenverwaltung mit Object Storage unter Verwendung einer neuen Speicherklasse

Speicherverwaltungs-Technologien, um die zunehmende Lücke zwischen Datenwachstum und Infrastrukturbudget zu schließen. "Flash - Disk - Tape - Cloud - Object - Cold Storage" - Wie passt das alles zusammen? Norbert Deuschle vom Storage Consortium im Gespräch mit Ines Wolf - Managerin Pre-Sales CE der Firma Quantum. Ein technischer Podcast mit Details zum Quantum Active Scale Cold Storage - Speicherlösungsangebot. Im einzelnen werden folgende Punkte angesprochen und detaillierter behandelt: Was sind gerade die größten Herausforderungen bei der Speicherung, dem Zugriff und der Verwaltung im Zusammenhang mit einer langfristigen Aufbewahrung von Massendaten? Was bedeutet Cold Storage? Welche Zugriffsmöglichkeiten ergeben sich auf Basis welcher Technologien? Wie kann eine moderne Speicherverwaltung unter Einbeziehung von Storageklassen dabei helfen, kalte Daten bei Bedarf wieder "zum Leben" zu erwecken? Disk (HDD), Tape und die Cloud (S3) ? Wie passen die Technologien zusammen. Welche Anforderungen ergeben sich im Gegensatz zu HDDs beim Schreiben auf Band (Mengen, Kosten, Verwaltung usw.) Wie lassen sich die daran beteiligten verschiedenen Speichertechnologien möglichst einheitlich verwalten? Welche Rolle spielt Object Storage im Rahmen der Quantum Active Scale Cold Storage - Technologie? Was unterscheidet diese von anderen Lösungsansätzen? Intelligentes Data Staging, Tape Mgmt., 2D Erasure Coding, 3 GEO DDP usw. und weitere Optionen. Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud. Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden? Möglichkeiten, die Lösung als ‚Storage as a Service’ zu beziehen (pay-as-you-use ), ähnlich wie bei Public-Cloud - Angeboten.
Internet and technology 3 years
0
0
7
20:12

Storage für künstliche Intelligenz (KI): Was kennzeichnet geeignete Speichertechnologien?

QLC-Flash, Storage Class Memory (SCM), Filesystem-Software und hochparallele Speicher-I/O-Architekturen für KI-Infrastrukturen. Zum Inhalt des Podcast: Moderne Speichertechnologien leisten in Bezug auf ihre Leistung, Skalierbarkeit und Kapazität viel mehr als noch vor drei bis fünf Jahren, was sich wiederum auf alle wesentlichen Aspekte von KI-Projekten wie Datenpflege und -Management bis hin zum Datenbanken-Design positiv auswirken kann. Ein Beispiel: Bei Deep Learning (DL) Projekten bedeutet ein langsamer Speicher immer eine langsamere maschinelle Lernleistung, denn das Deep Neural Network stellt ein Abbild eines massiv parallelen vernetzten Modells dar, bei dem bis zu Milliarden von Neuronen lose miteinander verbunden werden, um ein einziges Problem zu lösen. GPUs wiederum sind massiv parallele Prozessoren, bei denen jeder einzelne aus Tausenden von lose gekoppelten Rechenkernen besteht, um 100x höhere Leistungswerte und mehr als eine Standard CPU zu erzielen...
Internet and technology 4 years
0
0
5
08:53

Kontinuierlicher Datenschutz (CDP) zur Erweiterung von Backup-Restore-Verfahren

Eine Übersicht zu Leistungsmerkmalen, Einsatzbedingungen und Positionierung von Continuous Data Protection (CDP) im Zusammenhang mit Backup-/Restore und Disaster Recovery (D/R). Um was geht es in diesem Blogpost? Kontinuierlicher Datenschutz- oder auch Datensicherung (Continuous Data Protection, CDP) speichert automatisch alle Änderungen an Daten. Falls eine Modifikation erfolgt, werden je nach Implementierung kontinuierlich oder annähernd in real-time Kopien erzeugt. Im Vergleich dazu laufen Backup-Jobs mit Hilfe von Snapshots ein- oder mehrmals zu bestimmten Zeiten (periodisch). CDP ist im gewissen Sinn eine Backup-Weiterführung, allerdings mit Vorteilen in Bezug auf den Datenschutz, der Geschwindigkeit beim Restore, Migration, Datenverfügbarkeit und Disaster Recovery-Möglichkeiten; zudem besteht die Option, D/R-Tests on-premise und-/oder in Verbindung mit der Cloud einfacher und damit auch häufiger umzusetzen. In diesem Podcast werden im wesentlichen folgenden Themen behandelt: Warum überhaupt CDP und was unterscheidet kontinuierliche Datensicherung von Standard-Backup-Verfahren? Wie arbeitet CDP? Welche Einschränkungen gilt es bei CDP zu beachten?Wo liegen die Herausforderungen bei Backup-Verfahren ohne CDP-Funktionen?
Internet and technology 4 years
0
0
5
08:53

Kosten, Komplexität und Risiken der Cloud reduzieren - Ein Experten-Podcast mit NetApp und Cancom

Herausforderung „Hybride Cloud-Infrastruktur“; wo besteht Handlungsbedarf? Ein Gespräch zu Lösungen und Trends Zum Podcast-Inhalt: Der Trend zu Software-Definierten- und hybriden Cloud Infrastrukturen ist einerseits nicht von der Hand zu weisen, wirft aber Fragen auf: Welche Datenmanagement- und Cloud-Strategie ist für mein Unternehmen geeignet, was sind die zentralen Herausforderungen die es zu beachten gilt (Sicherheit, Kosten, Komplexität) und wie positioniert sich ein bislang eher traditionell an on-premise-Speicherlösungen orientierter Anbieter wie NetApp in diesem dynamischen Marktumfeld? Und welche Schwerpunkte im Lösungs-/Projektgeschäft sind dabei für ein IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation wie Cancom zentral? Diese und weitere Fragen werden (Hörzeit: ca. 26 Min.) im Rahmen einer Q & A in diesem Podcast genauer besprochen. Dazu stehen Ihnen mit Axel Frentzen, NetApp Senior Technical Partner Manager und Daniel Harenkamp, Solution Architect bei Cancom, zwei erfahrene Experten für die Bereiche Backup, Hochverfügbarkeit, Clouddaten- und Speichermanagement zur Verfügung; die Fragen stellt Norbert Deuschle vom Storage Consortium. Im Einzelnen werden im Podcast folgende Themenbereiche behandelt (Auszug): Was sind für ihre Kunden derzeit die größten Herausforderungen im Bereich der Datenverwaltung? Im Zuge der „Cloudifizierung“ stellen Unternehmenskunden Flexibilität, Sicherheit, Vereinfachung und Kostenreduzierung in den Mittelpunkt ihrer strategischen Initiativen zur Daten- und Speicherverwaltung. Was sind die spezifischen NetApp-Mehrwerte in der Cloud? Cloudifizierung und die Herausforderungen im Hinblick auf Komplexität, Datenschutz (Sicherheit) und das Einhalten von Compliance-Richtlinien Sicherheit / Cyberprotection / Ransomware und Backup-Restore. Wo sieht ein Dienstleister wie CANCOM aus Projektsicht hier aktuellen Handlungsbedarf? Die Cloud ist nicht nur ein Storage-Thema, sondern betrifft die Compute- und IT-Infrastrukturseite generell. Im Zusammenhang mit der Digitalisierung werden Anwendungsseitig technologische Entwicklungen wie z.B. API-gesteuerte Lösungen auf Basis von Microservices sowie Container wichtiger (cloud-native-Ansätze). Wie adressieren NetApp und Cancom Lösungsseitig diese Entwicklungstrends? Was sollten Kunden tun, um den für sie jeweils möglichst kosteneffizientesten Weg in die Cloud zu finden? Ist „lift & shift“ eine Lösung? Wie lassen sich die Infrastrukturkosten in der Cloud bestimmen / was kostet mich die Cloud? Welche Kostenoptimierungs-Potentiale lassen sich nutzen? Welche Daten speichert man wo (Handling, Sicherheit, Kosten)? Space Efficency Features wie Deduplication und Compression Data Tiering in günstigeren kalten Speicher (S3 / Blob) Zentrale Datenhaltung – dezentral nur Caching (z.B. GFC) Sicherheit durch Ransomwareschutz via Snapshots, Replikation der Snapshots, Fpolicy / VSCAN etc. Neues S3-Protokoll in ONTAP Storage Anbindung für Kubernetes Platformen (Trident) Applikationskonsistenter Backup Service für Kubernetes-Apps (Astra Control) Firmenübernahmen wie DataSense, Talon, Cloudjumper... FinOps und Security via NetApp Spot, Cloudcheckr usw...
Internet and technology 4 years
0
0
7
26:44

Persistenter Speicher und Cloud-native IT-Infrastrukturen

Gerade weil sich moderne Applikations-Arbeitslasten stärker in Richtung Container verschieben, steht der Storage weiterhin im Mittelpunkt. Teil 1: Als Container-Technologien wie Docker zu umfangreichen Orchestrierungslösungen mit Kubernetes führten, lag der Fokus nicht primär auf der Bereitstellung von persistenten „Enterprise-Class-Storage" Funktionalitäten. Für Anwender führt dies immer wieder zu Schwierigkeiten im Zusammenhang mit der Storage-Bereitstellung, zumal Kubernetes selbst generell nicht gerade einfach zu verwalten ist. Klassischer Enterprise Storage rechnet nicht mit kurzlebigen, sprunghaften Dev-Ops-Workloads. Auch Container Storage Interface (CSI) Implementierungen lösen das Problem nicht vollständig, denn mit der Erstellung und dem ‚Ableben’ von Containern werden auch die Verbindungen zu den Speicher-Volumes verändert. Diese Prozesse belasten wiederum den Unternehmensspeicher, vor allem bei komplexen schnellwachsenden und dynamischen Umgebungen. Wichtige Themen wie Datensicherheit, Replikation, Thin Provisioning, Hochverfügbarkeit, Backup-Restore und weitere speicherbezogene Funktionen können damit zu einer echten Herausforderung werden... Im nächsten Podcast zu diesem Thema (Teil 2) soll dann näher auf den Bereich Cloud-native Speicherarchitekturen oder 'von SAN über HCI zu CAS (container attached storage)' eingegangen werden.
Internet and technology 4 years
0
0
7
04:55

Unternehmensweite Datensicherungs- und Disaster-Recovery Strategien gegen Cyberangriffe, Teil 2

Diskussionsrunde (Teil 2) mit Experten der Firmen Cancom SE und Quantum. Ratschläge und Entwicklungstrends im Bereich von Datensicherung-/Restore, Disaster Recovery und Schutz der IT-Infrastruktur. Die Fragen stellt Norbert Deuschle (Storage Consortium). Zum Inhalt: Cyber-Angriffe sind für Betroffene mit teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt dabei die Corona-Pandemie weltweit Cyberkriminellen in die Hände, während Unternehmens-Backups selbst verstärkt zu einem Angriffsziel werden. Wie lassen sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden und welche Strategien & Lösungen gibt es für effektive Gegenmaßnahmen? Dieser zweite Teil unserer Podcast-Episode (17:03 min.) befasst sich ausführlich mit den folgenden Punkten und Empfehlungen: 1. Daten müssen unveränderbar sein 2. Unproduktive Daten aus dem Backup ausschließen – Stichwort: Datenklassifizierung 3. Transparenz – Sauberes Monitoring auch für Backups - Stichwort: Änderungsrate 4. Einsatz von KI und maschinellem Lernen im Backup Prozess - Stichwort Software 5. Fokus auf kurze Wiederherstellungszeiten (restore) Im technischen Bereich werden u.a. folgende Optionen diskutiert: Backup to (2) Disk - Fast Backup 2 Disk – Archiv Backup 2 Tape – Log Term Backup 2 Cloud – Long Term Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Auswahl entsprechender Management-SW-Lösungen zu achten? Backup to Disk, Secure Snapshot Was bedeutet Daten-Unveränderbarkeit im Bereich Backup? Weitere Punkte die besprochen werden, umfassen: Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Die Cloud als Erweiterung bestehender Datenverwaltungs- und Speicherplattformen. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können? Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Edge Computing, IoT, Digitalisierung etc. vergrößern die Angriffsflächen für Cyberattacken und schaffen neue Herausforderungen beim Schutz von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen derzeit die größten Herausforderungen? Ein Fazit: Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe künftig noch weiter zunehmen und falls ja, in welchen Bereichen?
Internet and technology 4 years
0
0
7
17:03

Unternehmensweite Datensicherungs-Strategien gegen Cyberangriffe und Ransomware, Teil 1

Herzlich Willkommen zu dieser neuen Podcast- Episode des Storage Consortium. Inhalt: Cyberattacken und Ransomware-Bedrohungen sind für Betroffene mit Teils massiven wirtschaftlichen Schäden und betrieblichen Beeinträchtigungen verbunden. Immer noch spielt die andauernde Corona-Pandemie dabei weltweit Cyberkriminellen in die Hände und Unternehmens-Backups werden inzwischen selbst zu einem attraktiven Angriffsziel. Deshalb ist es wichtig, sich damit aktiv auseinander zusetzen, insbesondere zu Fragen, wie sich Angriffe auf die eigene IT-Infrastruktur pro-aktiv vermeiden lassen und welche (Sicherungs- und Disaster-Recovery) Strategien& Lösungen als Gegenmaßnahmen sich in der Praxis bewährt haben. In diesem ersten Teil gehen wir insbesondere darauf ein, ob es heute überhaupt noch ausreichend ist, sich im IT-Betrieb auf eine bislang bewährte Datensicherungsumgebung- nebst Technologien und Prozessen zu verlassen? Weitere Punkte die besprochen werden, sind: Wie lässt sich eine moderne und gut durchdachte Sicherungsstrategie beschreiben? Welche zentralen Elemente beinhaltet ein solcher Ansatz? Backups sind zu einem akttraktiven Angriffsziel bei Ransomware & Co. geworden. Was sind essentielle Sicherungsmaßnahmen zum Schutz der Backup-Infrastruktur? Das Experten-Panel für diesen Podcast (15:50 min.): Herr Bjoern Hoeger, Manager Hybrid Data Center & Architecture - Firma Cancom, einem IT-Dienstleistungsunternehmen im Bereich der Digitalen Transformation Herr Bernhard Kölbl - Presales System Engineer - Firma Quantum, einem weltweit operierendem Hersteller  & Entwickler von Hardware- und Software-Lösungen im Bereich der unternehmensweiten Speicher- und Datenverwaltung. Moderation und Fragen: Norbert Deuschle, Storage Consortium Der zweite Teil dieser Podcast-Episode (geplant für Anfang August 2021) wird sich dann detaillierter mit folgenden Fragestellungen auseinandersetzen: Gibt es ‚best-pratices’, um eine Strategie zur Bekämpfung von Ransomware und Cyberübergriffen (inkl. Bitcoin-Mining) im Unternehmen zu etablieren oder ist jedes Unternehmen- bzw. Organisation individuell zu betrachten? Immer mehr Firmen nutzen die Cloud als Erweiterung ihrer bestehenden Datenverwaltungs- und Speicherplattform. Was bedeutet das für den Datenschutz und  Sicherheitsmaßnahmen wie Backup-/Restore, um über das eigene Netzwerk hinaus die Datensicherheit gewährleisten zu können. Eine Absicherung gegen Cyberangriffe kann je nach Infrastruktur sehr komplex sein, eine effektive Strategie besteht in der Regel aus mehreren Ebenen, Prozessen und Lösungen. Welche Technologien sind unverzichtbar, um gegen Angriffe möglichst pro-aktiv gewappnet zu sein? Tape/ Disk/ Object Storage: Wann kommt welche Technologie zum Einsatz? Worauf ist bei der Datensicherungs- und Management-Software zu achten? Edge Computing, IoT und die Digitalisierung generell vergrößern die Angriffsfläche für Cyberattacken und schaffen neue Herausforderungen beim Schutz und der Sicherung von Daten. Welche Bedeutung kommt der Sicherung von Netzwerken und den einzelnen Datenendpunkten zu und wo liegen die größten Herausforderungen für die Betreiber? Wie sind die aktuellen Bedrohungsszenarien einzuschätzen? Werden potentielle Angriffe noch weiter zunehmen oder ist das letztlich Phänomen vorübergehend, über das man sich in einigen Jahren keine großen Gedanken mehr machen muss?
Internet and technology 4 years
0
0
7
15:50

Software-Definierte Daten- und Speicherverwaltung mit Scality ARTESCA

Im Tec-Podcast nachgefragt: Scality RING und ARTESCA; flexible Optionen zur anwendungsoptimierten, modernen Datenverwaltung. Zum Inhalt: Kritische Daten werden heute überall und in immer größerer Menge erzeugt – angefangen von traditionellen Enterprise-Anwendungen in Rechenzentren über neue SaaS Apps in der Cloud, Industrial Internet of Things Anwendungen und Sensoren – bis hin zu Edge Lokationen in Außenstellen mittels Video-Überwachung oder Maschinendaten-Sensoren. Aber natürlich trägt dazu auch der verstärkte Einsatz von ML und künstlicher Intelligenz im Rahmen der Digitalisierung massiv zu dieser Entwicklung bei. Der 2009 in Paris gegründete und inzwischen weltweit agierende Datenmanagement-und Speicher-Softwareanbieter Scality hat es sich zur Aufgabe gemacht, dieses Datenwachstum hochskalierbar und leistungsfähig zu verwalten, zu speichern sowie auswertbar zu mache; dies schließt aktuelle Anforderungen, wie sie aus Cloud-nativen Anwendungsumgebungen (Stichwort: Kubernetes & Co.) resultieren, ein. Im folgenden Gespräch mit Christoph Storzum - Regional Direktor DACH bei Scality - gehen wir in Bezug auf das aktuelle Lösungsangebot und die Strategie des Anbieters detailliert ein.
Internet and technology 4 years
0
0
7
11:46

Quantum ATFS: Neue filebasierte Speicherverwaltung mit integrierter zero-Touch Datenklassifizierung. Wo liegen die Vo...

Im Gespräch mit Frau Ines Wolf, Managerin Pre-Sales CE bei der Firma Quantum sprachen wir exklusiv über die neue ATFS - File Storage Software mit integrierter Datenklassifizierung des Unternehmens; insbesondere darüber, wie die Lösung aus Sicht der Daten- und Speichermanagement-Expertin ihnen helfen kann, die beschriebenen Herausforderungen zu adressieren. Die Besonderheit von ATFS besteht in der Zusammenführung von automatisierter Datenklassifizierung, Datenmanagement und Datenspeicherung innerhalb einer Plattform. Zum Hintergrund: rasches Datenwachstum, mangelnde Sichtbarkeit und Kontrolle sowie ein deutliches Mehr an Datenbewegungen über verteilte Architekturen stellen Organisationen vor Herausforderungen; insbesondere die starke Zunahme von unstrukturierten Daten will kosteneffizient beherrscht werden. Eine durchgängige, sichere und transparente Datenverwaltung –vor-Ort und-/oder in der Cloud - ist das Ziel. Hinzu kommt: Technische Fortschritte in den Bereichen künstlicher Intelligenz und Analyse führen zu geänderten und neuen Anforderungen an den Daten-Lebenszyklus. Dazu gehört auch die Notwendigkeit, die Verfügbarkeit der Daten ggf. über Jahrzehnte hinweg zu gewährleisten und sie vor Datenverlust, Katastrophen und Cyber-Angriffen zu schützen...
Internet and technology 4 years
0
0
5
13:47

Mit modernen Datensicherungs-Strategien die TCO im Unternehmen senken

In dieser dritten Podcast-Folge sprechen wir mit Herrn Wolfgang Huber, Regional Director, Central Europe bei Cohesity darüber, wie sich aus Sicht seines Unternehmens mit der richtigen Datensicherungsstrategie die Gesamtkosten (TCO) senken lassen und welche konkreten betrieblichen Vorteile sich daraus ergeben, wenn veraltete Backuplösungen durch einen modernen Architekturansatz ersetzt werden. Dies insbesondere vor dem Hintergrund, dass Backups, Archive, Dateisysteme, Objektspeicher und Daten für Tests, Analsen und Entwicklung sich vielfach in Infrastruktursilos befinden und damit eine fragmentierte Datenlandschaft darstellen...
Internet and technology 4 years
0
0
7
11:44

Objektdaten-Speicherung: Beschaffungskriterien und Einsatzmerkmale

Auf welche Randbedingungen sowie Funktionsmerkmale sollten Unternehmen bei der Evaluierung von Objektspeicherlösungen besonders achten?\r\n\n\nKatalysatoren für den Einsatz von Objekt-Speichersystemen sind das rasche Datenwachstum und neue Anwendungen, was verstärkte Investitionen in hybride Cloud-Implementierungen nach sich zieht. Traditionelle Dateisysteme spielen ebenfalls eine wichtige Rolle, um Objektstorage zu nutzen ohne bewährte Anwendungen aufwändig zu modifizieren, die im Zusammenhang mit CIFS- oder NFS-Zugriffen entwickelt wurden...
Internet and technology 4 years
0
0
7
05:52

Backup und Ransomware: Angriffe möglichst frühzeitig erkennen und verhindern

Interaktiver Podcast mit Cohesity zu den IT-seitigen Herausforderungen von Cyberattacken mit Lösungsvorschlägen.\r\n\nUntersuchungen zufolge melden fast die Hälfte der befragten Unternehmen seit dem Umstieg auf das Home Office eine deutliche Zunahme von Cyber-Angriffen; zudem werden diese immer ausgefeilter. In diesem Beitrag als Q & A mit Herrn Wolfgang Huber, Regional Director, Central Europe, bei Cohesity, dreht es sich schwerpunktmäßig darum, ob sich Ransomware-Angriffe überhaupt frühzeitig erkennen und verhindern lassen und wo die größten Gefahren für die betroffenen Betriebe lauern.\r\n\nWeiter wird in dem Gespräch auf Backup- und Recovery als „last line of defense“ eingegangen und mit welcher Palette an Funktionen eine moderne Datensicherungs-Strategie im Unternehmen diese Bedrohungen möglichst nachhaltig adressieren kann. Abschließend werden einige best practises auf Basis von Cohesity-Technologien gegen Ransomware-Angriffe vorgestellt.\r\n
Internet and technology 4 years
0
0
6
07:17

Backup- und Recovery-Prozesse mit Hilfe der Cohesity Helios Datenplattform vereinfachen

Zum Hintergrund: der Fokus bei vielen mittleren Unternehmensgrößen verschiebt sich derzeit von der reinen Backup- und Speicherverwaltung (aka Storage Management) hin zu einem hochautomatisierten Datenmanagement, das sowohl lokal als auch als Cloud-basierte Data Management as a Service (DMaaS) - Dienste als SaaS-Lösung zur Verfügung steht. Dieser Ansatz geht weit über einfache lokale Datensicherungs-Funktionalitäten hinaus, was IT-Teams rein aus Konsolidierungsgesichtspunkten viel Zeit, Geld und Ressourcen sparen kann. Ein Mehrbedarf an Flexibilität, Sicherheit, Vereinfachung und natürlich Kostenaspekte (TCO) sind wesentliche Treiber dieser Entwicklung. Diese stehen im Mittelpunkt von Initiativen zur Vereinfachung sowie der Modernisierung von IT-Infrastrukturen. Wir sprechen in diesem Podcast mit Wolfgang Huber - Regional Director, Central Europe bei Cohesity - darüber, wie aus Sicht seines Unternehmens IT-Infrastruktur-Verantwortliche möglichst effektiv unterstützt werden können, um die steigenden Anforderungen an das Datenmanagement erfolgreich zu bewältigen.
Internet and technology 4 years
0
0
6
10:42

Quantencomputer bedrohen die Sicherheit von Verschlüsselungs-Verfahren. Übersicht Teil 1

Die potentielle Rechenleistung künftiger Quantencomputer stellt eine Bedrohung für bestimmte Verschlüsselungsstandards und die Sicherheit der Blockchain dar. Dies erklärt auch das gestiegene Interesse an diesen Systemen in der Krypto-analytischen Forschung sowie dem verstärkten Aufkommen von Lösungen zum sicheren Schutz von kritischen Unternehmensdaten während der Übertragung im Netzwerk. Im Mittelpunkt dieses Blogposts in zwei Teilen als Audiodatei (Teil 1 & 2) steht ein erster Überblick zu Lösungen (kein Anspruch auf Vollständigkeit!) im Bereich von gesicherten Anwendungstransaktionen für Cloud-Deployments, quantenbasierte Schlüsselverteilung QKD, sowie Verschlüsselungsfunktionen für hybride Cloud-Speicherumgebungen auf Basis quantenresistenter Kryptographie.
Internet and technology 4 years
0
0
5
05:31

Intelligente Speicher- und Datenverwaltung von unstrukturierten Filedaten für Multicloud-Umgebungen

Der US-Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicherverwaltungs-Lösungen für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen; kurzgefasst: Analytics Driven, Automated Storage Tiering für NAS. Gesprächspartner und fachliche Experte ist Thomas Rochner, Sr. Systems Engineer DACH. Diese 6. Podcast Episode gibt Ihnen eine inhaltliche Zusammenfassung der bisherigen Episoden 1-5 und somit die Möglichkeit, sich einen kompakten Überblick zum Leistungsumfang des Anbieters Komprise Inc. zu verschaffen. Die genauen Details der Lösung werden in den vorangegangenen Episoden jeweils ausführlicher behandelt. 
Internet and technology 5 years
0
0
7
08:41

Quantum ATFS Filesystem kombiniert Datenverwaltung- und Storage innerhalb einer Plattform

Die neue Daten- und Speicherverwaltungsplattform Quantum ATFS (All-Terrain File System) ist eine netzwerkgebundene (NAS-)Speicherplattform, die Echtzeit-Datenklassifizierung und Erkenntnisse mit den Anforderungen von Anwendungen integriert und damit bestimmt, wie Speicherressourcen optimiert zugewiesen und verbraucht werden. Dateneinblicke sollen es Unternehmen ermöglichen, diese ohne die Einschränkungen eines Dateisystems zu visualisieren, eine zielgerichtete Datenplatzierung auf der Grundlage von Richtlinien zu automatisieren und Ressourcen durch "Just-in-Time"-Datenbewegungsrichtlinien zu optimieren.   
Internet and technology 5 years
0
0
7
04:16

Zur optimierten Nutzung von Daten für KI- und ML Anwendungen auf Basis von Komprise Inc.

Der Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicher Management Software für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen; kurzgefasst: Analytics Driven, Automated Storage Tiering für NAS. In dieser 5. Podcast Episode wird auf einen weiteren Anwendungsfall der Lösung eingegangen, der den Bereich "Dynamic Data Analytics" umfasst. Stichworte: Lernen Sie Ihre Daten zuerst richtig kennen, bevor Sie weitere entscheidende Schritte zur Analyse sowie Datenverwaltung vornehmen. DYNAMIC DATA ANALYTICS: Analysiert Daten, damit die richtige Entscheidung getroffen wird, bevor mehr Speicher sowie weitere Backups eingesetzt werden. TRANSPARENT MOVE TECHNOLOGY:  Verschiebt heiße, kalte, archivierte Daten ohne Unterbrechung für Apps und Benutzer. DIRECT DATA ACCESS: ermöglicht Ihnen direkt die Kontrolle Ihrer Daten...
Internet and technology 5 years
0
0
6
08:03

NAS-Datenmigration: Best Practices - Beispiele und kritische Erfolgsfaktoren

Der Softwareanbieter Komprise Inc. entwickelt Hardware-unabhängige Daten- und Speicherverwaltungslösungen für die Analyse, Archivierung, Migration und Replikation von unstrukturierten Daten (Files) in Multicloud Umgebungen. In dieser 4. Podcast-Episode wird auf einen weiteren wichtigen Anwendungsfall eingegangen. Nach Archivierung und Datenanalyse geht es in diesem Expertengespräch um NAS- und S3 Datenmigration. Es werden folgende Fragen beantwortet: Wie plane ich eine möglichst automatisierte Migration von Filedaten? Welche Rolle spielt dabei die intelligente Analyse meiner vorhandenen Daten und Speicherumgebung? Was sollten Anwender bei der NAS - Datenmigrationen besonders beachten? Kritische Elemente und Erfolgsfaktoren innerhalb der Migration und Best Practices Beispiele. Speicherklassen nach Zugriffen und Kosten unterteilen, z.B.  Flash für heiße Daten oder SATA Festplatten und die Cloud für kalte Daten (on-prem / off-prem). Kostenreduzierung durch intelligente Migration von heißen Daten in die Cloud und kalter Daten in einen Objektspeicher? Im nächsten (5.) Podcast dieser Folge werden wir darauf eingehen, wie die Softwarelösung von Komprise Inc. als Brücke für Big Data- und KI-Anwendungen dienen kann. Stichworte: Tag, Search, virtuelle Data Lakes...
Internet and technology 5 years
0
0
6
08:13
You may also like View more
Pioneros For Life Bienvenido al único videopódcast grabado a bordo del Volvo EX90, el coche más seguro del mundo. Un espacio íntimo, elegante y acondicionado acústicamente, donde las buenas ideas se sientan al lado del conductor y las conversaciones arrancan sin rodeos. Aquí no hablamos del futuro: hablamos de cómo vivir mejor ahora. Con calma. Con intención. Con estilo. En cada episodio, Juanma Ortega recibe a personas que viven con intención: creadores, científicos, chefs, tecnólogos, músicos, emprendedores… Gente brillante que te inspira sin ruido, con historias reales y visión de futuro aplicada al presente. Aquí la tecnología no se presume: se pone al servicio de una vida más equilibrada, más consciente, más libre. Porque vivir bien hoy significa elegir con criterio —desde lo que conduces hasta lo que escuchas—. 🟢 Bienestar real 🟢 Cultura con fondo 🟢 Tecnología útil y humana 🟢 Sostenibilidad sin discurso 🟢 Y una experiencia premium que no presume Pioneros For Life. Porque vivir mejor no empieza con más, sino con mejor. Updated
Inteligencia Artificial con Jon Hernandez En este Podcast charlamos con gente que esta adoptando o siendo afectada por la IA, el objetivo es traer todos los puntos de vista posibles sobre esta revolución tecnológica que va a cambiar la sociedad. Charlas distendidas y tranquilas sobre temas que nos afectan a todos de la mano de los que más saben o más sufren la IA. Updated
Somos Eléctricos Podcast diario dedicado a difundir y a dar a conocer el mundo de los vehículos eléctricos. En estos podcasts te hablamos de las últimas novedades del sector además de compartir, debatir y opinar sobre distintos temas referentes a los coches eléctricos, energía sostenible y tecnología aplicada a los vehículos. Finalmente también usamos esta plataforma de podcast para resolver dudas o dar respuesta a las preguntas de nuestros oyentes. Updated
Go to Internet and technology