Was ist der Unterschied zwischen Big Data und Cloud?


Antwort 1:

Dies sind zwei separate Themen, die zusammen verwendet werden können. Beide haben einige Unschärfen in ihren Definitionen, so dass dies auch zu Unsicherheiten führen kann. Lassen Sie mich versuchen, sie zu definieren (im Grunde genommen und ich bin sicher, dass andere diese Definitionen etwas anders sehen werden)

Cloud Computing: Infrastruktur, die problemlos auf eine beliebige Anzahl von Workloads zurückgesetzt werden kann. Diese Rechenressourcen werden zu einer Cloud für Computer gebündelt. Benutzer können Teile der Compute Cloud so konfigurieren und zuweisen, dass sie an ihrer Aufgabe arbeiten, während sich die Arbeitslast anderer Benutzer ebenfalls in der Cloud befindet. Die Rechenressourcen können für jede Arbeitslast schnell erhöht und verringert werden, da die zugrunde liegenden Ressourcen undifferenziert sind.

Dies führt zu mehreren Vorteilen gegenüber herkömmlichen Computermodellen.

  • Neue Workloads können sehr schnell hochgefahren werden - keine Einkaufszyklen, kein HW-Setup, nur Bereitstellung und goCompute-Leistung können schnell variiert werden - Rechenressourcen können nach oben oder unten geändert werden, um die aktuellen Anforderungen zu erfüllen, was Kosten spart. Höhere Standardisierung - seit dem Cloud-Computing Die Ressourcen sind von einer begrenzten Anzahl von Konfigurationen abhängig, auf denen alle Anwendungen ausgeführt werden müssen, wodurch die Wiederverwendung von Software zwischen den Anwendungen beschleunigt wird. Infrastruktur als Code - da die meisten Cloud-Konfigurationen mit Code eingerichtet oder geändert werden können, werden Rechenumgebungen leicht reproduzierbar, was zu einer größeren Fähigkeit zum Erweitern, Verschieben und Verschieben führt. oder Computerlösungen wiederherstellen

Cloud hat auch einige Nachteile:

  • Bis zu einem gewissen Grad werden Cloud-Computer gemeinsam genutzt - Anbieter müssen sicherstellen, dass eine starke Isolation zwischen den Benutzern besteht. Wenn Cloud-Computer im Leerlauf sind, muss noch jemand für sie „bezahlen“ - ist normalerweise die Leerlaufzeit in der Rate für die Nutzung der Cloud enthalten (seit dem Durchschnitt) Ein dedizierter Rechenzentrumscomputer wird nur zu 30% ausgelastet, und die meisten großen Cloud-Anbieter werden zu über 90% ausgelastet. Dies ist wirklich kein großer Nachteil.

Es gibt auch verschiedene Cloud-Computing-Modelle:

  • Public Cloud - Ein Drittanbieter, der Cloud-Computing-Ressourcen bereitstellt (denken Sie an AWS) Private Cloud - In der Regel richtet die zentrale IT-Abteilung eines großen Unternehmens eine Cloud ein, um die Rechenressourcen besser nutzen zu können. Hybrid Cloud - Eine Kombination aus Public- und Private Cloud-Ressourcen die Vorteile von beiden zu erreichen

Big Data: Informationen / Dateninhalte werden normalerweise als Big Data bezeichnet, wenn sie sehr groß sind und aus vielen verschiedenen Quellen stammen. In vielen Fällen werden Datenlösungen jedoch nur aufgrund der Größe als Big Data bezeichnet. In beiden Fällen liegt es normalerweise an den Implementierern, ihre Lösungen als Big Data zu bezeichnen oder nicht.

Die praktische Definition hat normalerweise mehr mit den verwendeten Werkzeugen und Prozessen zu tun als mit einer Beschreibung der Daten. Wenn Unternehmen von der Arbeit an ihren Workloads für historische Daten übergehen und neue Tools (Hadoop, Data Warehouses, Streaming Analytics usw.) einführen, wird dieser Übergang normalerweise als „Umstellung auf Big Data“ bezeichnet. Daher ist die Definition von Unternehmen zu Unternehmen sehr unterschiedlich. Mehr Daten als gewohnt, zusammen mit neuen Tools, die sie noch nie zuvor verwendet haben, entsprechen einem organisatorischen Übergangsereignis, das häufig als Big-Data-Übergang bezeichnet wird. Sehr matschig.

Big Data in der öffentlichen Cloud: Wie Sie wahrscheinlich festgestellt haben, gehen diese scheinbar nicht zusammenhängenden Themen häufig Hand in Hand. Dies ist auf die durch die Cloud bereitgestellte wirtschaftliche Veränderung und die Möglichkeit zurückzuführen, neue Tools, die in öffentlichen Clouds konfiguriert wurden, schnell und kostengünstig auszuprobieren. Als eine Organisation, die vom Management gebeten wird, alle unterschiedlichen Datenquellen innerhalb eines Unternehmens zusammenzuführen und den darin enthaltenen Wert freizuschalten, werde ich Millionen von Dollar für neue Hardware und Software ausgeben, um zu sehen, welcher Wert vorhanden ist oder werde um das in der öffentlichen Cloud verfügbare Pay-as-you-go-Modell zu verwenden? Diese öffentlichen Cloud-Unternehmen bieten Standardangebote an, bei denen ich auf alle verschiedenen Tools zugreifen und innerhalb eines Tages an Lösungen arbeiten kann. Um dies im traditionellen Modell einzurichten, muss ich die Tools untersuchen, einen Satz auswählen, die Hardware definieren, um ihn auszuführen, die Kapitalkaufanforderung senden, ein Viertel warten, die Ausrüstung bestellen, sie installieren und konfigurieren und dann mit dem Lernen beginnen wie man den Wert in den Daten "entsperrt". Die meisten Menschen entscheiden sich für eine öffentliche Cloud.

Diese beiden Konzepte sind also ziemlich getrennt, werden aber häufig zusammen angezeigt. Als solches kann ich völlig sehen, wie es Verwirrung geben kann, was jeder ist und wie sie unterschiedlich sind.

ich hoffe das hilft


Antwort 2:

Die Cloud bezieht sich nur darauf, wo etwas lebt oder auftritt, auf einem Remote-Server, der an einem anderen Ort gehostet wird.

Obwohl die Analyse und Implementierung von Big Data in der Cloud erfolgt, ist sie nicht auf die Cloud beschränkt. Viele Unternehmen verfügen über interne Megalith-Repositories, die sie vor Ort pflegen.

Sie sehen die Begriffe häufig zusammen, da viele Unternehmen aus vielen Gründen (Geschwindigkeit, Kosten, Schutz von Ressourcen, Effizienz) auf Cloud-basierte Systeme umsteigen. Die Aufgaben dieser Unternehmen können jedoch alle auf internen Servern ausgeführt werden, sofern sie angemessen sind groß und versorgt.


Antwort 3:

Das sind zwei verschiedene Dinge.

Big Data bezieht sich normalerweise auf die Speicherung und Verarbeitung eines großen Datenvolumens.

Cloud (Computing) bezieht sich auf eine Reihe von Funktionen, die Infrastruktur (Server und Speicher) sowie Dienste (z. B. maschinelles Lernen, Bereitstellungen usw.) bereitstellen, die über das Internet bereitgestellt werden können, normalerweise über APIs.

Big Data erfordert in der Regel eine große Anzahl von Infrastrukturen, und hier kreuzen sich die beiden Welten. Cloud Computing erleichtert das Hochfahren von Servern (und auch das Herunterfahren von Servern), die für Big-Data-Zwecke verwendet werden können.

Neben der Infrastruktur bieten Cloud-Anbieter auch Managed Services an, bei denen sie die Infrastruktur für Big Data bereitstellen und warten, sodass sich die Kunden nur auf die Anwendungsfälle konzentrieren können. Zum Beispiel: Amazon EMR.