ビッグデータの概要

ビッグ データは、構造化データと非構造化データの両方で構成される非常に大規模なデータ セットです。大量、高速、多様な情報資産があり、洞察力と意思決定を強化するための費用対効果の高い革新的な形式の情報処理が必要です。昨今、データ量が膨大に増加し、それがこのビッグデータを形成しています。

最近の組織内のデータは、MB、TB、GB を超えて増加しています。重要なのは、データが現在存在する以上に増加している場合はどうなるかということです。将来的には、データが約ペタバイト (1024 TB)、エクサバイト (1024 PB)、ゼタバイト (1024 EB)、またはヨタバイト (1024 ZB) に増加する可能性があります。データの事実としては、ニューヨーク証券取引所では 1 日あたり約 1 テラバイトのデータが生成され、Facebook では約 100 億枚の写真がホストされ、最大約 1 ペタバイトのデータが生成され、Twitter では 8 TB のデータが生成されます。

ほとんどの人にとって、ビッグデータとはデータのサイズだけでなく、 4V データの。データ量はビッグ データの側面の 1 つですが、データの種類、データが組織に流入する速度、組織にとってのデータの価値も含まれます。この価値観はどの組織にとっても非常に重要です。したがって、実際には 4V のデータとして要約されます。 量、速度、多様性、価値。

このビッグデータの処理には、データを整理して適切に処理するためのプラットフォームが必要です。 ハドゥープ ビッグデータの整理と処理を支援するプラットフォームです。その起源は アパッチヌッチ.

レールカーマ 私たちは Hadoop を使用してクライアントのために大量のデータを整理することに成功しており、その経験と学習を今後のブログで共有する予定です。乞うご期待。

ご連絡ください。

マナサ・ヘゲレ

Ruby on Rails シニア開発者

最新のアップデートを購読する

関連記事

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

jaJapanese