データ基盤

スポンサーリンク
CentOS

Twitter Streaming APIでMongoDBに溜めたツイートをJupyter NotebookからApache Sparkで読み込んでみた

今後の仕事で活かせるよう、今日はOSSを使って簡単なデータ基盤の構築してみたいと思います。使う技術は データソース:Twitter Streaming API、分散ストレージ:MongoDB、分散データ処理:Apache Spark、データ整形:pandas、対話的コンソール:Jupyter Notebook
データウェアハウス

【書評】ビッグデータを支える技術 -刻々とデータが脈打つ自動化の世界

まさに私の知りたかった、ビッグデータを扱うための技術要素についてビッグデータの基礎、実践、問題点とその解消法、ベストプラクティスなどがまとめられていて、かなり理解が深まりました。ビッグデータを扱いたいと考えているエンジニアには非常におすすめの一冊です。
データウェアハウス

データ基盤に欠かせないデータマートとは?

今日はデータ活用に欠かせないデータマートについて説明したいと思います。 現代は、過去にない程のスピードで様々なものが変化をする時代です。 あなたはこの時代の流れにうまく対応してビジネスマンとしてビジネスを成長させることができているでしょうか。
データウェアハウス

データ基盤に欠かせないデータウェアハウスとは?

こんにちは!やましー@データ活用クラウドエンジニア(@yamashi18041)です! あなたはデータの重要性に気が付いているでしょうか? おそらく、あなたはその重要性に気が付き始めているからこそ、私のブログを読んで下...
Azure

Azure Databricksでデータを整形&統合&可視化する方法

こんにちは。やましー@データ活用クラウドエンジニア(@yamashi18041) です。 今日は前回書いた「Microsoft Azure Databricksを使ってデータレイクのデータを表示する方法」で使用した教材、Mi...
Azure

Microsoft Azure Databricksを使ってデータレイクのデータを表示する方法

今日はAzure Databricks作って、前回データレイクに取り込んだを読み出してて見たいと思います。 この記事を読むことで、モダンなデータ活用基盤をクラウド上に作成できるようになります。
Azure

Microsoft Azure Data Factoryを使ってデータ基盤にデータを取り込む方法

今回はAzure Data Factory を使ってデータ基盤の構成要素であるデータレイクへデータを入れて(インジェストして)みます。教材としてはMicrosoft Learnの「Azure Data Factory におけるデータ インジェスト」を題材として使います。
クラウド

データ基盤に欠かせないデータレイクとは?

売り上げ促進、経費削減など様々なビジネス課題を解決する可能性を秘めているビッグデータの活用。ビッグデータ活用に欠かせないデータ基盤の構成要素でもある「データレイク」について説明したいと思います。
クラウド

【ベストプラクティス】ビッグデータ活用のために必要なデータ基盤とは

売り上げ促進、経費削減など様々なビジネス課題を解決する可能性を秘めているビッグデータの活用に必要なデータ基盤とは。
スポンサーリンク
タイトルとURLをコピーしました