データセンターの仕組み

私たちの情報ニーズがもっとシンプルだった時代がありました。私たちはほんの一握りのチャンネルで決まった時間にテレビ番組を家庭に放送し、紙の配布とバックアップのためにメモや手紙を三重にタイプし、壁に配線された電話で会話をしていました。携帯電話もかつては電話をかけるためだけに使われていました。

しかし、インターネット、高帯域幅のブロードバンド、スマートフォン、その他の新しいテクノロジーの黎明期以来、私たちは常にオンラインであり、コンピューター、ゲーム システム、テレビ、電話にデータを配信することを常に要求しています。紙の文書は依然として存在しますが、かつては文書であったものの多くが、電子メール、Web ページ、PDF、およびソフトウェアによって生成されコンピューター画面上に表示されるその他のデジタル化されたファイルの形式で入手できます。本ですら、紙からコンピューター、モバイル デバイス、電子書籍リーダー上の画像へと移行しつつあります。

データの電子交換は、ほぼあらゆる種類の商取引に必要であり、私たちの個人的なやり取りの多くでは標準になりつつあります。テレビ放送や電話など、かつてはアナログだったものも、ほとんどがデジタル形式で有線や電波で配信されています。しかもこれまでよりもはるかに大きな音量で。それが政府の書類であれ、マグロのキャセロールを焼くための指示であれ、ストリーミングされたテレビ番組であれ、私たちはそれをオンラインで呼び出せるようにしたいと考えており、それが今すぐにでも必要です。

デジタル情報をほぼ瞬時に配信するという膨大な需要に伴い、リクエストを処理して商品を提供できるコンピューターとネットワーク機器の集中が必要になりました。こうして、現代のデータセンターが誕生しました。

データセンターとは何ですか?

データ センターは、大量のデータの収集、保存、処理、配布、またはアクセスを許可する目的で、コンピューティングおよびネットワーク機器が集中している単なる集中場所です。それらはコンピュータの出現以来、何らかの形で存在してきました。

私たちの初期のコンピューターが部屋ほどの大きさの巨大なコンピューターだった時代には、データ センターには 1 台のスーパーコンピューターがあったかもしれません。機器が小型化し、安価になり、データ処理のニーズが増加し始めたため、そのニーズは指数関数的に増加しました。私たちは、処理能力を高めるために複数のサーバー (家庭用コンピューターに相当する産業用) をネットワーク化することにしました。私たちはそれらを通信ネットワークに接続し、人々がリモートからそれらやその情報にアクセスできるようにします。これらのクラスター化されたサーバーと関連機器を多数、1 つの部屋、建物全体、または建物のグループに収容できます。今日のデータセンターには、非常に強力なサーバーと非常に小型のサーバーが数千台あり、年中無休で稼働していると考えられます。

データ センターは、サーバーが高密度に集中しており、ラックに積み重ねられて列をなして配置されていることが多いため、サーバー ファームと呼ばれることもあります。データ ストレージ、バックアップとリカバリ、データ管理、ネットワーキングなどの重要なサービスを提供します。これらのセンターは、Web サイトの保存と提供、電子メールとインスタント メッセージング (IM) サービスの実行、クラウド ストレージとアプリケーションの提供、電子商取引の実現、オンライン ゲーム コミュニティの強化など、大規模な処理を必要とするその他のさまざまな作業を行うことができます。 0と1の。

ほぼすべての企業や政府機関は、独自のデータ センターを必要とするか、他人のデータ センターへのアクセスを必要とします。社内で構築して保守する企業もあれば、コロケーション施設 (コロとも呼ばれる) でサーバーをレンタルする企業もあれば、Amazon、Microsoft、Sony、Google などのホストでパブリック クラウド ベースのサービスを使用する企業もあります。

コロスやその他の巨大なデータセンターは、インターネットの使用が主流になってから少し経った 1990 年代後半から 2000 年代前半に出現し始めました。一部の大企業のデータ センターは、大量の情報への絶え間ないアクセスのニーズに応えるために、地球上に分散して配置されています。現在、世界にはさまざまな形や規模のデータセンターが 300 万以上あると言われています 。

なぜデータセンターが必要なのでしょうか?

クラウド コンピューティングとは、データがコンピューター ハードウェアに保存されないことを意味するという考えは正確ではありません。データはローカル マシン上になくてもかまいませんが、データ センター内のどこかの物理ドライブに格納する必要があります。

ハードウェアが絶えず小型化、高速化、高性能化しているにもかかわらず、私たちはますますデータを必要とする種となっており、処理能力、ストレージスペース、情報全般に対する需要は増大しており、企業の提供能力を常に上回る恐れがあります。

データを生成または使用するあらゆる組織には、政府機関、教育機関、通信会社、金融機関、あらゆる規模の小売業者、Google や Facebook などのオンライン情報およびソーシャル ネットワーキング サービスの提供者など、何らかのレベルでデータ センターが必要です。 。データへの高速かつ信頼性の高いアクセスがなければ、重要なサービスを提供できなくなったり、顧客満足度や収益が失われたりする可能性があります。

International Data Corporation による EMC の調査では、2011 年に 1.8 兆ギガバイト (GB)、つまり約 1.8 ゼタバイト (ZB) のデジタル情報が作成されたと推定されています。 2012 年のデータ量は約 2.8 ZB でしたが、2020 年までに 40 ZB に増加すると予想されています。

このメディアはすべてどこかに保存する必要があります。そして最近では、ますます多くのものがクラウドに移行しており、自宅や職場のコンピューターでそれらを実行または保存するのではなく、クラウドプロバイダーのホストサーバーを介してそれらにアクセスすることになります。また、多くの企業は、独自の集中コンピューティング ネットワークとサーバーの運用コストを削減するために、プロフェッショナル アプリケーションをクラウド サービスに移行しています。

クラウドは、アプリケーションとデータがコンピューティング ハードウェアに格納されていないことを意味するものではありません。これは、クライアントとその顧客がインターネット経由でアクセスできる遠隔地で、別の誰かがハードウェアとソフトウェアを保守していることを意味します。そしてそれらの場所はデータセンターです。

データセンターの規模と設計

データセンターについて考えるとき、私たちの多くは、サーバーのラックでいっぱいの巨大な倉庫が点滅し、うなり声を上げ、ワイヤーがあちこちに張り巡らされている様子を想像します。そして場合によっては、私たちの判断が正しいこともあります。しかし、それらにはあらゆる形、サイズ、構成があります。その範囲は、部屋に数台のサーバーがあるものから、数万台のサーバーとその他の付随ハードウェアを備えた数十万平方フィートの巨大なスタンドアロン構造物まで多岐にわたります。それらのサイズと含まれる機器の種類は、サポートしているエンティティのニーズに応じて異なります。

colo のようなプライベート クラウド プロバイダー、 AmazonやGoogleのようなパブリック クラウド プロバイダー、企業のプライベート データ センター、NSA やさまざまな科学研究施設のような政府のデータ センターなど、さまざまな種類があります。

オフィスのようにコンピュータ 1 台につき 1 人が配置されているのではなく、少数の人員が多数のコンピュータやネットワーク デバイス、電力、冷却、その他の必要な建物設備を監視しています。従業員がスクーターや自転車で移動できるほど大きな企業もあります。機器が重くなる可能性があるため、床は通常のオフィスビルよりも大きな重量に耐える必要があります。また、背の高いラック、高床、天井吊り下げケーブルなどを収容するために、天井も高くする必要があります。

Google、Facebook、Microsoft、AOL、Amazon など、オンラインでの存在感を高めている多くの企業は、世界中に大規模なデータセンターを持っています。 Microsoft は毎月 20,000 台のサーバーを追加していると伝えられています。

Google には、ジョージア州ダグラス郡を含む 13 か所の大規模なデータ センターがあります。ノースカロライナ州レノア。サウスカロライナ州バークレー郡。アイオワ州カウンシルブラフス。オクラホマ州メイズ郡。オレゴン州ダレス。キリクラ、チリ。ハミナ、フィンランド。サン・ギスラン、ベルギー。ダブリン、アイルランド。香港、シンガポール、台湾。同様に、多くのミニ データ センターがあり、一部はコロケーション サイトにあります。このテクノロジー巨人は、デザインを実験する傾向もあります。たとえば、Google は 2005 年頃、自社のデータ センターでサーバー機器を収めた輸送用コンテナを使用していましたが、その後、他のカスタム設計に移行しました。

サーバーの構成、ネットワーク トポロジ、サポート機器は、企業、目的、場所、成長率、データ センターの初期設計コンセプトによって大きく異なります。そのレイアウトは、データ フローの効率とセンター内の環境条件に大きな影響を与える可能性があります。サイトによっては、Web サーバー、アプリケーション サーバー、データベース サーバーを分離するなど、サーバーを機能ごとにグループに分けたり、各サーバーが複数の役割を実行したりする場合があります。厳格なルールはなく、公式の基準もあまりありません。

あるいは、ガイドラインを作成しようとしている団体ももちろんあります。 Telecommunication Industry Association は 2005 年に TIA-942 プロジェクトと呼ばれるデータセンター階層分類標準を開発しました。この標準では、冗長性やフォールト トレランスのレベルなどの指標によって評価されるデータセンターの 4 つのカテゴリが特定されています。これらには次のものが含まれます。

  • 層 1 – 冗長性が組み込まれていない単一の配布パスを備えた基本的なサイト インフラストラクチャ。
  • Tier 2 – 冗長コンポーネントを含む単一の配布パスを備えた冗長サイト インフラストラクチャ。
  • 層 3 – 複数のパスがあり、一度に 1 つのみがアクティブになる、同時保守可能なサイト インフラストラクチャ。
  • 階層 4 – 多くの冗長性を実現するために複数のアクティブな分散パスを備えたフォールト トレラントなサイト インフラストラクチャ。

理論的には、第 1 層と第 2 層のカテゴリに分類されるサイトはメンテナンスのために時々シャットダウンする必要がありますが、第 3 層と第 4 層のサイトはメンテナンスやその他の中断中も稼働し続けることができるはずです。数値が大きいほど、信頼性のレベルが高くなります (潜在的なダウンタイムが少なくなるという意味です) が、コストも高くなります。

この規格には、ケーブル配線、施設インフラストラクチャ (環境制御や電力など)、その他の設計上の懸念事項についての推奨事項も詳しく記載されています。これらは通信業界を対象としていますが、他のデータセンターにも適用できます。これは、全体的なデザインと機能によってデータセンターを評価および比較する数少ない方法の 1 つです。

すべてのデータセンターがこれらの標準に準拠しているわけではありません。そして、今日のデータセンターは非常に新しい現象であるため、現時点ではほとんどの地域でデータセンターに対する特定の建築基準がありません。これらは通常、他の汎用タイプにまとめられます。

レイアウト、設備、ニーズは常に進化していますが、多くのデータセンターで見られる共通の要素がいくつかあります。さらに詳しく知りたい方は読み続けてください。

コンピュータハードウェア

物理的なレイアウトは異なりますが、どのデータセンターにもサーバー クラスターがあります。

データセンターの物理的な共通点の 1 つは、相互接続されたサーバーのクラスターです。これらはすべて非常に似ていて、同じ高さ、幅、奥行きのオープン ラックまたは密閉キャビネットに整然と積み重ねられている場合もあります。または、大型の古いサーバーと並んで小型の平らな最新のサーバーなど、さまざまなタイプ、サイズ、年代のマシンが共存している場合もあります。 Unix ボックスと巨大なメイン​​フレーム (急速に消えつつある品種ですが、まだ完全になくなったわけではありません)。

各サーバーは、メモリ、ストレージ スペース、プロセッサ、および入出力機能を備えた高性能コンピュータであり、パーソナル コンピュータの強化バージョンのようなものですが、より高速で強力なプロセッサとより多くのメモリを備えています。そして通常、自宅で使用するモニター、キーボード、またはその他の周辺機器はありません。モニターは、サーバーおよび関連機器のグループを監視するために、近くまたは別の制御室の中央の場所に存在する場合があります。

特定のサーバーが 1 つのタスク専用になったり、多数の異なるアプリケーションを実行したりする場合があります。コロケーション データ センターの一部のサーバーは特定のクライアント専用です。物理サーバーではなく仮想サーバーもあります (必要な物理サーバーの数を削減する新しいトレンド)。また、インターネット経由で何かをリクエストすると、多くのサーバーが連携してコンテンツを配信する可能性があります。

ネットワーキング、ソフトウェア、および環境制御

データ センターでは、外部との通信、およびデータ センター内のサーバーとその他の機器間の通信のための高帯域幅ネットワークを維持するために、ネットワークと通信機器が絶対に必要です。これには、ルーター、スイッチ、サーバーのネットワーク インターフェイス コントローラー (NIC) などのコンポーネントや、場合によっては何マイルにも及ぶケーブル配線が含まれます。ケーブル配線には、ツイストペア (銅線)、同軸 (銅線も)、光ファイバー (ガラスまたはプラスチック) など、さまざまな形式があります。ケーブルの種類とそのさまざまなサブタイプは、データセンター内を情報が流れる速度に影響します。

配線もすべて整理する必要があります。天井から吊るされたトレイやラックの上部に取り付けられたトレイで頭上で実行されるか、高床の下で、場合によっては床下のトレイで実行されます。さまざまな配線を識別するために、色分けと綿密なラベルが使用されています。データセンターの上げ床には通常、ケーブルやその他の機器にアクセスするために持ち上げることができるパネルまたはタイルが付いています。床下に冷却装置や電源装置が収納される場合もあります。

その他の重要なデータセンター機器には、ストレージ デバイス (ハードディスク ドライブ、ソリッド ステート ドライブ、ロボットテープ ドライブなど)、無停電電源装置 (UPS)、バックアップ バッテリー、バックアップ発電機、その他の電力関連機器が含まれます。

データセンターには、温度と空気の質を管理するための機器も多数ありますが、方法や機器の種類はサイトによって異なります。これらには、ファン、エア ハンドラー、フィルター、センサー、コンピューター ルーム エアコン (CRAC)、チラー、水道管、水タンクなどが含まれます。一部のサイトでは、コンピュータ機器の過熱を防ぐために、プラスチックや金属の障壁を設置したり、煙突サーバー キャビネットなどを使用して熱気と冷気の流れを制御したりすることもあります。

そしてもちろん、これらすべてのハードウェアを実行するにはソフトウェアが必要です。これには、サーバー上で実行されるさまざまなオペレーティング システムやアプリケーション、作業を数百以上のマシンに分散できるようにする Google の MapReduce や Hadoop などのクラスタリング フレームワーク ソフトウェア、インターネット ソケット プログラムなどがあります。ネットワーク、システム監視アプリケーション、VMware などの仮想化ソフトウェアを制御して、物理サーバーの数を削減します。

データセンターが直面するいくつかの問題

データセンターでの監視は不可欠ですが、サーバー クラスターの近くに技術者が眠っている可能性はほとんどありません。停電や故障が発生した場合にスタッフに警告するデジタル システムが導入されています。

データセンターは、高速で中断のないサービスを提供することに努めています。機器の故障、通信や停電、ネットワークの混雑、その他データやアプリケーションへのアクセスを妨げる問題には、直ちに対処する必要があります。即時アクセスに対する絶え間ない需要により、データセンターは 24 時間年中無休で稼働することが期待されており、これにより多くの問題が発生します。

データ センターのネットワーク ニーズは、たとえば従業員でいっぱいのオフィス ビルのネットワーク ニーズとは大きく異なります。データセンター ネットワークは発電所です。 Google の光ファイバーネットワークは、家庭用インターネット サービスよりも 200,000 倍も高速にデータを送信します。しかしその後、Google は、他の多くのサービスの中でも、毎日 30 億件を超える検索エンジンリクエストを処理し、何十億もの Web ページのインデックスを作成し、何百万もの YouTube ビデオをストリーミングし、何億ものユーザーの電子メールを処理および保存しなければなりません 。

Google ほど多くのトラフィックを抱えている企業はほとんどありませんが、すべてのデータセンターの使用量は今後ますます増加するでしょう。帯域幅を増やし、信頼性を維持するには、ネットワークをスケールアップする機能が必要です。サーバーについても同様で、データセンターの容量を増やすためにスケールアップできます。既存のネットワークは、フローを適切に制御することで輻輳に対処できる必要があります。そして、流れを妨げているものはすべて根絶する必要があります。ネットワークの速度は、最も遅いコンポーネントと同じ速度になります。顧客とのサービス レベル アグリーメント (SLA) も満たさなければなりません。これには、多くの場合、スループットや応答時間などが含まれます。

失敗する可能性のあるポイントはいくつかあります。サーバーやネットワーク機器が停止したり、ケーブルが故障したり、電力や通信などの外部からのサービスが中断される可能性があります。発生した問題を監視し、対応し、スタッフに通知するためのシステムを導入する必要があります。大規模な障害が発生した場合には災害復旧計画が非常に重要ですが、軽微な問題にも対処する必要があります。

緊急事態への計画とセキュリティの維持

1 つのエリアでサーバーまたはネットワーク機器に障害が発生した場合に、トラフィックを再ルーティングするようにシステムを設定できます。また、ネットワークとサーバー上で作業を均等に分散することでトラフィックの負荷を分散し、輻輳やボトルネックを防ぐこともできます。データのバックアップ、システムの冗長性、適切なバッテリー バックアップなども、停電が発生した場合の作業を容易にします。 Google はあらゆるデータを 2 つ以上のサーバーに保存しており、本当に重要なデータはデジタル テープにバックアップされています。データ センターでは、負荷分散と冗長性を高めるために、複数のインターネット サービス プロバイダー (ISP) のサービスを利用していることがよくあります。企業に複数のデータセンターがある場合、完全な災害が発生した場合、トラフィックが完全に別の施設にルーティングされることもあります。

物事をスムーズに実行し、最新のテクノロジーを維持するには、機器とソフトウェアを定期的にアップグレードして交換する必要があります。古いシステムも、置き換えられるまでサポートする必要がありますが、置き換えられるのは、システムが廃止されるかなり前に実現されることが望ましいです。データセンターには、古い機器の交換や新しいテクノロジーの導入をできるだけ簡単に行えるインフラストラクチャが必要です。

データセンターでは多くの機密情報や専有情報を扱うことが多いため、サイトは物理的にもデジタル的にも安全である必要があります。ゲート、セキュリティドア、警報器、セキュリティスタッフがいる場合があります。一部の企業は、データセンターの場所だけでなく、企業秘密となる可能性のある機器や設計機能を開示することを嫌がります。ハードドライブに障害が発生して廃棄する必要がある場合、データが悪者の手に渡らないように、ハードドライブは消去され、物理的に破壊されることがあります。ネットワークには、電子的な侵入者/ハッカーを防ぐためにファイアウォールやその他の方法などのセキュリティが必要です。

データセンターには、人や機器を保護するために、火災警報器、スプリンクラー、その他の消火システムなどの緊急設備も必要です。サーバー、ファン、その他のデバイスは多量の騒音を発生するため、耳の保護が必要になります。また、多量の熱が発生するため、他の従業員や機器の安全対策が必要になります。

冷却と電力の問題

そのコンピューティング能力の副産物でしょうか?熱。ラップトップがどれくらい熱くなるかを考えてから、単一のサーバー ルームでどれだけのコンポーネントが実行されているかを考えてください。

データセンターは環境を厳密に制御し、稼働を維持するために大量の電力を摂取または生成する必要があります。そしてこれらは高価です。

サーバーやその他の機器は極端な温度ではあまり性能が良くないため、ほとんどのデータセンターには巨大な冷却システムと空気流システムがあり、大量の電力と場合によっては水を消費します。環境条件を監視して調整できるように、センサーを設置する必要があります。

問題は温度だけではありません。湿度などの要因を抑制する必要があります。 2011年、 Facebookはデータセンターの1つでデジタル型ではなく実際のクラウドを構築したが、その結果、建物内の雨により一部のサーバーが再起動し、電源がショートした。その結果、建物管理システムを変更し、サーバーの耐候性を少し高めました。

多くの場合、サーバーのラックは、エアフローと温度をより効率的に制御するために、すべてのサーバーが互いに向かい合うか、またはすべてのサーバーが互いに反対側を向く通路を形成する列に配置されます。彼らが面している通路はクールアイルであり、ホットアイルの空気はそれに応じて送られます。

電力消費も大きな懸念事項です。これらの施設は適切な電力に常にアクセスできることが絶対に必要であり、独自の変電所を備えている施設もあります。データセンターのエネルギー効率を判断するために使用される指標は、電力使用効率(PUE) です。これは、純粋に計算目的で、総エネルギー使用量をエネルギー使用量で割った計算です。 Yahoo、Google、Facebook の PUE スコアは、一部の大規模データセンターでは 1.1 または 1.2 程度ですが、この業界では 2.0 が一般的です。つまり、エネルギーの半分はコンピューティングに使われ、残りの半分は他のタスクや無駄に使われます。コンサルティング会社マッキンゼー・アンド・カンパニーによると、平均的なデータセンターは実際には計算作業に電力の 6 ~ 12 パーセントしか使用しておらず、残りは次のトラフィックの急増を待つ間にアイドリング状態で失われており、これはおそらくリソースの過剰プロビジョニングが原因であることがわかりました。遅延やダウンタイムへの恐れ 。

データセンターの電力やその他のリソースのニーズを削減するために、多くの取り組みが行われています。サーバー ルームはかつては華氏 60 度 (摂氏 15.6 度) 程度に保たれていましたが、よりエネルギー効率の高いデータセンターでは、少なくとも涼しい通路では華氏 80 度 (摂氏 26.7 度) 程度に保つ傾向にあります。ただし、すべての人がこれを採用しているわけではありません。練習する 。サーバーはこの温度では問題なく動作するようで、必要な冷却関連の電力も少なくなります。

電力を大量に消費する空調ユニットやチラーを多数稼働させるのではなく、外気を取り入れて外気冷却を使用する傾向が高まっています。もう 1 つの傾向は、冷却用途にリサイクルできるすぐに利用できる水源の近くにデータ センターを配置することです。たとえば、フィンランドにある Google のデータ センターでは海水を使用しています。もう 1 つは、寒冷地にデータセンターを配置することです。

実際のコンピューティング機器の変更も役立ちます。データセンター内の多くのコンポーネントはエネルギーを漏洩します。つまり、使用される電力の一部は実際の処理に使用されず、無駄になります。古いサーバーをよりエネルギー効率の高い新しいモデルに置き換えることは、明らかに効果があります。ただし、必要な電力が少なくなるように機器を再設計することもできます。ほとんどのデータセンターは従来の既製のサーバーやその他の機器を使用していますが、Google と Facebook はどちらもカス​​タマイズされたサーバーを使用しています。 Google は、グラフィックス カードなどの不必要なコンポーネントを省略し、電源と電圧レギュレータでの電力損失を最小限に抑えるように設計されています。メーカーのロゴが入ったパネルは、コンポーネント間の空気の流れを良くするために省略されており、同社は一部のネットワーク機器を自社で製造しています。

さらに、プロセッサーとファンが不必要なときに速度を低下させることもできます。サーバーの効率が高くなると、放熱も少なくなり、冷却に必要な消費電力がさらに削減される傾向があります。低電力の ARM サーバーは、もともとモバイル デバイス用に作られ、サーバー用に再設計されたもので、データセンターにも導入されています。

アプリケーションの使用状況は、さまざまなソフトウェアや Web アプリケーションでいつ何が行われているかに応じて変動し、それぞれに必要なリソースが異なります。アプリケーションのリソース管理は、効率を高め、消費量を削減するために重要です。ソフトウェアは、システム アーキテクチャでより効率的に動作するようにカスタム作成できます。サーバー仮想化では、実行中のサーバーの数を減らすことで電力消費も削減できます。

環境への影響とデータセンターの将来

これらの問題は、データセンターを構築および運営する企業だけの問題ではなく、周囲のコミュニティや地球全体の問題でもあります。

米国のデータセンターは 2006 年に 610 億キロワット時の電力を消費し、その費用は約 45 億ドルと推定されています。伝えられるところによれば、それらは世界中の電力消費量の 1 ~ 2% を占めています。一部のデータセンターは、24 時間年中無休でフル稼働しているため、消費電力の 90% 以上を無駄にしていると考えられています 。この大量消費は環境に悪影響を与えることは間違いありません。

ある調査会社は、情報通信技術産業が世界中の CO2 排出量の約 2% を占めていることを発見しました 。また、一部のデータセンターの発電機は大気汚染の原因となる排気ガスを排出しており、多くの場合、きれいな空気の規制を満たしていません。

データセンターの追跡を特別に任務とする政府機関がないため、この業界の変化を指示するのは簡単ではありません。しかし、Google、Facebook、Microsoft、 Apple 、Yahoo、eBay を含む多くの大手企業は、エネルギー効率の高い設計の作成、地域資源の賢明な利用、カーボンニュートラルへの努力など、センターの資源消費量の削減に向けて大きな進歩を遂げています。場合によっては、天然ガス、太陽エネルギー、水力などのより環境に優しい資源を使用して発電することもあります。

効率性、環境への配慮、費用対効果、導入の容易さを目指して、絶え間ない革新が行われています。そして最近では、Google が自社のデータセンター設計や、ハードウェア設計を一般の人々と共有する Facebook の Open Compute のようなプロジェクトについて新たにオープンになったことにより、データセンター大国は自社のイノベーションの一部を公開し、小規模なデータセンター (およびその他のデータセンター) が利用できるようにしています。私たち)は恩恵を受けるかもしれません。

私たちのオンライン存在による影響を完全に見積もるのは困難です。なぜなら、私たち自身のコンピューターや、データセンターとの間で情報をやり取りする他のネットワークを方程式に追加する必要があるからです。しかし、最大かつ最も明らかな原因のエネルギー効率と持続可能性に注意を払わなければ、クラウドは汚染物質や温室効果ガスの雲を生成し続ける可能性があります。

落とし穴はあっても、データセンターはどこにも行きません。情報やメディア コンテンツへの常時かつ瞬時のアクセス、大量のデータの共有、自分のマシンからクラウドへの移動、複数のデバイスからのアクセス、電子メール、写真、データの永続的な保存に対する私たちの欲求。他のデジタルデータはそれらを保持します。そして、それらはおそらく、さらに有線の未来への道を開くでしょう。

著者のメモ: データセンターの仕組み

今日の有線世界を形作っている巨大なデータセンターの規模と範囲の広さに驚かされます。私はほとんどの時間オンラインにいるので、彼らにも感謝しています。夜の特定の時間に家に閉じこもることなく、いつ、どこで何を、どこで番組を見るかを選択できるようにすることが、20年前の私の夢でした。私が今しているようなどんちゃん騒ぎや、YouTube のような代替エンターテイメント ソースについては想像もしていませんでした。しかし、私たちの最新のサーバー ファームは、これらを可能にしただけでなく、大規模なオープン オンライン コース (MOOC) やその他の教育リソースなど、エンターテイメント関連以外のことも可能にしました。

しかし、その結果が心配です。天然資源を保護し、不必要に大量の排出を防ぐために、大手企業の一部がエネルギー効率とカーボンニュートラルに力を入れていることを嬉しく思います。私たちは、インターネットが提供する、コミュニケーションや教育を通じて世界をより良くするために利用できるツールが、結果的に私たちを滅ぼすことを望んでいません。私は娯楽よりも住みやすい気候が好きです。 Minecraft を遊び終えた直後に、そう誓います。